Descripción de los tres primeros modos de variación en falange proximal.
SEGMENTACIÓN DE LAS FALANGES. Trabajaremos sobre una imagen de gradientes suavizada. Mediante una plantilla rectangular localizamos la orientación del dedo ?ref. Introducimos una transformación de rotación de forma que la curva evolucione hacia una orientación favorable. En cada iteración buscamos en torno a un segmento perpendicular al nudo, el mejor candidato cuyo gradiente de gris ??I?x,y?? sea máximo. La curva se contraerá o extenderá a través del modelo conservando la forma de la falange.
2.3 Modelos de personas.
2.3 Modelos de personas.
2.4 Integración de modelos. Integración de modelos (P. Remagnino):
Generación de modelos para coches y personas mediante PDM haciendo un PCA. Conocimiento de la geometría de la escena. Calibración de la cámara y obtención de un plano del suelo. Mediante transformaciones proyectar cada objeto sobre el plano suelo. Problema que resuelve: Interacción entre diferentes modelos en la misma escena. Resolución de oclusiones parciales. Estas generan distorsiones en las medidas y perdidas de las características del objeto a seguir.
2.4 Integración de modelos.
2.4 Integración de modelos.
3. Estimación de estados para sistemas lineales
3.1 Conceptos básicos. El problema de estimar un parámetro x es el siguiente. Supongamos que j representa un índice de tiempos discretos y que la medida de observaciones es:
son realizadas en presencia de ruido aleatorio w(j). Para cada k medidas encontramos una función estimación:
donde Zk es el conjunto de estimaciones del parámetro x en ese instante. Hay dos modelos para parámetros invariantes en el tiempo: No aleatorios, en donde hay un valor verdadero x desconocido. Aleatorios, en donde la variable es aleatoria con una función densidad de probabilidad a priori p(x). En el primer caso buscamos estimar el valor de x cuando k ? ?. En el segundo caso, dado una función densidad de probabilidad PDF a priori del parámetro, se puede obtener su correspondiente PDF a posteriori utilizando la regla de bayes:
3.1 Conceptos básicos Sin embargo, si el parámetro es no aleatorio sus funciones PDF a priori y a posteriori no están definidas por lo que solo tenemos la función de probabilidad:
Un método de estimación de parámetros no aleatorios es estimar la probabilidad máxima o maximum likelihood (ML).
La correspondiente estimación aleatoria es la máxima probabilidad a posteriori MAP.
Ej: z=x + w. Asumiendo que x es una constante no conocida y w es N(0,?02) tenemos:
3.1 Conceptos básicos La probabilidad a priori en este caso es:
Asumiendo que x es independiente de w, la posteriori PDF será:
Estimación por mínimos cuadrados:
Otro procedimiento de estimación común para parámetros no-aleatorios, son el método de mínimos cuadrados LS. Sea
La estimación de x para cada instante k es minimizar la suma de los errores al cuadrado.
3.1 Conceptos básicos. En el caso de parámetros aleatorios, esto supone minimizar el error cuadrático medio MMSE.
que supone minimizar la estimación de la varianza
cuya solución es la media condicional
según los valores sean continuos o discretos. La cualidad de un estimador es medida mediante la varianza. Para un estimador de un parámetro no aleatorio x con valor verdadero x0, la varianza es
para un estimador con parámetro aleatorio x ,a varianza es la misma que la expresión anterior sustituyendo x0 por x.
3.1 Conceptos básicos. Consistencia: Un estimador no aleatorio se dice que es consistente si
Eficiencia: De acuerdo con el teorema de baja banda de Cramer-Rao (CRLB), el error cuadrático medio correspondiente al estimador de un parámetro no puede ser más pequeño que una cierta cantidad relacionada con la pdf.
J es la información de Fisher y x0 es el valor verdadero de x. Analogamente para una variable x aleatoria. J se interpreta a veces como la inversa de la matriz de covarianza.
3.2 Estimadores lineales. Caso estático. Consideremos dos variables aleatorias x y z con distribución gaussiana. Sea
La notación indica una variable y con medias y matriz de covarianza
donde
entonces el mínimo error cuadrático medio MMSE del estimador x en términos de z es la media condicional de x dado z,
y el correspondiente error condicional de la matriz de covarianza es
3.2 Estimadores lineales. Caso estático. Estimación lineal del mínimo error cuadrático medio: Sean x y z dos variables aleatorias tal que: Consideremos el mejor estimador lineal MMSE En una estimación óptima se espera que:
Sustituyendo b, el error de estimación es:
Por otro lado, por ortogonalidad:
Sustituyendo A en la ecuación llegamos a la ecuación (1). Análogamente, el error de la matriz de covarianza:
que corresponde con la ecuación(2).
3.2 Estimadores lineales. Caso estático Ajuste polinómico con ruido en las medidas: Consideremos el siguiente polinomio:
donde aj son los parámetros a estimar. Las medidas con ruido en la posición pueden ser descritas por z(i)=H(i)a+w(i), i= 1,…,k, donde el vector de parámetros a=(a0 a1 …an) y H(i)=(1 ti ti2/2! …tin /n!). Consideraremos w(i) un ruido no correlacionado con media cero y varianza ?2 de acuerdo a la covarianza Rk = ?2 I, donde I es la matriz identidad.
Por otro lado
Combinando ambas expresiones llegamos a la siguiente estimación:
3.2 Estimaciones lineales. Caso estático.
grado n=1 con aceleración constante
3.2 Estimaciones lineales. Caso estático.
Izquierda n=2 y derecha n=3, y aceleración constante.
3.3 Filtro de kalman. Sea x(k) el vector de estado en el sistema dinámico en el tiempo k, y u(k) un vector de entradas conocido o control de la señal. La propagación del estado en el tiempo tk+1 puede expresarse como:
donde v(k) es un ruido gaussiano de media cero y matriz de covarianza Q(k). Supongamos una serie de observaciones o medidas en el tiempo, cuya ecuación es:
donde w(k) es el ruido gaussiano de una secuencia de media cero y matriz de covarianza R(k) y que no esta correlacionado con v(k). El estado inicial es una gaussiana de media x^(0|0) y covarianza P(0|0). En cada paso la estimación es x^(k|k) ? E(x(k)|Zk), donde Zk={z(j), j =1…k) las medidas en función de k. El error condicional asociado al matriz de covarianza es:
El filtro de kalman minimiza en el estado de tiempo tk el error condicional asociado a esta matriz de covarianza.
3.3 Filtro de kalman. State prediction:
Measurement prediction:
Innovation:
State prediction covariance:
Innovation covariance:
Filter Gain:
Updated state estimate:
Updated state covariance:
3.3 Filtro de Kalman
3.3 Filtro de kalman Ejemplo simulado de filtro de kalman: Ecuación de estado xk+1= Akxk+wk donde wk es un ruido gaussiano. Consideramos como variables la posición y la velocidad.
ak es una aceleración aleatoria variable con el tiempo y T es el tiempo entre k y k+1. Supongamos que medimos la posición p a través de la ecuación zk = pk + vk, donde vk es un ruido aleatorio. Sea la aceleración 0.5 pies/s2 y que la posición puede variar con un error de 10 pies ( desviación estandar) Tomaremos como parámetros alpha=1, dt =0.5 y duración 30.
Ej:( código en matlab) www.innovatia.com/software/papers/kalman.htm
3.3 Filtro de kalman.
3.3 Filtro de kalman function kalman(alpha, duration, dt) % alpha = forgetting factor (alpha >= 1) % duration = length of simulation (seconds) % dt = step size (seconds)
measnoise = 10; % position measurement noise (feet) accelnoise = 0.5; % acceleration noise (feet/sec^2) a = [1 dt; 0 1]; % transition matrix c = [1 0]; % measurement matrix x = [0; 0]; % initial state vector xhat = x; % initial state estimate Q = accelnoise^2 * [dt^4/4 dt^3/2; dt^3/2 dt^2]; % process noise covariance P = Q; % initial estimation covariance R = measnoise^2; % measurement error covariance Inn = zeros(size(R)); % set up the size of the innovations vector pos = []; % true position array poshat = []; % estimated position array posmeas = []; % measured position array
Counter = 0; % contador de ciclos.
3.3 Filtro de kalman for t = 0 : dt: duration, Counter = Counter + 1; ProcessNoise = accelnoise * [(dt^2/2)*randn; dt*randn]; % Simulate the process x = a * x + ProcessNoise; MeasNoise = measnoise * randn; % Simulate the measurement z = c * x + MeasNoise; Inn = z – c * xhat; % Innovation s = c * P * c' + R; % Covariance of Innovation K = a * P * c' * inv(s); % Gain matrix xhat = a * xhat + K * Inn; % State estimate P = a * P * a' + Q – a * P * c' * inv(s) * c * P * a'; % Covariance of prediction error % Save some parameters in vectors for plotting later pos = [pos; x(1)]; posmeas = [posmeas; z]; poshat = [poshat; xhat(1)]; end % Plot the results t = 0 : dt : duration; t = t'; plot(t,pos,'r',t,poshat,'g',t,posmeas,'b'); grid; xlabel('Time (sec)'); ylabel('Position (feet)'); title('Kalman Filter Performance');
3.4 Modelos cinemáticos Modelo con velocidad constante: Consideraremos la aceleración nula x(t)=0. En la practica, la velocidad puede tener pequeños cambios debidos a ruido x(t)=?(t). El vector de estado será:
La velocidad vendrá dada por: donde La ecuación para tiempos discretos con intervalo T es:
donde
El proceso de ruido puede expresarse de la siguiente forma:
La covarianza de v(k) asumiendo E[?(t) ?(t)]=q ?(t-?) será:
3.4 Modelos cinemáticos Modelo con aceleración constante:
Filtro ?-?-?:
4.1 Filtro de kalman extendido (EKF). Consideremos un sistema con ecuación dinámica:
donde E[v(k)]=0, y E[v(k)v(k)]=Q(k)?kj. La medida es:
donde E[w(k)]=0, y E[w(k)w(k)]=R(k)?kj. Asumimos que el proceso y la medida del ruido no están correlacionados. En el caso lineal asumimos que:
donde tendrá asociada una covarianza P(k|k). Para obtener la predición del estado en el estado k+1 para el caso no lineal, se desarrolla en series de Taylor en primer y segundo orden, obteniendo la siguiente expresión:
donde ei es un vector base en coordenadas cartesianas. Eliminando términos altos, e introduciendo la matriz de covarianza P llegamos a la siguiente formulación:
4.1 Filtro de kalman extendido (EKF). Análogamente, puede obtenerse una expresión para la estimación de la covarianza:
En el caso de la predición de la medida para un filtro hasta segundas derivadas tenemos:
Y su correspondiente covarianza asociada sería:
Si comparamos con el caso lineal para el filtro de kalman, fx(k) hace el papel de la función F(k) y hx(k+1) hace el papel de la función H(k+1).
4.2. Filtro de partículas. Caso general:
4.2. Filtro de partículas.
4.3 Condensation. Se busca poder realizar estimaciones para propagaciones de densidad de probabilidad no gaussiana. Para ello generamos un conjunto de muestras s={s(1), …,s(N)} con probabilidades a priori ?={?(1),…,?(N)} y probabilidades acumuladas c={c(1),…,c(N)}. Las muestras son generadas aleatoriamente con distribución uniforme. La función de estimación de la certeza de la medida p(z|x) suele ser la desviación respecto a una gaussiana centrada en la media de la población en el caso de seguir un solo objeto. El sistema es aplicable al seguimiento de multiobjetos, si el criterio de medida es lo suficientemente general para detectar la existencia de los mismos. En ese caso se puede aplicar el teorema de bayes para obtener las probabilidades a posteriori de los pesos. La principal ventaja de esta técnica es que utiliza la distribución de probabilidad acumulada para decidir que muestras van a sobrevivir en cada iteración, concentrándose los pesos con mayor probabilidad en aquellas hipótesis que obtienen una mejor medida.
4.3 Condensation.
Kalman filter and Condensation
4.3 Condensation.
Página anterior | Volver al principio del trabajo | Página siguiente |