5.1.- Ajuste de plantillas Esquema genérico: Extracción características DTW Plantillas Vectores característicos Puntuaciones por palabra P1 P2 P3 … PN Elección Voz
5.1.- Ajuste de plantillas Ajuste de plantillas: Comparar los vectores de características obtenidos con las plantillas (vectores característicos de las palabras del vocabulario) El que menor distancia obtiene es la palabra elegida
Problema: Las palabras no duran siempre lo mismo Ej: se puede hablar más despacio o más deprisa
Solución: DTW
5.1.- Ajuste de plantillas DTW: Para cada plantilla del vocabulario intenta encontrar el mejor alineamiento entre los dos patrones a comparar
Distancia entre dos patrones: Distancia menor de todos los caminos posibles
Distancia de un camino: Suma de las distancias parciales a lo largo de dicho camino
5.1.- Ajuste de plantillas Puntuación de distorsión Tiempo (Plantilla) Tiempo (Entrada) Vectores Característicos
5.1.- Ajuste de plantillas Notación: d(i,j): Distancia euclidea entre dos vectores de características g(i,j): Distancia acumulada
Reglas de cálculo de las distancias: El camino empieza en (1,1) y termina en (M,N)
5.1.- Ajuste de plantillas Coste computacional:
El coste es cuadrático con el número de segmentos de la palabra
Además hay que calcular la distancia con todas las palabras del vocabulario: coste cúbico
Válido para vocabularios pequeños
5.1.- Ajuste de plantillas Restricciones: Reducción del coste (Gp:) I,J (Gp:) j=0.5i-(0.5I+J) (Gp:) j=2i-(2I-J) (Gp:) j=2i-1 (Gp:) j=0.5i+0.5 (Gp:) Área válida (Ventana de ajuste) (Gp:) i (Gp:) j
5.1.- Ajuste de plantillas Umbral de decisión: Falso rechazo Falsa aceptación
5.1.- Ajuste de plantillas Ventajas: Algoritmo sencillo de implementar
Inconvenientes: Funciona con palabras aisladas Dependiente del locutor Vocabularios reducidos De cada palabra debe haber varias realizaciones para paliar la variabilidad intralocutor
5.2.- Modelos ocultos de Markov Un HMM puede verse como una máquina de estados finitos estocástica. A: 0.5 B: 0.5 A: 0.25 B: 0.75 0.35 0.65 1.0
5.2.- Modelos ocultos de Markov En cada transición se genera el símbolo de salida asociado al estado La elección de la transición está gobernada por distribuciones de probabilidad En reconocimiento de voz cada estado modela un segmento (dífono, semisilaba, …)
5.2.- Modelos ocultos de Markov Reconocimiento de palabras aisladas: Cada HMM modela una palabra Los lazos dentro del mismo estado representan la continuación en el tiempo de un mismo suceso acústico S1 S2 (Gp:) S3
SN
5.2.- Modelos ocultos de Markov Elementos de un HMM: Numero de estados: N Conjunto de posibles estados:
Distribución de probabilidad del estado inicial
Las probabilidades de transición entre estados:
Siendo qn el estado en el que nos encontramos en el instante (segmento) n
5.2.- Modelos ocultos de Markov Matriz de probabilidades de transición entre estados: Es independiente del instante de tiempo n : Probabilidad de transición del estado i al j (Gp:) S A (Gp:) A (Gp:) L
5.2.- Modelos ocultos de Markov Para cada estado se necesita la distribución de probabilidad de las observaciones: (Gp:) S A (Gp:) A (Gp:) L
5.2.- Modelos ocultos de Markov Entrenamiento: Para cada palabra del vocabulario hay que calcular los parámetros del modelo Es necesario tener suficientes muestras para que los parámetros calculados sean representativos
Reconocimiento: A partir de una secuencia de observaciones se evalúa cual de todos los HMM presenta mayor probabilidad de haber generado la secuencia
5.2.- Modelos ocultos de Markov Entrenamiento de un HMM: Estima de los parámetros (probabilidades)
Generalmente se emplean dos técnicas:
Algoritmo de las k-medias: para estimar las probabilidades desde cero
Algoritmo de Baum-Welch: para refinar una estimación ya hecha
5.2.- Modelos ocultos de Markov Ejemplo: Reconocimiento (Gp:) S1 A (Gp:) S2 (Gp:) S3
Sn-1 (Gp:) Sn
VOZ Extracción de características Alinear vectores con estados y sumar las puntuaciones
5.2.- Modelos ocultos de Markov ¿Por qué modelos ocultos?
Un HMM lleva asociado 2 procesos estocásticos Uno no es observable: Es la secuencia de estados por la que se ha pasado El segundo es observable y está relacionado con el anterior.
Ejemplo: Urnas con bolas de colores
5.3.- Redes Neuronales NN: Neural Networks Son una simulación abstracta del sistema nervioso
Redes neuronales biológicas: Las neuronas y sus conexiones son la clave del procesado de la información Dentritas (entradas) Axón (salida) Cuerpo
Página anterior | Volver al principio del trabajo | Página siguiente |