Descargar

Reconocimiento de voz (Presentación Powerpoint) (página 2)

Enviado por Pablo Turmero


Partes: 1, 2, 3
edu.red

5.1.- Ajuste de plantillas Esquema genérico: Extracción características DTW Plantillas Vectores característicos Puntuaciones por palabra P1 P2 P3 … PN Elección Voz

edu.red

5.1.- Ajuste de plantillas Ajuste de plantillas: Comparar los vectores de características obtenidos con las plantillas (vectores característicos de las palabras del vocabulario) El que menor distancia obtiene es la palabra elegida

Problema: Las palabras no duran siempre lo mismo Ej: se puede hablar más despacio o más deprisa

Solución: DTW

edu.red

5.1.- Ajuste de plantillas DTW: Para cada plantilla del vocabulario intenta encontrar el mejor alineamiento entre los dos patrones a comparar

Distancia entre dos patrones: Distancia menor de todos los caminos posibles

Distancia de un camino: Suma de las distancias parciales a lo largo de dicho camino

edu.red

5.1.- Ajuste de plantillas Puntuación de distorsión Tiempo (Plantilla) Tiempo (Entrada) Vectores Característicos

edu.red

5.1.- Ajuste de plantillas Notación: d(i,j): Distancia euclidea entre dos vectores de características g(i,j): Distancia acumulada

Reglas de cálculo de las distancias: El camino empieza en (1,1) y termina en (M,N)

edu.red

5.1.- Ajuste de plantillas Coste computacional:

El coste es cuadrático con el número de segmentos de la palabra

Además hay que calcular la distancia con todas las palabras del vocabulario: coste cúbico

Válido para vocabularios pequeños

edu.red

5.1.- Ajuste de plantillas Restricciones: Reducción del coste (Gp:) I,J (Gp:) j=0.5i-(0.5I+J) (Gp:) j=2i-(2I-J) (Gp:) j=2i-1 (Gp:) j=0.5i+0.5 (Gp:) Área válida (Ventana de ajuste) (Gp:) i (Gp:) j

edu.red

5.1.- Ajuste de plantillas Umbral de decisión: Falso rechazo Falsa aceptación

edu.red

5.1.- Ajuste de plantillas Ventajas: Algoritmo sencillo de implementar

Inconvenientes: Funciona con palabras aisladas Dependiente del locutor Vocabularios reducidos De cada palabra debe haber varias realizaciones para paliar la variabilidad intralocutor

edu.red

5.2.- Modelos ocultos de Markov Un HMM puede verse como una máquina de estados finitos estocástica. A: 0.5 B: 0.5 A: 0.25 B: 0.75 0.35 0.65 1.0

edu.red

5.2.- Modelos ocultos de Markov En cada transición se genera el símbolo de salida asociado al estado La elección de la transición está gobernada por distribuciones de probabilidad En reconocimiento de voz cada estado modela un segmento (dífono, semisilaba, …)

edu.red

5.2.- Modelos ocultos de Markov Reconocimiento de palabras aisladas: Cada HMM modela una palabra Los lazos dentro del mismo estado representan la continuación en el tiempo de un mismo suceso acústico S1 S2 (Gp:) S3

SN

edu.red

5.2.- Modelos ocultos de Markov Elementos de un HMM: Numero de estados: N Conjunto de posibles estados:

Distribución de probabilidad del estado inicial

Las probabilidades de transición entre estados:

Siendo qn el estado en el que nos encontramos en el instante (segmento) n

edu.red

5.2.- Modelos ocultos de Markov Matriz de probabilidades de transición entre estados: Es independiente del instante de tiempo n : Probabilidad de transición del estado i al j (Gp:) S A (Gp:) A (Gp:) L

edu.red

5.2.- Modelos ocultos de Markov Para cada estado se necesita la distribución de probabilidad de las observaciones: (Gp:) S A (Gp:) A (Gp:) L

edu.red

5.2.- Modelos ocultos de Markov Entrenamiento: Para cada palabra del vocabulario hay que calcular los parámetros del modelo Es necesario tener suficientes muestras para que los parámetros calculados sean representativos

Reconocimiento: A partir de una secuencia de observaciones se evalúa cual de todos los HMM presenta mayor probabilidad de haber generado la secuencia

edu.red

5.2.- Modelos ocultos de Markov Entrenamiento de un HMM: Estima de los parámetros (probabilidades)

Generalmente se emplean dos técnicas:

Algoritmo de las k-medias: para estimar las probabilidades desde cero

Algoritmo de Baum-Welch: para refinar una estimación ya hecha

edu.red

5.2.- Modelos ocultos de Markov Ejemplo: Reconocimiento (Gp:) S1 A (Gp:) S2 (Gp:) S3

Sn-1 (Gp:) Sn

VOZ Extracción de características Alinear vectores con estados y sumar las puntuaciones

edu.red

5.2.- Modelos ocultos de Markov ¿Por qué modelos ocultos?

Un HMM lleva asociado 2 procesos estocásticos Uno no es observable: Es la secuencia de estados por la que se ha pasado El segundo es observable y está relacionado con el anterior.

Ejemplo: Urnas con bolas de colores

edu.red

5.3.- Redes Neuronales NN: Neural Networks Son una simulación abstracta del sistema nervioso

Redes neuronales biológicas: Las neuronas y sus conexiones son la clave del procesado de la información Dentritas (entradas) Axón (salida) Cuerpo

Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente