Descargar

Morfología de la Robótica (página 3)

Enviado por Pablo Turmero


Partes: 1, 2, 3
edu.red

40 Sensores externos (vii) Fuerza y par Galgas extensiométricas: se relacionan las deformaciones producidas por la aplicación de fuerzas con las variaciones de resistencia eléctrica. Táctiles Sensor sencillo, pasivo. Comunes como fin de carrera. Principio básico: Circuito abierto/cerrado (pasa corriente, no pasa) Necesitan poco procesamiento a nivel electrónico Usos variados: Contacto: el robot choca con algo. Límite: un dispositivo ha alcanzado el máximo de su rango (ej. Pinza abierta) Contador: cada vez que se abre/cierra (ej. Contador de vueltas)

edu.red

41 Sensores externos (viii) Visión artificial Uso de cámaras como sensores Imitan los ojos (que son mucho más sofisticados). Principio: Luz reflejada en los objetos pasa a través de una lente (iris) en un “plano de imagen” (retina) formando una imagen que puede ser procesada. Ese procesamiento suele ser muy costoso computacionalmente. Aunque hoy día es abordable con los nuevos microprocesadores. Campo tan complejo que tradicionalmente se ha considerado como un campo de la informática (como la IA).

edu.red

42 Visión artificial (i) Funcionamiento biológico La luz reflejada en los objetos incide en la retina produciendo el plano de imagen. La retina tiene muchas terminaciones nerviosas fotosensibles: conos y bastones. Llamaremos imagen a la proyección del plano sobre las terminaciones. Terminaciones unidas a nervios que realizan el procesamiento previo (visión preliminar). Los nervios pasan la información al cerebro que realiza el procesamiento de alto nivel. La mayor parte del cerebro humano se dedica al procesamiento de la visión.

edu.red

43 Visión artificial (ii) Visión artificial digital En vez de terminaciones se usan cámaras CCD (Charge Coupled Devices) El receptor CCD es un mosaico de diodos sensibles a la luz: cuanto más brillante es la luz recibida, más elevada es su carga eléctrica. Este mosaico es sensible a la luz, pero insensible a los colores. Para recuperar los colores de una imagen, antes de que la luz llegue al diodo se le obliga a pasar por filtros de los colores. El plano se suele dividir en partes iguales (píxeles, contracción de los términos ingleses “picture element”) típicamente en forma rectangular Número típico de pixeles: 800×600, 1752×1168, hasta 4096×4096. El valor de cada píxel es proporcional a cantidad de luz reflejada por la parte de la superficie del objeto que se proyecta sobre ese píxel. Depende: Material del objeto. Posición de las luces en la escena. Reflejo de otros objetos en la escena. El valor de cada píxel depende de la reflexión especular (reflejada directamente) y la reflexión difusa (absorbida y reemitida por el objeto).

edu.red

44 Tratamiento de imágenes (i) Visión preliminar: detección de bordes ¿Qué es un borde? Cambio brusco en la intensidad. Aproximación preliminar: Definir como curva y buscar áreas donde la derivada sea grande Produce puntos espúreos: ruido No permite distinguir sombras de bordes de objetos físicos Eliminar ruido: convolución elimina los puntos aislados La convolución aplica un “filtro matemático” a la imagen (de hecho para detectar bordes se convolucionan varios filtros en varias direcciones).

edu.red

45 Tratamiento de imágenes (ii) Una vez determinados los bordes se trata de distinguir “cosas” Visión basada en modelos: Segmentación: proceso de dividir la imagen en partes que corresponden a objetos. Comparar con las posibles combinaciones de bordes con modelos previos (muchos ángulos, escalas). Proceso muy costoso. Visión basada en movimiento: Los objetos físicos responden a leyes físicas conocidas. Saber cuanto movemos la cámara entre dos imágenes consecutivas en relación a la escena. Saber que nada se mueve en la escena entre las dos imágenes. Permite restar las dos imágenes para encontra objetos.

edu.red

46 Tratamiento de imágenes (iii) Visión binocular: La visión humana es estereoscópica: detecta las distancias aproximadas comparando y procesando la visión de los dos ojos Carnívoros: ojos en la misma dirección. Herbívoros: ojos opuestos. Tener dos cámaras, conociendo la diferencia entre ellas Tomar dos imágenes a la vez. Restar una de la otra Uso de texturas Una misma textura tiene la misma intensidad. Asumir que texturas uniformes corresponden al mismo objeto. Conclusiones: Es difícil reconocer objetos nuevos. El movimiento nos ayuda a distinguir: carnívoros.

edu.red

47 Tratamiento de imágenes (iv) Visión en tiempo real Simplificar el problema de la visión artificial para uso p.e. en robótica industrial (entorno prefijado). Técnicas: Usar el color: buscar sólo por determinado color. Usar geometrías simples (piezas, herramientas, etc.) Reducir la imagen: Usar una línea en vez de una matriz (linear CCD). Cámaras simplificadas: cámaras IR para detectar personas. Uso de información del entorno: uso de las líneas de una carretera. Aplicación: conducción automática. Se pueden construir robots sin visión, como siempre depende de la tarea. El abaratamiento de CPU está extendiendo el uso de la visión artificial.

edu.red

48 Integración de sensores Fusión de información sensores Diferentes sensores devuelven diferentes tipos de información No es precisamente sencillo fusionar sensores: campo de investigación actual (ej. Neuronal) Suele requerir gran capacidad de procesamiento de información Puede llevar a conclusiones peligrosas

Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente