Un sistema de visión artificial puede ver en la oscuridad total como si fuera de día, según los investigadores

Añadir a tus IAs favoritasQuitar de tus favoritasQuitar de favoritos 0
Puntuación0

2023-08-06 17:50:03

Utilizando datos térmicos e infrarrojos combinados con procesamiento de IA, un nuevo sistema visual puede ver su entorno en total oscuridad como si fuera de día.

HADAR (heat-assisted detection and ranging) combina la física térmica, las imágenes infrarrojas y el aprendizaje automático para allanar el camino hacia una «percepción automática totalmente pasiva y consciente de la física», según el equipo de investigación de la Universidad de Purdue.

Los sensores tradicionales, como el LiDAR, el radar y el sonar, tienen problemas de interferencias en la señal y riesgos para la seguridad ocular. Las cámaras de vídeo, por su parte, funcionan mal o no funcionan en condiciones de poca luz como la noche, la niebla o la lluvia. Sin embargo, proporcionan una imagen realista del entorno.

Los sistemas de imagen térmica, por su parte, funcionan bien en la oscuridad y son en gran medida independientes de las condiciones meteorológicas y de la luz. Pero las imágenes captadas son borrosas, carecen de profundidad y sólo proporcionan una imagen abstracta del entorno.

Sistema de visión robusto para robots y vehículos autónomos que sigue siendo demasiado lento y voluminoso para el uso cotidiano

El sistema HADAR pretende combinar los mejores elementos de ambas tecnologías de visualización: Los datos visuales del robusto sistema de imagen térmica se enriquecen con los datos de profundidad de un sistema de infrarrojos, y se utiliza inteligencia artificial para añadir más detalle, profundidad y textura.

Esto permite a HADAR ver el mundo con la misma claridad en la oscuridad total que a la luz del día, según el equipo de investigación. También puede detectar características físicas más allá del alcance de la visión humana.

Pero antes de que el HADAR pueda incorporarse a coches o robots de uso cotidiano, el sistema debe hacerse más pequeño y rápido. Actualmente, sólo puede captar una imagen por segundo.

Para obtener una imagen razonablemente fluida para el ojo humano, se necesitan al menos 24 fotogramas por segundo; para aplicaciones relacionadas con la seguridad, como los coches de conducción autónoma, sería mejor 30 fotogramas por segundo o más. Además, el sistema sigue siendo demasiado caro, afirma Fanglin Bao, investigador que ha participado en su desarrollo.

Además de la conducción autónoma y la robótica, el equipo de investigadores ve posibles aplicaciones en agricultura, defensa, sanidad, geociencias y vigilancia de la vida salvaje.

La investigación cuenta con el apoyo de la agencia de defensa estadounidense DARPA, entre otros. Se está tramitando una solicitud de patente.

Deja una opinión

      Deje una respuesta

      🤖 AI MAFIA
      Logo