Sensores de imagen y visión con integración vertical para aplicaciones de inteligencia artificial

I+D+i en arquitecturas de sensores de imagen y visión con tecnologías de integración vertical.

Investigador principal

Ángel Rodríguez Vázquez

Sede

US

Tecnología

T1) IoT

T2) Robótia

T3) Realidad aumentada/virtual

Sector

2

Agentes agregados

Empresa: Teledyne-Anafocus (https://teledyne-anafocus.com)

OPI: Universidad de Sevilla

Resumen de la propuesta

I+D+i en arquitecturas de sensores de imagen y visión con tecnologías de integración vertical para afrontar los retos de la IA en sectores TIC, con el objetivo final de desplegar sensores de visión miniaturizados, de altas prestaciones y mínimo consumo, en el mayor número de sistemas, con énfasis en: IoT, Automoción, Robótica.

En concreto, se consideran tres arquitecturas: a) una basada en SPADs para de medición del tiempo de vuelo; b) una de alto rango dinámico que combina operación basada en eventos con formato de datos de salida de los APS estándar; c) una de bajo ruido y alta velocidad.

Objetivo del proyecto

Objetivos globales:

  • Píxeles y sensores que exploten la integración vertical para abordar retos no resueltos de la estrategia a medio término de Teledyne-Anafocus.
  • Arquitectura y disposición de los bloques (ADCs, TDCs, memorias, amplificadores, etc.) de los canales de lectura para optimizar el rendimiento con integración vertical e incrementar el paralelismo.
  • Avance en el desarrollo en varias fases de una tecnología de integración vertical que sea explotable a medio plazo por Teledyne-Anafocus.

Objetivos específicos:

  • Medida de tiempo-de-vuelo y captación de imágenes 3D.
  • Captación de escenas HDR a tasas de video, con respuesta adaptativa en función de los valores locales de iluminación, y sin degradación de la relación señal-a-ruido.
  • Captación de imágenes con muy bajos niveles de ruido, por debajo de 0.25erms, vía el uso de múltiples muestras correlacionadas y memorias locales.

Se integrarán  prototipos operacionales (nivel TRL7) de al menos un sensor de imagen completo basado en las arquitecturas de píxel estudiadas, con la idea de alcanzar los niveles TRL8 y TRL9, y llegar al mercado, en el plazo de dos años desde el comienzo del proyecto.

Resultados esperados, indicadores

Indicadores (esperados hasta el 31/12/2021)

  • Nuevo personal investigador (equivalente anual): 1 investigador pre-doctoral.
  • Patentes: al menos 1 patente con alcance europeo.
  • Nº contratos transferencia: 2 contratos de transferencia
  • Congresos: Participación en 6 congresos.
  • Publicaciones indexadas: Al menos tres publicaciones en revistas situadas en el primer cuartil (Q1-JCR) describiendo las arquitecturas de sensores propuestas.
  • Tesis doctorales: Una tesis doctoral focalizada en la temática del proyecto.

Justificación potencial impacto tecnológico del proyecto (TRL)

Las actividades están en la hoja-de-ruta del agente empresarial. Los retos corresponden a especificaciones de sus clientes, que requieren nuevos conocimientos y tecnologías. Los subyacentes, hasta el TRL 5 inclusive, han sido validados bien por dicho agente o por el grupo US; es decir, se han diseñado y validado chips prueba de concepto en entornos relevantes. En el caso de bajo ruido, el agente tiene ya productos (TRL 9), aunque sin integración vertical.

El proyecto pretende llegar mínimo al nivel TRL 7, con una transición muy rápida al TRL8 y 9, y un horizonte de mercado fijado en 2022.