De acuerdo con un filtrador de Weibo conocido como Fixed Focus Digital, Apple comenzó a desarrollar su primer sensor de imagen propio, una medida que le permitirá reducir su dependencia de su proveedor habitual, Sony.
Se dice que el chip se encuentra en las primeras etapas de desarrollo y podría tardar varios años en aparecer en dispositivos comerciales.
De tener éxito, el sensor se uniría a la creciente cartera de chips de silicio personalizado de Apple, que ya incluye los chips de las series A y M, así como el módem diseñado por Apple recientemente presentado y actualmente en pruebas.
Según informes, el nuevo sensor se está diseñando teniendo en cuenta el rendimiento avanzado con poca luz y la integración de IA.
Se dice que Apple se está centrando en un mayor control sobre la optimización hardware-software, lo que podría conducir a un mejor procesamiento de imágenes, un mejor rendimiento HDR y una gestión de energía más eficiente.
Esto permitiría a la compañía competir más directamente con las capacidades que ofrecen la línea Pixel de Google y los dispositivos insignia de Samsung, ambos conocidos por la IA de su cámara.
Si bien Sony actualmente suministra a Apple sensores de imagen de alta gama para sus iPhones, Apple ha ido avanzando gradualmente hacia la integración vertical en todo su conjunto de hardware.
A principios de este año, se reveló que la compañía también estaba desarrollando baterías personalizadas y había comenzado a fabricar sus propias pantallas para dispositivos seleccionados.
No se ha confirmado una fecha de lanzamiento, y Apple no ha hecho comentarios públicos sobre el desarrollo.
Sin embargo, el informe coincide con la ambición más amplia de la compañía de reducir la dependencia de proveedores externos y mejorar el control sobre componentes clave.
Si el sensor de imagen personalizado finalmente se lanza, podría representar un avance significativo en el hardware de la cámara de Apple y diferenciar aún más los futuros iPhones en un mercado de teléfonos inteligentes cada vez más competitivo.