No lo es. Ni de lejos. Apple compra los sensores de la cámara a Sony, al igual que bastantes de los fabricantes de teléfonos Android premium. Sin embargo, Apple se ha ceñido a sensores bastante pequeños, incluso para un smartphone. La mayoría de los teléfonos de Apple han utilizado sensores de 1/3″ para la cámara principal y sensores de 1/3,6″ para la cámara "retrato", mientras que el típico smartphone utiliza alrededor de un sensor de 1/2,5"- 1/2,6″, de nuevo, la mayoría fabricado por Sony.
La última vez que lo comprobé, el mejor sistema de cámara en un teléfono actualmente es el del Huawei P20 Pro. Esta cámara obtuvo una puntuación de 109 en el benchmark DxO Mobile, frente a los 97 del iPhone X y los 92 del iPhone 8. El P20 Pro utiliza una nueva clase de sensor de cámara de teléfono que está en un chip de 1/1,72″ y puede configurarse como un sensor de 10 megapíxeles o un sensor de 40 megapíxeles. Es la forma correcta de mejorar el rendimiento con poca luz y con luz de día. Sony ya anunció una versión de 12/48 megapíxeles del mismo tipo de sensor. El P20 Pro también tiene una cámara monocromática, que en algunos casos mejora la imagen general producida por el teléfono.
En base a las mejoras típicas año tras año de Apple, esto pone a Huawei alrededor de 1,0-1,5 años por delante de Apple, salvo que haya un gran salto en la tecnología de la cámara este otoño, lo que por supuesto es posible. Google, Xiaomi, Samsung y HTC tienen todos los teléfonos de 2018 que califican mejor que cualquier iPhone en este momento, y bastantes más que califican mejor que cualquier iPhone que no sea el iPhone X.
El futuro no es sobre el hardware
Actualización: Apple subió la apuesta en sus teléfonos de 2018, ahora usando un chip Sony de 1/2,55″ para la cámara principal, exactamente el tamaño en el Pixel 2/3 de Google y un centenar de otros teléfonos Android. Y, sin embargo, ahora tienen el segundo mejor resultado del test DxO Mark (el Pixel 3 no ha sido probado) con el iPhone XS. Entonces, ¿por qué Apple está en la cima con el mismo chip que usan todos los demás? Software!
Ya no es la cámara. El problema es que los sensores actuales no mejoran mucho, año tras año, sin cambiar de arquitectura, hacerse más grandes, etc. Eso es lo que ha hecho Huawei para ponerse arriba este año: un sensor mucho más grande. Pero también el software. Utilizan varios sensores juntos. Pero incluso esa mejora es limitada. Esta nueva clase de sensor tiene píxeles casi tan pequeños como la longitud de onda de la luz roja. Están alcanzando los límites aquí.
Apple, Google y otros están utilizando la fotografía computacional para avanzar, y eso's enteramente lo que consiguió la XS su alta calificación. Apple ha estado haciendo esto un tiempo en un sensor más pequeño, así que no es de extrañar que lo hicieran muy bien con el chip ligeramente más grande. Tienen modos que disparan varias imágenes y las fusionan en una sola mejor. Si lo piensas, con cuatro disparos consigues cuatro veces más luz, cuando es posible. Así que este año, Apple y Google han introducido motores de IA que determinan dinámicamente cuántas tomas hay que hacer, basándose en lo que pueden hacer para mantener la imagen sin desenfoques de movimiento, etc. No estoy seguro de Apple, pero una toma de Night Sight en el Pixel 3 puede integrar hasta 15 tomas separadas.
Así que Apple no está' solo aquí. Google también es una empresa de software, una potencia en IA, e igual de interesada en hacer mejores cámaras por software. Pero gran parte de la competencia de Apple son empresas que se dedican principalmente a fabricar hardware, aunque no existe nada digital sin software. Esto bien podría ser la próxima gran sacudida en el mundo de los teléfonos inteligentes e incluso de la fotografía. O no... parece que la mayoría de los jugadores habituales tienen su software hoy en día.