Desde que Apple introdujera el modo retrato en el iPhone 7 Plus y poco después Google lo pusiera también en el Google Pixel 2, esta característica se ha expandido a móviles de todas las marcas y precios. El poder desenfocar el fondo para tener fotografías con un aspecto mucho más profesional es algo ya casi obligatorio.

Pero no todos los móviles realizan ese desenfoque de la misma forma, y Google tiene posiblemente los mejores resultados con el Pixel 4. Pero ¿como lo hacen?

En el blog de Google dedicado a la inteligencia artificial algunos ingenieros han explicado cómo funciona esta característica en los Google Pixel de este año, los primeros de la empresa en contar con dos cámaras traseras.

Cómo funciona el desenfoque en los Pixel 2 y Pixel 3

En los modelos anteriores al Pixel 4, Google usaba el Dual Pixel autofocus para medir la posición de los elementos de una escena. De esta manera, dividía los píxeles en dos de forma virtual, haciendo que enfocaran el mismo objeto. La mínima diferencia de posición en el Dual Pixel, hacía que el objeto delantero se moviera ligeramente con respecto al fondo. Lo mismo pasa si miramos un objeto con los dos ojos, luego con uno y luego con otro. Hay ligeros cambios de recorte con el fondo. Y eso es lo que Google usaba para desenfocar.

Esta medición, llamada parallax, depende de la distancia de la cámara al objeto, motivo por el cal se nota más en la primera imagen que en la segunda.

Cómo se mide en el Pixel 4

En los modelos previos al de este año, la distancia entre los dos pixeles virtuales del Dual Pixel Autofucus era de menos de 1 mm, por lo que la diferencia de imágenes era menor. En el Pixel 4, al haber dos cámaras, la separación es de 13 mm, mucho mayor. Podéis ver la diferencia en la misma imagen tomada del hombre.

Pero esto no quiere decir que Google desprecie la primera forma de medición. De hecho el Dual Pixel Autofocus ayuda a medir distancias en vertical por la configuración de la cámara, y luego aporta esos datos a los ya dados por la doble cámara.

De esta manera se obtiene un mapa de profundidad más detallado que si solo se usara una forma de medición.

Cómo se desenfoca el fondo

Pero no sólo en la medición de datos están las novedades, también en cómo se desenfocan las zonas posteriores. Antes se realizaba un tratamiento de desenfoque tras convertir el archivo RAW a JPG, lo que hacia que se perdiera detalle. Ahora esta conversión es previa, y se ve el resultado sobre todo en las luces, que con una cámara SLR nos da esos puntos de luz tan característicos.

Todos estos motivos hacen que el Pixel 4 tenga posiblemente el mejor modo retrato en un smartphone. Quizás no llegue al nivel de las cámaras SLR profesionales, pero es el móvil que más se acerca.

En este álbum compartido por los ingenieros de Google podéis ver ejemplos de cómo se realiza ahora el desenfoque, y como ha mejorado con respecto al sistema previo.