Cómo hacer fotos más “naturales” con tu iPhone

Cómo hacer fotos más “naturales” con tu iPhone

Este artículo apareció originalmente en Fotografía popular.

Fin de semana pasado El neoyorquino publicó un ensayo de Kyle Chayka con un titular que seguramente despertará mi interés y me pondrá los pelos de punta: “¿Las cámaras del iPhone se han vuelto demasiado inteligentes?(18 de marzo de 2022).

Además de ser un excelente ejemplo de Ley de los titulares de Betteridge, alimenta la idea de que la fotografía computacional es una amenaza para los fotógrafos o que de alguna manera está arruinando la fotografía. El subtítulo presenta el veredicto de la forma en que lo hacen los titulares llamativos: “Los modelos de teléfonos inteligentes más nuevos de Apple utilizan el aprendizaje automático para hacer que cada imagen parezca tomada profesionalmente. Eso no significa que las fotos sean buenas”.

La implicación allí, y la idea central del artículo, es que el aprendizaje automático está creando malas imágenes. Es un ejemplo de un tipo de contagio de miedo nostálgico que está aumentando a medida que más tecnologías de fotografía computacional ayudan a crear imágenes: Las máquinas están ganando más control, los algoritmos están tomando las decisiones que solíamos tomar y mi iPhone 7/DSLR/film SLR/Brownie tomó mejores fotos. Todo envuelto en la noción de que los fotógrafos “reales”, los fotógrafos profesionales, nunca se involucrarían con tal brujería.

(Dejemos de lado el hecho de que la frase “Eso no significa que las fotos sean buenas” se puede aplicar a todos los avances tecnológicos desde el advenimiento de la fotografía. Una mejor cámara puede mejorar las cualidades técnicas de las fotos, pero no garantiza “ buenas “imágenes.)

Recomiendo encarecidamente que lea el artículo, que tiene algunos buenos puntos. Mi problema es que ignora, u omite, un hecho importante: la fotografía computacional es una herramienta, una que puede elegir usar o no.

Sabiendo que tienes opciones

Para resumir, el argumento de Chayka es que las funciones de aprendizaje automático del iPhone están creando fotos que son “extrañas y extrañas”, y que en su iPhone 12 Pro las “manipulaciones digitales son agresivas y no solicitadas”. el esta hablando Deep Fusion y otras características que registra múltiples exposiciones de la escena en milisegundos, ajusta áreas específicas según su contenido, como cielos o caras, y fusiona todo para crear una imagen final. El fotógrafo simplemente toca el botón del obturador y ve el resultado final, sin necesidad de conocer ninguno de los elementos técnicos, como la velocidad de obturación, la apertura o el ISO.

Puede omitir fácilmente esas funciones utilizando una aplicación de terceros como haluro o Cámara+, que puede disparar usando controles manuales y guardar las imágenes en formato JPEG o raw. Algunas de las funciones de las aplicaciones pueden aprovechar el procesamiento de imágenes nativo del iPhone, pero no es necesario que las use. El único control manual que no está disponible es la apertura porque cada lente compacta del iPhone tiene un valor de apertura fijo.

Esa apertura fija también es la razón por la cual el iPhone incluye el Modo Retrato, que detecta el sujeto y desenfoca artificialmente el fondo para simular el efecto de profundidad de campo de fondo suave creado al disparar con una lente brillante a f/1.8 o más ancha. La pequeña óptica no puede replicarlo, por lo que Apple (y otros desarrolladores de teléfonos inteligentes) recurrieron al software para crear el efecto. Las primeras implementaciones del Modo Retrato a menudo mostraban artefactos notables, la tecnología ha mejorado en la última media década hasta el punto en que no siempre es evidente que se utilizó el modo.

Pero, de nuevo, es decisión del fotógrafo utilizarlo o no. El modo retrato es solo otra herramienta. Si no te gusta el aspecto del modo retrato, puedes cambiar a una cámara DSLR o sin espejo con una lente decente.

Elecciones algorítmicas

Más acertada es la noción de que el procesamiento del iPhone crea un aspecto específico, identificándolo como una toma de iPhone. Puede parecer que algunas imágenes tienen un rango dinámico exagerado, pero eso no se parece en nada al procesamiento de combinación de exposición temprana que creaba fotos HDR (alto rango dinámico) en las que no quedaba ninguna sombra sin iluminar.

Cada sistema tiene su propio aspecto. El procesamiento de Apple, en mi opinión, tiende a ser más naturalista, conservando las sombras mientras evita las áreas quemadas en las escenas que, de otro modo, serían complicadas para una DSLR. El procesamiento de Google tiende a inclinarse más hacia la exposición de toda la escena con mucha luz. Estas son elecciones hechas por los ingenieros de las empresas al aplicar los algoritmos que dictan cómo se desarrollan las imágenes.

Lo mismo se aplica a los fabricantes de cámaras tradicionales: las cámaras Fujifilm, Canon, Nikon, Sony tienen su propio “aspecto JPEG”, que a menudo es la razón por la que los fotógrafos eligen un sistema en particular. De hecho, Chayka reconoce esto cuando recuerda “… la foto prístina de la cámara Leica tomada con una lente fija, o la instantánea instantánea de Polaroid con su exposición irregular”.

El artículo realmente quiere presentar la calidad de imagen del iPhone como una versión sintética antinatural de la realidad, fotografías que “… son fríamente nítidas y vagamente inhumanas, atrapadas en el valle misterioso donde la expresión creativa se encuentra con el aprendizaje automático”. Esa es una hermosa frase, pero llega al final de hablar sobre la función Estilos fotográficos del iPhone que está diseñada para darle al fotógrafo más control sobre el procesamiento. Si prefiere que las imágenes sean más cálidas, puede optar por aumentar la calidez y elegir ese estilo al disparar.

También es divertido que a la persona mencionada al principio del artículo no le gustara la forma en que el iPhone 12 Pro renderizaba las fotos, así que “Últimamente se ha acostumbrado a llevar un Pixel, de la línea de teléfonos inteligentes de Google, con el único propósito de tomar fotos”.

El Pixel emplea los mismos tipos de fotografía computacional que el iPhone. Presuntamente, esta persona prefiere el aspecto del Pixel al del iPhone, lo cual es completamente válido. Es su elección.

Elegir con las masas

Creo que el problema más importante con el iPhone es que la mayoría de los propietarios no saben que tienen la opción de usar otra cosa que no sea la aplicación Cámara de Apple. La ruta para usar la opción predeterminada está diseñada para ser fluida; Además de la ubicación destacada en la pantalla de inicio, puede iniciarlo directamente desde un ícono en la pantalla de bloqueo o simplemente deslizar de derecha a izquierda cuando el teléfono está bloqueado. El acto de tomar una foto es literalmente “apuntar y disparar”.

Más importante aún, para millones de personas, las fotos que crea son exactamente lo que están buscando. El iPhone crea imágenes que capturan momentos importantes o instantáneas tontas o cualquiera de los tipos ilimitados de escenas que las personas sacan de sus teléfonos para grabar. Y la fotografía computacional hace que un mayor número de esas imágenes sean decentes.

Por supuesto, no todas las tomas van a ser “buenas”, pero eso se aplica a todas las cámaras. Elegimos qué herramientas usar para nuestra fotografía, y eso incluye la fotografía computacional tanto como cámaras, lentes y configuraciones de captura.

Leave a Reply

Your email address will not be published. Required fields are marked *