¿Cómo se compara la cámara del teléfono inteligente Pixel 4 de Google con el iPhone 11 Pro?



Disparado a través de un escaparate, el Pixel 4 maneja muy bien las brillantes superficies doradas y las piscinas de luz contrastantes.

Disparado a través de un escaparate, el Pixel 4 maneja muy bien las brillantes superficies doradas y las piscinas de luz contrastantes. (Stan Horaczek /)

En su reciente evento de anuncio de producto en la ciudad de Nueva York, Google mostró un puñado de equipo nuevo. Pero, la compañía dedicó un tiempo considerable, y presumiblemente el dinero gastado para contratar a la icónica fotógrafa de retratos Annie Leibovitz, mostrando la nueva cámara del teléfono inteligente Pixel 4. Ese énfasis tiene sentido. Los consumidores aún indican que la calidad de la foto es uno de los factores más importantes que utilizan para elegir un nuevo dispositivo. Y Google está saliendo de una presentación muy fuerte en el Pixel 3, que era (al menos en lo que a mí respecta en ese momento) la mejor cámara para teléfonos inteligentes.

El Pixel 4 agrega más inteligencia impulsada por inteligencia artificial, confiando cada vez más en su software para determinar el aspecto general de la imagen final. Y aunque la cámara tiene algunos momentos en los que es realmente excelente, me encontré con algunos dolores de crecimiento mientras Google intentaba calcular su camino hacia las fotos perfectas.

¿Qué hay de nuevo?

El Pixel es casi normal cuando se trata de rapidez en la captura de fotos. Me tomó aproximadamente cinco intentos antes de acertar y atrapar a la persona con un golpe extendido.

El Pixel es casi normal cuando se trata de rapidez en la captura de fotos. Me tomó aproximadamente cinco intentos antes de acertar y atrapar a la persona con un golpe extendido. (Stan Horaczek /)

En el papel, la cámara del Pixel 4 no parece tan diferente del hardware que venía antes. La principal excepción es la notable incorporación de un teleobjetivo, que Google tiene la intención de mejorar el rendimiento específicamente cuando se trata de zoom y modo vertical. La competencia del tirador, sin embargo, es más dura este año: Apple parece haber corregido la tecnología HDR demasiado entusiasta que hizo que las imágenes del iPhone XS parecieran poco realistas y poco naturales a veces, y la compañía Cupertino promete mejorar aún más el iPhone 11 Pro. -buena cámara cuando su tecnología Deep Fusion que mejora los detalles llega en la próxima actualización de iOS.

Calidad de la imagen

Esta escena es un gran espacio para probar HDR. Entra luz natural a través del arco y luz artificial encima. El Pixel 4 hace un trabajo realmente excelente al traer las sombras cerca de la puerta mientras mantiene los colores precisos para la escena tal como se ve en la vida real. Si desea editar la foto, es un excelente punto de partida neutral. Pero, también se ve bien como está.

Esta escena es un gran espacio para probar HDR. Entra luz natural a través del arco y luz artificial encima. El Pixel 4 hace un trabajo realmente excelente al traer las sombras cerca de la puerta mientras mantiene los colores precisos para la escena tal como se ve en la vida real. Si desea editar la foto, es un excelente punto de partida neutral. Pero, también se ve bien como está. (Stan Horaczek /)

Google no saca golpes cuando se trata de fotografía computacional, que se basa más en la potencia de procesamiento y los algoritmos que en el rendimiento del hardware puro. La compañía deja en claro que la magia del software que ocurre durante y después de presionar el obturador se ha vuelto extremadamente importante para determinar el aspecto de la imagen final.

Como casi todas las cámaras de teléfonos inteligentes en este momento, presionar el obturador no solo toma una foto. En cambio, captura una ráfaga y combina información de esas imágenes en un archivo terminado. Esta tecnología de "HDR inteligente" hace mucho bien: puede evitar que los reflejos se apaguen o allanar una escena súper contrastada que podría perder detalles cruciales. Pero, como con el iPhone 11 Pro, puede ser impredecible.

Estos plátanos en Whole Foods ilustran la diferencia entre el Pixel 4 (izquierda) y el iPhone 11 Pro (derecha). La imagen del Pixel no aumenta tanto el contraste y los tonos se ven  más suaves en general. Sin embargo, si no los compara uno al lado del otro, ambos son totalmente aceptables.

Estos plátanos en Whole Foods ilustran la diferencia entre el Pixel 4 (izquierda) y el iPhone 11 Pro (derecha). La imagen del Pixel no aumenta tanto el contraste y los tonos se ven más suaves en general. Sin embargo, si no los compara uno al lado del otro, ambos son totalmente aceptables. (Stan Horaczek /)

En buenas condiciones de disparo con la cámara gran angular principal, prefiero las imágenes que salen del Pixel 4 a las del iPhone 11 Pro. Está cerca, pero la cámara del Pixel todavía se siente más neutral y natural para mí. No noto el efecto HDR que puede hacer que los sujetos se vean poco realistas, y a veces incluso caricaturescos, tanto como lo hago con el iPhone. Esto es especialmente útil para los usuarios que editan sus fotos después de tomarlas (algo que muy pocos usuarios típicos hacen).

El enfoque en el Pixel 4 es impresionante. Se agarró al cortador de pizza a través del reflejo de esta ventana.

El enfoque en el Pixel 4 es impresionante. Se agarró al cortador de pizza a través del reflejo de esta ventana. (Stan Horaczek /)

Google también realizó algunas mejoras bienvenidas en su experiencia general de HDR. Cuando toca la pantalla para enfocar un objeto en la imagen, ahora aparecen dos controles deslizantes para ajustar el brillo de la escena. Un control deslizante afecta la exposición general (cuán brillante u oscuro se ve todo) en la escena, mientras que el otro simplemente afecta las sombras. Ese segundo control deslizante es extremadamente útil. Le permite hacer cosas como tomar fotos de silueta en las que el sujeto está prácticamente oscurecido mientras el fondo (generalmente el cielo brillante) permanece expuesto adecuadamente.

El primer disparo de esta serie fue el predeterminado sin ajustes. En la segunda toma, elevé el brillo general, que extrajo detalles de las hojas, pero sopló el cielo. En el tercer disparo, utilicé el control deslizante de sombras para elevar los niveles de sombra y subir un poco las hojas, mientras que el cielo se mantuvo prácticamente sin cambios.

El primer disparo de esta serie fue el predeterminado sin ajustes. En la segunda toma, elevé el brillo general, que extrajo detalles de las hojas, pero sopló el cielo. En el tercer disparo, utilicé el control deslizante de sombras para elevar los niveles de sombra y subir un poco las hojas, mientras que el cielo se mantuvo prácticamente sin cambios. (Stan Horaczek /)

También puede lograr el efecto contrario en el que puede iluminar un sujeto oscuro en primer plano sin soplar un cielo brillante en el fondo. En una situación como la que se muestra a continuación, normalmente perdería algunos de esos bonitos detalles de hojas amarillas a la sombra a menos que iluminara toda la imagen y volara el cielo. Ajustar el control deslizante de sombra le permite mostrar la exposición de las hojas y dejar el cielo solo.

Ese control deslizante es una de mis adiciones favoritas a la cámara Pixel 4, y es una tendencia que me encantaría ver continuar mientras avanzamos hacia el futuro de HDR todo el tiempo en todo.

Sin embargo, cuando las condiciones de disparo se vuelven difíciles, el Pixel 4 tiene algunas peculiaridades reales.

El efecto flickr

La mayoría de las luces artificiales parpadean, pero su cerebro hace un buen trabajo al hacer que el brillo parezca continuo. Sin embargo, el efecto de pulsación es más difícil de negar para las cámaras digitales, y el Pixel 4 parece tener más problemas en este campo que su competencia.

En el video de arriba, notarás algunas bandas oscuras cruzando la imagen. Este tipo de cosas no está fuera de lo común con fuentes de luz artificial, que tienen un parpadeo generalmente imperceptible para coincidir con la corriente eléctrica de 60 Hz que fluye a través de ellas. Sin embargo, las cámaras digitales dedicadas suelen tener "detección de parpadeo" para ayudar a combatirlo, e incluso el iPhone 11 Pro hace un mejor trabajo para mitigar el efecto.

El efecto no siempre es tan pronunciado. En esta imagen, puede ver claramente bandas oscuras que atraviesan el mapa en el centro de la imagen que está iluminada por la luz artificial sobre su cabeza. La luz que entraba por la ventana y la puerta empujó la velocidad del obturador a 1/217 de segundo, lo que es demasiado rápido para negar el efecto de bandas.

El efecto no siempre es tan pronunciado. En esta imagen, puede ver claramente bandas oscuras que atraviesan el mapa en el centro de la imagen que está iluminada por la luz artificial sobre su cabeza. La luz que entraba por la ventana y la puerta empujó la velocidad del obturador a 1/217 de segundo, lo que es demasiado rápido para negar el efecto de bandas. (Stan Horaczek /)

Con el Pixel 4, lo noté en una variedad de ubicaciones y fuentes de luz artificial. Es sutil, la mayoría de las veces, pero si tiene una fuente de luz brillante en el marco de la imagen o el video, puede aumentar la velocidad de obturación más de 1/60 de segundo, que es cuando las bandas comienzan a arrastrarse.

Cuando cambié a un modo de cámara manual en la aplicación Lightroom y usé una velocidad de obturación más lenta, desapareció. En escenas como esta, el iPhone parece usar su tecnología HDR + para mantener al menos un cuadro en la mezcla con una velocidad de obturación lo suficientemente lenta como para evitar que esto suceda. Una vez que descubrí las circunstancias que lo provocaron, tomé el siguiente ejemplo, que lo muestra muy claramente.

La imagen de la derecha proviene del iPhone 11 Pro Max, mientras que la imagen de la izquierda, que muestra muy claramente el problema de las bandas, proviene del Pixel 4. Mirando los metadatos, el iPhone afirma una velocidad de obturación de 1/60 de un segundo, donde la velocidad de obturación  del Pixel era más rápida que 1/250 de segundo, lo que explica por qué es tan visible en la foto de Pixel, pero no en el marco del iPhone. Presumiblemente, este es el tipo de cosas que Google puede arreglar en el futuro ajustando la forma en que funciona el proceso de captura HDR.

La imagen de la derecha proviene del iPhone 11 Pro Max, mientras que la imagen de la izquierda, que muestra muy claramente el problema de las bandas, proviene del Pixel 4. Mirando los metadatos, el iPhone afirma una velocidad de obturación de 1/60 de un segundo, donde la velocidad de obturación del Pixel era más rápida que 1/250 de segundo, lo que explica por qué es tan visible en la foto de Pixel, pero no en el marco del iPhone. Presumiblemente, este es el tipo de cosas que Google puede arreglar en el futuro ajustando la forma en que funciona el proceso de captura HDR. (Stan Horaczek /)

La falla no es un factor decisivo, ya que solo aparece en circunstancias específicas, pero es muy molesto cuando lo hace.

Acto de equilibrio blanco

Tomada en un día nublado en las sombras con mucho amarillo en el marco, espero que esta imagen salga demasiado azul. Sin embargo, el Pixel hizo un trabajo sólido.

Tomada en un día nublado en las sombras con mucho amarillo en el marco, espero que esta imagen salga demasiado azul. Sin embargo, el Pixel hizo un trabajo sólido. (Stan Horaczek /)

Otra área donde nuestros cerebros y ojos rutinariamente superan a las cámaras: el balance de color. Si está en una habitación con luz artificial y una ventana, la iluminación puede parecer bastante coherente para su ojo, pero se muestra en naranja y azul, respectivamente, en una cámara.

Los teléfonos inteligentes a menudo intentan dividir la diferencia en lo que respecta al balance de blancos, a menos que lo intentes por tu cuenta. El Pixel 4, sin embargo, analiza la escena frente a él y usa IA para tratar de reconocer objetos importantes en el marco. Entonces, si nota una cara, intentará obtener el balance de blancos directamente en la persona. Esa es una buena táctica.

Bajo luz artificial, el balance de color cambia con frecuencia cuando la cámara se mueve sutilmente.

Bajo luz artificial, el balance de color cambia con frecuencia cuando la cámara se mueve sutilmente. (Stan Horaczek /)

En general, creo que el Pixel 4 hace un excelente trabajo cuando se trata del balance de blancos, excepto cuando lo hace muy mal. Muévase alrededor de la cámara del iPhone 11 Pro, y el color general de la escena tiende a ser más consistente. Haga lo mismo con el Pixel 4, y su balance de blancos general puede cambiar drásticamente, incluso cuando solo mueve ligeramente la cámara. Arriba, la captura de pantalla estilo cuadrícula muestra una serie de fotos que tomé sucesivamente en condiciones inmutables. Moví el teléfono sutilmente mientras disparaba, y puedes ver el cambio de color realmente profundo. Nuevamente, esto ocurre principalmente cuando se dispara bajo luz artificial.

Siempre y cuando prestes atención y notes el cambio antes de tomar la foto, está totalmente bien y el Pixel hace un gran trabajo. También es fácil de corregir más adelante si está dispuesto a abrir una aplicación de edición. Pero, en algunas ocasiones, terminé con una foto extrañamente amarilla que no esperaba.

Teleobjetivo

El modo retrato y la barba retroiluminada hacen que la escena sea tranquila.

El modo retrato y la barba retroiluminada hacen que la escena sea tranquila. (Stan Horaczek /)

El nuevo teleobjetivo tiene aproximadamente el doble de la distancia focal de la cámara estándar de Pixel, lo que efectivamente le brinda un zoom óptico de 2x. Tiene una apertura f / 2.4, en comparación con la lente de retrato mejorada f / 2.0 (los números más bajos dejan entrar más luz) en el iPhone 11 Plus. Sin embargo, es solo una fracción de parada, por lo que es poco probable que tenga un gran impacto, pero es un recordatorio de que Apple ha estado haciendo teleobjetivos durante algún tiempo y ya está refinando mientras Google acaba de comenzar.

Obtiene colores más precisos y más detalles del Pixel 4 (izquierda) que luego del iPhone 11 Pro (derecha) cuando se acerca a 8x. El iPhone realmente te permite subir un poco más de 10 veces si no te importa la imagen de menor calidad.

Obtiene colores más precisos y más detalles del Pixel 4 (izquierda) que luego del iPhone 11 Pro (derecha) cuando se acerca a 8x. El iPhone realmente te permite subir un poco más de 10 veces si no te importa la imagen de menor calidad. (Stan Horaczek /)

Como dijimos anteriormente, el teleobjetivo cuenta con el zoom como una de sus funciones principales. El teléfono le ofrece la opción de ampliar hasta 8x combinando tecnología digital y óptica. Google afirma que pellizcarse para acercarse ahora realmente le brinda una mejor calidad de imagen que simplemente tomar una foto más amplia y recortarla, lo que históricamente ha proporcionado mejores resultados. Encontré esta declaración precisa. El "zoom" ha recorrido un largo camino en las cámaras de los teléfonos inteligentes, pero no debes esperar magia. Seguirás teniendo "artefactos" entrecortados y feos en las imágenes que parecen haber guardado y vuelto a guardar la foto demasiadas veces como JPEG.

Sin embargo, cuando miras las imágenes en una pantalla más pequeña, como Instagram, se ven impresionantes, y esa es probablemente la condición de visualización más importante para una cámara de teléfono inteligente en 2019.

Si haces mucho zoom, el Pixel supera al iPhone de forma regular. Incluso es un poco más fácil mantenerse estable debido al sistema de estabilización de imágenes mejorado cuando se hace zoom hasta 8x.

Modo retrato

El modo de retrato del Pixel 4 realmente brilla cuando te alejas del tiro en la cabeza estándar de cerca.

El modo de retrato del Pixel 4 realmente brilla cuando te alejas del tiro en la cabeza estándar de cerca. (Stan Horaczek /)

El otro gran atractivo del teleobjetivo viene en forma de modo retrato mejorado. Incluso con la lente única en el Pixel 3, Google ya hizo un trabajo muy impresionante fingiendo el desenfoque del fondo que proviene de la fotografía de poca profundidad de campo. Como era de esperar, agregar una segunda lente para permitirle calcular mejor la profundidad en una escena mejora su rendimiento.

Si realmente desea notar el salto, intente disparar a un objeto más grande o a una persona desde más atrás que el simple disparo en la cabeza y el torso para el que se desarrolló originalmente el modo retrato. Usar el modo retrato para objetos más grandes es una nueva habilidad para el Pixel 4 y hace un buen trabajo al mitigar las limitaciones inherentes de la tecnología. Cualquier rareza o artefactos como áreas extrañamente afiladas o manchas borrosas de desenfoque generalmente tienden a aparecer alrededor de los bordes de los objetos o en detalles finos como el cabello o el pelaje. Cuanto más te acerques a tu sujeto, más difícil será hacer que la cámara funcione y más probabilidades tendrás de notar algo extraño o fuera de lugar.

El iPhone 11 Pro (izquierda) hace un mejor trabajo con los bordes difíciles en el cabello del sujeto, pero el Pixel 4 (derecha) produce una imagen más natural porque no agrega ningún efecto de iluminación simulado como lo hace Apple.

El iPhone 11 Pro (izquierda) hace un mejor trabajo con los bordes difíciles en el cabello del sujeto, pero el Pixel 4 (derecha) produce una imagen más natural porque no agrega ningún efecto de iluminación simulado como lo hace Apple. (Stan Horaczek /)

En general, el modo de retrato del Pixel 4 parece más natural que el iPhone 11 Pro, pero tiene más problemas con los bordes y los pelos sueltos. En los disparos a la cabeza, las áreas alrededor del cabello generalmente revelan los trucos del Pixel 4 de inmediato. (El iPhone 11 Pro soluciona esos problemas extremos al agregar un desenfoque "de ensueño" en la mayor parte de la imagen). Los colores y el contraste generales del Pixel generalmente son mejores porque no intentan emular diferentes tipos de iluminación como lo hace el iPhone. Pero, cuando obtienes un borde realmente feo alrededor de la cara o el cabello de un sujeto con el Pixel 4, puede arruinar rápidamente el efecto.

Aquí hay algunas tomas en modo retrato (y una imagen de cámara dedicada) editadas con Lightroom. El iPhone 11 Pro (izquierda) levantó los negros en la sudadera como parte de su modo de iluminación simulada. El Pixel 4 (centro) tuvo algunos problemas con los bordes suaves del cabello. La cámara dedicada (derecha) era una Sony A7R con una lente de 50 mm y conserva mejor los reflejos en el cabello y elimina el falso efecto bokeh del agua.

Aquí hay algunas tomas en modo retrato (y una imagen de cámara dedicada) editadas con Lightroom. El iPhone 11 Pro (izquierda) levantó los negros en la sudadera como parte de su modo de iluminación simulada. El Pixel 4 (centro) tuvo algunos problemas con los bordes suaves del cabello. La cámara dedicada (derecha) era una Sony A7R con una lente de 50 mm y conserva mejor los reflejos en el cabello y elimina el falso efecto bokeh del agua. (Stan Horaczek /)

Si solo está publicando su disparo en modo retrato en Instagram, es posible que esos bordes ásperos realmente no jueguen para sus seguidores. Verlos en una pantalla de computadora portátil o más grande, sin embargo, los hace obvios.

El recorte del 100 por ciento (pantalla capturada desde Lightroom) muestra cuán diferente es el iPhone 11 Pro (izquierda) y el Pixel 4 (derecha) en condiciones de iluminación difíciles pero atractivas. Este tipo de luz es increíble con una cámara dedicada.

El recorte del 100 por ciento (pantalla capturada desde Lightroom) muestra cuán diferente es el iPhone 11 Pro (izquierda) y el Pixel 4 (derecha) en condiciones de iluminación difíciles pero atractivas. Este tipo de luz es increíble con una cámara dedicada. (Stan Horaczek /)

El Pixel 4 le brinda acceso casi inmediato tanto a las imágenes falsas de desenfoque como a la foto normal en su biblioteca. El modo vertical tarda unos segundos en procesarse, por lo que no puede verlos de inmediato. Teniendo en cuenta la cantidad de procesamiento que está haciendo, eso es comprensible, y también el caso con el iPhone, pero si está tratando de clavar exactamente la expresión correcta, realmente no puede verificar sus resultados en tiempo real.

Vista nocturna

Night Sight iluminó esta escena extremadamente oscura y evitó que los colores, los arbustos verdes en particular, parecieran caricaturescos y sobresaturados.

Night Sight iluminó esta escena extremadamente oscura y evitó que los colores, los arbustos verdes en particular, parecieran caricaturescos y sobresaturados. (Stan Horaczek /)

Cuando Google presentó su impresionante modo de disparo con poca luz, Night Sight, en el Pixel 3, fue increíblemente impresionante. Google claramente ha continuado refinando su rendimiento e, incluso con el iPhone 11 Pro agregando su propia versión de la tecnología, el Pixel 4 aún mantiene una ventaja considerable.

Todavía tendrá que pasar al modo Night Sight para habilitarlo, a diferencia del iPhone, que lo activa automáticamente cuando cree que las condiciones son las correctas. Me gusta tener más control sobre lo que estoy haciendo, así que prefiero el enfoque de Pixel, especialmente porque estos modos nocturnos requieren exposiciones prolongadas que pueden dar lugar a fotos borrosas si usted, o los objetos en la escena, no pueden quedarse quietos.

En comparación con el modo nocturno del iPhone, los colores de Night Sight son más precisos y las escenas se ven más naturales. En última instancia, este se reducirá a una preferencia personal, pero prefiero los resultados del Pixel 4 sobre el iPhone 11 Pro.

Durante la presentación de la cámara, Google dijo que espera que solo use el "flash" de la cámara como una linterna. Cumplí con esta regla. El flash no es bueno, al igual que todas las fotos con flash de cámaras de teléfonos inteligentes que vinieron antes. Es útil si realmente lo necesita, especialmente si no le importa convertir imágenes en blanco y negro después del hecho, pero en última instancia, puede dejarlo apagado para siempre.

Como una adición a Night Sight, Google también agregó una funcionalidad que hace que sea más fácil tomar fotos del cielo nocturno que muestran las estrellas y la Vía Láctea, si sabes lo que estás haciendo. No probé esta función porque no tenía acceso a un cielo realmente oscuro y el clima no ha cooperado realmente. Si planea usar esta función, debe planear usar un trípode, o al menos equilibrar el teléfono en un objeto estable, ya que aún requiere exposiciones prolongadas. En última instancia, me encanta que la compañía haya agregado esta función y espero ver lo que la gente crea con ella, pero es algo especializado que imagino que la mayoría de los usuarios no intentarán más de unas pocas veces.

El caso de la lente súper gran angular que falta

La lente gran angular normal es buena para caminar en tomas como esta, pero hubo casos en los que realmente extrañé la súper gran angular que ahora ofrece el iPhone 11. Si tuviera que terminar esta foto, la enderezaría y probablemente la haría en blanco y negro. Pero, dado que es una imagen de muestra, esta es la versión sin editar.

La lente gran angular normal es buena para caminar en tomas como esta, pero hubo casos en los que realmente extrañé la súper gran angular que ahora ofrece el iPhone 11. Si tuviera que terminar esta foto, la enderezaría y probablemente la haría en blanco y negro. Pero, dado que es una imagen de muestra, esta es la versión sin editar. (Stan Horaczek /)

Cuando el Pixel 3 se envió sin un teleobjetivo, realmente no lo extrañé. Sin embargo, me pregunto por qué Google enviaría el Pixel 4 sin la lente súper ancha que se encuentra en el iPhone 11 Pro y otros teléfonos inteligentes de alta gama.

El súper amplio es fácil de abusar si la perspectiva única lo ciega ante la distorsión inherente y la perspectiva general un poco loca que ofrece. Pero, hay momentos en que resulta muy útil. Si está tratando de fotografiar un paisaje masivo sin crear un panorama, o simplemente está tomando una foto en espacios realmente estrechos, el ancho adicional hace una diferencia tangible.

En última instancia, defiendo que las personas realicen la gran mayoría de sus disparos con la cámara gran angular estándar sin importar el teléfono que elijan, porque el rendimiento general y la calidad de imagen suelen ser mucho mejores que las otras lentes. Pero, me gustan las opciones, y una lente súper ancha le permite lograr una perspectiva que físicamente no puede obtener simplemente retrocediendo.

Entonces, ¿cuál es la mejor cámara del teléfono inteligente?

Si tienes curiosidad sobre cómo se ve el bokeh real del Pixel 4, mira las manchas de desenfoque en el lado derecho de esta foto.

Si tienes curiosidad sobre cómo se ve el bokeh real del Pixel 4, mira las manchas de desenfoque en el lado derecho de esta foto. (Stan Horaczek /)

El Pixel 4 nos ha dejado en una situación difícil. La calidad de la imagen, la reproducción del color y los detalles son realmente excelentes, la mayoría de las veces. Sin embargo, las peculiaridades que surgen realmente tienen un efecto tangible en la usabilidad general de la cámara en su conjunto. Si eres el tipo de tirador que tiene cuidado de prestar atención a tu escena y edita tus fotos después de disparar, entonces el Pixel es la mejor opción en su mayor parte. Los colores más neutros y el contraste toman ediciones mejores que las de los archivos de iPhone, que salen directamente de la cámara con un aspecto más procesado.

Sin embargo, en última instancia, estamos en un momento en que la calidad de la cámara del teléfono inteligente se ha nivelado en gran medida. No he mencionado las cámaras de Samsung en esta revisión en su mayor parte, porque encuentro que sus archivos se procesan en exceso con demasiado nitidez y niveles agresivos de contraste y saturación. Pero, un gran contingente de personas así. En este punto, no hay suficiente diferencia entre el rendimiento general y la calidad de imagen en el Pixel 4 para saltar desde su plataforma preferida, solo para obtener una ligera ventaja en las imágenes que salen directamente de la cámara.

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *