La aplicación Google Camera 7.0 filtrada revela casi todas las características de la cámara Google Pixel 4

Hoy temprano, publicamos un artículo que detalla todos los cambios en la interfaz de usuario y las nuevas configuraciones orientadas al usuario que pudimos encontrar en Google Camera 7.0 desde Google Pixel 4. Esta versión de la aplicación Google Camera nos la envió nuestro tipster, Hani (@ HANI_4K ), quien obtuvo el APK del vietnamita YouTuber ReLab . Hay muchos cambios en la interfaz de usuario en la última versión de la aplicación de cámara Pixel, pero también hay un montón de código que revela las características de la cámara del Pixel 4.

El fin de semana pasado, analizamos la última versión disponible públicamente de la aplicación Google Camera, la versión 6.3, para revelar que Google ha estado trabajando en varias características nuevas que creemos que estarán presentes en los teléfonos inteligentes Pixel 2019. Encontramos características como Zoom de audio, HDR en vivo, deformación de malla para corregir distorsiones de selfie de gran angular y posibles mejoras de Night Sight. La versión filtrada 7.0 de la aplicación Google Camera continúa trabajando en estas características y corrobora su presencia en el Pixel 4. El APK filtrado también revela el trabajo en varias características previamente no reveladas, así como una posible lista de características de la cámara Pixel 4.

Motion Blur en el Pixel 4

Aunque parece que fue hace una eternidad, fue solo la semana pasada cuando supimos por primera vez que el Pixel 4 tendrá un "Modo de movimiento" en la aplicación Google Camera. Según una fuente que habla con 9to5Google, el nuevo modo de cámara será una de las características principales del Pixel 4. Supuestamente le permitirá tomar fotos de sujetos en movimiento en primer plano mientras difumina el fondo, perfecto para fotos de eventos deportivos.

Esta función de "Modo de movimiento" no ha aparecido en ninguna de las filtraciones recientes, pero eso es probable porque la función todavía está oculta en la aplicación Google Camera en los dispositivos de prelanzamiento. Detectamos una cadena para un nuevo modo de cámara, aunque la cadena en sí solo enumera el nombre en clave del modo: "paneer".

 Paneer 

Como referencia, Night Sight se llama "sepia" internamente y Time Lapse se llama "guepardo" internamente. No estamos seguros de por qué se eligió el nombre en clave "paneer", pero está claro que es para una nueva función "Motion Blur" en la aplicación Google Camera. Es posible que "Modo de movimiento" sea el nombre comercial de esta función de "Desenfoque de movimiento".

Prueba de la obturación cero de la vista nocturna y la astrofotografía

La fuente de 9to5Google también afirma que la famosa función Night Sight de Google, que utiliza algoritmos de fotografía computacional para producir imágenes detalladas en condiciones de poca luz, no solo será más rápida sino que también será capaz de tomar fotos del cielo estrellado. Un video promocional filtrado corroboró la capacidad de astrofotografía del Pixel 4, pero el nuevo código Night Sight que encontramos en Google Camera 6.3 no cumplió con nuestras expectativas. Con Google Camera 7.0, sin embargo, estamos más seguros de que Night Sight se mejorará en Google Pixel 4. Detectamos varias banderas en una clase de configuración de comida para perros que muestran cómo Google ha estado probando mejoras importantes en Night Sight.

Mientras que en el APK anterior solo vimos una vaga referencia a Zero Shutter Lag para Night Sight (zsl_ns), el último APK deja las cosas bastante claras. ZSL_NIGHT_SIGHT confirma que Google está probando un Night Sight mucho más rápido, probablemente para el Pixel 4. Por otro lado, para astrofotografía, Google usará la GPU (Adreno 640 en Qualcomm Snapdragon 855) para acelerar la segmentación del cielo y luego optimice la imagen al "encontrar" las estrellas y alumbrarlas. La detección de trípode también ha visto mejoras, ya que ahora cambia el botón del obturador a un botón de parada y agrega el recuento de cuadros al medio a medida que desciende.

Live HDR, HDRNet y Mesh Warping

Durante nuestro desmontaje de Google Camera 6.3, descubrimos referencias a un modo "Live HDR" que parecía estar relacionado con el algoritmo "HDRNet" desarrollado por los investigadores del MIT y Google. Este algoritmo podría usarse para aplicar HDR en tiempo real al visor de la cámara, y también puede usarse para retocar automáticamente las fotos en milisegundos después de tomarlas. La deformación de malla probablemente se refiere a una nueva técnica desarrollada por investigadores de Google para corregir la distorsión de las cámaras frontales de gran angular. La presencia de deformación de malla en la aplicación Google Camera se alinea con el rumor de que el Pixel 4 tiene una cámara frontal de gran angular.

Nuevamente vimos referencias a Live HDR, HDRNet y deformación de malla en Google Camera 7.0, aunque esta vez las referencias estaban menos ofuscadas. Estas características se limitan a los teléfonos inteligentes Pixel 2019 (excluyendo el Pixel 3a y Pixel 3a XL, ya que Google se refiere a la línea Pixel 3a como "PIXEL_2019_MIDRANGE" en el código) ya que requieren nuevas bibliotecas de cámaras.

Zoom de audio en Google Pixel 4

Algunos teléfonos inteligentes usan sus micrófonos para enfocarse en una fuente principal de audio cuando la cámara se acerca. LG y HTC han estado haciendo esto durante varios años, y Samsung recientemente lo trajo de vuelta al Galaxy Note 10 después de deshacerse de él. generaciones atrás. El nuevo Apple iPhone 11 también tiene su propia función de Zoom de audio, por lo que no nos sorprende que el Google Pixel 4 también se envíe con la función. Después de todo, Google adquirió gran parte de la propiedad intelectual y el talento de HTC. La configuración para el Pixel 2019 enumera "AUDIO_ZOOM_SUPPORTED" como verdadera, por lo que probablemente se lanzará en el Pixel 4.

Soporte de formato de profundidad dinámica

Android 10 agrega soporte para un nuevo esquema de archivo llamado Dynamic Depth Format (DDF). Según Google, los archivos DDF contienen datos de profundidad para fotos, lo que permite que las aplicaciones usen los datos para cambiar el desenfoque en el procesamiento posterior sin tocar la imagen original. La configuración de la cámara Pixel 4 enumera "EMBED_DYNAMIC_DEPTH_REAR" y "EMBED_DYNAMIC_DEPTH_FRONT" como ambas verdaderas, lo que indica que los dispositivos admitirán guardar los datos de profundidad como un archivo DDF. Por lo que vale, también notamos que la aplicación Google Photos está probando el soporte para manejar el formato de profundidad dinámica.

Posible integración de Photobooth con Playground AR Stickers

Photobooth es una función de cámara de Google presentada en Google Pixel 3. La función toma fotos automáticamente cuando detecta sonrisas o caras divertidas en el marco. Aunque no sabemos exactamente qué tipo de mejoras se realizarán en la función, parece que Google podría introducir algunos cambios ocultos. En todo el código, detectamos comprobaciones para ver si "Photobooth2019" es compatible, en comparación con solo "Photobooth", lo que significa que se trata de una actualización de la función Photobooth existente.

Un método en particular verifica si la actividad "com.google.vr.apps.ornament.funshot.activity.FunshotActivity" se encuentra en el dispositivo antes de activar "Photobooth2019". Esta actividad no existe en un Pixel 2 XL o Pixel 3 XL con Android 10. Dado que "com.google.vr.apps.ornament" es el nombre del paquete para Playground (anteriormente llamado AR Stickers), es posible que veamos alguna integración de AR sticker con Photobooth. Sin embargo, desde que se cambió el nombre de la función a Playground, Google hizo que los stickers AR fueran más expresivos e interactivos, sin embargo, no sabemos si el Photobooth actualizado tomará fotos basadas en las expresiones de los personajes AR.

Modo de medición, modo de rebobinado y "Rocky"

En abril, vimos evidencia de que Google se estaba preparando para integrar su aplicación de medición de realidad aumentada con tecnología ARCore, Measure, en la aplicación Google Camera. El código para esta función todavía existe en Google Camera 7.0, pero no está claro si Google planea lanzarlo con Pixel 4.

A continuación, las últimas versiones de la aplicación Google Camera han insinuado un modo de rebobinado llamado "McFly" (después del protagonista de Regreso al futuro). No estamos muy seguros de cómo funciona; Todo lo que sabemos con certeza es que su icono es un símbolo de rebobinado.

Otra característica aún más desconocida para nosotros es "rocosa". Encontramos referencias a ella en ViewfinderEffectElement y en el "MultiCropModule", pero aún no sabemos qué se supone que debe hacer.

Todas las características de la cámara Google Pixel 4, según la configuración de la cámara de Google

Por último, la clase de configuración dogfood enumera básicamente todas las características de la cámara para Google Pixel 4. También hay argumentos que enumeran las configuraciones actualizadas de la cámara para los píxeles 2016, 2017, 2018 y mediados de 2019, pero por brevedad, nos atendremos a solo los nuevos dispositivos. La configuración de la cámara sugiere que lo siguiente es cierto:

  • Google Pixel 4 es compatible con Zoom de audio
  • Google Pixel 4 admite el almacenamiento de datos de profundidad utilizando el nuevo formato de profundidad dinámica (DDF)
  • El Pixel 4 tiene un teleobjetivo (un hallazgo que ha sido corroborado en numerosas ocasiones).
  • Los dispositivos admiten tiempos de exposición más largos en Night Sight.
  • Los dispositivos son compatibles con el algoritmo HDRNet.