Multicámara en lugar de megapíxeles
Tecnología

Multicámara en lugar de megapíxeles

La fotografía en teléfonos móviles ya pasó la gran guerra de los megapíxeles, que nadie podía ganar, porque había limitaciones físicas en los sensores y tamaño de los smartphones que impedían una mayor miniaturización. Ahora hay un proceso similar a una competencia, quién pondrá más en cámara (1). De todas formas, al final siempre es importante la calidad de las fotos.

En la primera mitad de 2018, debido a dos nuevos prototipos de cámaras, habló bastante fuerte una compañía desconocida, Light, que ofrece tecnología de lentes múltiples, no para su época, sino para otros modelos de teléfonos inteligentes. Aunque la empresa, como escribió MT en su momento, ya en 2015 modelo L16 con dieciséis lentes (1), solo en los últimos meses se ha popularizado para multiplicar las cámaras en las celdas.

Cámara llena de lentes

Este primer modelo de Light era una cámara compacta (no un teléfono celular) del tamaño de un teléfono que fue diseñado para ofrecer la calidad de una DSLR. Disparó a resoluciones de hasta 52 megapíxeles, ofreció un rango de longitud focal de 35-150 mm, alta calidad con poca luz y profundidad de campo ajustable. Todo es posible gracias a la combinación de hasta dieciséis cámaras de teléfonos inteligentes en un solo cuerpo. Ninguna de estas muchas lentes difería de la óptica de los teléfonos inteligentes. La diferencia era que se recogían en un solo dispositivo.

2. Cámaras de luz multilente

Durante la fotografía, la imagen fue grabada simultáneamente por diez cámaras, cada una con sus propios ajustes de exposición. Todas las fotografías tomadas de esta manera se combinaron en una fotografía grande, que contenía todos los datos de exposiciones individuales. El sistema permitía editar la profundidad de campo y los puntos de enfoque de la fotografía terminada. Las fotos se guardaron en formato JPG, TIFF o RAW DNG. El modelo L16 disponible en el mercado no contaba con el típico flash, pero las fotografías podían iluminarse mediante un pequeño LED ubicado en el cuerpo.

Aquel estreno en 2015 tuvo rango de curiosidad. Esto no atrajo la atención de muchos medios y audiencias masivas. Sin embargo, dado que Foxconn actuó como inversor de Light, los desarrollos posteriores no fueron una sorpresa. En resumen, esto se basó en el creciente interés en la solución por parte de las empresas que cooperan con el fabricante de equipos taiwanés. Y los clientes de Foxconn son tanto Apple como, en particular, Blackberry, Huawei, Microsoft, Motorola o Xiaomi.

Y así, en 2018, apareció información sobre el trabajo de Light en sistemas multicámara en teléfonos inteligentes. Luego resultó que la startup colaboró ​​con Nokia, que presentó el primer teléfono con cinco cámaras del mundo en el MWC de Barcelona en 2019. Modelo 9 PureView (3) equipado con dos cámaras a color y tres cámaras monocromáticas.

Sveta explicó en el sitio web de Quartz que existen dos diferencias principales entre el L16 y el Nokia 9 PureView. Este último utiliza un sistema de procesamiento más nuevo para unir fotos de lentes individuales. Además, el diseño de Nokia incluye cámaras diferentes a las utilizadas originalmente por Light, con óptica ZEISS para captar más luz. Tres cámaras capturan solo luz en blanco y negro.

El conjunto de cámaras, cada una con una resolución de 12 megapíxeles, brinda un mayor control sobre la profundidad de campo de la imagen y permite a los usuarios capturar detalles que normalmente son invisibles para una cámara celular convencional. Además, según las descripciones publicadas, PureView 9 es capaz de capturar hasta diez veces más luz que otros dispositivos y puede producir fotos con una resolución total de hasta 240 megapíxeles.

El inicio abrupto de los teléfonos multicámara

La luz no es la única fuente de innovación en esta área. Una patente de la empresa coreana LG con fecha de noviembre de 2018 describe la combinación de diferentes ángulos de cámara para crear una película en miniatura que recuerda a las creaciones de Apple Live Photos o imágenes de dispositivos Lytro, sobre las que MT también escribió hace unos años, capturando un campo de luz con un campo de visión ajustable. .

Según la patente de LG, esta solución es capaz de combinar diferentes conjuntos de datos de diferentes lentes para recortar objetos de la imagen (por ejemplo, en el caso del modo retrato o incluso un cambio completo de fondo). Por supuesto, esto es solo una patente por ahora, sin indicios de que LG planee implementarlo en un teléfono. Sin embargo, con la creciente guerra de la fotografía de teléfonos inteligentes, los teléfonos con estas características podrían llegar al mercado más rápido de lo que pensamos.

Como veremos al estudiar la historia de las cámaras multilente, Los sistemas de dos cámaras no son nuevos en absoluto. Sin embargo, la colocación de tres o más cámaras es la canción de los últimos diez meses..

Entre los principales fabricantes de teléfonos, Huawei de China fue el más rápido en lanzar al mercado un modelo de triple cámara. Ya en marzo de 2018 hizo una oferta Huawei P20 Pro (4), que ofrecía tres lentes: regular, monocromo y telezoom, presentado unos meses después. aparearse 20, también con tres cámaras.

Sin embargo, como ya ha sucedido en la historia de las tecnologías móviles, solo había que introducir con valentía las nuevas soluciones de Apple en todos los medios para empezar a hablar de un avance y una revolución. Como el primer modelo. iPhone en 2007, se "lanzó" el mercado de los teléfonos inteligentes anteriormente conocidos, y el primer IPad (pero no la primera tableta en absoluto) en 2010, se abrió la era de las tabletas, por lo que en septiembre de 2019, los iPhone de lentes múltiples "once" (5) de la compañía con una manzana en el emblema podrían considerarse un inicio abrupto de la era de los smartphones multicámara.

11 Pro Oraz 11 Pro Max equipado con tres cámaras. El primero tiene una lente de seis elementos con una distancia focal de fotograma completo de 26 mm y una apertura de f/1.8. El fabricante dice que cuenta con un nuevo sensor de 12 megapíxeles con enfoque de píxel al 100%, lo que podría significar una solución similar a las que se usan en las cámaras Canon o los teléfonos inteligentes Samsung, donde cada píxel consta de dos fotodiodos.

La segunda cámara tiene una lente gran angular (con una distancia focal de 13 mm y un brillo de f / 2.4), equipada con una matriz con una resolución de 12 megapíxeles. Además de los módulos descritos, existe un teleobjetivo que duplica la distancia focal en comparación con un objetivo estándar. Este es un diseño de apertura f/2.0. El sensor tiene la misma resolución que los demás. Tanto el teleobjetivo como el objetivo estándar están equipados con estabilización de imagen óptica.

En todas las versiones nos encontraremos con móviles Huawei, Google Pixel o Samsung. modo nocturno. Esta es también una solución característica para los sistemas multiobjetivo. Consiste en el hecho de que la cámara toma varias fotos con diferente compensación de exposición y luego las combina en una sola foto con menos ruido y mejor dinámica tonal.

La cámara en el teléfono: ¿cómo sucedió?

El primer teléfono con cámara fue el Samsung SCH-V200. El dispositivo apareció en los estantes de las tiendas en Corea del Sur en 2000.

podía recordar veinte fotos con una resolución de 0,35 megapíxeles. Sin embargo, la cámara tenía un serio inconveniente: no se integraba bien con el teléfono. Por eso, algunos analistas lo consideran un dispositivo separado, encerrado en la misma carcasa, y no parte integral del teléfono.

La situación era muy diferente en el caso de J-Phone, es decir, un teléfono que Sharp preparó para el mercado japonés a finales del pasado milenio. El equipo tomaba fotos con una calidad muy baja de 0,11 megapíxeles, pero a diferencia de la oferta de Samsung, las fotos podían transferirse de forma inalámbrica y visualizarse cómodamente en la pantalla de un teléfono móvil. J-Phone está equipado con una pantalla a color que muestra 256 colores.

Los teléfonos móviles se han convertido rápidamente en un gadget muy de moda. Sin embargo, no gracias a los dispositivos Sanyo o J-Phone, sino a las propuestas de los gigantes móviles, principalmente en ese momento Nokia y Sony Ericsson.

nokia 7650 equipado con una cámara de 0,3 megapíxeles. Fue uno de los primeros teléfonos fotográficos ampliamente disponibles y populares. También le fue bien en el mercado. sony ericsson t68i. Ni una sola llamada telefónica antes de él podía recibir y enviar mensajes MMS al mismo tiempo. Sin embargo, a diferencia de los modelos anteriores revisados ​​en la lista, la cámara para el T68i tuvo que comprarse por separado y adjuntarse al teléfono móvil.

Después de la introducción de estos dispositivos, la popularidad de las cámaras en los teléfonos móviles comenzó a crecer a un ritmo tremendo: ya en 2003 se vendían en todo el mundo más que las cámaras digitales estándar.

En 2006, más de la mitad de los teléfonos móviles del mundo tenían una cámara integrada. Un año después, a alguien se le ocurrió la idea de colocar dos lentes en una celda...

De la TV móvil pasando por el 3D a cada vez mejor fotografía

Contrariamente a lo que parece, la historia de las soluciones multicámara no es tan corta. Samsung ofrece en su modelo B710 (6) doble lente en 2007. Aunque en ese momento se prestó más atención a las capacidades de esta cámara en el campo de la televisión móvil, pero el sistema de doble lente hizo posible capturar recuerdos fotográficos en efecto 3D. Miramos la foto terminada en la pantalla de este modelo sin necesidad de usar gafas especiales.

En aquellos años había una gran moda por el 3D, los sistemas de cámaras se veían como una oportunidad para reproducir este efecto.

LG Optimus 3D, que se estrenó en febrero de 2011, y HTC Evo 3D, lanzado en marzo de 2011, usó lentes duales para crear fotografías en 3D. Utilizaron la misma técnica utilizada por los diseñadores de cámaras 3D "normales", usando lentes duales para crear una sensación de profundidad en las imágenes. Esto se ha mejorado con una pantalla 3D diseñada para ver las imágenes recibidas sin gafas.

Sin embargo, el 3D resultó ser solo una moda pasajera. Con su declive, se dejó de pensar en los sistemas multicámara como herramienta para la obtención de imágenes estereográficas.

En cualquier caso, no más. La primera cámara que ofreció dos sensores de imagen para fines similares a los actuales fue HTC One M8 (7), publicado en abril de 2014. Su sensor principal UltraPixel de 4MP y su sensor secundario de 2MP han sido diseñados para crear una sensación de profundidad en las fotos.

La segunda lente creó el mapa de profundidad y lo incluyó en el resultado final de la imagen. Esto significaba la capacidad de crear un efecto desenfoque de fondo , reenfocando la imagen con un toque en el panel de visualización y administra fácilmente las fotos mientras mantienes el sujeto nítido y cambias el fondo incluso después de tomarlas.

Sin embargo, en ese momento, no todos entendieron el potencial de esta técnica. Puede que el HTC One M8 no haya sido un fracaso del mercado, pero tampoco fue particularmente popular. Otro edificio importante en esta historia, LG G5, fue lanzado en febrero de 2016. Presentaba un sensor principal de 16MP y un sensor secundario de 8MP, que es una lente gran angular de 135 grados a la que se podía cambiar el dispositivo.

En abril de 2016, Huawei ofreció el modelo en colaboración con Leica. P9, con dos cámaras en la parte trasera. Uno de ellos se usó para capturar colores RGB (), el otro se usó para capturar detalles monocromáticos. Fue sobre la base de este modelo que Huawei creó más tarde el modelo P20 mencionado anteriormente.

En 2016 también se introdujo en el mercado iphone 7 más con dos cámaras en la parte posterior, ambas de 12 megapíxeles, pero con diferentes distancias focales. La primera cámara tenía un zoom de 23 mm y la segunda un zoom de 56 mm, marcando el comienzo de la era de la telefotografía de teléfonos inteligentes. La idea era permitir que el usuario hiciera zoom sin perder calidad: Apple quería resolver lo que consideraba un problema importante con la fotografía de teléfonos inteligentes y desarrolló una solución que coincidía con el comportamiento del consumidor. También reflejó la solución de HTC, ofreciendo efectos bokeh utilizando mapas de profundidad derivados de los datos de ambos lentes.

La llegada del Huawei P20 Pro a principios de 2018 supuso la integración de todas las soluciones probadas hasta el momento en un solo dispositivo con triple cámara. Se ha añadido una lente varifocal al sistema de sensor RGB y monocromático, y el uso de inteligencia artificial dio mucho más que la simple suma de ópticas y sensores. Además, hay un modo nocturno impresionante. El nuevo modelo fue un gran éxito y, en el sentido del mercado, resultó ser un gran avance, y no una cámara de Nokia que deslumbrara por la cantidad de lentes o un producto familiar de Apple.

El precursor de la tendencia de tener más de una cámara en un teléfono, Samsung (8) también presentó una cámara con tres lentes en 2018. estaba en el modelo Galaxy Samsung A7.

8. Módulo de fabricación de doble lente de Samsung

Sin embargo, el fabricante decidió utilizar lentes: regular, gran angular y tercer ojo para proporcionar "información de profundidad" no muy precisa. Pero otro modelo Galaxy A9, se ofrecen un total de cuatro lentes: ultra gran angular, teleobjetivo, cámara estándar y sensor de profundidad.

es mucho porque Por ahora, tres lentes siguen siendo estándar. Además del iPhone, los modelos estrella de sus marcas como el Huawei P30 Pro y el Samsung Galaxy S10+ cuentan con tres cámaras en la parte trasera. Por supuesto, no contamos la lente selfie frontal más pequeña..

Google parece indiferente a todo esto. Su pixel 3 tenía una de las mejores cámaras del mercado y podía hacer "todo" con una sola lente.

Los dispositivos Pixel usan software dedicado para proporcionar efectos de estabilización, zoom y profundidad. Los resultados no fueron tan buenos como podrían haber sido con múltiples lentes y sensores, pero la diferencia fue pequeña y los teléfonos de Google compensaron las pequeñas brechas con un excelente rendimiento con poca luz. Como parece, sin embargo, recientemente en el modelo pixel 4, incluso Google finalmente se vino abajo, aunque todavía solo ofrece dos lentes: regular y tele.

no trasero

¿Qué le da la adición de cámaras adicionales a un teléfono inteligente? Según los expertos, si graban a diferentes distancias focales, establecen diferentes valores de apertura y capturan lotes completos de imágenes para su posterior procesamiento algorítmico (composición), esto proporciona un aumento notable en la calidad en comparación con las imágenes obtenidas con la cámara de un solo teléfono.

Las fotos son más nítidas, más detalladas, con colores más naturales y mayor rango dinámico. El rendimiento con poca luz también es mucho mejor.

Muchas personas que leen sobre las posibilidades de los sistemas multilente los asocian principalmente con desenfocar el fondo de un retrato con bokeh, es decir, desenfocar los objetos más allá de la profundidad de campo. Pero eso no es todo.

Las cámaras de este tipo realizan una gama cada vez más amplia de funciones, incluido el mapeo XNUMXD más preciso, la introducción realidad aumentada y mejor reconocimiento de rostros y paisajes.

Anteriormente, con la ayuda de aplicaciones e inteligencia artificial, los sensores ópticos de los teléfonos inteligentes han asumido tareas como la termografía, la traducción de textos extranjeros a partir de imágenes, la identificación de constelaciones de estrellas en el cielo nocturno o el análisis de los movimientos de un atleta. El uso de sistemas multicámara mejora enormemente el rendimiento de estas funciones avanzadas. Y, sobre todo, nos une a todos en un solo paquete.

La vieja historia de las soluciones de objetivos múltiples muestra una búsqueda diferente, pero el problema difícil siempre ha sido los altos requisitos para el procesamiento de datos, la calidad de los algoritmos y el consumo de energía. En el caso de los teléfonos inteligentes actuales, que utilizan procesadores de señales visuales más potentes que antes, así como procesadores de señales digitales de bajo consumo e incluso capacidades mejoradas de redes neuronales, estos problemas se han reducido significativamente.

Un alto nivel de detalle, grandes posibilidades ópticas y efectos bokeh personalizables ocupan un lugar destacado en la lista de requisitos modernos para la fotografía de teléfonos inteligentes. Hasta hace poco, para poder cumplirlas, el usuario del smartphone tenía que disculparse con la ayuda de una cámara tradicional. No necesariamente hoy.

Con cámaras grandes, el efecto estético surge naturalmente cuando el tamaño de la lente y el tamaño de la apertura son lo suficientemente grandes como para lograr un desenfoque analógico dondequiera que los píxeles estén desenfocados. Los teléfonos móviles tienen lentes y sensores (9) que son demasiado pequeños para que esto suceda de forma natural (en el espacio analógico). Por lo tanto, se está desarrollando un proceso de emulación de software.

Los píxeles más alejados del área de enfoque o del plano focal se desenfocan artificialmente utilizando uno de los muchos algoritmos de desenfoque comúnmente utilizados en el procesamiento de imágenes. La distancia de cada píxel desde el área de enfoque se mide mejor y más rápido con dos fotografías tomadas con una separación de ~1 cm.

Con una longitud de división constante y la capacidad de tomar ambas vistas al mismo tiempo (evitando el ruido de movimiento), es posible triangular la profundidad de cada píxel en una fotografía (utilizando el algoritmo estéreo multivista). Ahora es fácil obtener una excelente estimación de la posición de cada píxel en relación con el área de enfoque.

No es fácil, pero los teléfonos con cámara dual facilitan el proceso porque pueden tomar fotos al mismo tiempo. Los sistemas con una sola lente deben tomar dos tomas consecutivas (desde diferentes ángulos) o usar un zoom diferente.

¿Hay alguna forma de ampliar una foto sin perder resolución? telefotográfico ( óptico). El zoom óptico real máximo que puede obtener actualmente en un teléfono inteligente es 5x en el Huawei P30 Pro.

Algunos teléfonos utilizan sistemas híbridos que utilizan imágenes tanto ópticas como digitales, lo que le permite hacer zoom sin pérdida aparente de calidad. El mencionado Google Pixel 3 utiliza algoritmos informáticos extremadamente complejos para ello, no es de extrañar que no necesite lentes adicionales. Sin embargo, el Cuarteto ya se ha implementado, por lo que parece difícil prescindir de la óptica.

La física del diseño de una lente típica hace que sea muy difícil colocar una lente de zoom en el cuerpo delgado de un teléfono inteligente de alta gama. Como resultado, los fabricantes de teléfonos han podido lograr un máximo de 2 o 3 veces el tiempo óptico debido a la orientación tradicional de los teléfonos inteligentes con sensor y lente. Agregar un teleobjetivo generalmente significa un teléfono más grueso, un sensor más pequeño o el uso de una óptica plegable.

Una forma de cruzar el punto focal es la llamada óptica compleja (diez). El sensor del módulo de la cámara está ubicado verticalmente en el teléfono y mira hacia la lente con el eje óptico a lo largo del cuerpo del teléfono. El espejo o prisma se coloca en el ángulo correcto para reflejar la luz de la escena a la lente y al sensor.

10. Óptica sofisticada en un smartphone

Los primeros diseños de este tipo incluían un espejo fijo adecuado para sistemas de doble lente, como los productos Falcon y Corephotonics Hawkeye, que combinan una cámara tradicional y un sofisticado diseño de teleobjetivo en una sola unidad. Sin embargo, también están comenzando a ingresar al mercado proyectos de empresas como Light, que utilizan espejos móviles para sintetizar imágenes de múltiples cámaras.

Todo lo contrario al teleobjetivo fotografía de gran angular. En lugar de primeros planos, una vista de gran angular muestra más de lo que tenemos delante. La fotografía de gran angular se introdujo como el segundo sistema de lentes en el LG G5 y los teléfonos posteriores.

La opción de gran angular es especialmente útil para capturar momentos emocionantes, como estar entre la multitud en un concierto o en un lugar demasiado grande para capturar con una lente más estrecha. También es excelente para capturar paisajes urbanos, edificios de gran altura y otras cosas que los lentes normales simplemente no pueden ver. Por lo general, no es necesario cambiar a un "modo" u otro, ya que la cámara cambia a medida que te acercas o te alejas del sujeto, lo que se integra muy bien con la experiencia normal de la cámara en la cámara. .

Según LG, el 50% de los usuarios de doble cámara utilizan una lente gran angular como cámara principal.

Actualmente, toda la línea de smartphones ya está equipada con un sensor diseñado para el ejercicio. fotos monocromáticases decir, en blanco y negro. Su mayor ventaja es la nitidez, por lo que algunos fotógrafos las prefieren así.

Los teléfonos modernos son lo suficientemente inteligentes como para combinar esta nitidez con la información de los sensores de color para producir un marco que teóricamente se ilumina con mayor precisión. Sin embargo, el uso de un sensor monocromático todavía es raro. Si se incluye, generalmente se puede aislar de otras lentes. Esta opción se puede encontrar en la configuración de la aplicación de la cámara.

Debido a que los sensores de la cámara no captan los colores por sí solos, requieren una aplicación filtros de color sobre el tamaño de píxel. Como resultado, cada píxel solo registra un color, generalmente rojo, verde o azul.

La suma resultante de píxeles se crea para crear una imagen RGB utilizable, pero hay compensaciones en el proceso. El primero es la pérdida de resolución provocada por la matriz de color, y dado que cada píxel solo recibe una fracción de la luz, la cámara no es tan sensible como un dispositivo sin matriz de filtro de color. Aquí es donde el fotógrafo sensible a la calidad acude al rescate con un sensor monocromático que puede capturar y grabar en resolución completa toda la luz disponible. La combinación de la imagen de la cámara monocromática con la imagen de la cámara RGB principal da como resultado una imagen final más detallada.

El segundo sensor monocromático es perfecto para esta aplicación, pero no es la única opción. Archos, por ejemplo, está haciendo algo similar al monocromo normal, pero usando un sensor RGB adicional de mayor resolución. Dado que las dos cámaras están desplazadas entre sí, el proceso de alineación y fusión de las dos imágenes sigue siendo difícil, y la imagen final no suele ser tan detallada como la versión monocromática de mayor resolución.

Sin embargo, como resultado, obtenemos una clara mejora en la calidad en comparación con una imagen tomada con un solo módulo de cámara.

sensor de profundidad, utilizado en las cámaras Samsung, entre otras cosas, permite efectos de desenfoque profesionales y una mejor representación AR usando las cámaras delantera y trasera. Sin embargo, los teléfonos de gama alta están reemplazando gradualmente a los sensores de profundidad al incorporar este proceso en cámaras que también pueden detectar profundidad, como dispositivos con lentes ultra gran angular o teleobjetivo.

Por supuesto, es probable que los sensores de profundidad sigan apareciendo en teléfonos más asequibles y en aquellos que tienen como objetivo crear efectos de profundidad sin óptica costosa, como motorola g7.

Realidad Aumentada, es decir, verdadera revolución

Cuando el teléfono usa diferencias en las imágenes de varias cámaras para crear un mapa de distancia en una escena determinada (comúnmente conocido como mapa de profundidad), puede usar eso para alimentar aplicación de realidad aumentada (ARKANSAS). Lo apoyará, por ejemplo, al colocar y mostrar objetos sintéticos en las superficies de la escena. Si esto se hace en tiempo real, los objetos podrán cobrar vida y moverse.

Tanto Apple con su ARKit como Android con ARCore brindan plataformas AR para teléfonos con múltiples cámaras. 

Uno de los mejores ejemplos de nuevas soluciones que surgen con la proliferación de teléfonos inteligentes con varias cámaras son los logros de Lucid, la empresa emergente de Silicon Valley. En algunos círculos puede ser conocido como el creador. Cámara lúcida VR180 y el pensamiento tecnológico del revolucionario diseño de la cámara Rojo 8K 3D

Los especialistas de Lucid han creado una plataforma Fusión 3D clara (11), que utiliza aprendizaje automático y datos estadísticos para medir rápidamente la profundidad de las imágenes en tiempo real. Este método permite funciones que antes no estaban disponibles en los teléfonos inteligentes, como el seguimiento avanzado de objetos AR y la gesticulación en el aire utilizando imágenes de alta resolución. 

11. Visualización de tecnología lúcida

Desde el punto de vista de la empresa, la proliferación de cámaras en los teléfonos es un área muy útil para los sensores de realidad aumentada integrados en las ubicuas computadoras de bolsillo que ejecutan aplicaciones y siempre están conectadas a Internet. Las cámaras de los teléfonos inteligentes ya pueden identificar y proporcionar información adicional sobre a qué las estamos apuntando. Nos permiten recopilar datos visuales y ver objetos de realidad aumentada colocados en el mundo real.

El software Lucid puede convertir datos de dos cámaras en información 3D que se usa para mapeo en tiempo real y grabación de escenas con información de profundidad. Esto le permite crear rápidamente modelos 3D y videojuegos XNUMXD. La empresa usó su LucidCam para explorar la expansión del rango de visión humana en un momento en que los teléfonos inteligentes con doble cámara eran solo una pequeña parte del mercado.

Muchos comentaristas señalan que al centrarnos solo en los aspectos fotográficos de la existencia de los teléfonos inteligentes con múltiples cámaras, no vemos lo que esa tecnología realmente puede traer consigo. Tome el iPhone, por ejemplo, que utiliza algoritmos de aprendizaje automático para escanear objetos en una escena, creando un mapa de profundidad XNUMXD en tiempo real del terreno y los objetos. El software usa esto para separar el fondo del primer plano para enfocarse selectivamente en los objetos que contiene. Los efectos bokeh resultantes son solo trucos. Algo más es importante.

El software que realiza este análisis de la escena visible crea simultáneamente ventana virtual al mundo real. Mediante el reconocimiento de gestos con las manos, los usuarios podrán interactuar de forma natural con el mundo de realidad mixta utilizando este mapa espacial, con el acelerómetro del teléfono y los datos del GPS detectando e impulsando cambios en la forma en que se representa y actualiza el mundo.

tan Agregar cámaras a los teléfonos inteligentes, diversión aparentemente vacía y competencia en quién da más, puede eventualmente afectar fundamentalmente la interfaz de la máquina y luego, quién sabe, las formas de interacción humana..

Sin embargo, volviendo al campo de la fotografía, muchos comentaristas señalan que las soluciones multicámara pueden ser el último clavo en el ataúd de muchos tipos de cámaras, como las cámaras SLR digitales. Romper las barreras de la calidad de imagen significa que solo los equipos fotográficos especializados de la más alta calidad mantendrán la razón de ser. Lo mismo puede ocurrir con las cámaras de grabación de vídeo.

En otras palabras, los teléfonos inteligentes equipados con conjuntos de cámaras de varios tipos reemplazarán no solo a los simples "snaps", sino también a la mayoría de los dispositivos profesionales. Aún es difícil juzgar si esto realmente sucederá. Hasta ahora, lo consideran tan exitoso.

Ver también:

Añadir un comentario