/ sábado 5 de octubre de 2024

Hablemos de Tecnología / Los ojos de la IA

Si hay un peor ciego que aquel que no quiere ver, y ese es el ciego que aún logrando ver las cosas, sencillamente decide no hacer nada. Hoy con la nueva manera de observar al mundo que la Inteligencia Artificial nos ofrece, muchas, en realidad muchas cosas van a cambiar.

Amigo lector, ¿ha pensado alguna vez en cómo la tecnología nos está ayudando a ver el mundo de formas que nunca imaginamos? Vivimos en una era en la que nuestras cámaras no solo capturan imágenes, sino que también las entienden, las analizan y hasta nos responden. Esta es la magia de la inteligencia artificial aplicada a la visión, y la carrera por dotar a nuestras herramientas tecnológicas de “ojos” cada vez más potentes no hace más que intensificarse.

Recientemente, Google ha sorprendido con una actualización para su ya famosa herramienta Google Lens, la cual ha dado un salto cuántico en términos de funcionalidad. Desde 2017, Google Lens ha estado presente en nuestros smartphones como una herramienta útil para identificar objetos, traducir textos y dar contexto a imágenes. Pero, hoy, la gran G ha cambiado las reglas del juego al incorporar la capacidad de analizar vídeos e interactuar con nuestras propias voces, llevándola a un nivel de versatilidad sin precedentes.

Y es que, estimado lector, cuando hablamos de visión artificial, estamos refiriéndonos a algo más que a un “buscador visual”. Las cámaras de nuestros dispositivos han pasado de ser simples testigos a convertirse en verdaderos analistas del entorno. Google Lens, ahora, no solo “ve” un paisaje o un objeto, sino que “escucha” nuestras preguntas mientras grabamos un video, capturando tanto lo que se muestra como lo que se dice. Imagínese, por ejemplo, grabando un platillo en un restaurante y preguntándole a la aplicación qué ingredientes tiene o si es apto para su dieta. Todo esto en tiempo real y con resultados impresionantemente precisos.

Sin embargo, no todo es color de rosa en este territorio. Apple, por su parte, no se ha quedado de brazos cruzados y ha introducido su propia versión de esta tecnología en el iPhone 16: Apple Visual Intelligence. La apuesta de Apple, como era de esperarse, está centrada en la privacidad. A diferencia de Google, que utiliza servidores en la nube para procesar la información, Apple opta por realizar todo el análisis dentro del dispositivo. Esto significa que, al apuntar la cámara de su iPhone a un cartel de concierto, no solo podrá obtener detalles del evento, sino que también podrá añadirlo directamente a su calendario sin que ningún dato abandone su celular.

En este “duelo de titanes”, cada uno ofrece algo valioso: mientras que Google Lens se posiciona como el “todoterreno” que identifica objetos, traduce idiomas y busca información en un abrir y cerrar de ojos, Apple ha creado una herramienta más íntima y contextual. La Visual Intelligence de Apple se integra de manera casi orgánica con el resto de las aplicaciones del iPhone, sugiriendo acciones que van desde encontrar la ubicación exacta de un café hasta mostrar reseñas del lugar sin necesidad de buscar manualmente en la red. Y todo esto con la seguridad de que sus datos no se están transmitiendo a la nube. -Son en realidad si usted me permite dos enfoques muy diferentes de como incorporar IA a la vida-.

Imagine que, en un futuro cercano, pueda caminar por un museo y que su teléfono le explique cada obra de arte como si tuviera un guía turístico personal en la palma de su mano. O, mejor aún, piense en la posibilidad de que pueda apuntar la cámara a una planta que encuentra en el parque y no solo le diga qué es, sino que le aconseje cómo cuidarla.

El camino que están abriendo estas tecnologías es fascinante, pero también plantea preguntas sobre el tipo de interacciones que queremos tener con el entorno y qué tanto estamos dispuestos a ceder en términos de privacidad a cambio de comodidad. Google, con su enfoque basado en la nube, ofrece respuestas rápidas y profundas gracias a su gigantesca base de datos. Apple, en cambio, prefiere mantener sus respuestas “locales”, priorizando que cada consulta se procese en su dispositivo. ¿Cuál de estas filosofías prefiere usted?.

Por ahora, lo único que nos queda hacer es disfrutar del espectáculo. Porque cuando estos titanes tecnológicos compiten, nosotros ganamos. Pero, como siempre, la última palabra la tiene usted, estimado lector. ¿Cuál de estas visiones del futuro le resulta más atractiva? ¿La omnisciencia de Google o la seguridad de Apple? Quizá la mejor opción sea un poco de ambas. Después de todo, ¿por qué elegir cuando podemos tener lo mejor de los dos mundos? Hasta la próxima.

Facebook: www.facebook.com/soylalodelatorre

Twitter: @lalodelatorreg

Email: tecnologia@lalodelatorre.com

Si hay un peor ciego que aquel que no quiere ver, y ese es el ciego que aún logrando ver las cosas, sencillamente decide no hacer nada. Hoy con la nueva manera de observar al mundo que la Inteligencia Artificial nos ofrece, muchas, en realidad muchas cosas van a cambiar.

Amigo lector, ¿ha pensado alguna vez en cómo la tecnología nos está ayudando a ver el mundo de formas que nunca imaginamos? Vivimos en una era en la que nuestras cámaras no solo capturan imágenes, sino que también las entienden, las analizan y hasta nos responden. Esta es la magia de la inteligencia artificial aplicada a la visión, y la carrera por dotar a nuestras herramientas tecnológicas de “ojos” cada vez más potentes no hace más que intensificarse.

Recientemente, Google ha sorprendido con una actualización para su ya famosa herramienta Google Lens, la cual ha dado un salto cuántico en términos de funcionalidad. Desde 2017, Google Lens ha estado presente en nuestros smartphones como una herramienta útil para identificar objetos, traducir textos y dar contexto a imágenes. Pero, hoy, la gran G ha cambiado las reglas del juego al incorporar la capacidad de analizar vídeos e interactuar con nuestras propias voces, llevándola a un nivel de versatilidad sin precedentes.

Y es que, estimado lector, cuando hablamos de visión artificial, estamos refiriéndonos a algo más que a un “buscador visual”. Las cámaras de nuestros dispositivos han pasado de ser simples testigos a convertirse en verdaderos analistas del entorno. Google Lens, ahora, no solo “ve” un paisaje o un objeto, sino que “escucha” nuestras preguntas mientras grabamos un video, capturando tanto lo que se muestra como lo que se dice. Imagínese, por ejemplo, grabando un platillo en un restaurante y preguntándole a la aplicación qué ingredientes tiene o si es apto para su dieta. Todo esto en tiempo real y con resultados impresionantemente precisos.

Sin embargo, no todo es color de rosa en este territorio. Apple, por su parte, no se ha quedado de brazos cruzados y ha introducido su propia versión de esta tecnología en el iPhone 16: Apple Visual Intelligence. La apuesta de Apple, como era de esperarse, está centrada en la privacidad. A diferencia de Google, que utiliza servidores en la nube para procesar la información, Apple opta por realizar todo el análisis dentro del dispositivo. Esto significa que, al apuntar la cámara de su iPhone a un cartel de concierto, no solo podrá obtener detalles del evento, sino que también podrá añadirlo directamente a su calendario sin que ningún dato abandone su celular.

En este “duelo de titanes”, cada uno ofrece algo valioso: mientras que Google Lens se posiciona como el “todoterreno” que identifica objetos, traduce idiomas y busca información en un abrir y cerrar de ojos, Apple ha creado una herramienta más íntima y contextual. La Visual Intelligence de Apple se integra de manera casi orgánica con el resto de las aplicaciones del iPhone, sugiriendo acciones que van desde encontrar la ubicación exacta de un café hasta mostrar reseñas del lugar sin necesidad de buscar manualmente en la red. Y todo esto con la seguridad de que sus datos no se están transmitiendo a la nube. -Son en realidad si usted me permite dos enfoques muy diferentes de como incorporar IA a la vida-.

Imagine que, en un futuro cercano, pueda caminar por un museo y que su teléfono le explique cada obra de arte como si tuviera un guía turístico personal en la palma de su mano. O, mejor aún, piense en la posibilidad de que pueda apuntar la cámara a una planta que encuentra en el parque y no solo le diga qué es, sino que le aconseje cómo cuidarla.

El camino que están abriendo estas tecnologías es fascinante, pero también plantea preguntas sobre el tipo de interacciones que queremos tener con el entorno y qué tanto estamos dispuestos a ceder en términos de privacidad a cambio de comodidad. Google, con su enfoque basado en la nube, ofrece respuestas rápidas y profundas gracias a su gigantesca base de datos. Apple, en cambio, prefiere mantener sus respuestas “locales”, priorizando que cada consulta se procese en su dispositivo. ¿Cuál de estas filosofías prefiere usted?.

Por ahora, lo único que nos queda hacer es disfrutar del espectáculo. Porque cuando estos titanes tecnológicos compiten, nosotros ganamos. Pero, como siempre, la última palabra la tiene usted, estimado lector. ¿Cuál de estas visiones del futuro le resulta más atractiva? ¿La omnisciencia de Google o la seguridad de Apple? Quizá la mejor opción sea un poco de ambas. Después de todo, ¿por qué elegir cuando podemos tener lo mejor de los dos mundos? Hasta la próxima.

Facebook: www.facebook.com/soylalodelatorre

Twitter: @lalodelatorreg

Email: tecnologia@lalodelatorre.com