Un vistazo a la carrera por la IA portátil
Meta agrega IA multimodal a sus gafas Ray-Ban
La inteligencia artificial (IA) ha avanzado significativamente en los últimos años, y ahora los gigantes tecnológicos están compitiendo para llevar la IA portátil al ámbito de las gafas inteligentes y otros dispositivos. Empresas como Meta Platforms, Google, Microsoft y OpenAI están trabajando en el desarrollo de IA multimodal que puede entender imágenes, lenguaje, dibujos, gráficos y gestos. En este artículo, exploraremos cómo Meta está agregando IA multimodal a sus gafas Ray-Ban y cómo OpenAI está discutiendo la posibilidad de agregar GPT-4 con Visión a los dispositivos de Snap.
Meta Platforms, anteriormente conocida como Facebook, ha lanzado nuevas características basadas en IA multimodal para sus gafas inteligentes Ray-Ban Meta. Estas características incluyen la capacidad de identificar objetos captados por la cámara de las gafas, así como funciones de traducción y generación de texto. Los usuarios de las gafas pueden invocar al asistente virtual «Hey Meta» para hacer preguntas o solicitar sugerencias. Por ejemplo, se puede pedir al asistente que sugiera qué pantalones combinar con una camisa a rayas. Además, el asistente puede proporcionar descripciones visuales y auditivas a través de la aplicación móvil. La IA utilizada en estas funciones se basa en sistemas generativos multimodales desarrollados por Meta.
Se dice que OpenAI discutió agregar GPT-4 con Visión a los dispositivos de Snap
Según un artículo publicado por The Information, OpenAI ha discutido la posibilidad de agregar su software de reconocimiento de objetos, conocido como GPT-4 con Visión, a los productos de Snap Inc., la empresa matriz de Snapchat. Esto podría resultar en nuevas características para las gafas inteligentes Spectacles de Snap. Aunque no se han revelado detalles específicos sobre cómo se implementaría esta integración, es emocionante pensar en las posibilidades que podría ofrecer. La combinación de la tecnología de reconocimiento de objetos y la generación de texto avanzada podría permitir a los usuarios interactuar con el mundo que les rodea de una manera completamente nueva.
La incorporación de IA multimodal en dispositivos portátiles como las gafas inteligentes tiene el potencial de revolucionar nuestra forma de interactuar con la tecnología. Al comprender imágenes, lenguaje y gestos, estos dispositivos pueden proporcionar información útil y contextos relevantes en tiempo real. Por ejemplo, las gafas podrían identificar objetos y proporcionar descripciones detalladas o traducciones instantáneas. También podrían ayudarnos a tomar decisiones informadas al sugerirnos opciones basadas en nuestras preferencias y necesidades.
Es importante destacar que Meta ha implementado salvaguardias para evitar respuestas abusivas o perjudiciales por parte del asistente virtual en las gafas Ray-Ban Meta Smart Glasses. Esto es crucial para garantizar una experiencia segura y positiva para los usuarios.
Wearable en español sería: ¿Portátil, portable, usable, ponible?
En inglés el término usado es Wearable AI cuya traducción al español me parece que no es del todo concertada. He visto varios adjetivos como: portátil, portable, usable o ponible. Hemos elegido «portátil» por ahora pero el uso de este término en nuestro idioma podría variar. Estoy viendo que se empieza a usar el término ponible con frecuencia, cuyo uso aún, no me convence. Veremos qué palabra termina convirtiéndose en norma.
En resumen, la carrera por llevar la IA portátil a dispositivos como gafas inteligentes está en pleno apogeo. Empresas como Meta Platforms y OpenAI están trabajando arduamente para desarrollar funciones multimodales que mejoren nuestra interacción con estos dispositivos. Desde la capacidad de identificar objetos hasta la generación de texto avanzada, estas características prometen abrir nuevas posibilidades en el ámbito de la tecnología portátil. Estaremos atentos a futuras actualizaciones y desarrollos en este emocionante campo.