El chatbot de OpenAI ha dado un gran paso hacia el futuro con la incorporación de funciones que le permiten procesar video en tiempo real y ofrecer interacción más avanzada con los usuarios. Inspirado en ideas que parecían ciencia ficción, como las de la película Her, ChatGPT puede ahora interpretar lo que muestra nuestra cámara y dar respuestas basadas en lo que «ve».
Esta funcionalidad estará disponible próximamente en muchos países, aunque su despliegue inicial no incluirá la Unión Europea debido a regulaciones locales.
Cómo funciona la nueva herramienta
Para activar esta capacidad, los usuarios deben abrir la aplicación de ChatGPT, seleccionar el modo de voz avanzado y habilitar la cámara. Podrán usar la cámara frontal o trasera de su dispositivo, según la tarea. Además, se incluirá una opción para compartir pantalla, permitiendo que el chatbot acceda en tiempo real a las aplicaciones abiertas.
Casos prácticos y demostraciones
Las nuevas funciones tienen múltiples aplicaciones: desde tareas cotidianas como preparar café con instrucciones paso a paso, hasta usos educativos, como resolver problemas matemáticos o describir entornos para mejorar la accesibilidad. Durante una demostración reciente, ChatGPT identificó objetos en una mesa y guió a un usuario con rapidez y precisión.
Disponibilidad y costos
El modo de video estará disponible en los próximos días para los usuarios de ChatGPT Plus ($20/mes) y ChatGPT Pro ($200/mes). En Europa, OpenAI ha señalado que estas funciones podrían llegar más tarde debido a cuestiones regulatorias.
Con este avance, OpenAI consolida su posición como líder en el desarrollo de inteligencia artificial, aunque reconoce que, como todo modelo, estas nuevas capacidades aún podrían presentar errores.