OpenAI ha comenzado el despliegue de su esperado modo de voz avanzado para los suscriptores de ChatGPT Plus y Teams, una funcionalidad que permitirá mantener conversaciones más fluidas y naturales con la Inteligencia Artificial (IA).
Conforme a los criterios de
Esta nueva opción añade la posibilidad de interpretar "emociones y señales no verbales", acercando la interacción con la IA a una experiencia más humana. Sin embargo, este lanzamiento no llegará a los usuarios de la Unión Europea (UE) ni a otros países como el Reino Unido, Suiza, Islandia, Noruega y Liechtenstein.
Mejoras en el modelo GPT-4o
Desde su presentación en mayo, OpenAI ha trabajado en la evolución de su modelo GPT-4o, diseñado para ofrecer una interacción más natural entre el usuario y la máquina.
Este sistema puede procesar entradas de texto, audio e imagen, generando respuestas en múltiples formatos con gran rapidez. Además, como parte de su desarrollo, se incorporó el 'Modo voz', el cual permite a los usuarios seleccionar entre diversas voces para personalizar la experiencia conversacional con el 'chatbot'.
Aunque OpenAI tenía previsto comenzar las pruebas de esta función en julio, la empresa decidió posponer su lanzamiento para garantizar que cumpliera con "altos estándares de seguridad y fiabilidad". Posteriormente, se lanzó una versión alfa de este modo de voz avanzado para un grupo limitado de suscriptores de ChatGPT Plus.
Cinco nuevas voces y personalización
Ahora, OpenAI ha confirmado que los usuarios de las versiones Plus y Teams ya pueden disfrutar de esta nueva característica. Según informó la compañía en una publicación en la red social X, el modo de voz avanzado no solo introduce nuevas voces, sino que también incluye mejoras como instrucciones personalizadas y memoria de conversaciones.
Entre las novedades, destacan cinco voces nuevas: Arbor, Maple, Sol, Spruce y Vale, que se añaden a las ya existentes Breeze, Juniper, Cove y Ember. Cabe señalar que una de las voces que no fue incluida en esta actualización es la llamada Sky, que había sido utilizada en una demostración anterior, pero fue retirada tras generar controversia por su semejanza con la voz de la actriz Scarlett Johansson, quien en 2013 interpretó a una IA en la película Her.
Advanced Voice is rolling out to all Plus and Team users in the ChatGPT app over the course of the week.
While you’ve been patiently waiting, we’ve added Custom Instructions, Memory, five new voices, and improved accents.
It can also say “Sorry I’m late” in over 50 languages. pic.twitter.com/APOqqhXtDg
Nuevas funciones y restricciones geográficas
Las instrucciones personalizadas permiten a los usuarios configurar cómo debería responder ChatGPT, adaptando el tono de sus respuestas o haciendo que se refiera a los usuarios por su nombre. Además, OpenAI ha mejorado la velocidad y fluidez en las conversaciones, así como la capacidad del 'chatbot' para recordar interacciones anteriores.
A pesar de que esta función está disponible en más de 50 idiomas, OpenAI ha dejado claro que, por ahora, no estará accesible para los usuarios en la UE ni en otros territorios mencionados.
Europa Press
Más noticias en EL TIEMPO
*Este contenido fue reescrito con la asistencia de una inteligencia artificial, basado en la información publicada por Europa Press, y contó con la revisión de la periodista y un editor.