OpenAI anunció una actualización de su modelo de inteligencia artificial GPT-4o, introduciendo significativas mejoras en la escritura creativa y en la capacidad para trabajar con archivos cargados. Con esta versión, la empresa liderada por Sam Altman busca ofrecer respuestas más completas y precisas, optimizando la interacción del modelo con diferentes tipos de documentos y medios.
Conforme a los criterios de
Presentado originalmente en mayo de este año, GPT-4o se distingue por su capacidad para procesar una combinación de texto, audio e imagen, respondiendo a las entradas de voz en un tiempo comparable al humano, con un promedio de 320 milisegundos.
La nueva versión del modelo pretende llevar esta capacidad un paso adelante, proporcionando una escritura más "natural, atractiva y personalizada", según señaló la compañía en un comunicado en X (anteriormente conocido como Twitter).
Las actualizaciones no solo se centran en la escritura creativa sino también en la mejora de la experiencia al trabajar con archivos cargados. Cuando GPT-4o interactúa con imágenes o documentos de texto, ahora es capaz de profundizar en el contenido para ofrecer respuestas más detalladas y enriquecedoras.
Estas mejoras están, por el momento, disponibles exclusivamente para los usuarios suscritos a la versión de pago ChatGPT Plus, restringiendo su acceso al público general.
Nuevas estrategias para el trabajo en equipo automatizado
Además de las mejoras en GPT-4o, OpenAI publicó dos nuevos artículos de investigación que exponen avances en la automatización del trabajo en equipo, enfocándose en la seguridad y la eficacia de la IA. Estos estudios sugieren que una IA más potente puede escalar de manera eficaz el descubrimiento de errores, vital para entrenamientos seguros y evaluaciones precisas.
Los artículos detallan métodos para incorporar a expertos externos en la evaluación de modelos avanzados y presentan un nuevo enfoque para automatizar los procesos de evaluación de seguridad, que anteriormente dependían completamente del equipo humano. Este sistema automatizado puede generar ejemplos de errores a gran escala, permitiendo a los investigadores identificar y mitigar posibles riesgos de forma más eficiente.
La investigación revela que los equipos rojos automatizados son capaces de generar una gran variedad de ataques, lo que mejora la diversidad y la efectividad de las pruebas de seguridad. Por ejemplo, utilizar el modelo GPT-4T para examinar respuestas inapropiadas y entrenar otro modelo para que intente engañar a ChatGPT muestra cómo estas técnicas pueden refinar la seguridad y las evaluaciones del modelo.
A pesar de estos avances, OpenAI advierte que el trabajo en equipo automatizado aún necesita refinamiento, incluyendo la incorporación de perspectivas públicas sobre el comportamiento ideal del modelo y las políticas relacionadas antes de que pueda implementarse plenamente.
Influencia de la tecnología en el futuro del trabajo
Europa Press
Más noticias en EL TIEMPO
*Este contenido fue reescrito con la asistencia de una inteligencia artificial, basado en información de Europa Press, y contó con la revisión de un periodista y un editor.