Explicativo
Un estudio reciente advierte sobre los riesgos de compartir información personal, médica o confidencial con herramientas de inteligencia artificial.
Es importante ser responsable con el uso de estas herramientas. Foto: iStock

30.05.2025 09:30 Actualizado: 30.05.2025 09:49
En un contexto donde la inteligencia artificial (IA) ha transformado la manera en que millones de personas acceden a información, se comunican y resuelven problemas, expertos en seguridad digital advierten sobre los riesgos de formular ciertas preguntas a herramientas como ChatGPT.
De acuerdo con expertos en ciberseguridad, algunas consultas pueden generar respuestas inexactas, poner en riesgo la privacidad del usuario o exponer datos sensibles a terceros no autorizados.
Advertencia sobre el uso de la IA
Aunque ChatGPT de OpenAI ha ganado popularidad por su facilidad de uso y su capacidad para generar textos, resolver dudas o programar, no todas las preguntas son seguras ni apropiadas. Una compañía especializada en ciberseguridad identificó cinco tipos de preguntas que deberían evitarse por razones éticas, de seguridad y eficacia.
Camilo Gutiérrez Amaya, jefe del laboratorio de investigación de ESET Latinoamérica, explicó a 'Semana' que compartir información personal o sensible puede tener consecuencias si una cuenta es comprometida por ciberdelincuentes: “Si un ciberdelincuente consigue acceder a una cuenta, tendrá acceso a toda la información que se comparta con la herramienta”.
Tenga cuidado con lo que comparte. Foto:iStock
1. Preguntas que implican compartir información confidencial o personal
Nunca se deben compartir datos como nombres, direcciones, números de teléfono, correos electrónicos, contraseñas, cuentas bancarias o números de seguridad social con ChatGPT.
Aunque parezca una conversación privada, la herramienta no opera en un entorno cifrado de extremo a extremo y la información podría ser usada de forma indebida si es comprometida.
2. Información corporativa o empresarial
La recomendación se extiende a los empleados que utilizan IA en su trabajo. Compartir reportes financieros, estrategias comerciales o detalles de clientes podría poner en riesgo datos corporativos, ya que la IA no distingue automáticamente entre información pública y privada.
Evite compartir datos sensibles con la IA. Foto:iStock
3. Consultas sobre salud, asesoría legal o financiera
Según 'The Times of India', uno de cada cinco estadounidenses ha buscado consejo médico en un chatbot, y una encuesta de Tebra mostró que cerca del 25 por ciento preferiría estas herramientas frente a la terapia tradicional.
No obstante, los expertos advierten que ChatGPT no reemplaza a médicos, abogados ni asesores financieros. El riesgo radica en que la IA no tiene acceso al contexto completo ni capacidad de análisis clínico o legal, lo que puede conducir a decisiones erradas.
4. Preguntas que exigen juicios, opiniones o emociones
ChatGPT puede simular una conversación empática, pero no posee conciencia ni sentimientos. Preguntar cosas como “¿Qué harías tú?” o “¿Te parezco interesante?” puede generar respuestas estructuradas, pero no auténticas, lo que puede llevar a malinterpretaciones.
5. Decisiones personales importantes
Las decisiones trascendentales sobre salud mental, relaciones personales o trayectorias profesionales no deberían basarse exclusivamente en las respuestas de una IA.
Según expertos, estas situaciones requieren un análisis que considere tanto datos objetivos como elementos emocionales y subjetivos.
No base sus decisiones en la IA. Foto:iStock
Riesgo de exposición y almacenamiento
Otro aspecto señalado por 'The Times of India' es que las conversaciones con IA pueden almacenarse y no siempre están protegidas contra el acceso externo. Esto significa que cualquier información compartida, incluso en chats temporales, puede eventualmente ser recuperada o utilizada sin el conocimiento del usuario.
De este modo, las herramientas de inteligencia artificial pueden ser útiles para organizar ideas o acceder a información general, pero su uso debe ser cuidadoso y consciente. Evitar compartir datos sensibles o buscar asesoría especializada en temas complejos es clave para usar la IA de forma segura y responsable.
*Este contenido fue escrito con la asistencia de una inteligencia artificial, basado en información de conocimiento público divulgado a medios de comunicación. Además, contó con la revisión de la periodista y una editora.
Más noticias en EL TIEMPO
SOFÍA ARIAS MARTÍNEZ
REDACCIÓN ALCANCE DIGITAL
EL TIEMPO
Sigue toda la información de Cultura en Facebook y X, o en nuestra newsletter semanal.