Psicólogo e investigador de Stanford, quien pronosticó el algoritmo de Facebook, hace advertencia sobre la IA

hace 2 semanas 80

Michal Kosinski es un profesor polaco de comportamiento organizacional en la Escuela de posgrado de Negocios en la Universidad de Stanford, que suele realizar investigaciones acerca de la cognición humana y la inteligencia artificial, según su sitio web.

Conforme a los criterios de

Se dedica a examinar los procesos psicológicos en modelos de lenguaje a gran escala con la ayuda de la IA, el aprendizaje automático, los macrodatos y las técnicas computacionales para modelar y predecir el comportamiento humano.

Uno de sus proyectos más conocidos fue cuando analizó los mecanismos que le permitió a Facebook adquirir un conocimiento profundo sobre sus usuarios, los cuales estaban basados en los ‘Me gusta’ que presionaban las personas al utilizar la red social.

¿Cuál es la advertencia de Michal Kosinski sobre la inteligencia artificial?

En un artículo publicado en la revista ‘Proceedings of the National Academy of Sciences’, el profesor y psicólogo polaco explicó que llevo a cabo un análisis sobre los modelos extensos del lenguaje (LLM) como ChatGPT, para descubrir si dominaban la "teoría de la mente”.

La cual se refiere a la capacidad de comprender y predecir, las acciones, creencias, emociones, intenciones o conocimientos de las personas que se encuentran alrededor, así como la habilidad de comprender su propio estado mental, de acuerdo con la página de la Universidad Internacional de La Rioja.

Para esto, Michal Kosinski utilizó los modelos GPT-3.5 y GPT-4 de OpenAI y descubrió que utilizan técnicas análogas al pensamiento real que antes se consideraba propias de los mamíferos, lo que los deja más cerca de igualar las capacidades humanas, según ‘Wired’.

Aunque el sistema informático no puede interpretar correctamente lo que piensan los usuarios, sus experimentos demostrarían que GPT-4 tiene una capacidad similar a la teoría de la mente que puedo surgir "como un subproducto no intencionado de la mejora de las habilidades lingüísticas de los LLM”, explicó para el medio mencionado.

Esto quiere decir que podría surgir una “IA más poderosa y socialmente hábil” y, aunque sus creadores las estarían entrenando para manejar el lenguaje, “en realidad entrenarían un modelo de mente humana, porque no se puede predecir qué palabra voy a decir a continuación sin modelar mi mente".

Cabe destacar que estas aplicaciones presentan algunas fallas que podrían descartar la teoría de la mente, pero pueden surgir “otras habilidades” que les permitiría “ser mejores educándonos, influyéndonos y manipulándonos”, lo que le genera una preocupación al polaco que asegura no estamos preparados para esto.

Finalizó explicando que "Los LLM pueden tener cierta capacidad de razonamiento, pero no es completa ni robusta como la de los humanos; no podemos afirmar que los modelos lingüísticos tengan la misma capacidad que las personas. Y podría ser que simplemente hicieran trampas".

Los juguetes sexuales ya vibran con la inteligencia artificial en una feria en China

Más noticias en EL TIEMPO

LEIDY ESTEFANIA RICO ARBOLEDA

REDACCIÓN ALCANCE DIGITAL

EL TIEMPO

Leer Todo el Artículo