Un experimento probó que la IA tiene una capacidad que se creía exclusiva de humanos
El pscólogo Michal Kosinski, investigador de Stanford, comprobó que la inteligencia artificial capta un componente social que se pensaba imposible.
Michal Kosinski, reconocido psicólogo de la Universidad de Stanford, enfocó su carrera en el estudio de las nuevas tecnologías. Él afirma que modelos avanzados de lenguaje de IA como GPT-4 podrían estar mostrando una versión rudimentaria de la teoría de la mente, lo que implica un avance enorme por su potencial -y sus riesgos también-.
Las máquinas ya interactúan con su entorno de una forma más comprensiva y empática.
La teoría de la mente data de 1978. Los psicólogos David Premack y Guy Woodruff desarrollaron la tesis, la definieron como la capacidad humana de comprender los pensamientos, creencias e intenciones de los demás, e intentaron probarla en chimpancés sin demasiado éxito.
Ahora, casi medio siglo después, la teoría vuelve a estar en el centro de la discusión por los avances en inteligencia artificial.
En su último estudio, publicado en la revista Proceedings of the National Academy of Sciences, Kosinski examinó el desempeño de grandes modelos de lenguaje (LLM) como GPT-3.5 y GPT-4 para ver si podían realizar tareas propias de los humanos, que pusieran en evidencia la teoría de la mente.
Kosinski explicó que, aunque la IA no tiene emociones reales, puede simularlas estratégicamente. Esta habilidad le da el poder de manipular sin estar limitada por sentimientos humanos, como la culpa. “La IA puede actuar con empatía o tristeza si lo requiere, pero no las experimenta”, destaca Kosinski, comparando este comportamiento con el de un sociópata, capaz de usar las emociones en su beneficio sin sufrirlas.
Para evaluar esta capacidad, sometió a once LLM a 40 tareas personalizadas de falsa creencia. Los modelos de lenguaje más antiguos no lograron resolver ninguna tarea, mientras que versiones más recientes como GPT-3.5 alcanzaron el 20% de aciertos. Cuando estudió a GPT-4, la cifra se elevó incluso más de lo que creía hasta alcanzar un 75% de acierto, lo que según el autor establece una marca muy significativa en el desarrollo de habilidades de procesamiento social en IA.
Aunque Kosinski considera que la IA muestra avances significativos, otros expertos son escépticos. Neil Sahota, profesor de la Universidad de California en Irvine, opina que la IA aún está lejos de comprender emociones humanas complejas, y carece de elementos clave como comprensión emocional, adaptabilidad humana, razonamiento contextual e intencionalidad.