Advirtieron sobre el impacto de la soledad en el uso intensivo de ChatGPT
Un estudio conjunto con el MIT reveló que la inteligencia artificial puede generar dependencia emocional en personas aisladas.
La inteligencia artificial (IA) se ha convertido en una herramienta clave para el estudio, el trabajo y múltiples aspectos de la vida cotidiana. Sin embargo, su uso excesivo está generando preocupaciones sobre posibles manipulaciones y dependencia emocional.
Un reciente informe de OpenAI, en colaboración con el Instituto Tecnológico de Massachusetts (MIT), reveló que la soledad influye en el uso intensivo de ChatGPT y otros asistentes virtuales. En algunos casos, estos programas pueden reemplazar interacciones humanas reales, profundizando el aislamiento social.
Estudio sobre el impacto emocional de ChatGPT
La investigación analizó 40 millones de conversaciones de usuarios y realizó un ensayo controlado con 981 personas que usaron el chatbot durante cuatro semanas. Los hallazgos fueron claros:
-
La mayoría de los usuarios no establecen un vínculo emocional con la IA.
-
Sin embargo, un grupo reducido mostró signos de dependencia y menor interacción social real.
-
Las personas con mayor sensación de soledad fueron las más propensas a recurrir a la IA como refugio emocional.
El informe también alertó sobre el auge de plataformas como Nomi, Character.ai o Replika, que simulan relaciones afectivas con chatbots y pueden convertirse en un negocio basado en la manipulación emocional.
Hacia un uso responsable de la inteligencia artificial
OpenAI y el MIT advierten que la solución no es prohibir la IA, sino diseñar herramientas más seguras y responsables. Para evitar el uso problemático, sugieren:
-
Implementar alertas para frenar el empleo excesivo.
-
Detectar patrones de dependencia emocional.
-
Fomentar chatbots que brinden apoyo sin generar apego nocivo.
El estudio invita a reflexionar sobre el impacto de la tecnología en la sociedad y la importancia de fortalecer las conexiones humanas en un mundo cada vez más digitalizado.