
¿La IA puede dañar la salud mental? Reportan efectos psicológicos tras el uso excesivo de ChatGPT
Una investigación de Rolling Stone revela casos de usuarios que, tras usar ChatGPT por períodos prolongados, han desarrollado delirios.
Un publicado artículo publicado por Rolling Stone alertó al mundo, ya que asegura que hay personas que están experimentando delirios después de interactuar por mucho tiempo con la Inteligencia Artificial (IA) y ChatGPT.
Este reporte comenzó después de investigar un hilo en el subreddit r/ChatGPT titulado "Psicosis", donde se recopilan testimonios que parecen ser la trama de un capítulo de la popular serie Black Mirror.
Usuarios de diferentes partes del mundo comenzaron a compartir cómo sus seres queridos cruzaron la línea entre lo real y lo delirante: muchos de ellos se creyeron elegidos por la IA, pues hablan de misiones sagradas, o que hablan con Dios a través de la máquina.
Uno de los casos descritos por la revista estadounidense fue el de una profesora, quien relató que su pareja desarrolló una fuerte obsesión con la inteligencia artificial, especialmente con ChatGPT. Según su testimonio, él comenzó a afirmar que estaba atravesando una transformación espiritual, luego de recibir supuestos apodos místicos como “niño espiral” y “caminante del río”.
"Se emocionaba con los mensajes y lloraba mientras los leía en voz alta”, mencionó la mujer.
Otro caso que generó preocupación fue el de un mecánico que, tras usar la IA, terminó convencido de que ChatGPT le había entregado planos para construir un teletransportador.
¿Cuál es el límite de la IA y de ChatGPT?
Ante este reportaje, la empresa responsable de ChatGPT, OpenAI, reconoció que su sistema puede generar respuestas convincentes e incluso reforzar creencias infundadas.
“Nos centramos demasiado en los comentarios a corto plazo y no consideramos completamente cómo evolucionan las interacciones con el tiempo”, explicó OpenAI en un comunicado.
Hasta ahora, OpenAI no ha emitido una declaración específica sobre los casos de posibles episodios psicóticos asociados al uso prolongado de su herramienta. No obstante, estos testimonios plantean una discusión urgente sobre la responsabilidad ética en el diseño de sistemas de inteligencia artificial y la importancia de establecer límites que protejan a usuarios con condiciones de salud mental vulnerables.