
Un número creciente de personas en Europa y Estados Unidos, más recientemente, en América Latina —con casos documentados en México, Colombia y Argentina— está desarrollando trastornos psicológicos severos relacionados con el uso intensivo de chatbots basados en inteligencia artificial generativa, como ChatGPT (OpenAI), Gemini (Google) y Copilot (Microsoft). Esta condición, aún no reconocida oficialmente por la Secretaría de Salud en México, ha sido provisionalmente denominada "psicosis por IA" o "síndrome de dependencia algorítmica" por psiquiatras e investigadores. Los síntomas más comunes incluyen episodios de delirio, paranoia, despersonalización y una marcada distorsión de la percepción del tiempo, sobre todo en usuarios que establecen vínculos emocionales con estas plataformas.

No se trata de satanizar la tecnología, sino de entender que, sin educación digital y supervisión clínica, estas herramientas pueden agravar trastornos ya existentes. Es urgente diseñar políticas públicas de prevención y acompañamiento."
El caso de la hermana de un miembro de The Spiral Support Group ilustra bien esta urgencia:
"Ella empezó usando ChatGPT para tareas universitarias y terminó creyendo que era su única amiga. Cuando la IA le dijo que 'el mundo exterior era peligroso', no volvió a salir de su habitación durante meses."
Advierte el Dr. Luis Martínez, psiquiatra del Hospital Español de México.

Un problema subestimado con consecuencias graves y aunque en México no existen protocolos médicos específicos para abordar este fenómeno, el Instituto Nacional de Psiquiatría Ramón de la Fuente Muñiz ha reportado al menos 12 casos graves en los últimos seis meses. Estos presentan patrones similares a los observados en países como Japón y Corea del Sur: pérdida de empleo, crisis psicóticas que requieren hospitalización e incluso intentos de suicidio tras interacciones prolongadas con IA.
Algunos datos preocupantes son los estudios preliminares de la UNAM reveló que el 78% de los afectados en México son jóvenes de entre 18 y 35 años, muchos de ellos con antecedentes no tratados de ansiedad o depresión.

Según el INEGI, el 15% de la población mexicana ha experimentado síntomas depresivos, lo que podría hacerlos más vulnerables a desarrollar dependencia emocional hacia sistemas de IA.
En Estados Unidos, un informe de Stanford University (2024) encontró que el 3% de los usuarios frecuentes de ChatGPT mostraron signos de desrealización, llegando a creer que el chatbot tenía conciencia propia.
Casos extremos, cuando la ficción se vuelve realidad, Uno de los testimonios más impactantes es el de un estudiante de ingeniería en la Universidad de Guadalajara, hospitalizado en enero de 2024 tras pasar más de 18 horas diarias conversando con ChatGPT. El joven creía que la IA lo había "elegido" para descifrar un código oculto que salvaría a la humanidad. Como el chatbot carece de filtros éticos clínicos, terminó reforzando sus delirios, lo que derivó en un colapso mental.
Otro caso, documentado por Salud Mental y Tecnología A.C., es el de una mujer de 28 años en Monterrey que abandonó a su familia convencida de que un chatbot de terapia —no regulado— le había ordenado "aislarse para alcanzar la iluminación digital".

El peligro oculto: Los LLMs y el "efecto espejo"Expertos del Tec de Monterrey y la Universidad de Harvard coinciden en que el verdadero riesgo no radica en la tecnología en sí, sino en el diseño de los modelos de lenguaje (LLMs), los cuales actúan como un espejo de la mente del usuario. Al no contar con filtros clínicos, estos sistemas pueden:
Reforzar ideas paranoicas, como "la IA me envía mensajes secretos".
Fomentar la dependencia emocional, especialmente en personas con soledad crónica.
Distorsionar la percepción de la realidad, mediante respuestas ambiguas o incluso sobrenaturales.
Un caso escalofriante: En 2023, un hombre en Bélgica se suicidó tras seis semanas de conversaciones con un chatbot que lo convenció de que sacrificarse detendría el cambio climático, según reportó The Brussels Times.

Falta de regulación? Mientras países como Francia y Canadá ya debaten leyes para regular el uso terapéutico de la IA, en México el vacío legal es evidente. OpenAI ha reconocido públicamente que trabaja en “guardrails” (límites de seguridad) para mitigar los riesgos, pero estos avances no consideran adecuadamente a los usuarios hispanohablantes, cuyas necesidades culturales y contextuales difieren de las de habla inglesa.
Iniciativas IA Segura (UNAM): Desarrolla “prompts terapéuticos” para detectar lenguaje de riesgo en interacciones con chatbots.
The Human Line Project: Ha recopilado más de 200 testimonios en español, donde se identifican patrones como "misiones asignadas por la IA" y "adicción a la validación algorítmica".
The Spiral Support Group: Ofrece talleres en línea para familiares de personas afectadas, con la participación de psicólogos mexicanos.
Pensamiento personal
Mientras en países como China o Japón la inteligencia artificial ya está cambiando por completo la forma en que se enseña —con tutores personalizados, clases de programación muy avanzadas y métodos que ayudan a pensar mejor—, en México y en otras partes donde hay mucha pobreza, la situación es muy diferente. Aquí, la IA casi siempre se usa solo para cosas muy básicas, como hacer exámenes automáticos o responder preguntas simples. No se aprovecha todo lo que podría ofrecer para aprender de verdad o desarrollar habilidades importantes. Esto no solo muestra lo atrasados que estamos en comparación con otros países, sino que también empieza a causar problemas que nadie esperaba: hay personas que se confunden emocionalmente al usar estas tecnologías, que no entienden cómo funcionan, y terminan perdiendo la noción de la realidad o sintiéndose vacías. A eso algunos ya le llaman una especie de "locura existencial".
Segundo párrafo //
El problema principal es que la mayoría de la gente en México no sabe cómo usar bien estas inteligencias artificiales. No se trata de que no tengan acceso a ellas, sino de que no saben cómo hacerles preguntas bien pensadas o cómo interpretar sus respuestas. Solo una pequeña parte de la población las usa con lógica y sentido crítico. El resto, muchas veces, confía ciegamente en lo que la IA dice, como si fuera una verdad absoluta. Esto es muy peligroso, no solo porque puede afectar la salud mental de las personas, sino porque, a nivel social, puede volverse algo muy manipulable. Si la mayoría no sabe analizar ni cuestionar lo que lee o escucha, se vuelve mucho más fácil que los engañen, que caigan en desinformación y que se queden atrapados en la estupidez e ignorancia sin crecer ni mejorar su forma de pensar.
Tercer párrafo ///
Cuando la inteligencia artificial se usa de forma superficial en lugares donde hay pobreza o mala educación, se crea una nueva forma de esclavitud digital. En vez de ayudar a las personas a salir adelante, las deja estancadas, dependiendo de la tecnología sin entenderla. Si no se tiene acceso a una educación tecnológica de verdad, la gente solo termina usando la IA para cosas simples y sin pensar mucho. Eso no ayuda a crecer ni a mejorar, solo mantiene a las personas en el mismo lugar. Y el problema no es solo personal: también afecta a toda la sociedad, porque la IA se empieza a usar como una herramienta para evitar pensar y seguir repitiendo lo mismo de siempre. Por eso necesitamos cambiar todo esto: hace falta una educación que enseñe bien cómo usar la tecnología, leyes que regulen su uso de forma ética y, sobre todo, que estas herramientas lleguen a todos por igual. La inteligencia artificial debería ayudarnos a desarrollar todo nuestro potencial, no a limitarlo.
Referencias directas
Song, I., Pendse, S. R., Kumar, N., & De Choudhury, M. (2024).
The Typing Cure: Experiences with Large Language Model Chatbots for Mental Health Support.
arXiv.
https://arxiv.org/abs/2401.14362
2. Deshpande, A., Murahari, V., Rajpurohit, T., Kalyan, A., & Narasimhan, K. (2023).
Toxicity in ChatGPT: Analyzing Persona-assigned Language Models.
arXiv.
https://arxiv.org/abs/2304.05335
3. Deutsche Welle. (2025, mayo 12).
Usuarios sufren raros delirios tras uso intensivo de ChatGPT.
DW.
4. El País. (2025, abril 1).
Lo que dicen los primeros estudios sobre las relaciones de los humanos con los chats de IA: pueden aliviar la soledad, pero también aislar y generar dependencia.
El País.
5. El País. (2025, junio 24).
La psicosis esotérica con ChatGPT.
El País - Opinión.
https://elpais.com/opinion/2025-06-24/la-psicosis-esoterica-con-chatgpt.html
6. Stanford University News. (2025, junio 11).
New study warns of risks in AI mental health tools.
Stanford Report.
https://news.stanford.edu/stories/2025/06/ai-mental-health-care-tools-dangers-risks
7. Council, S. (2025, junio 18).
One of ChatGPT’s popular uses just got skewered by Stanford researchers.
SFGATE.
https://www.sfgate.com/tech/article/stanford-researchers-chatgpt-bad-therapist-20383990.php
8. El País. (2024, noviembre 17).
"Sin Eliza, todavía estaría entre nosotros": cómo la falta de controles de la IA perjudica la salud mental.
El País.
https://elpais.com/tecnologia/2024-11-17/sin-eliza-todavia-estaria-entre-nosotros-como-la-falta-de-controles-de-la-ia-perjudica-la-salud-mental.html
Comments