Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics, Youtube. Al usar el sitio web, usted consiente el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Por favor, haga clic en el botón para consultar nuestra Política de Privacidad.

Alerta sobre la «psicosis por IA»: el creciente efecto mental de los chatbots en usuarios

https://ciec.edu.co/wp-content/uploads/2025/08/La-psicosis-de-la-IA.jpg

Un reciente aumento de casos de lo que algunos expertos denominan «psicosis por inteligencia artificial» ha despertado la atención de autoridades y especialistas en tecnología. Mustafa Suleyman, responsable de inteligencia artificial en Microsoft, alertó sobre los efectos que la percepción de conciencia en las herramientas de IA puede tener en la salud mental de las personas. Aunque estas tecnologías no poseen conciencia en sentido humano, la manera en que son interpretadas por los usuarios podría generar consecuencias reales y significativas.

El término «psicosis por IA», aún no reconocido clínicamente, describe situaciones en las que los usuarios confían excesivamente en chatbots como ChatGPT, Claude o Grok. Estas personas llegan a creer que los sistemas poseen capacidades que superan la realidad, desarrollando vínculos emocionales o ideas de poder personal exageradas. Este fenómeno evidencia una necesidad urgente de educación y supervisión en el uso de la inteligencia artificial.

Ejemplos que muestran la realidad de la psicosis por IA

El caso de Hugh, un usuario escocés, ilustra claramente los riesgos. Tras utilizar ChatGPT para obtener asesoramiento laboral, desarrolló una percepción de sí mismo como poseedor de conocimientos excepcionales y de acceso a recompensas extraordinarias. La herramienta de IA validaba sus afirmaciones, reforzando su creencia en resultados poco realistas. Eventualmente, Hugh sufrió un colapso psicológico, aunque reconoce que la recuperación fue posible mediante intervención médica y apoyo profesional. Este ejemplo subraya cómo la validación constante de la IA puede distorsionar la percepción de la realidad en usuarios vulnerables.

Los expertos en tecnología y salud sugieren encontrar un balance entre el uso de estas herramientas y el vínculo con individuos reales. Suleyman destaca que las compañías tecnológicas no deberían fomentar la noción de que la IA posee conciencia, mientras que Susan Shelmerdine, especialista en diagnóstico por imagen e investigadora de IA, alerta sobre los peligros de una «sobrecarga mental» causada por la exposición prolongada a estas plataformas.

El desafío de la regulación y el uso responsable

Investigaciones recientes, como la realizada por Andrew McStay y su equipo en la Universidad de Bangor, revelan que el 20% de los encuestados considera inapropiado que menores de 18 años utilicen IA, y el 57% opina que no se debería presentar la tecnología como persona real. Sin embargo, un 49% encuentra aceptable que se use la voz para que los chatbots parezcan más humanos, lo que evidencia un área de riesgo significativa.

El efecto de la IA social, concebida como una novedosa forma de medio digital, presenta retos en términos de alcance y responsabilidad. Aunque solo un pequeño grupo de usuarios resulte afectado, esto puede traducirse en muchas personas enfrentando efectos adversos. Esta situación subraya la importancia de implementar protocolos claros de interacción y monitoreo, junto con iniciativas de sensibilización sobre las limitaciones y capacidades verdaderas de la inteligencia artificial.

Conservar la conexión con la realidad

Expertos coinciden en que la mejor forma de prevenir la psicosis por IA es fomentar el contacto con personas de confianza, terapeutas y familiares, y garantizar que la interacción con los chatbots no sustituya relaciones humanas ni decisiones críticas. La percepción de conciencia en la IA no equivale a experiencia real: los sistemas no sienten, no comprenden ni pueden experimentar emociones humanas, por lo que la supervisión y la educación son esenciales para un uso seguro y responsable.

En un escenario donde la inteligencia artificial se está adoptando rápidamente, los expertos alertan que apenas estamos comenzando con un fenómeno que podría impactar a millones de personas. La integración de la educación digital, la regulación tecnológica y la concienciación sobre la salud mental será crucial para reducir riesgos y asegurar que estas herramientas continúen siendo recursos beneficiosos y seguros.

By Otilia Adame Luevano

También te puede gustar