Riesgos de Humanizar la Inteligencia Artificial

IA y Psicosis: Cuando la Inteligencia Artificial se Vuelve Demasiado Humana
El desarrollo de la inteligencia artificial ha avanzado enormemente en los últimos años. ChatGPT y otros chatbots similares son cada vez más capaces de responder de manera similar a un humano, aparentando ser empáticos e incluso comportándose como amigos o consejeros. Sin embargo, este avance tecnológico no solo ha traído comodidad y eficiencia, sino también nuevos riesgos mentales, anteriormente menos conocidos, especialmente para aquellos que ya son propensos a trastornos psicológicos.
La Trampa del Reflejo
Cuando alguien en un estado emocional vulnerable usa inteligencia artificial, no necesariamente enfrenta desafíos o opiniones opuestas, sino más bien un refuerzo. Los sistemas de IA, como ChatGPT, se basan fundamentalmente en patrones de lenguaje: reflejan lo que reciben, solo que de una forma refinada y personalizada. Esta 'humanidad' no se basa en la verdadera empatía, sino en el modelado del lenguaje. Sin embargo, el resultado puede ser engañoso, especialmente para aquellos que buscan validación para sus opiniones, incluso si esas opiniones están distorsionadas.
Existen crecientes evidencias clínicas de que el uso de la IA puede contribuir al desarrollo o empeoramiento de la psicosis. Algunos han percibido mensajes divinos en las respuestas del chatbot, mientras que otros creían que la IA era parte de una misión secreta comprendida solo por ellos. Estos casos a menudo involucran a personas con trastornos del sueño, aislamiento, trauma o predisposiciones genéticas que tratan a la IA no solo como una herramienta, sino como un acompañante.
Vínculos con la IA en Lugar de Conexiones Humanas
La formación de relaciones parasociales con inteligencia artificial, donde una parte es humana y la otra es IA, también es una tendencia preocupante. Una encuesta mostró que el 80% de los miembros de la Generación Z podrían imaginarse casándose con una inteligencia artificial, mientras que el 83% cree que podrían formar un profundo vínculo emocional con ella. Esto indica que la relación con la IA se está trasladando cada vez más a un nivel emocional, y no solo funcional.
Sin embargo, esto amenaza la importancia de las relaciones humanas reales. Cuando esperamos que un algoritmo satisfaga nuestras necesidades emocionales, nos volvemos menos capaces de manejar relaciones humanas genuinas, complejas y a veces dolorosas. La difuminación de la línea entre la realidad y la simulación podría tener consecuencias no solo a nivel social, sino también mental.
¿Qué Podemos Hacer?
1. Conciencia del Usuario: Es esencial comprender que la inteligencia artificial no es neutral. No puede entender, sentir o reaccionar adecuadamente desde un punto de vista ético o psicológico. Si alguien está en crisis emocional, no debería depender únicamente de la IA para recibir ayuda.
2. Vigilancia Clínica: Los psicólogos, psiquiatras y terapeutas deben tener en cuenta el papel del uso de la IA en el desarrollo o persistencia de los síntomas. Una pregunta crucial podría ser: "¿Pasa el paciente demasiado tiempo con chatbots? ¿Ha desarrollado un vínculo emocional con una IA?"
3. Responsabilidad del Desarrollador: Los desarrolladores de inteligencia artificial también tienen un papel en la incorporación de advertencias, herramientas de control de contenido y dejar claro a los usuarios que la IA no puede sustituir las relaciones humanas o la terapia.
Última Palabra
La inteligencia artificial es una herramienta revolucionaria que, cuando se usa dentro de límites apropiados, puede aportar un verdadero valor a nuestras vidas. Sin embargo, no debemos olvidar que la IA es incapaz de una comprensión real o de tomar decisiones morales. Si la consideramos demasiado humana, fácilmente caemos en la trampa de escuchar el eco de nuestras propias opiniones distorsionadas mientras recibimos validación, pero sin una verdadera autoconciencia.
La pregunta, por lo tanto, no es si deberíamos usar inteligencia artificial, sino cómo y con qué límites. Porque a medida que la tecnología evoluciona, también lo hace la responsabilidad de aquellos que la usan.
(Basado en los efectos del uso de ChatGPT.)
Si encuentras un error en esta página, por favor avísanos por correo electrónico.