Entre estas nuevas prácticas, el uso de herramientas como ChatGPT para abordar problemáticas psicológicas ha comenzado a instalarse, especialmente entre los más jóvenes. Sin embargo, especialistas advierten sobre los riesgos de sustituir la psicología profesional por inteligencia artificial (IA), una herramienta sin conciencia, contexto ni vínculo humano.
El uso de la IA en jóvenes de Argentina
El estudio presentado por Unicef y Unesco, Kids Online Argentina, arrojó datos clave sobre el vínculo entre niños, adolescentes y la inteligencia artificial en Argentina.
Por primera vez, se midió el conocimiento y el uso de herramientas de IA generativa entre chicas y chicos de 9 a 17 años.
El estudio se realizó sobre una muestra de 5.910 niñas, niños y adolescentes de 291 escuelas públicas y privadas, representativas del país según edad, género y nivel socioeconómico. Según el informe, alrededor de 2,5 millones de estudiantes entre 9 y 17 años en Argentina usan IA generativa para actividades escolares. Esto equivale al 58% del total. Además, un 18% conoce la herramienta pero no la utiliza, mientras que un 24% no tiene conocimiento de su existencia.
Cora Steinberg, experta en educación de Unicef Argentina, explicó al diario Clarín que “se advierte que el uso escolar de IA es mayor entre las mujeres y adolescentes de 15 a 17 años”. La especialista, dijo que también se observa un uso más extendido entre los sectores de nivel socioeconómico alto y medio.

Según el informe, el grupo que más utiliza la inteligencia artificial con fines educativos está compuesto por mujeres de entre 15 y 17 años, pertenecientes a sectores socioeconómicos altos. Una tendencia puede estar relacionada tanto con el acceso a dispositivos y conectividad, como con un entorno que favorece el uso de tecnologías emergentes para fines académicos.
El estudio también vincula el uso de IA generativa con un contexto de “grandes disparidades sociales y desafíos en el aprendizaje básico”. En este sentido, se destaca que el acceso a estas herramientas puede ser un factor que profundice o reduzca la brecha digital. A mayor acceso y habilidades digitales, mayor es el potencial de los chicos y adolescentes para aprovechar la IA de forma positiva y enfrentar riesgos asociados.
A pesar de las diferencias en el acceso, la mayoría de los adolescentes demuestra tener habilidades básicas para navegar de forma segura en entornos digitales. El 81% sabe qué información no compartir en redes, y nueve de cada diez saben cómo gestionar sus contactos, eliminarlos o bloquearlos si es necesario.
Un 82% también declaró saber cómo denunciar contenidos o usuarios inapropiados. Estas competencias, sin embargo, disminuyen entre los más jóvenes y quienes pertenecen a sectores de menores recursos.
El informe indica que el 95% de los niños y adolescentes argentinos posee un celular con conexión a Internet. Además, el acceso se da a edades cada vez más tempranas: el 83% de quienes tienen entre 9 y 11 años recibió su primer dispositivo antes de los 10 años, algo que sólo había ocurrido con el 20% de los adolescentes de 15 a 17 años.
Los jóvenes y su visión de la IA
Según una encuesta publicada en enero de 2025 pero realizada durante 2024 por el Pew Research Center, el 26% de los adolescentes estadounidenses de entre 13 y 17 años ha utilizado ChatGPT para hacer tareas escolares, lo que representa un incremento significativo frente al 13% registrado en 2023. Aunque la mayoría aún no emplea esta herramienta con este fin, los datos evidencian un crecimiento acelerado en su uso.
Además, se observan diferencias por grupo étnico y nivel académico: Los adolescentes blancos utilizan esta herramienta en un 11% al igual que los hispanos (11%), mientras que el 13% de los jóvenes negros usa ChatGPT.
En tanto, el 29% de los adolescentes encuestados dijo que es aceptable utilizar ChatGPT para resolver problemas matemáticos, frente al 28%, que se oponen.
Asimismo, el 18% cree conveniente usarlo para escribir en ensayos aunque la mayoría, (42%) considera que no lo es.
Además, el Pew Research Center computó que entre el 15% y el 21% de los adolescentes no están seguros de si es aceptable utilizar ChatGPT para estas tareas.
Sin embargo, el uso de la IA no se limita a tareas escolares. Muchos jóvenes también acuden a estas herramientas como forma de buscar respuestas emocionales o consuelo, transformando a la IA en una suerte de oráculo digital.
IA generativa: capacidades y límites
Google define la inteligencia artificial generativa como una tecnología capaz de crear contenido —texto, imágenes, música o audio— a partir de patrones aprendidos de grandes volúmenes de datos. Herramientas como GPT-3 y GPT-4 han revolucionado el procesamiento del lenguaje natural al generar respuestas similares a las humanas.
Estos sistemas, basados en modelos como BERT y GPT, han demostrado una gran versatilidad, pero su uso sigue siendo principalmente informativo. No fueron diseñados con fines terapéuticos ni poseen la capacidad de comprender el contexto personal, emocional o cultural del usuario.
Desde el centro psicológico Acimut en Madrid advierten: “Aunque ChatGPT puede ofrecer respuestas empáticas, no conoce tu historia, tu personalidad, ni tu contexto”.
Para este grupo de especialistas, la herramienta puede parecer comprensiva, pero su conocimiento es superficial y sus respuestas, genéricas. No discrimina entre un duelo, una depresión o una crisis de ansiedad; simplemente sigue patrones textuales.
Sin vínculo humano, no hay proceso terapéutico
Uno de los aspectos más destacados de la terapia psicológica es el establecimiento del vínculo terapéutico, conocido como rapport. Se trata de una relación basada en la confianza, la empatía y la escucha activa. ChatGPT y otras herramientas de IA, al no tener conciencia ni emociones, carecen de esta capacidad.
“No hay una escucha activa, no hay contención emocional real, ni capacidad para leer lo que se dice entre líneas”, indican desde Acimut. La inteligencia artificial no interpreta silencios, temblores en la voz o gestos del cuerpo.
Lo que para un terapeuta humano es un ejercicio de sensibilidad y atención, para un modelo de lenguaje es sólo una secuencia de texto.
El psicólogo José Luis Irazola, en diálogo con Nox News, señala que la subjetividad humana se constituye en el lazo con el otro. “El ser humano necesita del otro y del amor del otro para constituirse”, sostiene.
Y recuerda fenómenos como el mesmerismo, donde bebés privados de afecto morían pese a recibir cuidados físicos. “El lazo amoroso es indispensable para la vida subjetiva y biológica del ser humano”, afirma.
Dependencia emocional y falta de desarrollo personal
Otra consecuencia preocupante del uso reiterado de IA para obtener consuelo emocional es la posible dependencia. “Cuando se recurre con frecuencia a la IA para buscar consuelo, puede generar un riesgo de dependencia”, advierten los especialistas de Acimut.
Esta dependencia puede tener múltiples efectos negativos: desde evitar problemas reales hasta la inhibición del desarrollo de habilidades emocionales.
Al buscar alivio inmediato, el usuario podría dejar de enfrentar sus emociones y perder la oportunidad de crecer personalmente. Según Irazola, esta práctica convierte a la IA en una “pastilla algorítmica”, una especie de “clonazepam digital” que calma momentáneamente pero no resuelve.
El psicólogo recuerda cómo Freud llamaba “quitapenas” a recursos como el alcohol o los psicofármacos, usados como escapes ante el sufrimiento. En este sentido, la IA podría convertirse en un “calmante algorítmico” que ofrece alivio sin transformar la subjetividad.
El peligro que genera la ausencia de diagnóstico clínico
La IA, por más avanzada que sea, no tiene capacidad para realizar diagnósticos clínicos. Un profesional de la salud mental evalúa la historia personal, los patrones emocionales y el contexto del paciente, aspectos que la inteligencia artificial no puede integrar de forma significativa.
ChatGPT puede dar consejos generales, como “es importante cuidarte” o “considera todas las perspectivas”, tal como señala David Rubio en su artículo ‘El peligro de ChatGPT como psicólogo personal’. Aunque estas frases pueden brindar cierto alivio, carecen de profundidad. “No hace daño, pero no ofrece ayuda profesional”, resume Rubio.
Además, la IA no tiene ninguna titulación, no respeta acuerdos de confidencialidad y no asume ninguna responsabilidad legal por sus respuestas. Es decir, no está capacitada ni habilitada para ejercer una práctica clínica.
Sesgos, errores y respuestas “delirantes”
Otro riesgo es la posibilidad de sesgos y errores. Los modelos de IA aprenden de datos existentes, que pueden contener prejuicios culturales, de género o sociales. Así, la IA puede replicar esos sesgos y ofrecer consejos inapropiados o diagnósticos erróneos.
José Luis Irazola destaca que la IA puede presentar “delirios” —en el sentido técnico del término— cuando no conoce una respuesta y decide inventarla. “Responde algo que no tiene nada que ver e incluso es erróneo”, explica.
Y las “alucinaciones algorítmicas”, como las describe Irazola, pueden poner en riesgo a quien busca respuestas en momentos de vulnerabilidad.
¡Cuidado! La IA no detecta señales de alarma
Un psicólogo capacitado puede identificar señales de alerta ante situaciones críticas, como pensamientos suicidas o ideas peligrosas. La IA, en cambio, carece de la conciencia necesaria para interpretar la gravedad de una situación. Puede ofrecer una respuesta empática, pero sin actuar ante la urgencia.
En palabras de Irazola: “La IA no logra captar por dónde va un sujeto en su sufrimiento y puede provocar más sufrimiento, o no solucionar nada”.
Por su parte, la Confederación de Entidades de Psicología de la República Argentina (CEPRA) ha advertido que estas herramientas pueden ser iatrogénicas —es decir, causar más daño que beneficio— si no están reguladas.
¿ChatGPT es una amenaza para los profesionales de la salud mental?
Frente al avance de la IA, surge la inquietud sobre si esta tecnología podría desplazar a los terapeutas humanos. Para Irazola, la respuesta es clara: no. “El lazo amoroso que se establece con un ser humano es imprescindible para la vida subjetiva”, sostiene.
Si bien reconoce que los psicólogos deberán adaptarse y repensar su práctica profesional ante los nuevos avances, asegura que la IA no puede sustituir el proceso terapéutico humano. “Es una herramienta, no un reemplazo”, concluye.
De hecho, muchas de las profesiones más ligadas a lo humano —como la psicología o la docencia— son las que menos probabilidades tienen de desaparecer. Porque el acompañamiento emocional y el proceso subjetivo no pueden ser reemplazados por una serie de instrucciones ni por un texto bien redactado.
La necesidad de regular la IA
Dado el avance imparable de la tecnología, se vuelve imprescindible establecer marcos regulatorios que garanticen un uso responsable de la IA. “Hay que regular, controlar y observar”, afirma Irazola, quien considera que la psicología —al igual que la educación— debe replantearse su rol en esta nueva era.
El psicólogo insiste en que la subjetividad humana no se construye solo con información, sino en la relación con el otro. Por eso, incluso si la IA puede ofrecer respuestas inteligentes y bien estructuradas, no logrará cambiar la subjetividad del individuo si no hay un proceso de acompañamiento humano.
Especialistas de la salud mental sugieren que la IA puede ser adoptada como una herramienta complementaria, pero no puede reemplazar el rol esencial del psicólogo en la vida emocional de las personas.
Como sugiere José Luis Irazola, quizá estemos frente a un nuevo “oráculo digital”, pero el verdadero proceso de transformación psicológica sólo puede nacer del encuentro humano, del amor, del deseo y del acompañamiento sincero.