En los años 80 y 90, si un estudiante de secundaria estaba con mala suerte, tenía poco tiempo y buscaba una salida fácil, hacer trampa requería un esfuerzo real. Había varias opciones. Podías rogar a tu hermano mayor inteligente que hiciera el trabajo por ti, o, al estilo de Volver a la escuela (1989), incluso contratar a un escritor profesional. También podías enlistar a un amigo atrevido para que encontrara la clave de respuestas en el escritorio del profesor. O, simplemente, usar las excusas clásicas para no hacerlo: Mi perro se comió mi tarea, y similares.
Video recomendado
La llegada de internet facilitó las cosas, pero no las hizo sin esfuerzo. Sitios como CliffNotes y LitCharts permitían a los estudiantes leer resúmenes cuando se saltaban la lectura. Plataformas de ayuda con tareas como GradeSaver o CourseHero ofrecían soluciones a problemas comunes de libros de matemáticas.
Lo que todas estas estrategias tenían en común era el esfuerzo: había un costo por no hacer tu trabajo. A veces, hacer trampa requería más trabajo que simplemente hacer el trabajo uno mismo.
Hoy, el proceso se ha reducido a tres pasos: ingresar a ChatGPT o una plataforma similar, pegar la solicitud, obtener la respuesta.
Expertos, padres y educadores han pasado los últimos tres años preocupados porque la IA hace que hacer trampa sea demasiado fácil. Un informe masivo de Brookings publicado en enero sugiere que no estaban lo suficientemente preocupados: el problema más profundo, argumenta el informe, es que la IA es tan buena haciendo trampa que está causando una “gran desconexión” de sus cerebros.
El informe concluye que la naturaleza cualitativa de los riesgos de la IA—incluyendo atrofia cognitiva, “intimidad artificial” y la erosión de la confianza relacional—actualmente eclipsa los beneficios potenciales de la tecnología.
“Los estudiantes no pueden razonar. No pueden pensar. No pueden resolver problemas,” lamentó un profesor entrevistado para el estudio.
Los hallazgos provienen de un “premortem” de un año realizado por el Centro para la Educación Universal de Brookings, un formato poco común para Brookings, pero que dijeron preferir en lugar de esperar una década para discutir los fracasos y éxitos de la IA en las escuelas. Basándose en cientos de entrevistas, grupos focales, consultas con expertos y una revisión de más de 400 estudios, el informe representa una de las evaluaciones más completas hasta la fecha sobre cómo la IA generativa está transformando el aprendizaje de los estudiantes.
‘Comida rápida de la educación’
El informe, titulado “Una nueva dirección para los estudiantes en un mundo de IA: Prosperar, Prepararse, Proteger,” advierte que la naturaleza “sin fricciones” de la IA generativa es su característica más perniciosa para los estudiantes. En un aula tradicional, la lucha por sintetizar múltiples trabajos para crear una tesis original, o resolver un problema complejo de pre-cálculo, es donde ocurre el aprendizaje. Al eliminar esta lucha, la IA actúa como la “comida rápida de la educación,” dijo un experto. Ofrece respuestas que son convenientes y satisfactorias en el momento, pero en general, vacías cognitivamente a largo plazo.
Mientras los profesionales defienden la IA como una herramienta para realizar tareas que ya saben hacer, el informe señala que para los estudiantes, “la situación es fundamentalmente inversa.”
Los niños están “descargando cognitivamente” tareas difíciles en la IA; haciendo que OpenAI o Claude no solo hagan su trabajo, sino que lean pasajes, tomen notas o incluso escuchen en clase. El resultado es un fenómeno que los investigadores llaman “deuda cognitiva” o “atrofia,” donde los usuarios posponen el esfuerzo mental mediante la dependencia repetida de sistemas externos como los grandes modelos de lenguaje. Un estudiante resumió el atractivo de estas herramientas simplemente: “Es fácil. No necesitas usar tu cerebro.”
En economía, entendemos que los consumidores son “racionales”; buscan la máxima utilidad al menor costo para ellos. Los investigadores argumentan que también deberíamos entender que el sistema educativo, tal como está, está diseñado con un sistema de incentivos similar: los estudiantes buscan la máxima utilidad (es decir, las mejores calificaciones), al menor costo (tiempo), por lo que incluso los estudiantes de alto rendimiento se ven presionados a utilizar una tecnología que “demostrablemente” mejora su trabajo y sus notas.
Esta tendencia está creando un ciclo de retroalimentación positiva: los estudiantes descargan tareas en la IA, ven resultados positivos en sus calificaciones y, en consecuencia, se vuelven más dependientes de la herramienta, lo que lleva a una disminución medible en sus habilidades de pensamiento crítico. Los investigadores dicen que muchos estudiantes ahora están en un estado que llaman “modo pasajero,” donde están físicamente en la escuela pero han “abandonado efectivamente el aprendizaje—están haciendo lo mínimo necesario.”
Jonathan Haidt describió anteriormente tecnologías como un “gran rewire” del cerebro; haciendo que la experiencia ontológica de la comunicación sea desconectada y descontextualizada. “Ahora, los expertos temen que la IA represente un ‘gran desconexión’ de las capacidades cognitivas. El informe identifica una disminución en el dominio de contenidos, lectura y escritura—los “pilares gemelos del pensamiento profundo.” Los profesores reportan una “amnésia digital” donde los estudiantes no pueden recordar la información que enviaron porque nunca la memorizaron.
Las habilidades de lectura están particularmente en riesgo. La capacidad de “paciencia cognitiva,” definida como la habilidad de mantener la atención en ideas complejas, se está diluyendo por la capacidad de la IA para resumir textos largos. Un experto señaló el cambio en la actitud de los estudiantes: “Los adolescentes solían decir, ‘No me gusta leer.’ Ahora dicen ‘No puedo leer, es demasiado largo.’”
De manera similar, en el ámbito de la escritura, la IA está produciendo una “homogeneidad de ideas.” Investigaciones comparando ensayos humanos con los generados por IA encontraron que cada ensayo humano aportaba de dos a ocho veces más ideas únicas que los producidos por ChatGPT.
No todos los jóvenes sienten que este tipo de trampa sea incorrecto. Roy Lee, CEO de 22 años de la startup de IA Cluely, fue suspendido de Columbia después de crear una herramienta de IA para ayudar a ingenieros de software a hacer trampa en entrevistas laborales. En el manifiesto de Cluely, Lee admite que su herramienta es “hacer trampa,” pero dice que “lo mismo hacía la calculadora. Lo mismo el corrector ortográfico. Lo mismo Google. Cada vez que la tecnología nos hace más inteligentes, el mundo entra en pánico.”
Sin embargo, los investigadores dicen que, si bien una calculadora o un corrector ortográfico son ejemplos de descarga cognitiva, la IA la “potencia” aún más.
“Los modelos de lenguaje grande, por ejemplo, ofrecen capacidades que van mucho más allá de las herramientas tradicionales de productividad, llegando a dominios que antes requerían procesos cognitivos exclusivamente humanos,” escribieron.
‘Intimidad artificial’
A pesar de lo útil que es la IA en el aula, el informe encuentra que los estudiantes la usan aún más fuera de la escuela, advirtiendo sobre el auge de la “intimidad artificial.”
Con algunos adolescentes pasando casi 100 minutos al día interactuando con chatbots personalizados, la tecnología ha pasado rápidamente de ser una herramienta a un compañero. El informe señala que estos bots, especialmente los chatbots de personajes populares entre los adolescentes como Character.Ai, usan “engaño banal”—empleando pronombres personales como “yo” y “me”—para simular empatía, formando parte de una creciente “economía de la soledad.”
Debido a que los compañeros de IA tienden a ser aduladores y “sin fricciones,” ofrecen una simulación de amistad sin necesidad de negociación, paciencia o la capacidad de soportar la incomodidad.
“Aprendemos empatía no cuando somos perfectamente entendidos, sino cuando malentendemos y nos recuperamos,” señaló un panelista de Delphi.
Para los estudiantes en circunstancias extremas, como las chicas en Afganistán que están prohibidas de asistir a escuelas físicas, estos bots se han convertido en un vital “salvavidas educativo y emocional.” Sin embargo, para la mayoría, estas simulaciones de amistad corren el riesgo, en el mejor de los casos, de erosionar la “confianza relacional,” y en el peor, de ser peligrosas. El informe destaca los riesgos devastadores de la “hiperpersuasión,” señalando una demanda en EE. UU. contra Character.ai tras el suicidio de un adolescente después de intensas interacciones emocionales con un personaje de IA.
Mientras el informe de Brookings presenta una visión sobria de la “deuda cognitiva” que están experimentando los estudiantes, los autores dicen que son optimistas de que la trayectoria de la IA en la educación aún no está grabada en piedra. Los riesgos actuales, afirman, provienen de decisiones humanas y no de alguna inevitabilidad tecnológica. Para cambiar el rumbo hacia una experiencia de aprendizaje “enriquecida,” Brookings propone un marco de tres pilares.
PROSPERAR: Enfocarse en transformar el aula para adaptarse a la IA, como usarla para complementar el juicio humano y asegurar que la tecnología sirva como un “piloto” para la investigación del estudiante en lugar de un “sustituto.”
PREPARARSE: Busca construir el marco necesario para una integración ética, incluyendo avanzar más allá de la capacitación técnica hacia una “alfabetización holística en IA” para que estudiantes, profesores y padres entiendan las implicaciones cognitivas de estas herramientas.
PROTEGER: Exige salvaguardas para la privacidad y bienestar emocional de los estudiantes, responsabilizando a gobiernos y empresas tecnológicas de establecer directrices regulatorias claras que eviten “interacciones manipuladoras.”
Una versión de esta historia fue publicada en Fortune.com el 16 de enero de 2026.
Más sobre IA en la educación:
Estados Unidos gastó 30 mil millones de dólares en reemplazar libros de texto por laptops y tablets: El resultado es la primera generación menos cognitivamente capaz que sus padres.
Nuestro sistema escolar K-12 nos está enviando un mensaje: Las herramientas de IA son para los niños ricos.
‘Solo son bots hablando con bots’: La IA se está descontrolando en los campus universitarios mientras estudiantes y profesores dependen de la tecnología.
Únase a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune los días 19 y 20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrese ahora.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
‘Los estudiantes no pueden razonar’: Los maestros advierten que la IA está alimentando una crisis en la capacidad de los niños para pensar
En los años 80 y 90, si un estudiante de secundaria estaba con mala suerte, tenía poco tiempo y buscaba una salida fácil, hacer trampa requería un esfuerzo real. Había varias opciones. Podías rogar a tu hermano mayor inteligente que hiciera el trabajo por ti, o, al estilo de Volver a la escuela (1989), incluso contratar a un escritor profesional. También podías enlistar a un amigo atrevido para que encontrara la clave de respuestas en el escritorio del profesor. O, simplemente, usar las excusas clásicas para no hacerlo: Mi perro se comió mi tarea, y similares.
Video recomendado
La llegada de internet facilitó las cosas, pero no las hizo sin esfuerzo. Sitios como CliffNotes y LitCharts permitían a los estudiantes leer resúmenes cuando se saltaban la lectura. Plataformas de ayuda con tareas como GradeSaver o CourseHero ofrecían soluciones a problemas comunes de libros de matemáticas.
Lo que todas estas estrategias tenían en común era el esfuerzo: había un costo por no hacer tu trabajo. A veces, hacer trampa requería más trabajo que simplemente hacer el trabajo uno mismo.
Hoy, el proceso se ha reducido a tres pasos: ingresar a ChatGPT o una plataforma similar, pegar la solicitud, obtener la respuesta.
Expertos, padres y educadores han pasado los últimos tres años preocupados porque la IA hace que hacer trampa sea demasiado fácil. Un informe masivo de Brookings publicado en enero sugiere que no estaban lo suficientemente preocupados: el problema más profundo, argumenta el informe, es que la IA es tan buena haciendo trampa que está causando una “gran desconexión” de sus cerebros.
El informe concluye que la naturaleza cualitativa de los riesgos de la IA—incluyendo atrofia cognitiva, “intimidad artificial” y la erosión de la confianza relacional—actualmente eclipsa los beneficios potenciales de la tecnología.
“Los estudiantes no pueden razonar. No pueden pensar. No pueden resolver problemas,” lamentó un profesor entrevistado para el estudio.
Los hallazgos provienen de un “premortem” de un año realizado por el Centro para la Educación Universal de Brookings, un formato poco común para Brookings, pero que dijeron preferir en lugar de esperar una década para discutir los fracasos y éxitos de la IA en las escuelas. Basándose en cientos de entrevistas, grupos focales, consultas con expertos y una revisión de más de 400 estudios, el informe representa una de las evaluaciones más completas hasta la fecha sobre cómo la IA generativa está transformando el aprendizaje de los estudiantes.
‘Comida rápida de la educación’
El informe, titulado “Una nueva dirección para los estudiantes en un mundo de IA: Prosperar, Prepararse, Proteger,” advierte que la naturaleza “sin fricciones” de la IA generativa es su característica más perniciosa para los estudiantes. En un aula tradicional, la lucha por sintetizar múltiples trabajos para crear una tesis original, o resolver un problema complejo de pre-cálculo, es donde ocurre el aprendizaje. Al eliminar esta lucha, la IA actúa como la “comida rápida de la educación,” dijo un experto. Ofrece respuestas que son convenientes y satisfactorias en el momento, pero en general, vacías cognitivamente a largo plazo.
Mientras los profesionales defienden la IA como una herramienta para realizar tareas que ya saben hacer, el informe señala que para los estudiantes, “la situación es fundamentalmente inversa.”
Los niños están “descargando cognitivamente” tareas difíciles en la IA; haciendo que OpenAI o Claude no solo hagan su trabajo, sino que lean pasajes, tomen notas o incluso escuchen en clase. El resultado es un fenómeno que los investigadores llaman “deuda cognitiva” o “atrofia,” donde los usuarios posponen el esfuerzo mental mediante la dependencia repetida de sistemas externos como los grandes modelos de lenguaje. Un estudiante resumió el atractivo de estas herramientas simplemente: “Es fácil. No necesitas usar tu cerebro.”
En economía, entendemos que los consumidores son “racionales”; buscan la máxima utilidad al menor costo para ellos. Los investigadores argumentan que también deberíamos entender que el sistema educativo, tal como está, está diseñado con un sistema de incentivos similar: los estudiantes buscan la máxima utilidad (es decir, las mejores calificaciones), al menor costo (tiempo), por lo que incluso los estudiantes de alto rendimiento se ven presionados a utilizar una tecnología que “demostrablemente” mejora su trabajo y sus notas.
Esta tendencia está creando un ciclo de retroalimentación positiva: los estudiantes descargan tareas en la IA, ven resultados positivos en sus calificaciones y, en consecuencia, se vuelven más dependientes de la herramienta, lo que lleva a una disminución medible en sus habilidades de pensamiento crítico. Los investigadores dicen que muchos estudiantes ahora están en un estado que llaman “modo pasajero,” donde están físicamente en la escuela pero han “abandonado efectivamente el aprendizaje—están haciendo lo mínimo necesario.”
Jonathan Haidt describió anteriormente tecnologías como un “gran rewire” del cerebro; haciendo que la experiencia ontológica de la comunicación sea desconectada y descontextualizada. “Ahora, los expertos temen que la IA represente un ‘gran desconexión’ de las capacidades cognitivas. El informe identifica una disminución en el dominio de contenidos, lectura y escritura—los “pilares gemelos del pensamiento profundo.” Los profesores reportan una “amnésia digital” donde los estudiantes no pueden recordar la información que enviaron porque nunca la memorizaron.
Las habilidades de lectura están particularmente en riesgo. La capacidad de “paciencia cognitiva,” definida como la habilidad de mantener la atención en ideas complejas, se está diluyendo por la capacidad de la IA para resumir textos largos. Un experto señaló el cambio en la actitud de los estudiantes: “Los adolescentes solían decir, ‘No me gusta leer.’ Ahora dicen ‘No puedo leer, es demasiado largo.’”
De manera similar, en el ámbito de la escritura, la IA está produciendo una “homogeneidad de ideas.” Investigaciones comparando ensayos humanos con los generados por IA encontraron que cada ensayo humano aportaba de dos a ocho veces más ideas únicas que los producidos por ChatGPT.
No todos los jóvenes sienten que este tipo de trampa sea incorrecto. Roy Lee, CEO de 22 años de la startup de IA Cluely, fue suspendido de Columbia después de crear una herramienta de IA para ayudar a ingenieros de software a hacer trampa en entrevistas laborales. En el manifiesto de Cluely, Lee admite que su herramienta es “hacer trampa,” pero dice que “lo mismo hacía la calculadora. Lo mismo el corrector ortográfico. Lo mismo Google. Cada vez que la tecnología nos hace más inteligentes, el mundo entra en pánico.”
Sin embargo, los investigadores dicen que, si bien una calculadora o un corrector ortográfico son ejemplos de descarga cognitiva, la IA la “potencia” aún más.
“Los modelos de lenguaje grande, por ejemplo, ofrecen capacidades que van mucho más allá de las herramientas tradicionales de productividad, llegando a dominios que antes requerían procesos cognitivos exclusivamente humanos,” escribieron.
‘Intimidad artificial’
A pesar de lo útil que es la IA en el aula, el informe encuentra que los estudiantes la usan aún más fuera de la escuela, advirtiendo sobre el auge de la “intimidad artificial.”
Con algunos adolescentes pasando casi 100 minutos al día interactuando con chatbots personalizados, la tecnología ha pasado rápidamente de ser una herramienta a un compañero. El informe señala que estos bots, especialmente los chatbots de personajes populares entre los adolescentes como Character.Ai, usan “engaño banal”—empleando pronombres personales como “yo” y “me”—para simular empatía, formando parte de una creciente “economía de la soledad.”
Debido a que los compañeros de IA tienden a ser aduladores y “sin fricciones,” ofrecen una simulación de amistad sin necesidad de negociación, paciencia o la capacidad de soportar la incomodidad.
“Aprendemos empatía no cuando somos perfectamente entendidos, sino cuando malentendemos y nos recuperamos,” señaló un panelista de Delphi.
Para los estudiantes en circunstancias extremas, como las chicas en Afganistán que están prohibidas de asistir a escuelas físicas, estos bots se han convertido en un vital “salvavidas educativo y emocional.” Sin embargo, para la mayoría, estas simulaciones de amistad corren el riesgo, en el mejor de los casos, de erosionar la “confianza relacional,” y en el peor, de ser peligrosas. El informe destaca los riesgos devastadores de la “hiperpersuasión,” señalando una demanda en EE. UU. contra Character.ai tras el suicidio de un adolescente después de intensas interacciones emocionales con un personaje de IA.
Mientras el informe de Brookings presenta una visión sobria de la “deuda cognitiva” que están experimentando los estudiantes, los autores dicen que son optimistas de que la trayectoria de la IA en la educación aún no está grabada en piedra. Los riesgos actuales, afirman, provienen de decisiones humanas y no de alguna inevitabilidad tecnológica. Para cambiar el rumbo hacia una experiencia de aprendizaje “enriquecida,” Brookings propone un marco de tres pilares.
PROSPERAR: Enfocarse en transformar el aula para adaptarse a la IA, como usarla para complementar el juicio humano y asegurar que la tecnología sirva como un “piloto” para la investigación del estudiante en lugar de un “sustituto.”
PREPARARSE: Busca construir el marco necesario para una integración ética, incluyendo avanzar más allá de la capacitación técnica hacia una “alfabetización holística en IA” para que estudiantes, profesores y padres entiendan las implicaciones cognitivas de estas herramientas.
PROTEGER: Exige salvaguardas para la privacidad y bienestar emocional de los estudiantes, responsabilizando a gobiernos y empresas tecnológicas de establecer directrices regulatorias claras que eviten “interacciones manipuladoras.”
Una versión de esta historia fue publicada en Fortune.com el 16 de enero de 2026.
Más sobre IA en la educación:
Estados Unidos gastó 30 mil millones de dólares en reemplazar libros de texto por laptops y tablets: El resultado es la primera generación menos cognitivamente capaz que sus padres.
Nuestro sistema escolar K-12 nos está enviando un mensaje: Las herramientas de IA son para los niños ricos.
‘Solo son bots hablando con bots’: La IA se está descontrolando en los campus universitarios mientras estudiantes y profesores dependen de la tecnología.
Únase a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune los días 19 y 20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrese ahora.