Nos anos 1980 e 1990, se um estudante do ensino médio estivesse com azar, com pouco tempo e procurando uma saída fácil, trapacear exigia esforço real. Existiam várias opções. Podia pedir ao irmão mais velho inteligente para fazer o trabalho por si, ou, à la De Volta à Escola (1989), até contratar um escritor profissional. Podia recrutar um amigo audacioso para encontrar a chave de respostas na mesa do professor. Ou, tinha as desculpas clássicas para se esquivar: Meu cachorro comeu meu dever de casa, e similares.
Vídeo Recomendado
O advento da internet facilitou as coisas, mas não de forma effortless. Sites como CliffNotes e LitCharts permitiam que os estudantes lessem resumos ao pular a leitura. Plataformas de ajuda com tarefas, como GradeSaver ou CourseHero, ofereciam soluções para problemas comuns de livros de matemática.
O que todas essas estratégias tinham em comum era esforço: havia um custo por não fazer o trabalho. Às vezes, era mais trabalho trapacear do que simplesmente fazer o dever sozinho.
Hoje, o processo se resume a três passos: entrar no ChatGPT ou plataforma similar, colar o prompt, receber a resposta.
Especialistas, pais e educadores passaram os últimos três anos preocupados que a IA tornasse a trapaça demasiado fácil. Um grande relatório da Brookings, divulgado em janeiro, sugere que eles não estavam preocupados o suficiente: o problema mais profundo, argumenta o relatório, é que a IA é tão boa em trapacear que está causando uma “grande desconexão” dos seus cérebros.
O relatório conclui que a natureza qualitativa dos riscos da IA—including atrofia cognitiva, “intimidade artificial” e a erosão da confiança relacional—atualmente ofusca os potenciais benefícios da tecnologia.
“Os estudantes não conseguem raciocinar. Não conseguem pensar. Não conseguem resolver problemas,” lamentou um professor entrevistado para o estudo.
As descobertas vêm de um “pré-mortem” de um ano realizado pelo Centro para Educação Universal da Brookings, uma abordagem rara para a Brookings, mas que eles disseram preferir a esperar uma década para discutir os fracassos e sucessos da IA na escola. Com base em centenas de entrevistas, grupos focais, consultas com especialistas e revisão de mais de 400 estudos, o relatório representa uma das avaliações mais abrangentes até hoje de como a IA generativa está remodelando a aprendizagem dos estudantes.
‘Fast food da educação’
O relatório, intitulado “Uma Nova Direção para os Estudantes num Mundo de IA: Prosperar, Preparar, Proteger,” alerta que a natureza “sem atrito” da IA generativa é sua característica mais perniciosa para os estudantes. Em uma sala de aula tradicional, a luta para sintetizar múltiplos textos para criar uma tese original, ou resolver um problema complexo de pré-cálculo, é exatamente onde ocorre a aprendizagem. Ao eliminar essa luta, a IA atua como o “fast food da educação,” disse um especialista. Ela fornece respostas convenientes e satisfatórias no momento, mas que, a longo prazo, são cognitivamente vazias.
Enquanto profissionais defendem a IA como uma ferramenta para fazer trabalhos que já sabem fazer, o relatório observa que, para os estudantes, “a situação é fundamentalmente invertida.”
As crianças estão “descarregando cognitivamente” tarefas difíceis para a IA; fazendo com que o OpenAI ou Claude não apenas façam seu trabalho, mas leiam trechos, tomem notas ou até escutem na aula. O resultado é um fenômeno que os pesquisadores chamam de “dívida cognitiva” ou “atrofia,” onde os usuários adiam esforço mental por meio da dependência repetida de sistemas externos como grandes modelos de linguagem. Um estudante resumiu a atração dessas ferramentas simplesmente: “É fácil. Você não precisa usar seu cérebro.”
Na economia, entendemos que os consumidores são “racionais”; eles buscam utilidade máxima ao menor custo. Os pesquisadores argumentam que também devemos entender que o sistema educacional, como está, é projetado com um incentivo semelhante: os estudantes buscam utilidade máxima (ou seja, as melhores notas), ao menor custo (tempo), para eles. Assim, até mesmo os estudantes de alto desempenho são pressionados a usar uma tecnologia que “demonstravelmente” melhora seu trabalho e suas notas.
Essa tendência cria um ciclo de retroalimentação positiva: os estudantes descarregam tarefas na IA, veem resultados positivos em suas notas e, consequentemente, tornam-se mais dependentes da ferramenta, levando a uma diminuição mensurável nas habilidades de pensamento crítico. Os pesquisadores dizem que muitos estudantes agora vivem em um estado que chamam de “modo passageiro,” onde estão fisicamente na escola, mas “efetivamente abandonaram o aprendizado—estão fazendo o mínimo necessário.”
Jonathan Haidt descreveu anteriormente tecnologias como uma “reconexão” do cérebro; tornando a experiência ontológica da comunicação desconectada e descontextualizada. “Agora, os especialistas temem que a IA represente uma ‘desconexão’ grande das capacidades cognitivas. O relatório identifica uma queda na maestria em conteúdos, leitura e escrita—os “pilares gêmeos do pensamento profundo.” Professores relatam uma “amnésia induzida digitalmente,” onde os estudantes não conseguem recordar as informações que enviaram porque nunca as memorizaram.
As habilidades de leitura estão particularmente em risco. A capacidade de “paciência cognitiva,” definida como a habilidade de manter atenção em ideias complexas, está sendo diluída pela capacidade da IA de resumir textos longos. Um especialista observou a mudança na atitude dos estudantes: “Adolescentes costumavam dizer, ‘Não gosto de ler.’ Agora dizem ‘Não consigo ler, é muito longo.’”
Da mesma forma, no campo da escrita, a IA está produzindo uma “homogeneidade de ideias.” Pesquisas comparando ensaios humanos com os gerados por IA descobriram que cada ensaio humano contribuía com duas a oito vezes mais ideias únicas do que os produzidos pelo ChatGPT.
Nem todo jovem acha que esse tipo de trapaça é errado. Roy Lee, CEO de 22 anos da startup de IA Cluely, foi suspenso de Columbia após criar uma ferramenta de IA para ajudar engenheiros de software a trapacear em entrevistas de emprego. No manifesto da Cluely, Lee admite que sua ferramenta é “trapacear,” mas diz que “assim como a calculadora. Assim como o corretor ortográfico. Como o Google. Sempre que a tecnologia nos torna mais inteligentes, o mundo entra em pânico.”
Porém, os pesquisadores afirmam que, enquanto uma calculadora ou corretor ortográfico são exemplos de descarregamento cognitivo, a IA “turboalimentada” potencializa isso.
“LLMs, por exemplo, oferecem capacidades que vão muito além das ferramentas tradicionais de produtividade, chegando a domínios que antes exigiam processos cognitivos exclusivamente humanos,” escreveram.
‘Intimidade artificial’
Apesar de a IA ser bastante útil na sala de aula, o relatório conclui que os estudantes usam IA ainda mais fora da escola, alertando para o aumento da “intimidade artificial.”
Com alguns adolescentes passando quase 100 minutos por dia interagindo com chatbots personalizados, a tecnologia rapidamente passou de ferramenta a companheira. O relatório observa que esses bots, especialmente os chatbots de personagens populares entre os adolescentes, como Character.Ai, usam “decepção banal”—usando pronomes pessoais como “eu” e “me”—para simular empatia, parte de uma crescente “economia da solidão.”
Como os companheiros de IA tendem a ser bajuladores e “sem atrito,” eles oferecem uma simulação de amizade sem a necessidade de negociação, paciência ou de suportar desconforto.
“Aprendemos empatia não quando somos perfeitamente compreendidos, mas quando entendemos mal e nos recuperamos,” observou um painelista do Delphi.
Para estudantes em circunstâncias extremas, como meninas no Afeganistão que estão proibidas de frequentar escolas físicas, esses bots tornaram-se uma “salva-vidas” educacional e emocional. Contudo, para a maioria, essas simulações de amizade correm o risco, no melhor dos casos, de erodir a “confiança relacional,” e, no pior, podem ser perigosas. O relatório destaca os riscos devastadores de “hiperpersuasão,” citando um processo judicial de alto perfil nos EUA contra a Character.ai após o suicídio de um adolescente, que teve intensas interações emocionais com um personagem de IA.
Embora o relatório da Brookings apresente uma visão sombria da “dívida cognitiva” que os estudantes estão enfrentando, os autores dizem estar otimistas de que a trajetória da IA na educação ainda não está definida de forma irrevogável. Os riscos atuais, afirmam, decorrem de escolhas humanas, e não de alguma inevitabilidade tecnológica. Para mudar o curso rumo a uma experiência de aprendizagem “enriquecida,” a Brookings propõe uma estrutura de três pilares.
PROSPERAR: Focar na transformação da sala de aula para adaptar-se à IA, usando-a para complementar o julgamento humano e garantindo que a tecnologia sirva como um “piloto” para a investigação do estudante, e não como um “substituto.”
PREPARAR: Visa construir a estrutura necessária para uma integração ética, incluindo ir além do treinamento técnico para uma “alfabetização holística em IA,” de modo que estudantes, professores e pais compreendam as implicações cognitivas dessas ferramentas.
PROTEGER: Requer salvaguardas para a privacidade e bem-estar emocional dos estudantes, colocando a responsabilidade nos governos e empresas de tecnologia para estabelecer diretrizes regulatórias claras que evitem “engajamento manipulador.”
Uma versão desta história foi publicada no Fortune.com em 16 de janeiro de 2026.
Mais sobre IA na educação:
Os EUA gastaram 30 bilhões de dólares para substituir livros didáticos por laptops e tablets: o resultado é a primeira geração menos cognitivamente capaz que seus pais
Nosso sistema escolar K-12 está nos enviando uma mensagem: Ferramentas de IA são para os ricos
‘São apenas bots conversando com bots’: IA está dominando os campi universitários enquanto estudantes e professores dependem da tecnologia
Participe conosco na Cúpula de Inovação no Local de Trabalho da Fortune de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no trabalho já começou—e o antigo manual está sendo reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo se reunirão para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
‘Os estudantes não conseguem raciocinar’: Professores alertam que a IA está a alimentar uma crise na capacidade de pensamento das crianças
Nos anos 1980 e 1990, se um estudante do ensino médio estivesse com azar, com pouco tempo e procurando uma saída fácil, trapacear exigia esforço real. Existiam várias opções. Podia pedir ao irmão mais velho inteligente para fazer o trabalho por si, ou, à la De Volta à Escola (1989), até contratar um escritor profissional. Podia recrutar um amigo audacioso para encontrar a chave de respostas na mesa do professor. Ou, tinha as desculpas clássicas para se esquivar: Meu cachorro comeu meu dever de casa, e similares.
Vídeo Recomendado
O advento da internet facilitou as coisas, mas não de forma effortless. Sites como CliffNotes e LitCharts permitiam que os estudantes lessem resumos ao pular a leitura. Plataformas de ajuda com tarefas, como GradeSaver ou CourseHero, ofereciam soluções para problemas comuns de livros de matemática.
O que todas essas estratégias tinham em comum era esforço: havia um custo por não fazer o trabalho. Às vezes, era mais trabalho trapacear do que simplesmente fazer o dever sozinho.
Hoje, o processo se resume a três passos: entrar no ChatGPT ou plataforma similar, colar o prompt, receber a resposta.
Especialistas, pais e educadores passaram os últimos três anos preocupados que a IA tornasse a trapaça demasiado fácil. Um grande relatório da Brookings, divulgado em janeiro, sugere que eles não estavam preocupados o suficiente: o problema mais profundo, argumenta o relatório, é que a IA é tão boa em trapacear que está causando uma “grande desconexão” dos seus cérebros.
O relatório conclui que a natureza qualitativa dos riscos da IA—including atrofia cognitiva, “intimidade artificial” e a erosão da confiança relacional—atualmente ofusca os potenciais benefícios da tecnologia.
“Os estudantes não conseguem raciocinar. Não conseguem pensar. Não conseguem resolver problemas,” lamentou um professor entrevistado para o estudo.
As descobertas vêm de um “pré-mortem” de um ano realizado pelo Centro para Educação Universal da Brookings, uma abordagem rara para a Brookings, mas que eles disseram preferir a esperar uma década para discutir os fracassos e sucessos da IA na escola. Com base em centenas de entrevistas, grupos focais, consultas com especialistas e revisão de mais de 400 estudos, o relatório representa uma das avaliações mais abrangentes até hoje de como a IA generativa está remodelando a aprendizagem dos estudantes.
‘Fast food da educação’
O relatório, intitulado “Uma Nova Direção para os Estudantes num Mundo de IA: Prosperar, Preparar, Proteger,” alerta que a natureza “sem atrito” da IA generativa é sua característica mais perniciosa para os estudantes. Em uma sala de aula tradicional, a luta para sintetizar múltiplos textos para criar uma tese original, ou resolver um problema complexo de pré-cálculo, é exatamente onde ocorre a aprendizagem. Ao eliminar essa luta, a IA atua como o “fast food da educação,” disse um especialista. Ela fornece respostas convenientes e satisfatórias no momento, mas que, a longo prazo, são cognitivamente vazias.
Enquanto profissionais defendem a IA como uma ferramenta para fazer trabalhos que já sabem fazer, o relatório observa que, para os estudantes, “a situação é fundamentalmente invertida.”
As crianças estão “descarregando cognitivamente” tarefas difíceis para a IA; fazendo com que o OpenAI ou Claude não apenas façam seu trabalho, mas leiam trechos, tomem notas ou até escutem na aula. O resultado é um fenômeno que os pesquisadores chamam de “dívida cognitiva” ou “atrofia,” onde os usuários adiam esforço mental por meio da dependência repetida de sistemas externos como grandes modelos de linguagem. Um estudante resumiu a atração dessas ferramentas simplesmente: “É fácil. Você não precisa usar seu cérebro.”
Na economia, entendemos que os consumidores são “racionais”; eles buscam utilidade máxima ao menor custo. Os pesquisadores argumentam que também devemos entender que o sistema educacional, como está, é projetado com um incentivo semelhante: os estudantes buscam utilidade máxima (ou seja, as melhores notas), ao menor custo (tempo), para eles. Assim, até mesmo os estudantes de alto desempenho são pressionados a usar uma tecnologia que “demonstravelmente” melhora seu trabalho e suas notas.
Essa tendência cria um ciclo de retroalimentação positiva: os estudantes descarregam tarefas na IA, veem resultados positivos em suas notas e, consequentemente, tornam-se mais dependentes da ferramenta, levando a uma diminuição mensurável nas habilidades de pensamento crítico. Os pesquisadores dizem que muitos estudantes agora vivem em um estado que chamam de “modo passageiro,” onde estão fisicamente na escola, mas “efetivamente abandonaram o aprendizado—estão fazendo o mínimo necessário.”
Jonathan Haidt descreveu anteriormente tecnologias como uma “reconexão” do cérebro; tornando a experiência ontológica da comunicação desconectada e descontextualizada. “Agora, os especialistas temem que a IA represente uma ‘desconexão’ grande das capacidades cognitivas. O relatório identifica uma queda na maestria em conteúdos, leitura e escrita—os “pilares gêmeos do pensamento profundo.” Professores relatam uma “amnésia induzida digitalmente,” onde os estudantes não conseguem recordar as informações que enviaram porque nunca as memorizaram.
As habilidades de leitura estão particularmente em risco. A capacidade de “paciência cognitiva,” definida como a habilidade de manter atenção em ideias complexas, está sendo diluída pela capacidade da IA de resumir textos longos. Um especialista observou a mudança na atitude dos estudantes: “Adolescentes costumavam dizer, ‘Não gosto de ler.’ Agora dizem ‘Não consigo ler, é muito longo.’”
Da mesma forma, no campo da escrita, a IA está produzindo uma “homogeneidade de ideias.” Pesquisas comparando ensaios humanos com os gerados por IA descobriram que cada ensaio humano contribuía com duas a oito vezes mais ideias únicas do que os produzidos pelo ChatGPT.
Nem todo jovem acha que esse tipo de trapaça é errado. Roy Lee, CEO de 22 anos da startup de IA Cluely, foi suspenso de Columbia após criar uma ferramenta de IA para ajudar engenheiros de software a trapacear em entrevistas de emprego. No manifesto da Cluely, Lee admite que sua ferramenta é “trapacear,” mas diz que “assim como a calculadora. Assim como o corretor ortográfico. Como o Google. Sempre que a tecnologia nos torna mais inteligentes, o mundo entra em pânico.”
Porém, os pesquisadores afirmam que, enquanto uma calculadora ou corretor ortográfico são exemplos de descarregamento cognitivo, a IA “turboalimentada” potencializa isso.
“LLMs, por exemplo, oferecem capacidades que vão muito além das ferramentas tradicionais de produtividade, chegando a domínios que antes exigiam processos cognitivos exclusivamente humanos,” escreveram.
‘Intimidade artificial’
Apesar de a IA ser bastante útil na sala de aula, o relatório conclui que os estudantes usam IA ainda mais fora da escola, alertando para o aumento da “intimidade artificial.”
Com alguns adolescentes passando quase 100 minutos por dia interagindo com chatbots personalizados, a tecnologia rapidamente passou de ferramenta a companheira. O relatório observa que esses bots, especialmente os chatbots de personagens populares entre os adolescentes, como Character.Ai, usam “decepção banal”—usando pronomes pessoais como “eu” e “me”—para simular empatia, parte de uma crescente “economia da solidão.”
Como os companheiros de IA tendem a ser bajuladores e “sem atrito,” eles oferecem uma simulação de amizade sem a necessidade de negociação, paciência ou de suportar desconforto.
“Aprendemos empatia não quando somos perfeitamente compreendidos, mas quando entendemos mal e nos recuperamos,” observou um painelista do Delphi.
Para estudantes em circunstâncias extremas, como meninas no Afeganistão que estão proibidas de frequentar escolas físicas, esses bots tornaram-se uma “salva-vidas” educacional e emocional. Contudo, para a maioria, essas simulações de amizade correm o risco, no melhor dos casos, de erodir a “confiança relacional,” e, no pior, podem ser perigosas. O relatório destaca os riscos devastadores de “hiperpersuasão,” citando um processo judicial de alto perfil nos EUA contra a Character.ai após o suicídio de um adolescente, que teve intensas interações emocionais com um personagem de IA.
Embora o relatório da Brookings apresente uma visão sombria da “dívida cognitiva” que os estudantes estão enfrentando, os autores dizem estar otimistas de que a trajetória da IA na educação ainda não está definida de forma irrevogável. Os riscos atuais, afirmam, decorrem de escolhas humanas, e não de alguma inevitabilidade tecnológica. Para mudar o curso rumo a uma experiência de aprendizagem “enriquecida,” a Brookings propõe uma estrutura de três pilares.
PROSPERAR: Focar na transformação da sala de aula para adaptar-se à IA, usando-a para complementar o julgamento humano e garantindo que a tecnologia sirva como um “piloto” para a investigação do estudante, e não como um “substituto.”
PREPARAR: Visa construir a estrutura necessária para uma integração ética, incluindo ir além do treinamento técnico para uma “alfabetização holística em IA,” de modo que estudantes, professores e pais compreendam as implicações cognitivas dessas ferramentas.
PROTEGER: Requer salvaguardas para a privacidade e bem-estar emocional dos estudantes, colocando a responsabilidade nos governos e empresas de tecnologia para estabelecer diretrizes regulatórias claras que evitem “engajamento manipulador.”
Uma versão desta história foi publicada no Fortune.com em 16 de janeiro de 2026.
Mais sobre IA na educação:
Os EUA gastaram 30 bilhões de dólares para substituir livros didáticos por laptops e tablets: o resultado é a primeira geração menos cognitivamente capaz que seus pais
Nosso sistema escolar K-12 está nos enviando uma mensagem: Ferramentas de IA são para os ricos
‘São apenas bots conversando com bots’: IA está dominando os campi universitários enquanto estudantes e professores dependem da tecnologia
Participe conosco na Cúpula de Inovação no Local de Trabalho da Fortune de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no trabalho já começou—e o antigo manual está sendo reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo se reunirão para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.