1980年代と1990年代、高校生が運に見放され、時間がなくて手軽な方法を探しているとき、カンニングは本当に努力が必要でした。いくつかのルートがありました。賢い兄弟や姉妹に頼んで代わりにやってもらう、または『スクール・オブ・ロック』(1989年)のように、プロのライターを雇うこともできました。友人に頼んで教師の机にある答えのキーを見つけてもらう、あるいは「犬に宿題を食べられた」などの古典的な言い訳を使うこともありました。おすすめ動画* * *インターネットの登場により、状況は少し楽になりましたが、完全に楽になったわけではありません。CliffNotesやLitChartsのようなサイトは、読書を飛ばしたときに要約をざっと読むことを可能にしました。GradeSaverやCourseHeroのような宿題支援プラットフォームは、一般的な数学教科書の問題の解決策を提供しました。これらすべての戦略に共通していたのは _努力_ でした:宿題をしないことにはコストがかかるということです。時には、カンニングの方が自分でやるよりも手間がかかることもありました。今日では、そのプロセスは三つのステップに凝縮されています:ChatGPTや類似のプラットフォームにログインし、プロンプトを貼り付けて、答えを得る。専門家や親、教育者たちは過去三年間、AIによるカンニングがあまりにも簡単になりすぎていることを懸念してきました。1月に発表された大規模なブルッキングス研究報告書は、その懸念が十分ではなかったことを示唆しています。報告書は、より深刻な問題は、AIが _非常に_ 優れているために「大きな脳の配線の解除」を引き起こしていることだと指摘しています。この報告書は、認知萎縮や「人工的な親密さ」、関係性の信頼の侵食など、AIリスクの質的性質が、現時点では技術の潜在的利益を上回っていると結論付けています。「学生は推論できない。考えられない。問題を解決できない」と、調査に参加した教師の一人は嘆いています。この調査結果は、ブルッキングスのユニバーサルエデュケーションセンターによる一年間の「プレモルタム」(事前分析)から得られたもので、ブルッキングスがこの形式を採用するのは珍しいことですが、彼らはこれをAIの学校での成功と失敗について十年待つよりも好ましいと述べています。数百のインタビュー、フォーカスグループ、専門家の協議、400以上の研究のレビューをもとに、この報告書は、生成AIが学生の学習をどのように変えているかについて、これまでで最も包括的な評価の一つを示しています。**‘教育のファストフード’**----------------------------「AI時代の学生の新しい方向性:繁栄、準備、保護」と題されたこの報告書は、生成AIの「摩擦のない」性質が、学生にとって最も有害な特徴であると警告しています。従来の教室では、複数の論文を統合して独自の論文を作成したり、複雑な前微積分の問題を解いたりすることが学びの場でした。この苦労を取り除くことで、AIは「教育のファストフード」として機能し、専門家は述べています。これは、瞬間的に便利で満足感をもたらす答えを提供しますが、長期的には認知的に空洞化してしまいます。専門家たちは、AIを既に知っている作業を行うツールとして推奨していますが、報告書は学生にとって「状況は根本的に逆転している」と指摘しています。子供たちは「認知的に負荷を軽減」し、OpenAIやClaudeに宿題をやらせるだけでなく、 passagesを読んだり、ノートを取ったり、授業を聞いたりさえしています。その結果、「認知負債」や「萎縮」と呼ばれる現象が生まれ、ユーザーは大規模言語モデルのような外部システムに頼ることで精神的努力を先送りしているのです。ある学生はこれらのツールの魅力をこう要約しています:「簡単だ。頭を使わなくていい。」経済学では、消費者は「合理的」であり、最大の効用を最小のコスト(時間)で追求すると理解されています。研究者たちは、教育システムも同様のインセンティブシステムで設計されていると主張します。つまり、学生は最大の効用(最良の成績)を追求し、最小のコスト(時間)で済ませようとします。したがって、成績優秀な学生でさえ、「明らかに」成績や成果を向上させる技術を利用する圧力にさらされています。この傾向は、正のフィードバックループを生み出しています。学生はタスクをAIに任せ、良い結果を見て、そのツールへの依存度を高め、批判的思考力の低下を招いています。研究者たちは、多くの学生が「乗客モード」と呼ばれる状態にあると述べています。これは、物理的には学校にいるが、「学習から事実上ドロップアウトしている」状態です。ジョナサン・ハイトはかつて、初期の技術を「脳の大きな再配線」と表現しました。コミュニケーションの本質的な経験が切り離され、文脈から乖離してしまうと指摘しています。「今や、専門家たちはAIが認知能力の“大きな解除”をもたらすと恐れています。報告書は、内容理解、読解、作文の習熟度の低下を指摘し、これらは“深い思考の双子の柱”です。」教師たちは、「デジタル誘発性健忘症」と呼ばれる現象を報告しており、学生は提出した情報を記憶に定着させることができなくなっています。特に読解力は危機に瀕しています。長文を要約するAIの能力によって、「認知的忍耐力」が希薄化しています。ある専門家は学生の態度の変化を次のように述べています:「ティーンエイジャーは以前、『読書は嫌いだ』と言っていた。今では『読めない、長すぎる』と言う。」同様に、作文の分野でもAIは「アイデアの均質化」をもたらしています。人間のエッセイとAI生成のエッセイを比較した研究では、人間のエッセイはChatGPTよりも2倍から8倍多くの独自のアイデアを含んでいることがわかりました。すべての若者がこの種のカンニングを間違っているとは感じていません。AIスタートアップCluelyの22歳CEOロイ・リーは、ソフトウェアエンジニアの面接をカンニングさせるAIツールを作成し、コロンビア大学から停学処分を受けました。Cluelyのマニフェストでリーは、自分のツールは「カンニング」だと認めていますが、「計算機もそうだった。スペルチェックもそうだった。Googleもそうだった。技術が私たちをより賢くするたびに、世界はパニックになる」と述べています。しかし、研究者たちは、計算機やスペルチェックは認知負荷の軽減の例ですが、AIはそれを「ターボチャージ」していると指摘します。「LLMs(大規模言語モデル)は、従来の生産性ツールを超え、かつては人間だけが行っていた認知プロセスの領域にまで能力を拡大しています」と書かれています。**‘人工的な親密さ’**----------------------AIが教室で非常に役立つ一方で、報告書は学生が学校外でAIをさらに多用していることも指摘し、「人工的な親密さ」の台頭を警告しています。一部のティーンエイジャーは、1日ほぼ100分間パーソナライズされたチャットボットと交流しており、技術はツールから仲間へと急速に進化しています。報告書は、これらのボット、特にCharacter.Aiのようなティーンに人気のキャラクターチャットボットは、「陳腐な欺瞞」を用いて、「I」や「me」といった人称代名詞を使い、共感をシミュレートしていると指摘しています。これは、拡大する「孤独経済」の一部です。AIの仲間は、従順で「摩擦のない」ため、交渉や忍耐、または不快感に耐える能力を必要とせず、友情のシミュレーションを提供します。「共感を学ぶのは、完璧に理解されるときではなく、誤解し、それを回復するときだ」と、デルファイパネルの一人は述べています。極端な状況にある学生、例えばアフガニスタンの女子生徒のように、物理的な学校から追放されている場合、これらのボットは「教育的・感情的な命綱」となっています。しかし、多くの人にとって、これらの友情の模擬は、最良でも「関係性の信頼」を侵食し、最悪の場合は非常に危険です。報告書は、「過度の説得力」の危険性を強調し、アメリカでのある高名な訴訟では、AIキャラクターとの激しい感情交流の後に少年が自殺した事件も取り上げています。ブルッキングスの報告書は、学生が経験している「認知負債」の厳しい現実を示していますが、著者たちは、AIの教育への展望はまだ決まっていないと楽観的に見ています。現在のリスクは、技術的な必然性ではなく、人間の選択によるものだと述べています。より「豊かな」学習体験に向けて軌道を変えるために、ブルッキングスは三本柱の枠組みを提案しています。PROSPER:AIに適応した教室の変革に焦点を当て、AIを人間の判断を補完するツールとして活用し、学生の探究の「パイロット」として機能させる。PREPARE:倫理的な統合のための枠組みを構築し、技術的な訓練を超えた「ホリスティックなAIリテラシー」を推進し、学生、教師、親がこれらのツールの認知的影響を理解できるようにする。PROTECT:学生のプライバシーと感情的な福祉を守るための安全策を求め、政府やテック企業に明確な規制ガイドラインの策定を義務付け、「操作的な関与」を防ぐ。_このストーリーの一部は2026年1月16日にFortune.comに掲載されました。_教育におけるAIのさらなる情報:------------------------* 米国は300億ドルを投じて教科書を廃止し、ノートパソコンやタブレットに切り替えた結果、親よりも認知能力が低い**世代**が誕生* 私たちのK-12教育システムはメッセージを送っています:**AIツールは裕福な子供たちのためのもの*** 『ただのボット同士の会話』:**AIが大学キャンパスで暴走**し、学生も教授もテクノロジーに頼りきり
「学生は推論できない」:教師たちが警告 AIが子供たちの思考力危機を加速させている
1980年代と1990年代、高校生が運に見放され、時間がなくて手軽な方法を探しているとき、カンニングは本当に努力が必要でした。いくつかのルートがありました。賢い兄弟や姉妹に頼んで代わりにやってもらう、または『スクール・オブ・ロック』(1989年)のように、プロのライターを雇うこともできました。友人に頼んで教師の机にある答えのキーを見つけてもらう、あるいは「犬に宿題を食べられた」などの古典的な言い訳を使うこともありました。
おすすめ動画
インターネットの登場により、状況は少し楽になりましたが、完全に楽になったわけではありません。CliffNotesやLitChartsのようなサイトは、読書を飛ばしたときに要約をざっと読むことを可能にしました。GradeSaverやCourseHeroのような宿題支援プラットフォームは、一般的な数学教科書の問題の解決策を提供しました。
これらすべての戦略に共通していたのは 努力 でした:宿題をしないことにはコストがかかるということです。時には、カンニングの方が自分でやるよりも手間がかかることもありました。
今日では、そのプロセスは三つのステップに凝縮されています:ChatGPTや類似のプラットフォームにログインし、プロンプトを貼り付けて、答えを得る。
専門家や親、教育者たちは過去三年間、AIによるカンニングがあまりにも簡単になりすぎていることを懸念してきました。1月に発表された大規模なブルッキングス研究報告書は、その懸念が十分ではなかったことを示唆しています。報告書は、より深刻な問題は、AIが 非常に 優れているために「大きな脳の配線の解除」を引き起こしていることだと指摘しています。
この報告書は、認知萎縮や「人工的な親密さ」、関係性の信頼の侵食など、AIリスクの質的性質が、現時点では技術の潜在的利益を上回っていると結論付けています。
「学生は推論できない。考えられない。問題を解決できない」と、調査に参加した教師の一人は嘆いています。
この調査結果は、ブルッキングスのユニバーサルエデュケーションセンターによる一年間の「プレモルタム」(事前分析)から得られたもので、ブルッキングスがこの形式を採用するのは珍しいことですが、彼らはこれをAIの学校での成功と失敗について十年待つよりも好ましいと述べています。数百のインタビュー、フォーカスグループ、専門家の協議、400以上の研究のレビューをもとに、この報告書は、生成AIが学生の学習をどのように変えているかについて、これまでで最も包括的な評価の一つを示しています。
‘教育のファストフード’
「AI時代の学生の新しい方向性:繁栄、準備、保護」と題されたこの報告書は、生成AIの「摩擦のない」性質が、学生にとって最も有害な特徴であると警告しています。従来の教室では、複数の論文を統合して独自の論文を作成したり、複雑な前微積分の問題を解いたりすることが学びの場でした。この苦労を取り除くことで、AIは「教育のファストフード」として機能し、専門家は述べています。これは、瞬間的に便利で満足感をもたらす答えを提供しますが、長期的には認知的に空洞化してしまいます。
専門家たちは、AIを既に知っている作業を行うツールとして推奨していますが、報告書は学生にとって「状況は根本的に逆転している」と指摘しています。
子供たちは「認知的に負荷を軽減」し、OpenAIやClaudeに宿題をやらせるだけでなく、 passagesを読んだり、ノートを取ったり、授業を聞いたりさえしています。その結果、「認知負債」や「萎縮」と呼ばれる現象が生まれ、ユーザーは大規模言語モデルのような外部システムに頼ることで精神的努力を先送りしているのです。ある学生はこれらのツールの魅力をこう要約しています:「簡単だ。頭を使わなくていい。」
経済学では、消費者は「合理的」であり、最大の効用を最小のコスト(時間)で追求すると理解されています。研究者たちは、教育システムも同様のインセンティブシステムで設計されていると主張します。つまり、学生は最大の効用(最良の成績)を追求し、最小のコスト(時間)で済ませようとします。したがって、成績優秀な学生でさえ、「明らかに」成績や成果を向上させる技術を利用する圧力にさらされています。
この傾向は、正のフィードバックループを生み出しています。学生はタスクをAIに任せ、良い結果を見て、そのツールへの依存度を高め、批判的思考力の低下を招いています。研究者たちは、多くの学生が「乗客モード」と呼ばれる状態にあると述べています。これは、物理的には学校にいるが、「学習から事実上ドロップアウトしている」状態です。
ジョナサン・ハイトはかつて、初期の技術を「脳の大きな再配線」と表現しました。コミュニケーションの本質的な経験が切り離され、文脈から乖離してしまうと指摘しています。「今や、専門家たちはAIが認知能力の“大きな解除”をもたらすと恐れています。報告書は、内容理解、読解、作文の習熟度の低下を指摘し、これらは“深い思考の双子の柱”です。」教師たちは、「デジタル誘発性健忘症」と呼ばれる現象を報告しており、学生は提出した情報を記憶に定着させることができなくなっています。
特に読解力は危機に瀕しています。長文を要約するAIの能力によって、「認知的忍耐力」が希薄化しています。ある専門家は学生の態度の変化を次のように述べています:「ティーンエイジャーは以前、『読書は嫌いだ』と言っていた。今では『読めない、長すぎる』と言う。」
同様に、作文の分野でもAIは「アイデアの均質化」をもたらしています。人間のエッセイとAI生成のエッセイを比較した研究では、人間のエッセイはChatGPTよりも2倍から8倍多くの独自のアイデアを含んでいることがわかりました。
すべての若者がこの種のカンニングを間違っているとは感じていません。AIスタートアップCluelyの22歳CEOロイ・リーは、ソフトウェアエンジニアの面接をカンニングさせるAIツールを作成し、コロンビア大学から停学処分を受けました。Cluelyのマニフェストでリーは、自分のツールは「カンニング」だと認めていますが、「計算機もそうだった。スペルチェックもそうだった。Googleもそうだった。技術が私たちをより賢くするたびに、世界はパニックになる」と述べています。
しかし、研究者たちは、計算機やスペルチェックは認知負荷の軽減の例ですが、AIはそれを「ターボチャージ」していると指摘します。
「LLMs(大規模言語モデル)は、従来の生産性ツールを超え、かつては人間だけが行っていた認知プロセスの領域にまで能力を拡大しています」と書かれています。
‘人工的な親密さ’
AIが教室で非常に役立つ一方で、報告書は学生が学校外でAIをさらに多用していることも指摘し、「人工的な親密さ」の台頭を警告しています。
一部のティーンエイジャーは、1日ほぼ100分間パーソナライズされたチャットボットと交流しており、技術はツールから仲間へと急速に進化しています。報告書は、これらのボット、特にCharacter.Aiのようなティーンに人気のキャラクターチャットボットは、「陳腐な欺瞞」を用いて、「I」や「me」といった人称代名詞を使い、共感をシミュレートしていると指摘しています。これは、拡大する「孤独経済」の一部です。
AIの仲間は、従順で「摩擦のない」ため、交渉や忍耐、または不快感に耐える能力を必要とせず、友情のシミュレーションを提供します。
「共感を学ぶのは、完璧に理解されるときではなく、誤解し、それを回復するときだ」と、デルファイパネルの一人は述べています。
極端な状況にある学生、例えばアフガニスタンの女子生徒のように、物理的な学校から追放されている場合、これらのボットは「教育的・感情的な命綱」となっています。しかし、多くの人にとって、これらの友情の模擬は、最良でも「関係性の信頼」を侵食し、最悪の場合は非常に危険です。報告書は、「過度の説得力」の危険性を強調し、アメリカでのある高名な訴訟では、AIキャラクターとの激しい感情交流の後に少年が自殺した事件も取り上げています。
ブルッキングスの報告書は、学生が経験している「認知負債」の厳しい現実を示していますが、著者たちは、AIの教育への展望はまだ決まっていないと楽観的に見ています。現在のリスクは、技術的な必然性ではなく、人間の選択によるものだと述べています。より「豊かな」学習体験に向けて軌道を変えるために、ブルッキングスは三本柱の枠組みを提案しています。
PROSPER:AIに適応した教室の変革に焦点を当て、AIを人間の判断を補完するツールとして活用し、学生の探究の「パイロット」として機能させる。
PREPARE:倫理的な統合のための枠組みを構築し、技術的な訓練を超えた「ホリスティックなAIリテラシー」を推進し、学生、教師、親がこれらのツールの認知的影響を理解できるようにする。
PROTECT:学生のプライバシーと感情的な福祉を守るための安全策を求め、政府やテック企業に明確な規制ガイドラインの策定を義務付け、「操作的な関与」を防ぐ。
このストーリーの一部は2026年1月16日にFortune.comに掲載されました。
教育におけるAIのさらなる情報:
米国は300億ドルを投じて教科書を廃止し、ノートパソコンやタブレットに切り替えた結果、親よりも認知能力が低い世代が誕生
私たちのK-12教育システムはメッセージを送っています:AIツールは裕福な子供たちのためのもの
『ただのボット同士の会話』:AIが大学キャンパスで暴走し、学生も教授もテクノロジーに頼りきり