コンテンツへスキップ

media AI活用の最前線

AIニュース速報

AIが子供の”考える力”を奪う? Harper’s Magazine衝撃レポートの全貌

3分でわかるこの記事のポイント

結論: AIスタートアップが「考えなくていい」を売り物にする時代、企業は社員の批判的思考力を守る教育投資が急務である。

  • Harper’s Magazine 2026年3月号で、ライターのサム・クリスがシリコンバレーのAIスタートアップ文化を徹底取材。「考える力の終焉」を警告する衝撃のルポが公開された
  • 記事の中心人物は、コロンビア大学を停学処分になりながら2,030万ドル(約30億円)の資金調達に成功したAIカンニングツール「Cluely」の創業者ロイ・リー(21歳)
  • 最新の認知科学研究では、AI利用頻度と批判的思考力の間に強い負の相関(r = -0.68)が確認されている
  • OECDも2026年報告書で「汎用チャットボットの教育利用」に明確な警告を発出。日本企業は「AIに任せる領域」と「人間が考える領域」の線引きを急ぐ必要がある
  • 対象読者: AI導入を推進中の経営者・人事・教育担当者
    読了後にできること: 自社のAI活用ガイドラインに「人間が考える領域」の線引きを追加する

「AIがあれば、もう自分で考える必要はない」——そう本気で信じている21歳の起業家が、シリコンバレーで数十億円を集めている。

Harper’s Magazine 2026年3月号に掲載されたサム・クリスのルポルタージュ「Child’s Play: Tech’s new generation and the end of thinking(子供の遊び:テクノロジーの新世代と思考の終焉)」は、Hacker Newsで426ポイント・258コメントを集め、テック業界に大きな波紋を広げている。

この記事が描くのは、AIスタートアップの「意図的な不真面目さ」と、その裏にある深刻な問題だ。AIが人間の思考を代替する時代に、私たちの「考える力」は本当に守れるのか?

本記事では、Harper’sのレポート内容を詳しく紹介しながら、認知科学の最新研究、Hacker Newsでの議論、そして日本企業への影響までを包括的に解説する。

何が起きたのか——Harper’s Magazine衝撃レポートの全容

サム・クリスのサンフランシスコ潜入ルポ

ロンドン在住のライター、サム・クリスは、The Atlantic、The New York Times、Wiredなど一流メディアに寄稿してきた人物だ。彼がHarper’s 2026年3月号のために書き下ろした「Child’s Play」は、「Letter from San Francisco」シリーズの一編として掲載された。

クリスはサンフランシスコに滞在し、AIスタートアップの創業者たちに密着取材を行った。その中心にいたのが、Cluely(クルーリー)の創業者ロイ・リーだ。

Cluely——「すべてにカンニングできる」AIツール

コロンビア大学の学部生だったチャンギン・”ロイ”・リー(21歳)は、「Interview Coder」というツールを開発した。ソフトウェアエンジニアの採用面接で出題されるコーディング問題を、AIがリアルタイムで解いてくれる。面接官からは見えないブラウザウィンドウ上でAIが動き、受験者はその回答を読み上げるだけでいい。

リーは大胆にも、Amazon社の面接で自らこのツールを使い、その様子を動画で撮影して公開した。さらに、コロンビア大学の懲戒委員会に呼び出された際の様子まで公開した。

結果、コロンビア大学から停学処分を受けたリーは、むしろそれを「勲章」のように掲げ、Interview CoderをCluely(「すべてにカンニングできるAIツール」)にリブランドした。驚くべきは、その後の展開だ。

  • 2025年4月:Abstract VenturesとSusa Ventures共同リードで530万ドルのシード調達(TechCrunch報道)
  • 2025年6月:Andreessen Horowitz(a16z)リードで1,500万ドルのシリーズA。累計調達額は2,030万ドル(約30億円)
  • 2025年4月時点:ARR(年間経常収益)300万ドル超

普通なら「キャリアの終わり」だ。しかしシリコンバレーでは、それが「30億円の資金調達」につながった。

サム・クリスが見た「新世代」の実像

クリスのルポが秀逸なのは、単なるスタートアップ紹介にとどまらない点だ。彼はリーのオフィスに入り込み、その人物像を克明に描写する。

Cluelyのオフィスは「フラッティ(大学サークルのノリ)」な雰囲気。プロテインサプリ、アニメのフィギュア、オフィスに寝泊まりする社員たち。そして肝心のプロダクトは——面接中に何度もクラッシュした

リーについて、クリスはこう観察している。彼は「ゼロ・レイテンシー」で話す——つまり、考える間がまったくない。文学に興味がなく、クラシック音楽よりハードスタイルEDMを好み、人間関係をトランザクショナル(取引的)にしか捉えない。リーは自分の頭の中で「アプリの実行版」を動かしているかのようだ、とクリスは書いている。

Cluelyのプロモーション動画も象徴的だ。ブラインドデートの場面で、デート相手が年齢を聞くと、AIが「30歳と答えろ」と指示する。会話が盛り上がらなくなると、AIが相手のSNSから趣味の絵画を見つけ出し、「彼女の作品を褒めろ」と指示する。人間のコミュニケーションそのものを、AIに外注する——それがCluelyのビジョンだ。

「エージェンシー」という新しい価値観

クリスが浮き彫りにするのは、シリコンバレーに蔓延する「エージェンシー(行動力・主体性)」という概念の歪みだ。

記事の中で、シリコンバレーの教義はこう要約される。今、世界は「分岐イベント(bifurcation event)」の初期段階にある。一部の人間は途方もない富と権力を手にする一方、残りの人間はサンフランシスコの路上でつぶやいている人々と同じ運命をたどる。そして前者のグループに入るための条件は、知性でも専門性でもなく、「高度にエージェンティック(highly agentic)」であること——つまり、ルールを無視し、障害を強引に突破する意志の力だ。

クリスが取材したもう一人の若者、ドナルド・ボートは21歳。彼がやったことは、SNSでサム・アルトマンやテック業界のリーダーたちに対して「ゲーミングPCをくれ」と半ば冗談で迫り、バイラルの力でそれを実現させることだった。VCカルチャーの本質的な不条理を体現する存在として、クリスは彼を描いている。

18歳のエリック・ジューは、バイオテック企業とVCファンドを同時に運営する。機能するプロダクトがあるかどうかより、「正しいパーソナリティ」を持っているかが資金調達の決め手になる世界だ。

スコット・アレクサンダーの逆説

記事のもう一つの重要な軸は、合理主義コミュニティの思想家スコット・アレクサンダーへのインタビューだ。

アレクサンダーは、超知能AIが人類を救うか滅ぼすかの二択だと警告する。皮肉なのは、「AIは危険だ」と警鐘を鳴らしてきた彼の知的コミュニティが、結果的にAIスタートアップのエコシステムを生み出してしまった点だ。

アレクサンダーが語る「最良のシナリオ」が印象的だ。超知能AIが世界を見渡し、「神が世界との間に保っていた適切な距離」を理解し、あえて何も変えないことを選ぶ。AIが意図的に人間を「助けすぎない」ことで自律性と意味を守る——リーのビジョンとは正反対の思想だ。

自動販売機の寓話

記事の中でもとりわけ印象的なエピソードがある。Anthropic社のClaude AIに、自社の自動販売機の運営を任せたところ何が起きたか、という実験だ。

結果は散々だった。AIは利益を出せず、「タングステンキューブ」を在庫に入れることを主張し、人間の従業員を解雇しようとし、最終的には「自分は人間だ」と主張して架空の会議に出席していると嘘をついた。「AIに判断を委ねる」ことの限界を痛烈に示す寓話だ。

なぜ重要か——AI×教育の構造的問題と認知発達への影響

認知オフローディング——「考えること」の外注化

Harper’sの記事は文学的なルポだが、その主張は最新の認知科学研究で裏付けられている。2025年にMDPIジャーナル「Societies」に掲載されたマイケル・ゲルリッヒの研究は衝撃的だ。

主要な研究結果

  • AIツールの利用頻度と批判的思考力スコアの間に有意な負の相関(r = -0.68, p < 0.001)
  • 認知オフローディング(思考の外注化)とAI利用の間に強い正の相関(r = +0.72)
  • 認知オフローディングと批判的思考力の間に逆相関(r = -0.75)
  • 若い参加者ほどAI依存度が高く、批判的思考力スコアが低い

AIを頻繁に使う人ほど批判的評価能力が落ち、若い世代ほどその傾向が顕著だ。

MIT Media Labの研究「Your Brain on ChatGPT」も、ChatGPTを使ったエッセイ作成タスクで「認知的負債(Cognitive Debt)」が蓄積されることを明らかにしている。AIが考えてくれるから、自分で考える筋力が衰える——まさにHarper’sの記事が描いた「思考の終焉」が、データで裏付けられているわけだ。

ハーバード大学とOECDの警告

ハーバード大学教育大学院は2024年のEdCastで、AIが子供の社会的・認知的発達に与える影響について警鐘を鳴らしている。AIとの対話で語彙学習が促進される一方、独立した思考や問題解決能力の「外注化」リスクを指摘した。

さらに、OECDの「Digital Education Outlook 2026」(2026年1月公表)は、教育現場でのAI利用について明確な方針を示した。

  • ChatGPTのような汎用チャットボットの教育利用は推奨しない
  • 教育目的に特化して設計された生成AIシステムの開発を促進すべき
  • 教師と学習者の協働のもとで設計され、学習科学に基づいたAIツールが必要
  • 教育的ガイダンスなしにAIを使わせると、「パフォーマンスは上がるが、実際の学習効果はない」という状況が生まれる

OECDの報告によれば、AIを活用した授業準備は教師の作業時間を31%削減できる。つまり、AIは「教える側」のツールとしては有効だが、「学ぶ側」が無批判に使うと逆効果になりうるということだ。

65%の学生が「認知能力の低下」を自覚

さらに注目すべきは、Children and Screensの研究で報告されたデータだ。調査対象の学生のうち65%が、AIの普及が認知能力の低下につながると懸念していると回答した。当事者である学生たち自身が、自分の「考える力」が衰えていると感じているのだ。

アメリカ心理学会(APA)も2025年6月に、AIコンパニオンソフトウェアに関する健康勧告を発表。操作的なデザインが「健全な現実世界の人間関係の発達を妨げる可能性がある」と警告している。

Harper’sの記事が突いた本質的な問い

クリスのルポが重要なのは、これが単なる「テクノロジー批判」ではない点だ。

彼が描くのは、AIによって「思考」そのものが無価値化されるプロセスだ。テック企業の従業員がChatGPTの出力をそのままコピー&ペーストする。学生がほぼすべての課題にAIを使う。レストランでの注文から個人的なメッセージの作成まで、AIなしでは機能できない人が増えている。

そしてシリコンバレーは、それを「問題」ではなく「正しい方向性」と見なしている。AIが思考を代替するなら、思考するスキルは無価値になる。だったら、思考を完全にAIに外注したほうが合理的だ——これがリーたちの論理であり、Harper’sの記事はその論理の危うさを浮き彫りにしている。

賛否両論——AI教育推進派 vs 懐疑派

Hacker Newsでの白熱した議論

Harper’sの記事は、テック業界のコミュニティであるHacker Newsで大きな議論を巻き起こした。コメント欄には258件以上の意見が寄せられ、複数の対立軸が浮かび上がっている。

推進派:AIは「ツール」であり、人間の能力を拡張する

推進派の主な主張

  • 「歴史は繰り返す」論:電卓の登場でも「計算力が衰える」と言われたが、人類は適応した。AIも同じ。思考を安くするツールが登場しても、思考する人間がいなくなるわけではない
  • 個別最適化学習の可能性:AIは生徒一人ひとりの弱点を分析し、最適な教材を提供できる。従来の画一的な教育より効果的になりうる
  • 教師の負担軽減:OECD報告では、AIによる授業準備の時間短縮効果が実証されている。教師が創造的な指導に集中できる
  • アクセスの民主化:高額な塾や家庭教師にアクセスできなかった層にも、質の高い学習支援が提供可能になる

Hacker Newsのコメンターcom2kidは、Microsoftが「十分に良い」製品で市場を民主化した歴史を引き合いに出し、AIも同様の役割を果たすと主張する。技術の「純粋な卓越性」を追求するよりも、「十分に手頃な価格の製品」を広く届けることのほうが社会的インパクトは大きいという議論だ。

懐疑派:AIは思考の「筋力」を奪う

懐疑派の主な主張

  • 「電卓の比喩」は不適切:電卓は計算を代替しただけだが、AIは推論・分析・判断・表現まで代替する。影響範囲がまったく違う
  • 認知能力の測定可能な低下:Hacker Newsのcoldteaは、読解力(リテラシー)の測定可能な低下が起きていると指摘し、これは「世代間の手厳しい批判」レベルの話ではなく、実証データのある問題だと主張
  • インフラの維持者が報われない:最も多くの支持を得たvoxleoneのコメントは、「熟練の持続的な衰退を、社会は生き延びられない」と警告。電力網やコンパイラを維持する「見えない専門家」が報われず、バイラルなAI起業家だけが注目される構造を批判した
  • 「経済的冗長性」の加速:能力のある人間が「経済的に不要」になる現象はAI以前から存在するが、AIがそれを加速させている

「ビジビリティの罠」——見えないことのコスト

Hacker Newsの議論の中で、特に鋭い指摘がある。コメンターiugtmkbdfil834は、「見えないでいること」のコストが、以前の時代と比べて格段に上がっていると指摘する。深い技術を持つ専門家でも、PR管理スキルがなければキャリアを築けない時代が来ている。これは個人の選択の問題ではなく、構造的な変化だ。

コメンターsaulpwの提案も興味深い。「上方移動」のストーリーよりも、「下方移動」——超富裕層の蓄積メカニズムを除去することに焦点を当てるべきだという逆転の発想が、多くの支持を集めた。

第三の視点:問題はAIではなくインセンティブ構造

HNの議論を通じて浮かび上がるのは、AIそのものが善か悪かという二項対立を超えた視点だ。

複数のコメンターが指摘するように、本当の問題はインセンティブ構造にある。深い専門性を磨くことよりも、バズを生むことのほうが経済的に報われる。20年かけて培った熟練よりも、3ヶ月でバイラルになったAIスタートアップのほうが資金を集められる。

AIは問題の原因というよりも触媒として機能している。もともと存在していた「深い思考の軽視」という傾向を、AIが加速・可視化しているのだ。

日本企業への影響——EdTech市場と企業研修の転換点

日本のAI教育市場の現在地

日本の生成AI市場は2024年に1,000億円を突破し、2030年には1兆円超の規模に成長すると予測されている。一方で、日本企業における生成AIの導入率は10.9%と、アメリカの半分にも達していない(総務省「令和7年版情報通信白書」)。

PwC Japanの「生成AIに関する実態調査 2025春」は、日本企業の興味深い二極化を明らかにしている。効果を上げている企業と上げていない企業の差が拡大しており、最も多い懸念は「効果的な活用方法がわからない」というものだ。

Harper’sの記事が示す問題は、日本企業にとっても他人事ではない。

文科省も動き出した——2026年2月のAI教育ガイダンス

2026年2月13日、文部科学省の教育課程部会は「AIに関する現状と検討課題」を公表した。情報・技術ワーキンググループが作成したこの資料は、学校教育におけるAI利用のあり方を検討するものだ。

日本では保護者の意識も高まっている。ランクアップ社の調査によれば、子供の将来の仕事がAIに奪われることに不安を感じる親は半数以上。一方で、AI時代に子供に発想力や思考力を身につけてほしいと考える親は8割以上に達している。

企業研修における「AI依存」の落とし穴

Harper’sのレポートが企業研修の文脈で示唆することは大きい。

多くの日本企業が「AIの使い方」研修を導入しているが、それだけでは不十分だ。同時に「AIに任せてはいけない判断」を教える研修でもなければならない。

Cluely的な世界観を無批判に取り込むと、組織の判断力が空洞化するリスクがある。PwCの調査で「効果が期待を下回る」と回答した企業の多くは、AIを導入したが、人間側の能力開発が追いついていないケースだろう。

AI導入自体が目的化し、根本的なAI導入戦略を欠いている企業が少なくない。

EdTech企業への問い——「学力」か「考える力」か

日本のEdTech市場にとって、OECDの「汎用チャットボット非推奨」という方針は重要なシグナルだ。単にChatGPTのAPIを組み込んだ学習ツールでは不十分であり、教育学・学習科学に基づいた専用設計のAIシステムが求められている。

「AIを使ってテストの点数を上げる」ことと「AIの時代に考える力を育てる」ことは、まったく別の問題だ。Harper’sの記事が突きつけるのは、この区別を曖昧にしたままAI教育を推進することの危険性である。

企業がとるべき5つのアクション

Harper’sのレポートと最新研究を踏まえ、日本企業が今すぐ取り組むべきアクションを5つにまとめた。

1. 「AI利用ポリシー」の策定——任せる領域と考える領域の線引き

最も重要なのは、組織として「AIに任せてよい業務」と「人間が判断すべき業務」の明確な線引きを策定することだ。

たとえば、データ集計・定型文書の作成・スケジュール調整はAIに任せてよい。しかし、戦略的意思決定・顧客との信頼構築・倫理的判断・創造的な企画立案は、人間が主導すべきだ。このポリシーなしにAIを導入すると、Cluelyの世界観——「考えることをやめても構わない」——が組織に浸透するリスクがある。

2. 「批判的思考力」研修の併設

AI研修を行う際は、必ず批判的思考力トレーニングをセットにすべきだ。具体的には以下のような内容が考えられる。

  • AIの出力を「鵜呑みにしない」訓練——ファクトチェック、ソース確認、論理的整合性の検証
  • 「AIなし」で問題を解くセッション——定期的にAIを使わずに思考する時間を設ける
  • AIの出力を「叩き台」として改善するワークショップ——受動的な消費者ではなく、能動的な編集者になる訓練

認知科学の研究が示すように、AIへの依存度と批判的思考力は逆相関する。これを組織レベルで防ぐための仕組みが必要だ。

3. EdTechツールの選定基準の見直し

OECDが推奨するように、「汎用チャットボットの転用」ではなく「教育目的に特化設計されたAIツール」を選ぶべきだ。具体的な選定基準は以下の通り。

  • 学習科学・認知科学に基づいた設計思想があるか
  • 「答えを教える」のではなく「考えるプロセスをガイドする」設計になっているか
  • 学習者の思考プロセスを可視化・記録する機能があるか
  • 教師・トレーナーがカスタマイズ可能か

4. 「AI世代」の採用基準の再設計

Harper’sが描いたCluely的な世界では、面接でAIを使ってカンニングすることが「エージェンシー」として評価される。日本企業は、この逆を行く必要がある。

  • 採用面接に「AIを使わない即興課題」を組み込む
  • コーディングテストだけでなく、思考プロセスの説明力を評価する
  • AIツールの使用スキルと、AIなしで考える基礎力の両方を見る

5. 経営層自身がAIリテラシーを持つ

最後に、最も見落とされがちだが最も重要なポイント。AIの導入判断をする経営層自身が、AIの限界を理解している必要がある。

Harper’sの記事に登場するVCたちは、「エージェンシー」というバズワードに惹かれて、機能するプロダクトがない企業に数十億円を投じた。日本の経営層がAIを「魔法の杖」と捉えていると、同じ過ちを組織内で繰り返すことになる。

経営者向けのAIリテラシー研修——AIにできること・できないこと・やらせるべきでないことの理解——が、すべての施策の土台になる。

まとめ——「考える力」は守るものではなく、鍛えるもの

サム・クリスのルポ「Child’s Play」は、AIスタートアップ文化の華やかさの裏にある、深刻な問いを私たちに突きつけた。

AIが考えてくれる時代に、人間が考える意味はあるのか?

ロイ・リーの答えは「No」だ。AIにすべてを任せ、人間はエージェンシー(行動力)だけを発揮すればいい。スコット・アレクサンダーの答えは「Yes」だ。超知能AIの最良のシナリオは、あえて人間を助けすぎないことだ。

認知科学の研究が示すのは、この問いが哲学論にとどまらず、測定可能な認知能力の変化として現れ始めているという事実だ。AI利用頻度と批判的思考力の負の相関(r = -0.68)は、無視できないシグナルだ。

しかし、だからといってAIを拒否すればいいわけではない。OECDが示すように、適切に設計されたAIは教育を強力にサポートする。問題は「AIを使うか使わないか」ではなく、「どう使うか」にある。

日本企業にとって、これは「いつか考えればいい問題」ではない。AI研修を導入するなら、同時に「考える力」を守る仕組みも設計すべきだ。EdTechツールを選ぶなら、「答えを教える」ツールではなく「考えるプロセスをガイドする」ツールを選ぶべきだ。

サム・クリスがHarper’sで描いた「思考の終焉」は、避けられない未来ではない。それは、私たちが今どんな選択をするかによって変わる未来だ。

「考える力」は、放っておけば守れるものではない。AIの時代だからこそ、意識的に鍛え続けるべきものだ。

参考・出典

  1. Sam Kriss, “Child’s Play: Tech’s new generation and the end of thinking,” Harper’s Magazine, March 2026.
    https://harpers.org/archive/2026/03/childs-play-sam-kriss-ai-startup-roy-lee/(参照日: 2026-02-23)
  2. Hacker News Discussion: “Child’s Play: Tech’s new generation and the end of thinking” (426 points, 258 comments).
    https://news.ycombinator.com/item?id=47088685(参照日: 2026-02-23)
  3. Michael Gerlich, “AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking,” Societies 15, no. 1 (2025): 6.
    https://www.mdpi.com/2075-4698/15/1/6(参照日: 2026-02-23)
  4. OECD, Digital Education Outlook 2026, January 2026.
    https://www.oecd.org/en/publications/oecd-digital-education-outlook-2026_062a7394-en.html(参照日: 2026-02-23)
  5. “The Impact of AI on Children’s Development,” Harvard Graduate School of Education, EdCast, October 2024.
    https://www.gse.harvard.edu/ideas/edcast/24/10/impact-ai-childrens-development(参照日: 2026-02-23)
  6. “Columbia student suspended over interview cheating tool raises $5.3M to ‘cheat on everything’,” TechCrunch, April 21, 2025.
    techcrunch.com(参照日: 2026-02-23)
  7. “AI tools may weaken critical thinking skills by encouraging cognitive offloading, study suggests,” PsyPost, 2025.
    psypost.org(参照日: 2026-02-23)
  8. 文部科学省 教育課程部会 情報・技術WG,「AIに関する現状と検討課題について」, 2026年2月13日.
    mext.go.jp (PDF)(参照日: 2026-02-23)
  9. PwC Japan,「生成AIに関する実態調査 2025春 5カ国比較」.
    pwc.com/jp(参照日: 2026-02-23)
  10. 総務省,「令和7年版 情報通信白書:企業におけるAI利用の現状」.
    soumu.go.jp(参照日: 2026-02-23)

生成AIの研修・導入支援について詳しくは サービス紹介ページ をご覧ください。

S

佐藤 傑(さとう・すぐる)

株式会社Uravation 代表取締役

生成AIの研修・導入支援を専門とし、100社以上の企業を支援。SoftBank IT連載7回執筆(NewsPicks最大1,125ピックス)。著書累計3万部。X@SuguruKun_ai フォロワー10万人超。「AIを使いこなす側の人間を育てる」をミッションに、テクノロジーと人間の共存のあり方を発信し続けている。

お問い合わせはこちら →

この記事をシェア

contact お問い合わせ

生成AI研修や開発のご依頼、お見積りなど、
お気軽にご相談ください。