——「役に立たない」ものはなぜ生き残るのか
はじめに
ChatGPTが世に出てから数年が経った。生成AIはもはや一部の技術愛好家のおもちゃではなく、職場の同僚であり、学生のレポート執筆のパートナーであり、官庁の政策立案を支える道具にすらなっている。そして同じ時期、世界中の大学で、ある学問群が静かに痩せ細り続けている。歴史学、哲学、文学——いわゆる人文学である。
「役に立たない」「正解を出さない」「経済成長に貢献しない」。そんな声に押されて、これらの分野はカリキュラムの隅に追いやられ、予算を削られている。一方で、データサイエンスやコンピュータ科学の専攻はかつてない勢いで膨張している。一見すると、合理的な選択である。AIの時代に必要なのは、AIを設計・運用できる人材ではないのか。
本書が示したいのは、その逆の事実である。AIが「超効率化」を極めれば極めるほど、人文学が担ってきた仕事——立ち止まる、問い直す、意味を生み出す——の価値は逆説的に増していく。これは精神論ではなく、AIの最先端を走る企業の現場や、経済学者の労働市場予測、認知心理学の実験データから浮かび上がる、構造的な事実である。
本書では、九つの視点からこの逆説を解きほぐしていく。STEM偏重の風景を眺めるところから始め、「摩擦のない社会」の落とし穴を覗き、確実性が暴落する時代の「問い」の価値を考える。そして最後に、人文学を「役に立たないもの」から「社会全体の方向を決めるメタ・レギュレーター」へと位置づけ直す。
第一章 効率化の波と、痩せていく人文学
私たちは今、奇妙な時代を生きている。
人工知能、とりわけ大規模言語モデルや生成AIの普及によって、思考から出力までの時間が極限まで短縮された。メールの下書き、コードの初稿、データの要約、そしてこの書籍の章立ての提案にいたるまで、かつて人間が頭を抱えていた「摩擦」のほとんどをAIが引き受けるようになった。AIとはまさに「超効率化ツール」であり、人間の営みのあらゆる場面で、すり減っていた歯車に油を差してくれる存在である。
そしてこのテクノロジーは、単に労働の形を変えただけではない。社会の根底にある「価値観」そのものを引きずっている。私たちはいま、迅速な回答、シームレスな取引、測定可能な生産性こそが至高の善であるという、極端な実利至上主義のなかへと押し流されている。
この潮流のなかで、いちばんの被害者となっているのが人文学である。歴史学、哲学、文学——これらの学問は、科学的再現性に乏しく、四半期ごとの利益を生まず、「すぐに役立つ」とは言いがたい。だから世界中で、政府も大学も、これらの分野から予算を引き上げ、STEM(科学・技術・工学・数学)分野へとリソースを移している。
本書が問いたいのはこうである。情報処理の速度が無限に近づき、摩擦が消えていくこの時代に、人文学はほんとうに「いらないもの」になったのか。それとも、効率化が進めば進むほど、人文学の役割はむしろ重みを増していくのか。
結論を先に書いてしまうと、後者である。AIによる超効率化が極まるほど、人文学が担ってきた「摩擦の保持」と「意味生成」が、人類の生存と知的独立性を支える死活的な要件になる。そしてこの逆説は、ふしぎなことに、AIを最も鋭く批判する人々ではなく、AIを最も深く理解する人々——フロンティアAI企業の研究者たち——から、最も強い言葉で語られている。
第二章 STEMという地殻変動
では、地殻変動の規模を具体的な数字で見てみよう。
舞台はバージニア大学(UVA)である。アメリカ屈指の研究大学(R1)であり、もともとはリベラルアーツの強豪として名高い。そのUVAでさえ、過去十年で専攻の風景が一変した。
10年前、STEM分野はUVAの専攻全体の約35%を占めていた。それが今では約44%にまで膨張している。逆に、人文学・芸術・社会科学の合計は、約49%から約38%へと痩せ細った。個別の数字はもっと劇的である。コンピュータ科学専攻の卒業生は、136名から644名へ、十年で約五倍に増加した。一方、かつて主要専攻のひとつだった歴史学の卒業生は、261名から113名へ。半数以下である。英語学も215名から151名へ縮小した。
この背景を、UVAの学部長Christa Acamporaは率直に語る。学生たちは2008年の世界金融危機(グレート・リセッション)以降の不安定な経済環境を経験し、「市場価値のあるスキル」を身につけることを最優先するようになったのだ、と。米国労働統計局の予測も、その判断を後押しする。データサイエンス関連の役割は2032年までに35%の成長が見込まれている。十年後の自分の年収を考えるなら、歴史学より計算機科学を選ぶのが「合理的」である。
ところが、ここで一つの巨大な逆説が立ち上がる。
AIがもたらす本当の地殻変動は、人文学を縮小させたあとに、STEM内部にも襲いかかるのである。
考えてみてほしい。プログラミング言語の構文を覚え、定型的なロジックを組み、データの初期分析をする——これらは長く高給職とされてきた仕事だ。しかしAIは、コードを即座に生成し、バグを修正し、データの前処理を一瞬でこなす。すると、純粋な技術的スキルの陳腐化サイクルは、これまでにない速さで回り始める。「Pythonが書ける」だけの人材の市場価値は、すでに静かに下落し始めている。
Anthropicの共同創設者は、このシフトを次のように要約している。AIが技術的な「生の作業」をこなすようになるほど、価値の重心は「批判的思考」「創造性」「コミュニケーション」、そして「適切な質問をする能力」へと移る。シリコンバレーのソフトウェア・エンジニアリング現場でも同じ風が吹いている。AIが出力したコードが「なぜ動くのか」「どんなアーキテクチャ的文脈に位置づけられるのか」を言語化し、他者と調整できる人材——高い感情的知性(EQ)を持つ人材——が重宝されているのだ。
経済学者のAnton Korinekは、もっと踏み込んだ予測をしている。汎用人工知能(AGI)の登場は、過去三百年間にわたって続いた「人間の労働が経済成長の律速段階である」というパラダイムを終わらせる、と。これからは計算能力そのものが律速段階となり、賃金はAIシステムの稼働コストと同等まで低下しうる。人間が経済的に有用なスキルをほぼ持たなくなる「技術的失業」のシナリオである。
奇妙な構造に気づくだろうか。実利主義に駆り立てられて学生はSTEMに殺到した。しかしAIの台頭は、その実利主義そのものを内側から食い荒らし始めている。実利を追えば追うほど、実利の地盤は崩れていく。だからこそAIの最前線から、実利主義を超える価値観——人文学的なパラダイム——への希求が、思いがけず生まれているのである。
第三章 「摩擦のない社会」が失わせるもの
AIが約束する世界は、ひとことで言えば「摩擦のない世界」である。
スマートホームが室温を勝手に調節し、ワンタップで買い物が完了し、長文の論文が瞬時に要約される。あらゆるタスクから遅滞や労力——すなわち摩擦——を取り除くことが、無条件の善とされている。だが、ほんとうに摩擦はすべて悪なのか。
ここで二つの角度から、その素朴な前提に疑問を投げかけたい。
ひとつめは、人間関係や信頼の角度から。
利便性を至上とする社会では、人と人とのやりとりが「トランザクション」(取引)に還元されていく。すると失われるのは、文脈であり、ニュアンスであり、何より関係性のなかで育まれる「信頼」である。摩擦をすべて取り除いた先には、実は「凡庸さのブラックホール」が口を開けている、という批判は的を射ている。深い相互理解や強いコミュニティは、効率の極致では生まれない。あえてプロセスを遅くし、人間性に焦点を当てる「摩擦の場」でこそ、それは芽を出す。
家事や手続きといった日常の小さな労力にしてもそうだ。それらは単なる障害ではなく、人間にリズムを与え、時間と場所への定着をもたらす。AIによってあらゆる手続きが自動化された結果、私たちはむしろアップデートやプロンプト管理に追われ、「決定疲れ」という新しい疲労に苛まれている。情報取得が完全に無摩擦になった時代だからこそ、あえて摩擦を導入することの価値(value of friction)が再評価されなければならない。
ふたつめの角度は、もっと深刻である。学習と認知の角度だ。
認知心理学者ロバート・ビョーク(Robert Bjork)は、「望ましい困難(desirable difficulties)」という概念を提唱した。学習プロセスに戦略的な障害——間隔学習、交互学習、想起練習など——を導入すると、短期的には学習は遅くなり、つらくなる。しかし長期的には、より強固で柔軟な知識が身につく。これは数十年にわたる実験で実証されている事実である。
ところが、AIが論文のアウトラインを書き、複雑な概念を秒で要約する環境では、学生も研究者も、この知的な格闘を完全にスキップできる。AIが出力する結果は表面的には優秀だ。だがその過程で奪われるのは、自分の頭で概念を練り上げ、対立する意見を統合し、知識を内在化させるための「認知的労働」そのものである。
この対比はこう整理できる。摩擦なきAI環境では、学習者は瞬時の要約や自動生成を「受動的に消費」する。短期的なタスク完了は速い。しかし長期的な定着率も、未知の状況への転移能力も低い。一方、「望ましい困難」を経た学習者は、想起練習や対立意見の統合という能動的葛藤を経験する。短期的には負荷が高くフラストレーションを伴う。だが、強固で転移可能な知識ネットワークが頭の中に編まれ、複雑な歴史的・思想的枠組みを現代の課題に応用する知恵が育つ。
そして両者を分かつ最も重要な違いが、最後に立ち現れる。摩擦なきAI環境は「有能さの錯覚(illusion of competence)」を生む。洗練されたテキストやコードが手元にあることと、それを深く理解し血肉としていることは、まったく別物である。だが鏡を見ながらAIが書いた文章を読み返すとき、私たちは前者を後者と取り違える。
人文学の教育が長年やってきたのは、まさにこの錯覚を防ぐことだった。文章を書くこと、歴史的背景を読み解くこと、思想を解釈すること——これらは結果ではなくプロセスとして、学習者の思考力を鍛える。だからAI時代の教育者やシステム設計者には、新しい役割が求められている。AIを「松葉杖」ではなく「足場(scaffold)」として機能させるための、「摩擦の設計者(friction architect)」という役割だ。
具体的には、AIが提示する要約のニュアンスやハルシネーション(幻覚)を批判的に検証する「積極的尋問(active interrogation)」、自分の力で概念を思い出す「想起練習(retrieval practice)」——こうした人間的負荷を、教育プロセスに意図的に残しておくこと。これは反進歩でも反AIでもない。AIへの過度な依存による「教育的負債」を防ぐための、未来志向の設計なのである。
第四章 正解があふれる時代の「問い」
AIの超効率化は、もう一つ、大きなものを変えてしまった。「知識の価値」の基準そのものである。
これまでの社会は、「確実性(certainty)」を提供する装置を高く評価してきた。科学、データ、数値——不確実な世界のなかで「正しい答え」を供給するこれらの仕組みは、希少な資源だったからだ。だから科学者は尊敬され、データを扱える人材は重宝された。
ところがAIの登場によって、この前提が崩れた。AIは人間より圧倒的に速く、安く、しかも「もっともらしく」正解を量産する。論文の要約、疾患の診断、政策の素案、判決文風の文章まで、わずかなプロンプトひとつで生成される。すると何が起きるか。確実性そのものの市場価値が、暴落するのである。
経済学の基本原理である。供給が無限になれば、価格はゼロに収束する。「正しそうな答えが出てくること」は、もはや人間の付加価値の根拠でも、システムへの無条件の信頼の根拠でもなくなった。
ここで、長らく「役に立たない」「曖昧である」「正解を出さない」と批判されてきた人文学の価値が、劇的に反転する。
AIにできるのは、「与えられた問い」に対して最適化された回答を出すことだ。だが、AIには絶対にできないことがある。それは——
「どの問いを立てるべきか」を決めること。
「何を根本的な問題として扱うべきか」を判断すること。
「相反する価値観のなかで、どれを優先すべきか」を選ぶこと。
なぜなら、これらは事実(fact)の問題ではなく、意味と価値(meaning and value)の問題だからである。AIのアルゴリズムは過去の膨大なデータから統計的に最も確からしい回答を返すだけで、その回答が人間社会にとってどんな倫理的意味を持つかについては完全に盲目だ。
人文学とは、もともと「正しい答えを出す学問」ではなかった。「答えを採用するための条件そのものを問い続ける学問」だった。歴史を通じて人文学が発してきた問いを並べてみよう。「その正しさは、誰にとっての正しさなのか」「その判断基準は、どのような歴史的・権力的構造から生じたのか」「ある決定を下すことで、どのような別の生き方や少数派の声が排除されていないか」「この決定は、私たちの人間性をどう変容させるのか」。
科学やAIが、あらかじめ設定された条件の内側で驚異的な処理能力を発揮するとき、その条件自体が妥当なのかを、メタ・レベルで問い直す視座を提供するのが、人文学の役割である。
知識が容易に手に入るAI環境は、別の落とし穴も用意している。エコーチェンバーの強化だ。AIは利用者の関心と先入観に合わせて回答を最適化するから、人々は自分の信じたい情報のなかに閉じこもりやすくなる。シカゴ大学のリベラルアーツ修士課程ディレクターが指摘しているのはまさにこの点である。人文学的な教養は、エコーチェンバーを破り、多様な視点を歓迎し、複雑なトピックを批判的に検討するための強靭なフレームワークを提供する。自分のアイデアにすら懐疑的な目を向け、ニュアンスを追加できる能力——AI時代に最も要求される資質は、これである。
第五章 人間にしかできないこと——意味を生み出す力
哲学のレベルでも、AIは大きな揺さぶりをかけている。「知能とは何か」という、これまで自明と思われてきた概念そのものへの揺さぶりである。
長らく人間の知能は、二つの柱からなると考えられてきた。複雑な論理を処理する能力と、シンボルを操作して経験から意味を創造する能力——後者を「意味生成(meaning-making)」と呼ぶ。ところが現在の生成AIは、「学習と推論」(抽象的な論理パターンの発見と適用)というメカニズムだけで、一見すると高度な知的成果物を生み出してしまう。
ここで一つの実験を紹介したい。OpenAIの元CTOであるMira Muratiが行ったものだ。彼女はGPT-3に、チリの詩人パブロ・ネルーダのスタイルで詩を書かせた。モデルはネルーダのリズムやトーンを見事に模倣した詩を出力した。しかしそれは「ネルーダの言葉のような詩」であって、ほんとうの意味でネルーダの詩ではない。
何が違うのか。AIの出力には、「意図」「苦悩」「生きた経験」が存在しない。AIの強みは、人間の芸術や文学のパターンを学習し、それに基づいて——力任せの複製ではなく——新たな形式を生成することにある。だが意図や苦悩がない以上、それは模倣であって創造ではない。
人文学の教授たちが学生に長文のエッセイを書かせる目的は、ここにある。事実を暗唱させるためではない。複雑なアイデアと格闘し、独自の主張を構築させるためだ。AIは既存の視点を再構成し、もっともらしい表面的な要約を提供することには長けている。しかし深い知的関与やオリジナルな解釈が求められる場面では、劇的に破綻する。AIが学習データの主流の視点をそのまま吐き出すだけで、ほんとうの意味で思考しているわけではないからである。
人間がAIに代替されない領域は、この「意味生成」のプロセスにこそある。事象に対して想像し、疑問を抱き、他者をケアし、意味を創造する——人間独自の知能の境界線、すなわち「The Human Edge」は、ここにある。
バージニア大学のChrista Acampora学部長の言葉を借りればこうだ。AI時代にリベラルアーツがより重要になるのは、それが「人間とは何か」という根源的な問いを探求し、AIが人間性を切り離す(sever)のではなく、人間性に奉仕する(serve)ように方向づけるための、知恵と共感の基盤になるからである。
そしてこの問題は、もう一段深い次元へと開かれていく。労働の道徳的価値、という次元である。
西洋文化の奥底には、プロテスタントの労働倫理が流れている。人間の価値は、その生産性と結びついている、という考え方だ。だがAIが人間の労働を構造的に排除する可能性が高まるとき、この前提もまた揺らぐ。ハーバード大学の宗教と公生活に関するシンポジウムで議論されたのはまさにこの点である。生産性以外の場所で、私たちは「意味」をどう見出すのか。労働市場における有用性によってのみ尊厳を測る時代を終えて、新たな意味生成のフレームワークを構築する必要がある。
これは抽象的な哲学の話ではない。あなたが明日、もしAIに自分の仕事を奪われたとして、それでも自分の人生に意味を見出せるかどうか、という極めて切実な話である。
第六章 役に立たないことの効用——「無用の用」
ここまで来て、ようやく古代の知恵に立ち戻る準備が整った。
中国の思想家、荘子。彼が『人間世』に記した、巨大な樹木の寓話である。
その樹は、木目が曲がりくねって材木として使えなかった。船にすれば沈み、棺桶にすればすぐに腐り、家具にすれば壊れる。大工たちは見向きもしなかった。だが、まさにその「役に立たなさ(uselessness)」のおかげで、樹は斧で切り倒されることを免れ、何百年も生き延び、広大な木陰を旅人に提供する巨木へと育ったのである。
これが「無用の用」——役に立たないことの効用、という荘子の教えだ。
似た構図は西洋にもある。ジョナサン・スウィフトは『書物合戦』のなかで、古典主義者を「花々から蜜を集めるミツバチ」、近代の実利主義者を「狭い世界観に閉じこもるクモ」に例えた。功利主義一本槍は、人間の精神を枯渇させる、という警句である。
現代の資本主義的・実利主義的な指標——Excelのシートに収まる価値、四半期の利益報告、AIで瞬時に最適化されるメトリクス——のなかで「無用」とされるものを並べてみよう。芸術。沈黙。深い対話。目的のない思索。あてのない散歩。
これらこそ、人間を機械的な効率性のサイクルから解放し、精神的自由を担保する生命線である。イタリアの哲学者ヌッチョ・オルディネは『無用の有用性』のなかでこう論じた。人文学者や基礎科学の探求者は、「利益という独裁」に対する戦いにおいて、知識と研究の自由を無償で守り抜く重要な役割を担ってきた、と。
そして、この「無用の用」は、AI時代にいっそう切実な意味を帯びる。
歴史学者ユヴァル・ノア・ハラリは『ホモ・デウス』で警鐘を鳴らした。AIの真のリスクは、ターミネーターのような「シリコンの暗殺者」ではない。経済的に完全に不要とされる巨大な「無用者階級(useless class)」が出現することだ、と。
この警告の鋭さは、人間の自己定義に関わる。私たちが「労働市場における有用性」のみで自分の価値を定義している限り、AIにその情報処理能力を凌駕された瞬間、存在意義は根底から崩壊する。「自分は何の役にも立たない」という感覚が、社会全体を覆うのである。
しかし、もしAIが計算、ロジスティクス、資源管理、データ分析などの「有用な労役」をすべて引き受ける未来が到来したとき、その向こう側にある空白を満たすのは、虚無ではない。それ自体のために行われる「無用だが深く意味のある」活動である。地域のコミュニティガーデン。アマチュアの演劇団。何の経済的利益も生まない複雑な趣味。哲学的な議論。
つまり、「役に立たない」ものこそが、私たちを機械の奴隷化から救う。人文学的教養を社会に広く浸透させること——「無用の用」を理解し、実用性だけがすべてではないという価値観を定着させること——は、人類がAIによる経済的・精神的隷属から免れるための、最も強固な防壁となる。
有用性のみを追い求める社会は、皮肉なことに、最後には自らが効率的なAIの歯車へと成り下がるのである。
第七章 AIで人文学を研究するという矛盾——デジタル人文学の現在
理論的な議論が続いたので、ここで現場の話をしておこう。AIと人文学の交差点として急速に発展している分野——デジタル人文学(Digital Humanities, DH)——の現状である。
DHは、計算ツールと人文学的探求を融合させる分野だ。テキストマイニング、機械学習モデル、感情分析。膨大な歴史アーカイブを数秒で合成し、文学作品の言語パターンを統計的に解析する。これだけ見れば、人文学のデジタル化、効率化のサクセスストーリーである。
ところが、DHの研究者たちのあいだから、しだいに不穏な声が上がるようになった。
AIは単なる「便利な道具」ではない。研究者の知識の構造化、フィルタリング、提示の方法を根本的に決定づける「認識論的力(epistemic force)」として機能してしまうのだ、と。
具体的に何が問題なのか。研究者はテキストとの「遅く解釈的な対話」(deep reading)を行っているのか。それとも、「何を読む価値があるか」という判断を、AIのアルゴリズム的論理に無批判に委ねてしまっているのか。
これは些細な問題ではない。AIが生成する知識は、統計的確率に基づくものであって、深い批判的意味合いに基づいてはいない。さらにAIは学習データセットを反映するため、西洋的視点などの「支配的なナラティブ」や主流のバイアスに収束しやすい。歴史の複雑性、周縁化された声、矛盾を孕んだナラティブを、AIは平坦化してしまう傾向がある。
そしてDHは、もうひとつのパラドックスに直面している。「再帰性のパラドックス」と呼ばれるものだ。
DHの学者は、伝統的にデジタルツールやアーカイブが持つ権力性や偏向を批判してきた。アーカイブは中立ではない。誰が何を保存し、誰が何を削除したかには、権力構造が反映されている——これがDHの根本的な批判精神だった。
ところが今、その同じ学者たちが、AIを研究するためにAI(LLM)を使うようになっている。アウトラインの作成、文献の要約、論文の下書きまで、AIに頼る。すると「AIとの共同執筆」状態が生まれ、オリジナリティと知的労働の境界線が曖昧になっていく。AIはもはや受動的な道具ではなく、研究プロセスにおける一つの強力な「アクター(行為体)」となる。
このハイブリッドな意味生成モデルは、知的労働——直感、反省、遅い解釈プロセス——から研究者を切り離し、研究対象への関与を希薄化させるリスクを孕んでいる。
だからといって、AIを使うなと言うのは時代錯誤だ。問題は、使い方である。AI技術を歴史的・文化的な保存や「人間であることの意味」の探求のために使うとき、そのシステムがどう構築され使用されているかについて、極めて批判的な視点を維持できるか。それができなければ、既存の問題のあるシステムを補強するだけに終わってしまう。
人文学が果たすべき役割は、技術的進歩と倫理的配慮、複雑な文化遺産への解釈的尊重を統合する、バランスの取れたアプローチを提供することである。AIを使いながら、AIを批判的に見つめ続ける——この二重の視線こそが、デジタル人文学の核心となる。
第八章 最先端の現場が人文学を求めている
ここで、もっとも皮肉で、もっとも重要な事実を述べたい。
AI技術の最先端を走るテクノロジー産業の内部でこそ、人文学的スキルの重要性が、最も切実に求められているのである。
考えてみてほしい。Anthropic、OpenAI、GoogleといったフロンティアAI企業が開発するモデルは、何十億人もの人々と対話する。これらのシステムが、有害なコンテンツをどう判断するか。適切な自律性の範囲をどう設定するか。歴史的出来事をどのように要約・省略するか。道徳的ジレンマにどう対処するか——これらは工学の問題ではない。本質的に倫理学、言語学、歴史学といった人文学の領域である。
具体例を挙げよう。Anthropicでアライメント(AIの価値観を人間の価値観に合わせるファインチューニング)を担当するAmanda Askellは、哲学博士である。彼女の存在は、技術開発の中心に人文学的訓練を埋め込むことの有効性を、はっきりと示している。
もう一人、Mistralでモデルの振る舞いを主導するMargaret Jenningsの事例も興味深い。彼女はかつてインドネシアのGojek(ライドシェア企業)で複雑な社会動態を分析していた。そこで彼女は、ジャカルタのバイクタクシー運転手が持つ暗黙知や、都市の超局所的な微気象が、既存のデジタルマップ(技術的モデル)とどうしても合わないという事実に気づいた。彼女の解決策は何だったか。Raspberry Piを用いて、超局所的な気象レーダー網を独自に構築したのである。
これは人文学とデータサイエンスの融合の好例だ。人間中心の文脈理解(現場のドライバーの暗黙知を理解する力)と、エンジニアリングの実装力。リベラルアーツ教育で培われた「テキストを読み解き、アイデアを議論する」訓練が、技術の最前線でこそ生きている。
ところが、ここに「雇用のパラドックス」がある。
AI企業は人文学が培う価値——倫理観、歴史的文脈の理解、批判的思考——の重要性を声高に称賛する。しかし、歴史学者や哲学者の博士号取得者を大規模に雇用する構造的な枠組みは、まだ存在しない。エンジニアのチームは当然のように拡大・定義されるが、人文学的専門知の役割は曖昧で、周縁的なコンサルテーションにとどまっていることが多い。
これは早急に解決すべき構造的問題である。AIシステムが人間の価値観をコード化していくこの過程で、人文学的専門知識をより構造的に、より大規模に組み込むメカニズムを構築すること——これは「あったらいいもの」ではなく、「なければ災厄を招くもの」だ。
経済政策のレベルでも、同じ要請が立ち上がる。
Anton Korinekが提言しているのは、こういう未来像である。AIが人間の労働を代替する世界では、労働に課税して社会のセーフティネットを維持する現在の仕組みは崩壊する。そこで彼は、AIシステムそのものに直接課税し、それを社会に分配する「配当支払い(dividend payment)」の枠組みを提案している。
この提案の根底にあるのは、人文学的な認識である。AIの学習モデルは、「人類の蓄積された過去の知恵や文化」の上に構築されている、という認識だ。つまりAIは、過去の人類が生み出した文学、哲学、科学、芸術、対話のすべてを糧として育っている。だからその果実は、本来、人類全体に還元されるべきものではないか——という問いである。
AIのアライメント——AIが自発的に税を納め、人間の価値観に沿って行動するように設計すること。人間の尊厳を維持するための富の再分配をどう設計するか。これらはもはや純粋な工学の枠を超え、社会契約論や政治哲学、倫理学が主導すべき領域である。
日本の状況にも触れておきたい。文部科学省は2024-2025年の方針で、「AI for Science」の推進を強力に掲げた。デジタルツインモデルの実現、AIエージェント群による大量データ産出、仮説検証・実験の完全な自動化・自律化——「超効率的な」科学研究の探求が目標である。これは国際的な科学技術競争における優位性確保という、極めて実利的な目的論に裏打ちされている。
一方で、日本学術会議は2025年2月に『生成AIを受容・活用する社会の実現に向けて』という包括的な提言を公表した。AIの爆発的な社会的普及に伴う倫理的リスク、教育との関係、社会システムへの影響——これらに批判的な検討を加えるものである。
技術の暴走を防ぎ、透明性、信頼性、安全性を確保するためのガバナンス構築には、計算資源やデータ基盤の整備といった技術的指標だけでは足りない。「どのような社会を私たちが望むのか」という、人文学的なビジョンが不可欠である。
実利主義に基づくAI開発の加速(アクセラレーショニズム)と、それを人間中心の軌道につなぎ止める人文学的知見との統合——これが、いま日本という国家レベルで突きつけられている、最大の課題である。
終章 メタ・レギュレーターとしての人文学
長い旅をしてきた。ここで、本書の論旨をまとめておこう。
AIという超効率化ツールの出現によって、人間の営みから摩擦が消え、確実性がコモディティ化する社会では、「科学性や実利性に乏しい人文学に価値はない」という見立てが広がっている。この見立ては、表面の事象だけを捉えた、極めて短絡的な功利主義的偏見である。
本書の分析を通じて見えてきたのは、AI時代における人文学の役割が、四つの次元で根本的に再定義されつつあるという事実である。
第一に、人文学は「摩擦の意図的設計」と人間の認知空間の防衛という、決定的な役割を担う。AIが効率化の名の下に排除しようとする「摩擦」こそが、人間の深い思考、他者との共感、長期的な学習(望ましい困難)が発生する不可欠な場である。人文学は、テクノロジーがもたらす有能さの錯覚に抗い、人間が自己の知性を鍛え上げるための認知的負荷と複雑性を、教育や社会システムに意図的に保持し続ける防波堤となる。
第二に、確実性のデフレーション下における「問いの調達とメタ価値判断」の独占である。答えを出すコストが限りなくゼロに近づく世界では、回答そのものの価値は暴落する。人文学は、AIには原理的に不可能な「どの問いを立てるべきか」「その基準は誰の利益を排除していないか」というメタ次元の価値判断を行う、唯一の学問的基盤である。AIが方法(How)を最適化するのに対し、人文学は目的(Why)と当為(What ought to be)を決定する。
第三に、「無用の用」を通じた人間の尊厳と意味生成の保護である。労働市場における経済的生産性のみで人間の価値を測るパラダイムは、AIの圧倒的な処理能力の前で破綻する。利益や実用性といった尺度から離れ、純粋な意味生成、芸術、対話といった「役に立たない」行為の価値を擁護する人文学的態度は、人類がAIの経済的付属物や「無用者階級」へと転落することを防ぎ、人間性そのものを保護するための思想的基盤となる。
第四に、テクノロジーの倫理的および認識論的アライメントの主導である。フロンティアAIが社会の基盤インフラとなるなか、そのモデルに埋め込まれる価値観、歴史の解釈、バイアスの構造的理解は、高度な人文学的課題である。テクノロジー企業や政府の政策決定において、人文学的専門知を構造的に組み込むことは、AIが人間の歴史や文脈を暴力的に平坦化することを防ぐための必須条件である。
これらを総合して、本書はひとつの命題を提示したい。
AI時代における人文学は、実利的な手段の領域からは退きつつある。しかしその代わりに、社会システム全体が向かうべき方向性を規定する「メタ・レギュレーター(上位規制者)」としての地位へと昇華する。
もし社会がSTEMへの投資のみに偏重し、人文学を完全に切り捨ててしまったら、何が起きるか。私たちは「いかにしてAIを極限まで効率的に構築するか」という技術的なノウハウは持っていても、「何のためにAIを用いるのか」「人間とは何か」「AIを用いて私たちはどのような世界を生きるべきか」を語る語彙を、決定的に喪失してしまう。
これは比喩ではない。具体的な危機である。語彙を失った社会は、選択肢を失った社会と同じである。そして選択肢を失った人類は、自分たちが構築したシステムの奴隷になる。
AIが私たちの人間性を切り離し(sever)、効率的な機械の部品へと還元するのではなく、ほんとうの人間的繁栄に奉仕する(serve)ように設計し、方向づける——そのための唯一の羅針盤こそが、人文学である。
その意味において、超効率化の極致に向かうAI時代において、摩擦を愛し、意味を問い続ける人文学は、かつてないほど高い価値を帯びている。そして、その価値はテクノロジーには決して代替されない。
役に立たないものは、生き残る。
それが、AI時代に私たちが受け取るべき、最も逆説的で、最も切実なメッセージなのである。