AI時代に「人間にしかできないこと」は何か──LLMの構造的限界から導く、譲れない4つの領域

さて、どう生きようか!?
ページに広告が含まれる場合があります

AI時代に「人間にしかできないこと」は何か──この問いは、ChatGPT登場以降、検索ボリュームを伸ばし続けている定番の問いです。多くの記事が、答えとして「創造性」「共感」「コミュニケーション」「倫理判断」を並べます。

しかし、この答え方には大きな弱点があります。「なぜそれらがAIには原理的にできないのか」を構造から説明していないため、AIの能力が伸びるたびに、リストが書き換わってしまうのです。「絵はAIに描けない」と言われていた数年前と、今の状況を比べれば明らかです。

本当に問うべきは、「現時点で何ができないか」ではありません。「LLM(大規模言語モデル)というアーキテクチャの構造上、原理的に到達できない領域はどこか」です。ここを押さえれば、技術が進化しても揺らがない、人間の固有領域が見えてきます。

この記事では、創造性・共感といった抽象語の列挙を超えて、LLMの構造的限界(次トークン予測アーキテクチャ、ハルシネーションの不可避性)、ヒューバート・ドレイファスの身体性論、シンボル接地問題、AI倫理学の責任ギャップ理論などをもとに、AIが原理的にできない4つの領域を整理します。そのうえで、私自身が15年以上ネット起業に身を置いてきた経験から見える「人間の固有領域」をお伝えします。

目次

前提──AIが「できること」は今も増え続けている

議論の出発点として、現在地を冷静に押さえておきます。「AIにはできない」と言われていたことが、ここ数年でどれだけ覆ってきたかを直視せずに、「人間にしかできないこと」を語るのは誠実ではありません。

この数年で覆された「AIにはできない」リスト

【かつて「人間固有」とされ、AIに獲られた領域】

  • 絵を描く──Stable Diffusion、Midjourneyなどで、商用品質の画像生成が一般化
  • 自然な文章を書く──ChatGPTやClaudeが、ブログ記事・小説・コードまで生成
  • 音楽を作る──Sunoなどでメロディ・歌詞・歌唱まで完結
  • 動画を作る──Sora、Runway等で、テキストから動画生成が現実化
  • コーディング──多くのソフトウェアエンジニアが、生産性が数倍に上がったと報告
  • 難関試験──医師国家試験、司法試験、MBA入試などで合格水準を突破

つまり、「絵を描くのは人間だけ」「文章は人間にしか書けない」といった表層的な能力での線引きは、ほぼすべて崩れました。残された問いは、もっと深いところにあります。AIがどれだけ進化しても、原理的に到達できない領域はあるのか──あるとすれば、それは何か、という問いです。

領域1:意味を「生成」すること──シンボル接地問題とハルシネーションの構造

まず、技術的な話から始めます。LLMが「答え」を出すとき、何が起きているのか。これを理解すると、AIの限界が原理的に見えてきます。

LLMは「次のトークンを予測」しているだけ

ChatGPTもClaudeも、本質的にやっていることは次トークン予測(next-token prediction)です。つまり、「ここまでの文字列が与えられたとき、次に来る確率がもっとも高い単語は何か」を計算し、それを延々と繰り返している。これだけで、人間に流暢に見える文章が生成されます。

しかし、この仕組みには重要な含意があります。LLMは、出力している言葉の「意味」を理解していない。統計的に「もっともらしい連なり」を出力しているのであって、その内容が現実世界の何を指しているかには、原理的にアクセスしていないのです。

シンボル接地問題(symbol grounding problem)

1990年に認知科学者スティーブン・ハルナッドが提起したシンボル接地問題は、まさにこの構造を問題にしています。記号(言葉)を別の記号と結びつけることはできても、その記号が現実世界の何に「接地(grounding)」しているのかを、シンボル操作のシステム自体は持つことができない、という問題です。

たとえば、私たちが「赤」という言葉を理解できるのは、リンゴを見て、夕焼けを見て、血を見て──身体的な経験を通じて「赤」という記号と現実世界が結びついているからです。LLMは、「赤」と他の単語の統計的な関係性しか持っていません。

参考:Harnad, S. (1990). “The Symbol Grounding Problem” Physica D 42:335-346/https://www.sciencedirect.com/science/article/abs/pii/0167278990900876

ハルシネーションは「バグ」ではなく「アーキテクチャの帰結」

2024年以降の研究で、ハルシネーション(事実と異なる出力)はLLMの構造的に不可避な現象であることが、形式的に示されつつあります。Xuら(2024)の論文は、LLMが学習可能な関数の集合は計算可能関数の全体を覆えず、汎用的に問題を解こうとすれば必然的にハルシネーションが生じることを示しました。

参考:Xu, Z. et al. (2024). “Hallucination is Inevitable: An Innate Limitation of Large Language Models” arXiv:2401.11817/https://arxiv.org/abs/2401.11817

これは、ファインチューニングや報酬モデリングをいくら洗練しても、原理的に消し去れないということです。トランスフォーマーは「世界を表象する」のではなく「言語的共起から疑似的なオントロジー(存在論)を作り出す」装置であり、訓練データが希薄な領域では一貫性を保つために架空の続きを補完する──これが構造的な特徴なのです。

つまり、AIは「もっともらしい言葉」を出すことはできるが、その言葉が現実に接地した「意味」を生み出してはいない。意味を生成し、その意味が現実世界の何にどう接地しているかを判定できるのは、いまも人間だけです。

領域2:身体を持って世界に在ること──ドレイファスが半世紀前に予言したこと

哲学者ヒューバート・ドレイファスは、1972年に『コンピュータには何ができないか(What Computers Can’t Do)』を発表し、AI研究に対する根源的な批判を展開しました。50年以上前の本ですが、彼の主張はLLM時代にこそ有効性を持っています。

参考:Dreyfus, H. L. (1992). “What Computers Still Can’t Do: A Critique of Artificial Reason” MIT Press/https://mitpress.mit.edu/9780262540674/what-computers-still-cant-do

「身体性(embodiment)」と「状況的認知(situated cognition)」

ドレイファスはハイデガーやメルロ=ポンティの哲学を引きながら、人間の知性が成立しているのは「身体を持ち、世界の中に置かれ、状況の中で行為している」からだと主張しました。私たちは抽象的な記号操作で世界を理解しているのではなく、身体感覚、文脈、状況との絡み合いの中で「自然と」物事の意味を把握している。

たとえば、満員電車で他人とのちょうどよい距離をとる、相手の表情の微妙な変化からその場の空気を読む、混乱した現場で「とりあえずこれを優先する」と判断する──こうした「熟練的な対処(skillful coping)」は、明示的なルールに分解することができない、と彼は指摘しました。

なぜLLMには「現場感」がないのか

ドレイファスの議論は、LLMの限界を考える上で示唆的です。LLMは膨大なテキストを学習していますが、身体を持って世界に在った経験はゼロです。腰が痛いから椅子の角度を変える、夕焼けを見て立ち止まる、誰かの沈黙の重さに気づく──こうした「身体を通じた世界との接触」が、根本的に欠けています。

ロボティクスの分野では身体を持つAIの研究が進んでいますが、それでも「世界の中で生まれ、生きてきた」という履歴を持つ存在にはなれません。私たちが当たり前に持っている「現場感」「肌感覚」「経験知」──これらは、身体を持ち、生きてきたことの副産物です。

したがって、医療の現場、保育の現場、職人の世界、現場での緊急対応など、身体を持って状況の中に在ることが本質的に必要な仕事は、AIが完全に置き換えることが原理的に難しい領域です。

領域3:責任を引き受けること──responsibility gap問題

もうひとつ、AI研究の中でますます重要視されている領域があります。責任の所在です。

「責任ギャップ(responsibility gap)」とは何か

AI倫理学では、AIが何らかの判断をして問題が起きたとき、「責任を取れる主体が誰もいなくなる」という構造的な問題があります。これを「責任ギャップ(responsibility gap)」と呼びます。Santoni de Sioら(2021)の論文は、この責任ギャップが「咎め(culpability)」「道徳的責任」「公的責任」「能動的責任」の4つの次元で同時に生じると指摘しました。

参考:Santoni de Sio, F., & Mecacci, G. (2021). “Four Responsibility Gaps with Artificial Intelligence: Why they Matter and How to Address them” Philosophy & Technology 34:1057-1084/https://link.springer.com/article/10.1007/s13347-021-00450-x

たとえば、AIが医療診断で誤診をしたとき、責任を取るのは誰なのか。開発者か、運用する病院か、実際に診断結果を採用した医師か、AIに任せきりにした制度か。責任は分散し、最終的に「誰の責任とも言えない」状態になりやすいのです。

なぜAI自体は責任を取れないのか

AIに責任を取らせることはできません。これは技術的限界ではなく、「責任を取る」という行為が、人間の存在様式と不可分だからです。

【「責任を取る」が成立するための前提】

  • 失うものがある──評判、関係、立場、未来。失うものがない存在に責任は宿らない。
  • 反省と修正の能力──失敗を引き受け、自己を変容させていく主体性。
  • 当事者性──「他人事」ではなく、自分の問題として引き受ける構え。
  • 連続的な人格──過去の自分と現在の自分が同じ責任主体として連続している。

AIには、これらが原理的に欠けています。失うものがなく、自己が連続的に存在せず、当事者として何かを引き受ける構造を持たない。だからこそ、組織がAIに業務を委ねても、最終的な責任の主体は人間に戻ってくる。EUのAI法も、責任を「設計者・運用組織・利用者」に分散させる方向で設計されています。

「決断」と「責任」はワンセット

ビジネスの世界では、「決める」ことと「責任を取る」ことは切り離せません。AIは無数の選択肢を提示し、それぞれの確率や利得を計算してくれます。しかし、「これでいく」と決め、その結果を引き受けるのは、最後まで人間の仕事です。

経営判断、人事の決断、子育ての方針、人生の選択──いかにAIが優れた分析を出しても、最終的に「これが私の選択だ」と引き受けて立つのは、責任を取れる主体である人間にしか担えないのです。

領域4:自分の人生の「方向」を決めること──最後にして最大の人間専有領域

4つ目の領域が、もっとも本質的かつ譲渡不可能なものです。「自分はどう生きたいか」を決めること

AIは「目的」を持てない

AIは、与えられた目的に対して最適化することは得意です。「売上を最大化する施策を出して」と頼めば、もっともらしい施策が返ってくる。しかし、「そもそも売上を最大化することが、自分の人生にとって本当に追求すべき目的なのか」──この問いを、AIが代わりに考えてくれることはありません。

哲学的には、AIは「道具的合理性(与えられた目的に対する手段の最適化)」は扱えるが、「価値合理性(その目的そのものを評価し選び取ること)」は持ち得ない、という整理ができます。「何のために生きるか」「自分にとっての成功とは何か」──こうした価値の選択は、生きてきた一人の人間の主観からしか立ち上がりません

「他人軸の不安」をAI時代の文脈で読み直す

「AIに仕事を奪われるのではないか」という不安の根底にあるのは、多くの場合、自分の価値を「外側の基準」で測っていることです。市場で需要があるか、会社に必要とされるか──こうした他人軸の物差しに依存している限り、AIの進化は常に脅威に映ります。

逆に、「自分はこういう生き方をしたい」「自分はこの価値を大切にしたい」という自分軸を持っている人にとって、AIは脅威ではなく、その生き方を実現するための道具になり得ます。AIが進化しても、自分が大切にしたいものは変わらないからです。

つまり、AI時代に「人間にしかできないこと」を最終的に担保するのは、「自分の人生の方向は自分で決める」という構えそのものです。これは技術論ではなく、生き方の問題です。

「奪われる側/操る側」の議論を超えて

ここまで4つの領域を見てきました。これらは、抽象的な「創造性」「共感」というスローガンとは異なり、LLMの構造、哲学、倫理学の理論的根拠から導かれた、原理的な人間固有領域です。

もうひとつの定番フレームに「AIに奪われる側か、AIを操る側か」という二項対立があります。これは実用的なフレームですが、本記事の議論からすると、もう一段深い問いが残ります。「AIを操る目的は何か」「操ったその先に、自分は何をしたいのか」──ここに答えられない限り、操る側になっても、結局AIに使われる感覚は消えません。

AIをどう活用するかという「操作論」については、別の記事で具体的に整理しています。本記事は、その操作の前提となる「人間性の固有領域」を扱っています。

4つの領域を、日々どう守り育てるか

「人間にしかできないこと」が頭でわかっていても、それを錆びつかせない日々の設計をしないと、AIの便利さに飲み込まれていきます。具体的に何を意識すればよいかを整理します。

① 「意味の生成」を錆びつかせない──思考を外注しすぎない

AIに考えてもらうのは便利です。しかし、すべての問いをAIに投げていると、自分の中で意味を生成する筋肉が衰えます。重要な意思決定、人生の方向、自分の価値観に関わる問い──これらは、AIに答えを出させる前に、まず自分の頭で粘って考える時間を確保するのが先です。

そして、考えたことを言葉にする練習を持つ。アウトプットなしには思考は鍛えられません。

② 「身体性」を錆びつかせない──現場と五感を保つ

画面の向こうの情報だけで世界を理解した気にならないこと。歩く、人に会う、現場を見る、自分の手で何かを作る──こうした身体的な経験を、生活の中に意識して残す。

テクノロジーが進むほど、身体感覚は意識的に守らないと擦り切れていきます。スマホとの距離の取り方そのものが、人間性の保全に関わる問題になっています。

③ 「責任を取る経験」を避けない──小さな決断を自分でする

責任を引き受ける筋肉は、日々の小さな決断の積み重ねでしか鍛えられません。AIに「どうすればいい?」と聞き続け、その答えに従っているだけだと、自分で決め、結果を引き受ける経験が痩せていきます

仕事の進め方、お金の使い方、休日の過ごし方、家族との関わり方──小さな決断を、自分で考えて、自分で決めて、結果を引き受ける。この積み上げが、AI時代に揺るがない人間性の根拠になります。

④ 「自分軸」を錆びつかせない──定期的に方向を問い直す

「自分はどう生きたいか」を問うことは、人生で1回やればいい問いではありません。状況も価値観も変わる以上、定期的に問い直す習慣を持つ。年に1回でも、半年に1回でも構いません。

方向を自分で問い直す時間を持っていれば、AIがどれだけ進化しようと、それは「自分の方向」に向かうための道具として位置づき続けます。

私が15年以上ネット起業に身を置いて見えた、譲れないもの

私はプロボクサーを引退してから、フリーターを経てネット起業の世界に入り、Googleアドセンス、独自コンテンツの販売、コンサルティング、そして現在のGoogleリスティングアフィリエイトへと、業態を何度か変えながら活動してきました。この十数年で、ネットビジネスの「自動化できる範囲」は劇的に広がりました。文章生成、リサーチ、データ分析、画像作成、定型対応──私自身、AIなしでは今の生産性は維持できないと感じる場面が増えています。

そのうえで、改めて感じることがあります。「自分が何を大切にして、どこへ向かいたいか」を決める部分だけは、誰にも譲れない──正確には、譲ろうとしても、自分以外には誰も決められない、という事実です。

かつての私は、コンサルタントとして人を導く側にいました。けれど途中で、「指導者である自分」よりも「プレイヤーである自分」のほうが、生きていてしっくりくると気づいた。これはAIに分析させて出てきた結論ではありません。自分の身体感覚、自分の経験、自分の違和感の積み重ねからしか生まれない判断でした。

AI時代に「人間にしかできないこと」を考えるとき、私はこうした個人的な転換点のことを思い出します。AIが代わりにやってくれない仕事は、単に技術的に難しいから残るのではなく、「自分が引き受けない限り、誰も引き受けてくれない」という構造的な理由で残るのです。

おわりに──AIが進化するほど、人間が問われる

AIの進化は、皮肉なことに、「では、自分は何者なのか」「自分は何のためにこれをやっているのか」という問いを、私たち一人ひとりに突き付けています。

意味を生成すること。身体を持って世界に在ること。責任を引き受けること。自分の人生の方向を決めること。これら4つの領域は、AIがどれだけ進化しても、原理的に人間に残り続けます。そして、これらを錆びつかせずに保てるかどうかが、AI時代の自分の輪郭を決めていきます。

完璧な答えを持っている必要はありません。「これでいいのか」と問い続け、修正しながら進む──完成図ではなく、描き続けるラフ案として人生を捉える姿勢こそが、AI時代の人間性のあり方だと、私は考えています。

常識を疑い、自分の基準で人生を設計し直すプロセスを綴った著書(Amazon kindle ランキング 5冠を達成した電子書籍)『あ、常識とかいいんで、とりあえず自由ください。』では、外側の正解ではなく、自分の内側にある問いと向き合う過程を書いています。下記より無料でお読みいただけます。

当サイトでは、AI時代の中で「自分の方向」を持って静かに暮らしと働き方を設計している方々のインタビューも公開しています。「AIに代替される/されない」という視点ではなく、「自分が大切にしたいものを軸に生きる」という視点の実践例として、参考にしていただけます。

AIが何でもできるようになっても、「自分はどう生きるか」を決められるのは、自分以外にはいない。この事実だけで、人間にしかできないことは、十分に大きいのだと思います。

リライフ特集

この記事は役に立ちましたか?
もし参考になりましたら、下のボタンで教えてください。

Studio Rough Style(SRS)代表。 当サイト管理人&編集長。 1976年生まれ、熊本県出身、東京都在住。 元プロボクサーで、選手引退後に、派遣・アルバイトなど30社以上の現場を渡り歩くフリーター生活を経験後、セカンドキャリとしてネット起業の世界へ。 詳細は下記にて。 [clink url="https://studio-rough-style.net/self-introduction/"]

コメント

この記事へのコメントはありません。

コメントを残す

関連記事

目次