AI時代に「人間にしかできないこと」は何か──この問いは、ChatGPT登場以降、検索ボリュームを伸ばし続けている定番の問いです。多くの記事が、答えとして「創造性」「共感」「コミュニケーション」「倫理判断」を並べます。
しかし、この答え方には大きな弱点があります。「なぜそれらがAIには原理的にできないのか」を構造から説明していないため、AIの能力が伸びるたびに、リストが書き換わってしまうのです。「絵はAIに描けない」と言われていた数年前と、今の状況を比べれば明らかです。
本当に問うべきは、「現時点で何ができないか」ではありません。「LLM(大規模言語モデル)というアーキテクチャの構造上、原理的に到達できない領域はどこか」です。ここを押さえれば、技術が進化しても揺らがない、人間の固有領域が見えてきます。
この記事では、創造性・共感といった抽象語の列挙を超えて、LLMの構造的限界(次トークン予測アーキテクチャ、ハルシネーションの不可避性)、ヒューバート・ドレイファスの身体性論、シンボル接地問題、AI倫理学の責任ギャップ理論などをもとに、AIが原理的にできない4つの領域を整理します。そのうえで、私自身が15年以上ネット起業に身を置いてきた経験から見える「人間の固有領域」をお伝えします。
前提──AIが「できること」は今も増え続けている
議論の出発点として、現在地を冷静に押さえておきます。「AIにはできない」と言われていたことが、ここ数年でどれだけ覆ってきたかを直視せずに、「人間にしかできないこと」を語るのは誠実ではありません。
この数年で覆された「AIにはできない」リスト
【かつて「人間固有」とされ、AIに獲られた領域】
- 絵を描く──Stable Diffusion、Midjourneyなどで、商用品質の画像生成が一般化
- 自然な文章を書く──ChatGPTやClaudeが、ブログ記事・小説・コードまで生成
- 音楽を作る──Sunoなどでメロディ・歌詞・歌唱まで完結
- 動画を作る──Sora、Runway等で、テキストから動画生成が現実化
- コーディング──多くのソフトウェアエンジニアが、生産性が数倍に上がったと報告
- 難関試験──医師国家試験、司法試験、MBA入試などで合格水準を突破
つまり、「絵を描くのは人間だけ」「文章は人間にしか書けない」といった表層的な能力での線引きは、ほぼすべて崩れました。残された問いは、もっと深いところにあります。AIがどれだけ進化しても、原理的に到達できない領域はあるのか──あるとすれば、それは何か、という問いです。
領域1:意味を「生成」すること──シンボル接地問題とハルシネーションの構造
まず、技術的な話から始めます。LLMが「答え」を出すとき、何が起きているのか。これを理解すると、AIの限界が原理的に見えてきます。
LLMは「次のトークンを予測」しているだけ
ChatGPTもClaudeも、本質的にやっていることは次トークン予測(next-token prediction)です。つまり、「ここまでの文字列が与えられたとき、次に来る確率がもっとも高い単語は何か」を計算し、それを延々と繰り返している。これだけで、人間に流暢に見える文章が生成されます。
しかし、この仕組みには重要な含意があります。LLMは、出力している言葉の「意味」を理解していない。統計的に「もっともらしい連なり」を出力しているのであって、その内容が現実世界の何を指しているかには、原理的にアクセスしていないのです。
シンボル接地問題(symbol grounding problem)
1990年に認知科学者スティーブン・ハルナッドが提起したシンボル接地問題は、まさにこの構造を問題にしています。記号(言葉)を別の記号と結びつけることはできても、その記号が現実世界の何に「接地(grounding)」しているのかを、シンボル操作のシステム自体は持つことができない、という問題です。
たとえば、私たちが「赤」という言葉を理解できるのは、リンゴを見て、夕焼けを見て、血を見て──身体的な経験を通じて「赤」という記号と現実世界が結びついているからです。LLMは、「赤」と他の単語の統計的な関係性しか持っていません。
参考:Harnad, S. (1990). “The Symbol Grounding Problem” Physica D 42:335-346/https://www.sciencedirect.com/science/article/abs/pii/0167278990900876
ハルシネーションは「バグ」ではなく「アーキテクチャの帰結」
2024年以降の研究で、ハルシネーション(事実と異なる出力)はLLMの構造的に不可避な現象であることが、形式的に示されつつあります。Xuら(2024)の論文は、LLMが学習可能な関数の集合は計算可能関数の全体を覆えず、汎用的に問題を解こうとすれば必然的にハルシネーションが生じることを示しました。
参考:Xu, Z. et al. (2024). “Hallucination is Inevitable: An Innate Limitation of Large Language Models” arXiv:2401.11817/https://arxiv.org/abs/2401.11817
これは、ファインチューニングや報酬モデリングをいくら洗練しても、原理的に消し去れないということです。トランスフォーマーは「世界を表象する」のではなく「言語的共起から疑似的なオントロジー(存在論)を作り出す」装置であり、訓練データが希薄な領域では一貫性を保つために架空の続きを補完する──これが構造的な特徴なのです。
つまり、AIは「もっともらしい言葉」を出すことはできるが、その言葉が現実に接地した「意味」を生み出してはいない。意味を生成し、その意味が現実世界の何にどう接地しているかを判定できるのは、いまも人間だけです。
領域2:身体を持って世界に在ること──ドレイファスが半世紀前に予言したこと
哲学者ヒューバート・ドレイファスは、1972年に『コンピュータには何ができないか(What Computers Can’t Do)』を発表し、AI研究に対する根源的な批判を展開しました。50年以上前の本ですが、彼の主張はLLM時代にこそ有効性を持っています。
参考:Dreyfus, H. L. (1992). “What Computers Still Can’t Do: A Critique of Artificial Reason” MIT Press/https://mitpress.mit.edu/9780262540674/what-computers-still-cant-do
「身体性(embodiment)」と「状況的認知(situated cognition)」
ドレイファスはハイデガーやメルロ=ポンティの哲学を引きながら、人間の知性が成立しているのは「身体を持ち、世界の中に置かれ、状況の中で行為している」からだと主張しました。私たちは抽象的な記号操作で世界を理解しているのではなく、身体感覚、文脈、状況との絡み合いの中で「自然と」物事の意味を把握している。
たとえば、満員電車で他人とのちょうどよい距離をとる、相手の表情の微妙な変化からその場の空気を読む、混乱した現場で「とりあえずこれを優先する」と判断する──こうした「熟練的な対処(skillful coping)」は、明示的なルールに分解することができない、と彼は指摘しました。
なぜLLMには「現場感」がないのか
ドレイファスの議論は、LLMの限界を考える上で示唆的です。LLMは膨大なテキストを学習していますが、身体を持って世界に在った経験はゼロです。腰が痛いから椅子の角度を変える、夕焼けを見て立ち止まる、誰かの沈黙の重さに気づく──こうした「身体を通じた世界との接触」が、根本的に欠けています。
ロボティクスの分野では身体を持つAIの研究が進んでいますが、それでも「世界の中で生まれ、生きてきた」という履歴を持つ存在にはなれません。私たちが当たり前に持っている「現場感」「肌感覚」「経験知」──これらは、身体を持ち、生きてきたことの副産物です。
したがって、医療の現場、保育の現場、職人の世界、現場での緊急対応など、身体を持って状況の中に在ることが本質的に必要な仕事は、AIが完全に置き換えることが原理的に難しい領域です。
領域3:責任を引き受けること──responsibility gap問題
もうひとつ、AI研究の中でますます重要視されている領域があります。責任の所在です。
「責任ギャップ(responsibility gap)」とは何か
AI倫理学では、AIが何らかの判断をして問題が起きたとき、「責任を取れる主体が誰もいなくなる」という構造的な問題があります。これを「責任ギャップ(responsibility gap)」と呼びます。Santoni de Sioら(2021)の論文は、この責任ギャップが「咎め(culpability)」「道徳的責任」「公的責任」「能動的責任」の4つの次元で同時に生じると指摘しました。
参考:Santoni de Sio, F., & Mecacci, G. (2021). “Four Responsibility Gaps with Artificial Intelligence: Why they Matter and How to Address them” Philosophy & Technology 34:1057-1084/https://link.springer.com/article/10.1007/s13347-021-00450-x
たとえば、AIが医療診断で誤診をしたとき、責任を取るのは誰なのか。開発者か、運用する病院か、実際に診断結果を採用した医師か、AIに任せきりにした制度か。責任は分散し、最終的に「誰の責任とも言えない」状態になりやすいのです。
なぜAI自体は責任を取れないのか
AIに責任を取らせることはできません。これは技術的限界ではなく、「責任を取る」という行為が、人間の存在様式と不可分だからです。
【「責任を取る」が成立するための前提】
- 失うものがある──評判、関係、立場、未来。失うものがない存在に責任は宿らない。
- 反省と修正の能力──失敗を引き受け、自己を変容させていく主体性。
- 当事者性──「他人事」ではなく、自分の問題として引き受ける構え。
- 連続的な人格──過去の自分と現在の自分が同じ責任主体として連続している。
AIには、これらが原理的に欠けています。失うものがなく、自己が連続的に存在せず、当事者として何かを引き受ける構造を持たない。だからこそ、組織がAIに業務を委ねても、最終的な責任の主体は人間に戻ってくる。EUのAI法も、責任を「設計者・運用組織・利用者」に分散させる方向で設計されています。
「決断」と「責任」はワンセット
ビジネスの世界では、「決める」ことと「責任を取る」ことは切り離せません。AIは無数の選択肢を提示し、それぞれの確率や利得を計算してくれます。しかし、「これでいく」と決め、その結果を引き受けるのは、最後まで人間の仕事です。
経営判断、人事の決断、子育ての方針、人生の選択──いかにAIが優れた分析を出しても、最終的に「これが私の選択だ」と引き受けて立つのは、責任を取れる主体である人間にしか担えないのです。
領域4:自分の人生の「方向」を決めること──最後にして最大の人間専有領域
4つ目の領域が、もっとも本質的かつ譲渡不可能なものです。「自分はどう生きたいか」を決めること。
AIは「目的」を持てない
AIは、与えられた目的に対して最適化することは得意です。「売上を最大化する施策を出して」と頼めば、もっともらしい施策が返ってくる。しかし、「そもそも売上を最大化することが、自分の人生にとって本当に追求すべき目的なのか」──この問いを、AIが代わりに考えてくれることはありません。
哲学的には、AIは「道具的合理性(与えられた目的に対する手段の最適化)」は扱えるが、「価値合理性(その目的そのものを評価し選び取ること)」は持ち得ない、という整理ができます。「何のために生きるか」「自分にとっての成功とは何か」──こうした価値の選択は、生きてきた一人の人間の主観からしか立ち上がりません。
「他人軸の不安」をAI時代の文脈で読み直す
「AIに仕事を奪われるのではないか」という不安の根底にあるのは、多くの場合、自分の価値を「外側の基準」で測っていることです。市場で需要があるか、会社に必要とされるか──こうした他人軸の物差しに依存している限り、AIの進化は常に脅威に映ります。
逆に、「自分はこういう生き方をしたい」「自分はこの価値を大切にしたい」という自分軸を持っている人にとって、AIは脅威ではなく、その生き方を実現するための道具になり得ます。AIが進化しても、自分が大切にしたいものは変わらないからです。
つまり、AI時代に「人間にしかできないこと」を最終的に担保するのは、「自分の人生の方向は自分で決める」という構えそのものです。これは技術論ではなく、生き方の問題です。
「奪われる側/操る側」の議論を超えて
ここまで4つの領域を見てきました。これらは、抽象的な「創造性」「共感」というスローガンとは異なり、LLMの構造、哲学、倫理学の理論的根拠から導かれた、原理的な人間固有領域です。
もうひとつの定番フレームに「AIに奪われる側か、AIを操る側か」という二項対立があります。これは実用的なフレームですが、本記事の議論からすると、もう一段深い問いが残ります。「AIを操る目的は何か」「操ったその先に、自分は何をしたいのか」──ここに答えられない限り、操る側になっても、結局AIに使われる感覚は消えません。
AIをどう活用するかという「操作論」については、別の記事で具体的に整理しています。本記事は、その操作の前提となる「人間性の固有領域」を扱っています。
4つの領域を、日々どう守り育てるか
「人間にしかできないこと」が頭でわかっていても、それを錆びつかせない日々の設計をしないと、AIの便利さに飲み込まれていきます。具体的に何を意識すればよいかを整理します。
① 「意味の生成」を錆びつかせない──思考を外注しすぎない
AIに考えてもらうのは便利です。しかし、すべての問いをAIに投げていると、自分の中で意味を生成する筋肉が衰えます。重要な意思決定、人生の方向、自分の価値観に関わる問い──これらは、AIに答えを出させる前に、まず自分の頭で粘って考える時間を確保するのが先です。
そして、考えたことを言葉にする練習を持つ。アウトプットなしには思考は鍛えられません。
② 「身体性」を錆びつかせない──現場と五感を保つ
画面の向こうの情報だけで世界を理解した気にならないこと。歩く、人に会う、現場を見る、自分の手で何かを作る──こうした身体的な経験を、生活の中に意識して残す。
テクノロジーが進むほど、身体感覚は意識的に守らないと擦り切れていきます。スマホとの距離の取り方そのものが、人間性の保全に関わる問題になっています。
③ 「責任を取る経験」を避けない──小さな決断を自分でする
責任を引き受ける筋肉は、日々の小さな決断の積み重ねでしか鍛えられません。AIに「どうすればいい?」と聞き続け、その答えに従っているだけだと、自分で決め、結果を引き受ける経験が痩せていきます。
仕事の進め方、お金の使い方、休日の過ごし方、家族との関わり方──小さな決断を、自分で考えて、自分で決めて、結果を引き受ける。この積み上げが、AI時代に揺るがない人間性の根拠になります。
④ 「自分軸」を錆びつかせない──定期的に方向を問い直す
「自分はどう生きたいか」を問うことは、人生で1回やればいい問いではありません。状況も価値観も変わる以上、定期的に問い直す習慣を持つ。年に1回でも、半年に1回でも構いません。
方向を自分で問い直す時間を持っていれば、AIがどれだけ進化しようと、それは「自分の方向」に向かうための道具として位置づき続けます。
私が15年以上ネット起業に身を置いて見えた、譲れないもの
私はプロボクサーを引退してから、フリーターを経てネット起業の世界に入り、Googleアドセンス、独自コンテンツの販売、コンサルティング、そして現在のGoogleリスティングアフィリエイトへと、業態を何度か変えながら活動してきました。この十数年で、ネットビジネスの「自動化できる範囲」は劇的に広がりました。文章生成、リサーチ、データ分析、画像作成、定型対応──私自身、AIなしでは今の生産性は維持できないと感じる場面が増えています。
そのうえで、改めて感じることがあります。「自分が何を大切にして、どこへ向かいたいか」を決める部分だけは、誰にも譲れない──正確には、譲ろうとしても、自分以外には誰も決められない、という事実です。
かつての私は、コンサルタントとして人を導く側にいました。けれど途中で、「指導者である自分」よりも「プレイヤーである自分」のほうが、生きていてしっくりくると気づいた。これはAIに分析させて出てきた結論ではありません。自分の身体感覚、自分の経験、自分の違和感の積み重ねからしか生まれない判断でした。
AI時代に「人間にしかできないこと」を考えるとき、私はこうした個人的な転換点のことを思い出します。AIが代わりにやってくれない仕事は、単に技術的に難しいから残るのではなく、「自分が引き受けない限り、誰も引き受けてくれない」という構造的な理由で残るのです。
おわりに──AIが進化するほど、人間が問われる
AIの進化は、皮肉なことに、「では、自分は何者なのか」「自分は何のためにこれをやっているのか」という問いを、私たち一人ひとりに突き付けています。
意味を生成すること。身体を持って世界に在ること。責任を引き受けること。自分の人生の方向を決めること。これら4つの領域は、AIがどれだけ進化しても、原理的に人間に残り続けます。そして、これらを錆びつかせずに保てるかどうかが、AI時代の自分の輪郭を決めていきます。
完璧な答えを持っている必要はありません。「これでいいのか」と問い続け、修正しながら進む──完成図ではなく、描き続けるラフ案として人生を捉える姿勢こそが、AI時代の人間性のあり方だと、私は考えています。
常識を疑い、自分の基準で人生を設計し直すプロセスを綴った著書(Amazon kindle ランキング 5冠を達成した電子書籍)『あ、常識とかいいんで、とりあえず自由ください。』では、外側の正解ではなく、自分の内側にある問いと向き合う過程を書いています。下記より無料でお読みいただけます。
当サイトでは、AI時代の中で「自分の方向」を持って静かに暮らしと働き方を設計している方々のインタビューも公開しています。「AIに代替される/されない」という視点ではなく、「自分が大切にしたいものを軸に生きる」という視点の実践例として、参考にしていただけます。
AIが何でもできるようになっても、「自分はどう生きるか」を決められるのは、自分以外にはいない。この事実だけで、人間にしかできないことは、十分に大きいのだと思います。

コメント
この記事へのコメントはありません。