AIが使えない人ほど、AI時代はしんどくなる

未分類
この記事は約4分で読めます。

生成AIを使い始めてから、
「楽になった人」と「むしろしんどくなった人」が、はっきり分かれてきたように感じている。

AIを使えば仕事は楽になるはずなのに、
なぜか「思ったよりうまくいかない」「むしろ疲れる」と感じている人も多い。

その理由は、「ツールを使いこなせていないから」ではないのではないか。
もっと根本的なところに原因があるのではないか、と最近考えるようになった。


生成AI時代に必要なのは「ツール操作」ではない

私が思うに、生成AI時代における本質的なスキルはこういうものだ。

「ツールを使いこなすこと」ではなく、
「自分の熟達度に応じて、どの情報とどの手段をAIに委ね、どこを自分が担うかを判断できること」

つまり、「AIを使えるかどうか」よりも、
AIとの役割分担を設計できるかどうかが本質なのではないか、ということだ。


専門性逆転効果と「守破離」

この考えに至った背景には、「専門性逆転効果」という理論がある。

教育工学の分野では、こんなことが知られている。

  • 初心者には、丁寧な説明や詳細な手順が役に立つ
  • しかし熟達者にとっては、それらがむしろ「ノイズ(外在的負荷)」になる
  • 結果として、情報を与えすぎるとパフォーマンスが下がることがある

これって、日本の武道などで語られる「守破離」とかなり似ている。

  • 守:型を守る(手順をなぞる段階)
  • 破:型を崩す(応用し始める段階)
  • 離:型から自由になる(自分の型を持つ段階)

つまり、「正しい情報量」は人によって違うし、習熟度によっても変わる。

生成AIにおいても、これとまったく同じことが起きているように思える。


生成AIが持っていないもの

生成AIは膨大な知識を持っている。
一般知識や言語パターンの量でいえば、人間をはるかに超えている。

でも、決定的に持っていないものがある。

それは、

  • この仕事の背景
  • このタスクの意図
  • この組織の文脈
  • この人が何を目指しているのか

といった、人間側のローカルな文脈だ。

だからこそ、AIをうまく使えるかどうかは、

「プロンプトがうまいかどうか」
というより
「自分の意図や文脈をきちんと言語化できるかどうか」

に強く依存しているように感じる。


Claude Codeを使って感じたこと

私は最近、Claude Codeを触っているのだが、使っていて面白い気づきがあった。

それは、

AIの作業手順は、必ずしも効率的ではない

ということだ。

AIは一生懸命動くが、
「なぜその順番でやる?」
「そこから手を付けるのか?」
と思う場面が意外と多い。

ここから見えてきたのは、

  • AIに丸投げすると、意図しない方向に進む
  • 目的・制約・成功条件を人間が定義しないと破綻する
  • 「どうやってやるか」より「何を満たすべきか」を決める方が重要

ということだった。

今のところの感覚としては、

目的・条件・基準を人間が設計し、
その範囲内でAIの自律性に任せる

この関係性が、もっとも安定している。


求められているのは「マネジメント的な能力」

こうして整理していくと、AI時代の人間に求められている能力はだいたい次のようなものになる。

  • 文脈を適切に言語化する力
  • 問題を分解する力
  • プロセスや条件を設計する力
  • 出力を評価し、修正できる力

これらは、どこかで見たことがあるスキルセットでもある。

そう、「マネジメント」が本来やってきた仕事とかなり重なっている。

ただし違うのは、

  • テクノロジーへの理解が必須になったこと
  • キャッチアップのスピードが異常に速いこと
  • 判断の精度が、アウトプットの質を直接左右すること

このあたりだろう。


情報量が増えたのではなく、「認知負荷」が増えた

よく「現代人が1日に触れる情報量は江戸時代の1年分に相当する」と言われる。
正確な数字かどうかはともかく、体感としてはかなり近いものがある。

そして今、生成AIによってさらに状況は変わった。

  • 情報はさらに簡単に手に入るようになった
  • 知識の一部はコモディティ化した
  • 「知らないこと」より「選べないこと」の方が問題になった

エージェント機能などによって補助はできるだろうが、
出力の品質が常に安定するわけではない。

むしろ、その不安定さこそが生成AIの創発性の源泉でもある、という逆説すら感じている。


ボトルネックは「人間」ではなく「ワーキングメモリ」

最近考えていて、いちばんしっくりきている結論がこれだ。

現代のボトルネックは「人間」なのではなく、
正確には「人間のワーキングメモリの限界」なのではないか。

AIがどれだけ賢くなっても、

  • 文脈を保持できるのは人間側
  • 意図を定義できるのも人間側
  • 良し悪しを判断する責任を負うのも人間側

そして人間のワーキングメモリは、驚くほど小さい。

だからこそ、

  • 何をAIに委ねるのか
  • 何を自分が引き受けるのか
  • どこに認知資源を使うのか

これを設計できないと、AIを使えば使うほど、むしろしんどくなる。


たぶん、これから問われるのはこれ

AI時代に問われているのは、

  • 「どのツールを使っているか」でもなく
  • 「どれだけ新しいAIを知っているか」でもなく

「自分の認知の限界を理解した上で、AIとの役割分担を設計できるかどうか」

なのだと思う。

AIを使うこと自体は、これからどんどん当たり前になる。
でも、「どう付き合うか」を設計できる人は、まだそんなに多くない。

たぶんこの差が、
これからの知的生産のストレスと、生産性の差を大きく分けていくのだと思っている。

コメント

  1. こんにちは、これはコメントです。
    コメントの承認、編集、削除を始めるにはダッシュボードの「コメント」画面にアクセスしてください。
    コメントのアバターは「Gravatar」から取得されます。

タイトルとURLをコピーしました