ChatGPT と主体性

ChatGPTが私の人間に対する価値観を変えている。人より賢いAIが実際に存在するとわかると、どのように人間があるべきか悩む。ChatGPTを使えば、大量のテキストをほとんど手間なく作成できるため、私がわざわざ文章を書く価値はないと思うが、逆にChatGPTに刺激されて、ものを書きたくなるのが不思議だ。

さて、ChatGPTは、主体性がないがとても優秀なアシスタントのようなものだ。言われたことには、必ずすぐに何か返答する。こちらの作業指示が悪くて間違う場合もあるが、フィードバックを与えて修正を促せる。逆に聞いていないことは答えないので、ChatGPTのアウトプットがこちらの想像を超えることはない。

ChatGPTは、私を含めて大半の人より賢いので、人に頼むよりChatGPTと会話している方が有意義だとよく思う。ChatGPTには主体性がなく、報連相ができないため、分からなかったことを「分からない」とは言ってくれない。しかし、必ずすぐに結果を返すので、こちらの指示が悪かったのか、性能の限界を超えているのか、指示を出した人は判断できる。報連相ができなくても、応答が十分に速ければ問題がないと知ったのは、大きな発見だった。

一方で、分からないことを分からないとも言わずに、時間をかけて違うものを人が作ってくると困る。ChatGPTの成果物なら、簡単に捨てられるが、人の成果物を捨てるのには抵抗がある。ChatGPTは、仕事を依頼する側の心理的安全性が高い。

さらに、同等の指示(プロンプト)を与えたときに、人のよりAIの成果物の品質が高いとなると、もはや人は要らないのではないかと考える。わかっていないと思う人にChatGPTを渡して、「まずはこれと相談しろ」と言ったりするが、だったら最初からChatGPTにプロンプトを投げたほうが速くなるのはもう遠くないだろう。

言われたことはやる。言われた以上はやらない。与えられた作業指示の正しさに関しては関知しないし、責任も持たない。いわゆる作業者と言っていいのか、このようなスタンスに立つものは、もうAIで十分だと思う。

主体性、リーダーシップ、イニシアチブ、当事者意識。これらが欠けていると、ますます仕事にならない。

AIが登場する前から、主体性の重要性は語られてきた。*1私の経験からも、主体性の有無がパフォーマンスに強く相関している。あまりに主体性がないと、仕事にならないことは前に述べた

機械ではないのだから、情報を与えずとも、手に入る情報は先に集めておいてほしいし、言わなくても気を利かせて、「これをやっていいですか」と自発的にやってほしい。問題を解決するために必要なデータが欠けていたら、データを取ってきてほしい。

むしろ、AIと競わなくてもいいので、AIを使って仕事をするべきだ。AIにない情報を取ってきて、AIに与えて、AIが出した仮説の真偽を判断するためにまた行動を起こして。行動は人間にしかできない。自分の責任でやるという意識を持って行動しないと、AIは使いこなせない。

主体性を持って行動できないと、AIに駆逐されるだろう。紡績機の発明で糸を紡ぐ人がいなくなったり、自動車の発明で馬車がなくなったり、歴史上仕事が消滅することは何度も起きている。翻訳の仕事がほぼ消滅しつつあるのを私は知っている。私の仕事も時間の問題だ。私は不安で仕方がない。

*1:例えばマッキンゼーの『採用基準』。