こんにちは、パオロ・マッツァリーノです。近頃ちまたで話題のChatGPTですが、私はまだ使ったことがありません。ちょっと試すだけでも登録しなきゃならないみたいなんで、面倒くさい。
ニュースなどでは、ChatGPTの性能のスゴさやら、日本の企業や自治体などでも導入が検討されているみたいな、明るい側面ばかりが報じられます。
でも、ChatGPTをそんなに信用して大丈夫ですか? いえ、AIに人類が支配されるぞ、みたいなSF的な話じゃなくて、単純に、信頼性が疑われる例がたくさん報告されてるからです。
なかでも笑ってしまったのが、お笑い芸人FUJIWARAのおふたりがChatGPTにいろいろ質問したYoutube動画。
お笑い芸人FUJIWARAについて質問すると、ChatGPTはこんな感じに回答しました。FUJIWARAは2001年に結成され、2006年にM-1グランプリで優勝、藤本はオネエキャラ、原西はメンズキャラとして活躍している、彼らのコントは日本のお笑い界を代表する一つのジャンルとして広く知られている。
お笑い界を代表する一つのジャンルって……? ま、それはさておき、お笑い好きの日本人なら、この回答内容が事実と異なることばかりだと気づくはず。なのに、いかにも正解であるかのように、自信満々で断言してしまうChatGPTって、いったいなんなの?
ちなみに2006年のM-1チャンピオンはチュートリアルです。でも回答内容を見るかぎりでは、FUJIWARAとチュートリアルを混同してるってわけでもなさそうです。
藤本さんは映画『ちはやふる 結び』に小宮山役で出演してると断言するChatGPTですが、藤本さんは出演してません。私はこの映画を観ていないのですが、調べてみますと、そもそも小宮山なんてキャラは登場しないようです。だから藤本さんを俳優の誰かと誤解してるわけでもなく、完全に架空の経歴を捏造してるんです。ご丁寧に映画の内容まででっちあげて。
原西の代表的ギャグには「パッション屋良」というものがある、原西はフットボールアワーの後藤とハラゴトというコンビとしても活躍している、藤本の代表的なギャグは「鉄拳シリーズ」である、藤本は一般女性と結婚し、離婚している……
とまあ、ここまでデタラメのオンパレードだと、笑いを通り越して、キツネにつままれたような気分になってきます。
これ、人間だったら絶対やらない間違えかたです。もし、日本のお笑いについてまったく知らない外国人大学生に、FUJIWARAについてレポートを書いて提出しなさいと命じたとしても、こんな結果には絶対なりません。おそらくウィキペディアなどの記述内容をネットの翻訳機能で訳してまとめ、誤訳や誤解が混じってるけど大筋ではあっているレポートを提出するでしょう。
でもChatGPTのアルゴリズムは、人間の思考法とはまったく異質なもののようです。おそらくChatGPTは日本のお笑いについてなにも学習していないんです。ギャグとは何かという概念すらわかってない。だったら、それらの件については学習していないのでお答えできません、と正直に回答すべきです。
ところがChatGPTは、学習していない事柄については、もっともらしいウソをでっち上げて、それを堂々と返してくるのです。
『日経サイエンス』5月号にも、専門家が似たような事例を紹介している記事がありました。ChatGPTに「東京特許許可局」について聞いてみたところ、特許や実用新案などの権利を認定する特許庁の下部組織で、千代田区霞が関に存在する、などと回答したそうです。
もし日本人が東京特許許可局とは何かと質問されたら、それは早口言葉のために考え出された架空の組織である、と正しく答えるか、あるいは、知りませんと正直に認めるはずです。
現実には存在しない架空の組織を霞が関に存在する、とまで断言してしまうChatGPTのペテン師ぶりには驚かされますし、なによりその設計思想を疑ってしまいます。
専門家の説明によると、ChatGPTは学習していないことについて聞かれると、その質問に近いと思われるもの、つながりそうなものを探し、もっともらしい文章を組み立てるようにできてるらしい。
なるほど、だから出てくる回答は論理的・文法的には間違ってないわけですね。それどころか、あいまいさのかけらもない断定口調の文章は説得力すら感じさせます。鵜呑みにする人もいるでしょうけど、回答内容は事実無根のデタラメを並べてるだけなんです。
エセ科学を支持する人たちは科学者に論破されると、「こっちの理論のほうが説得力がある」などと主張して抵抗しますけど、説得力のあるなしは事実かどうかと無関係であることを、図らずもChatGPTが証明してくれました。
どんな高度な思考を重ねたとしても、その思考が事実にもとづいていなければ、デタラメな結論しか出てきません。それは人間でもAIでも同じです。どういうふうに論理を積み上げるかという思考過程も大事ですが、どんな事実にもとづいているかということも、それと同じくらい重要なんです。その基本を忘れた思考は無価値だし、有害です。ChatGPTがいったい何を学習してどんな根拠にもとづいて回答したのか、その出典が示されていないのは問題だし、無責任です。
ありもしないギャグや役所の組織を平気ででっちあげるのだから、ChatGPTにその回答の出典をあきらかにせよとたずねたら、架空の書籍や記事名をでっちあげたりして? ヤツならそれくらいのことをシレッとやりかねない。
企業や官公庁の書類作成業務をChatGPTにまかせれば省力化できると期待が高まってるところに水を差すようですが、ChatGPTが作った書類は、内容が事実かどうか人間が全部チェックしてデタラメを修正しなきゃならないのだから、かえって手間がかかりそうな気もします。
他にも海外の科学技術系ニュースに強いネットメディア『ギガジン』にこんな記事がありました。
「
ChatGPTの「トロッコ問題」に関するコロコロ変わるアドバイスが人間の道徳心に影響することが実験で明らかに」
ChatGPTにトロッコ問題について何度もたずねたら、毎回違う答えを返してきたとのこと。ああ、やはりそんな感じになるんですね。
しばらく前から「クルマの自動運転AIの開発にはトロッコ問題の検討が欠かせない」みたいな主張をときどき目にするようになりました。でも私は著書『思考の憑きもの』で、クルマの自動運転AIにトロッコ問題は応用できないと指摘しました。その後、AIの専門家ウルドリッジさんの『AI技術史』を読んだら、トロッコ問題の検討は不要だと、私と同じ結論を述べてました。
正解のない問題の正解はAIにも出せません。そのことがおそらく、毎回答えが変わるという挙動になって表れているわけですし、ChatGPTは正解がない場合、正解風のウソをでっちあげるように設計されていることがわかりました。少なくともいまの段階では、AIを全面的に信頼したり、手放しに賞賛するのは危険です。
そんななか、ChatGPTなどのAI開発は一時休止すべきだと警鐘を鳴らしていたイーロン・マスクさんが、じつは裏でこっそり自前のAI開発を始めてたことが報じられました。
そのAIの名前が「TruthGPT」というんだから笑っちゃいます。FactでなくTruth、客観的な事実よりも、自分が信じたい主観的な真実を重視するAIを作りたいらしい。他人を牽制しておいて自分はやるという姑息な手口とか、強烈な自己正当化傾向とか、この人やっぱりトランプと同類なのかな。
以前はマスクさんにまったく関心がなかった私ですが、ツイッター買収以来、海外ニュースで彼の言動を目にする機会が増えました。マスクさんって、天才小学生が社会性も人間性も身につけないままオトナになったような危うい感じがするんですよね。いや、危うさしか感じないといったほうが当たってるかもしれません。
ほんでもってマスクさん、「宇宙の本質を理解しようとするAIが人類に敵対する可能性は低い」とか、わけのわからん理論で自分のAIの優位性をアピールしてます。なんで宇宙の本質を理解すると人類に敵対しないのか、論理が飛躍しすぎて意味不明。まるでニューエイジ系の宗教団体の勧誘です。
TruthGPTにイーロン・マスクとは何かと質問したらきっと、「宇宙で最も偉大な人間である」なんて回答するんじゃないですか。