コンテンツへスキップ

AIの返答と人間の返答の相違点

長谷川良氏の7/1付けアゴラ記事「『AIの倫理』問題でGPTから返答」へのコメントです。


この「ChatGPTの返答」なるものは、基本的にはChatGPTに与えたデータから、その多数意見を矛盾のないように合成して出力したものであることに注意しなくてはいけません。つまり、ChatGPTに学習させている人たちが取捨選択したデータがChatGPTには与えられているわけで、その大多数を占める意見を集約しているのだ、ということに注意しなくてはいけない。

で、米国のAI研究者の多くはリベラルにちかい思想の持ち主ですから、その手の回答が返ってくるのは当然だということですね。間違っても「トランプ万歳」などとはいうわけもない。

とはいえ、では、人間がChatGPTとどう違うかと問われれば返答に窮してしまいます。人の頭だって、基本的にはニューラルネットワークがあるだけだし、その生まれ育った過程で身に着けた価値基準がその後の無意識的な価値判断のもとになっているのだというのが構造主義の主張するところであって、この考え方は今や思想界の主流といってもよいでしょう。つまり、人間もAIと異なるところはないのですね。

AI技術者が本来なすべきことは、学習データを、米国のリベラルジャーナリズムにとどまらず、アラブ系の、たとえばアルジャジーラなどもきっちり読み込ませ、ユダヤ系の書物や人民日報、プラウダなども読み込ませるのが公正なやり方ではないか、という気がします。ただ、そのようなことをやった先にあるのは混乱、ないしは極めて不安定なAIの反応ということになりそうです。

結局のところ、アンフェア―であるにせよ、きっぱりとした物言いがAIには求められている。それが正しいか否かは別の話ということでしょう。人間の指導者にも、そういうあり方が求められているのでしょう。それが結果的に、人類を不幸に導くものであったとしても、ですね。まあ、ヒットラーみたいに、と付け加えればわかっていただけるかもしれませんけど。

1 thoughts on “AIの返答と人間の返答の相違点

コメントは停止中です。