岡本裕明氏の9/18付けアゴラ記事「AIは『知の巨人』にはならず」へのコメントです。
ファインマンの講演記録「科学は不確かだ!」には、その表題とほとんどマッチした、以下の一節があります。
だから科学者は、疑いや不確かさに馴れっこになっています。もとより科学的知識とは、すべて不確かなものばかりなのです。またこうして疑いや不確かさを経験するのは大事なことで、これは科学だけではなく、広く一般にも非常に価値のあることだと僕は信じます。
今まで解かれたことのない問題を解くには、未知の要素を入れる余地を残しておかなくてはいけません。そして自分のやっていることが必ずしも正しいとはかぎらない、という可能性も認める必要があります。
そうでなくて、はじめから何もかも決めてかかるのだったら、問題を解決することは、決してできないのではないでしょうか。
科学者は、「こういう考え方ができるのではないか」という『仮説』を提示するのが大事な仕事で、これに対していくつもの観測結果をあてはめて仮説の正しさをより確かなものにしていく作業を続けるのですね。
AIのやっていることは、主にネット上の情報をサーチして質問事項にこたえることが中心で、「こうなっています」という事実の提示は得意なのですが、新たな仮説を作り出すなんてことはまずやらない。後者に関しては、人間がやるしかないと思います。
でも、ならばAIはダメかと言えばそんなこともない。どんな研究も、既往の研究をまずサーベイすることから始めなくてはいけない。そして、生み出した仮説をすでに誰かが唱えていないか、チェックしなくてはいけない。そういう意味では、AIは結構便利な道具になるのではないかと思います。信頼性がいまいちならば、提示された一次情報にあたる必要はあるかもしれませんが、これはどんなソースにも言えることなのですね。