ブログ(2018.1)
「AIは哲学できるか」を読んで、の詳細
「AIは哲学できるか」を読んで、
朝日新聞の記事「AIは哲学できるか」(2018.1.22)という
哲学者M氏の挑戦的なタイトルに刺激されて、コメントする。
<記事概要>
・AIに過去の哲学者たちのすべてのテキストを与えると
「人間が考えそうな哲学的思考パターンのほぼ完全なリスト」ができる
・根本的疑問:人間が設定した問いに解を与えるだけでは、哲学とは呼べない
・哲学は、自分自身にとって切実な哲学の問いを内発的に発することが出発点
例:「なぜ私は存在しているのか?」、「生きる意味はどこにあるのか?」
・AIにはこのようなことは当分できないと予想する
・仮に、人間からの入力なしにAIが切実な哲学の問いを内発的に発し、
その問いをひたすら考え始めたら、「AIは哲学をしている」と判断する
・AIが発する問いを奇妙なものと感じる人間とAIの対話が始まれば、
哲学に新次元を開くことになる
★人間にできてAIにはできないと思われる
「切実な哲学の問いを内発的に発し、かつ、考える」行為についてコメントする。
【記事概要の前半】
・AIに過去の哲学者たちのすべてのテキストを与えると
「人間が考えそうな哲学的思考パターンのほぼ完全なリスト」ができる
・根本的疑問:人間が設定した問いに解を与えるだけでは、哲学とは呼べない
・哲学は、自分自身にとって切実な哲学の問いを内発的に発することが出発点
例:「なぜ私は存在しているのか?」、「生きる意味はどこにあるのか?」
★【前半のコメント】
AIが「問いを内発的に発する」場合の内発的の定義が難しいが、
Generate and test 法を用いて、人間側からの入力なしに
問いを自動生成することはできると思う。
まず、5W1H(when, where, who, what, why, how)の問いについて、
構文的に正しい問いを作成後、その問いの中から意味不明の奇妙なものを
除く必要があるが、統計的に事例の少ない組み合わせを除くことはできる。
例えば「なぜ<名詞>は<動詞>?」という構文から
「なぜ鳥は祈るのか」が生成されても、「鳥は祈る」という事例はないので削除し、
「なぜ私は存在するのか?」は、「私は存在する」という事例があるので残す。
人間の内発的な問いの例とされる「なぜ私は存在しているのか?」や
「生きる意味はどこにあるのか?」の場合も、それ以前に
「なぜ<名詞>は存在しているのか?」や「<動詞>意味はどこにあるのか?」
という問いの形式は学習しているはずである。
次に、ある問いが「切実」か否かの判断については、「切実」な問いの事例を
大量に検索・収集して、類似性を判断することはできるが、
その適切性を保証するのは難しいと思われる。なお、人間の場合も、
「なぜ私は存在しているのか?」や「生きる意味はどこにあるのか?」が
切実な問いか否かについては、個々に異なるはずである。
【記事概要の後半】
・AIにはこのようなことは当分できないと予想する
・仮に、人間からの入力なしにAIが切実な哲学の問いを内発的に発し、
その問いをひたすら考え始めたら、「AIは哲学をしている」と判断する
・AIが発する問いを奇妙なものと感じる人間とAIの対話が始まれば、
哲学に新次元を開くことになると思われる
★【後半のコメント】
AIが切実な問いの回答の事例を検索できるが、
検索結果の回答例の中から適切な回答を選択できるか、すなわち、
その回答で問いは解決したと判断できるか、という問題は残る。
これは論理的な事柄ではないので、人間の場合は、本人次第。
(例)自分はこのために生まれてきたと思えれば、切実な問いは解決では?
適切な回答を得られなかったときの人間の行動はさまざまであるが、
AIも同様の様々な「内発的」行動をとる必要はあるのだろうか?
(「内発的」にみえる行動のとり方を教えることはできるが・・・)
(参考)
囲碁、将棋の場合は、乱数を交えて勝利の確率の高いものを選べばよいので、
上記の問題とは似て非なるもの。
★結論めいたことは言えないが、AIが発した奇妙な問いに対して、
無視するか、あるいは、(頭の体操として)回答を試みるか? (^^;;
以上