|
||||||||||
人工知能の話題フレーム問題1969年にマッカーシーとヘイズが指摘した(注1)人工知能研究の最大の難問です. フレーム問題は,今からしようとしていることに関係のあることがらだけを選び出すことが,実は非常に難しいという問題です.哲学者のデネットが次のような例(注2)を用いてこのフレーム問題の説明しました. 人工知能搭載のロボット「安全くん1号」は,人間の代わりに危険な作業をするロボットです.爆弾が仕掛けられている部屋から貴重な美術品を取り出してこなければなりません.安全くん1号は美術品の入った台車を押して美術品をとってきましたが,不幸なことに爆弾は台車にしかけられていたので,安全くんは爆発に巻き込まれてしまいました. これは安全くん1号が,美術品を取り出すために荷車を押せばよいということは分かったのですが,そのことによって,爆弾も一緒に取り出してしまうということは分からなかったためでした. そこで,この問題を改良した「安全くん2号」が制作されました.安全くん2号は,美術品を取り出しに部屋に再び向かいました.しかし,美術品を運び出すには台車を動かせばよいと思いついたあと,台車を動かしたときの影響を
と順番に考えているうちに爆弾が爆発してしまいました. これは,べつに台車を動かしても天井は落ちくるという影響は生じないのですが,一応考えてみないと,影響があるかどうか分かりません.しかも,台車を動かしても影響を受けないことは無数にあるため,考えるのに時間がかってしまうためです. 「爆弾と美術品以外の関係のないことは考えなくてもいいのではないか?」と思うかもしれません.しかし,この場合も,壁,天井,電気などありとあらゆることについて,爆弾や美術品と関係があるかどうかを考えているうちに爆弾が爆発してしまいます.このように,たとえどんな方法をとっても,途中で世の中のありとあらゆることについて考える必要が生じてしまいます.これがフレーム問題です. チェスをするとか,機械を組み立てるとか,やろうとしていることを限定している人工知能では,このフレーム問題は生じませんし,このような状況では人工知能技術が実用化されています.しかし,いろいろな状況に対応できる人工知能ではこの問題は無視できません. また,フレーム問題は人間でも解決できるわけではありません.思いもよらないことで事故がおきるのは安全くん1号と同じ状況ですし,知らない場所へ連れて行かれてとまどってしまい何もできないのは安全くん2号と同じ状況です. フレーム問題は本質的に解決できませんが,人間は普段この問題に遭遇しません.ですので,人間と同様にあたかもフレーム問題を解決しているかのように,人工知能がふるまえるようにすることが研究の目標となります. 注1:J.McCarthy and P.J.HayesSome
philosophical problems from the standpoint of artificial intelligence,
Machine Intelligence, vol.4, pp.463-502 (1969) 注2:Cognitive Wheels: The
Frame Problem of AI." In Christopher Hookway, ed., Minds, Machines
and Evolution: Philosophical Studies, pp. 129-151. Cambridge: Cambridge
University Press (1984)
|
||||||||||
|