人工知能の難題を表すのによく使われる例としてジョン・マッカーシーとパトリック・ヘイズの論文で述べられたフレーム問題というのがあります。
フレーム問題は有限の情報処理能力しかないロボットには、現実に起こりうる問題すべてに対処することができないことを示すものです。
哲学者のデネットが次のような例を用いて、フレーム問題について説明しています。
洞窟の中にロボットを動かすバッテリーがあり、その上に時限爆弾が仕掛けられている。
このままでは爆弾が爆発してバッテリーが破壊されて、ロボットはバッテリーの交換ができなくなってしまう。
ロボットは、「洞窟からバッテリーを取り出してくること」を指示された。
人工知能ロボット1号機は、指示通り洞窟からバッテリーを取り出すことには成功した。
しかし、バッテリーの上に爆弾があったため、指示通りのバッテリーを取り出すという目的は達成できたが、洞窟から出た後に爆弾が爆発してしまった。
これは副次的に発生する事項(バッテリーを取り出すと爆弾も同時に運んでしまうこと)については理解していなかったのが原因であった。
そこで、今度は副次的に発生する事項までを考慮した人工知能ロボット2号機をつくりました。
しかし、このロボットは、洞窟に入ってバッテリーの前に来たところで、次の行動をとらなくなり、そのまま時限爆弾が爆発して巻き込まれてしまった。
2号機は、バッテリーの前で「このバッテリーを動かすと上に乗った爆弾は爆発しないかどうか」「バッテリーを動かす前に爆弾を移動させないといけないか」
「爆弾を動かそうとすると、天井が落ちてきたりしないか」「爆弾に近づくと壁の色が変わったりしないか」など、副次的に発生しうる事項を考え始めてしまい、
無限に思考し続けてしまった。
副次的に発生する事項というのは無限にあるため、それらすべてを考慮するには無限の時間を必要とする。
ただ、副次的に発生する事項といっても「壁の色が変わったりしないか」などというのは、通常考慮する必要はない。
次に、目的を遂行するにあたって無関係な事項は考慮しないように改良した人工知能ロボット3号機を制作した。
しかし、このロボットは、洞窟に入る前に動作しなくなってしまった。洞窟に入る前に目的と無関係な事項をすべて洗い出そうとして、
無限に思考し続けてしまったためである。これは、目的と無関係な事項というのも無限にあるため、それらを考慮するには無限の計算時間を必要とするからである。
このように、普段人がこれは目的遂行に関係あるといったものはすぐ判別できるが、人工知能ではすべてを洗い出したりして、
そもそもどこまでが目的と関係あるところなのか?というフレームを設定することができないということを表しています。