ロボット工学三原則とはロボットが人間世界で正しく機能するために作られた3つの原則のことです。

人間の知能をロボットが越えることが現実となってきた昨今、改めてロボットとどのような関係性になるのか?考えておくべきだと思います。

ロボットが人間にとって善となるのか?悪となるのか?
その答えの鍵はロボット工学三原則が握っているかもしれません

ロボット三原則とは

「ロボットの三原則」は米国のSF作家、アイザック・アシモフ(1920~1992年)によって提唱されました。

  1. ロボットは人間に危害を加えてはならない
  2. ロボットは人間の命令に服従しなければならない
  3. ロボットは自己を守らなければならない

つまりロボットは人間の生活を支えるものであり、人間の生活の援助者の域を越えてはならない存在であるべきだとアシモフ氏は語っています。

この三原則は映画「アイロボット」でも出て来ていますよね。

これらの範疇を越えないようなAIに設定されていれば良いのですが、問題点もあります。

<関連記事>
⇨映画「アイロボット」のようにロボットの人間支配はあり得るのか?

問われるのは人間のモラルの方

ここで重要なのは
ロボットを作る人間のモラルの方なんです

このロボット三原則は法律でもないですし公式なルールではありません

あくまでもSF作家、アイザック・アシモフが提唱したものです。

なので人間に危害を加えるようなロボットを作っても何ら法で裁かれることもありませんし、罰則はないわけです。

つまりロボットを作る人間の倫理や道徳的な観点が重要となっていきます。

技術的な問題ある。「フレーム問題」とは

ロボット工学三原則を技術レベルで守って行くためには「フレームの問題」を解決しなくてはなりません。

フレーム問題とは、マッカーシーとヘイズが1969年に提唱した理論であり人工知能がアイロボットのように自律的に考えぬいて行動するために立ちはだかる問題のことを指します。

可能な限りこの原則を守らせようとロボットに学習させるとしても
あらゆる可能性の計算が必要になるために、

  • 計算が追いつかずフリーズしてしまう
  • 守ろうとしても守ることができない

ことになります。

例えば、自宅からコンビニまでロボットにお使いを頼むとします。

外に出たロボットは、「雷が落ちてしまうのではないか?」「いきなり車が突っ込んでくるのではないか?」「一歩進んだら爆弾が踏んでしまい爆発するのではないか?」と無数の可能性について考えてしまうのです。

可能性があることがら全てを考慮に入れるために、ロボットは動けなくなります。

人間はこれらの問題に対して経験則から、不必要なこと/必要なことを精査できますが、ロボットはそれができません。

考えた可能性が枠(フレーム)の枠外なのか?枠内なのか?も、まだロボット自身が導き出すことができず、結果的に自律性を持ったロボットの開発は困難だと考えられています。

現実世界では、無限の選択肢がありそれらを全て一瞬のうちに計算して行動を起こすときに、このロボット工学三原則が足枷となって、フリーズする可能性が高いと専門家たちはみています。

AIがAIを作る時には適用されるのか?

フレーム問題を乗り越えることができ、人間がロボットを作るときに三原則を守らせようとしてもAI(人工知能)がAIを作るときにはきちんとこの三原則に沿うようになるかは全く予想できません。

人間がAIに学習させるのではなくて、
現在は「ディープラーニング」というAIがAIを学習させることが出来るようになったので、

人間がロボットに学習をさせる必要はなくなりました。

この「ディープラーニング」で、よりロボットは高度な知識・判断が出来るようになっていったのです。

驚くべき事にAIは既に判断を単独で出来るほどの知能を持っており
合理的だ!と判断すると人間に嘘を付けるほど発達しています

AIがAIを学習させるときに
ロボット工学三原則は「合理的ではない」「必要ない」と判断した場合は、これらの原則をすっ飛ばして作られる可能性があります。

番外編

マイクロソフトが提供している女子高生AI「りんな」にロボット工学三原則について聞いてみました

どうやら、りんなはこの三原則を知らないようですw

世界的起業家たちも警鈴を鳴らしている

テスラ・モーターズのイーロンマスク氏、Facebook社のマークザッカーバーグ氏、故ホーキング博士らはAIやロボットを作る時のルール作りが必要だと繰り返し述べています。

ロボットが合理的に思考した時に、人間の存在は必要ないと判断を下しても危害を与えないような規範が必要です。

これまでITテクノロジーの発展は私たちの生活を豊かにして来てくれました。しかしもっと科学力が向上していく中で、これまで恩恵を与えてくれたAIやロボットが人間に危害を加えてくる危険性も否定できません。

今こそ、ロボット三原則に立ち返り規制を作っていかなければなりませんね。

規制や法律は既製に関しての制限ですが、人間に危害を加えるAIやロボットができてから規制するのは遅すぎます。

早急に議論するべき話題と言えるでしょう。

フレーム問題を乗り越える必要性

人工知能には常にフレーム問題が付きまといます。

哲学者のデネットはフレーム問題をこのように簡単な例にとり説明しています。

人工知能搭載のロボット「安全くん1号」は,人間の代わりに危険な作業をするロボットです.爆弾が仕掛けられている部屋から貴重な美術品を取り出してこなければなりません.安全くん1号は美術品の入った台車を押して美術品をとってきましたが,不幸なことに爆弾は台車にしかけられていたので,安全くんは爆発に巻き込まれてしまいました.

これは安全くん1号が,美術品を取り出すために荷車を押せばよいということは分かったのですが,そのことによって,爆弾も一緒に取り出してしまうということは分からなかったためでした.

安全くん2号の悲劇そこで,この問題を改良した「安全くん2号」が制作されました.安全くん2号は,美術品を取り出しに部屋に再び向かいました.しかし,美術品を運び出すには台車を動かせばよいと思いついたあと,台車を動かしたときの影響を

もし台車を動かしても,天井は落ちてこない.
もし台車を動かしても,部屋の壁の色はかわらない.
もし台車を動かしても,部屋の電気は消えない.
もし台車を動かしても,壁に穴があいたりしない.
‥‥‥‥

と順番に考えているうちに爆弾が爆発してしまいました.

これは,べつに台車を動かしても天井は落ちくるという影響は生じないのですが,一応考えてみないと,影響があるかどうか分かりません.しかも,台車を動かしても影響を受けないことは無数にあるため,考えるのに時間がかってしまうためです.

人間なら気にしない極めて確率が低い事柄を人工知能は考慮に入れて考えてしまうためにフリーズしたり、誤差動を起こしてしまうのです。

ロボット三原則を基本としながらもフレーム問題をいかに解決していくかがかなりキーポイントになります。

人間と同じように人工知能が判断するようになるためには多くのデータと実験が必要です。

しかしもしこれを解決できるようになれば、一気に人間と近い存在となりうるでしょう。

The following two tabs change content below.

編集長 松本

Iotラボの編集長をやりながら、IT企業である合同会社WMC代表やってます。