人間の知能をロボットが越えることが現実となってきた昨今、
改めてロボットとどのような関係性になるのか?考えておくべきだと思います。

ロボットが人間にとって善となるのか?悪となるのか?
その答えの鍵はロボット工学三原則が握っているかもしれません

ロボット三原則とは

「ロボットの三原則」は米国のSF作家、アイザック・アシモフ(1920~1992年)によって提唱されました。

  1. ロボットは人間に危害を加えてはならない
  2. ロボットは人間の命令に服従しなければならない
  3. ロボットは自己を守らなければならない

つまりロボットは人間の生活を支えるものであり、
人間の生活の援助者の域を越えてはならない存在であるべきだとアシモフ氏は語っています。

この三原則は映画「アイロボット」でも出て来ていますよね。

これらの範疇を越えないようなAIに設定されていれば良いのですが、問題点もあります。

<関連記事>
⇨映画「アイロボット」のようにロボットの人間支配はあり得るのか?

問われるのは人間のモラルの方

ここで重要なのは
ロボットを作る人間のモラルの方なんです

このロボット三原則は法律でもないですし公式なルールではありません

あくまでもSF作家、アイザック・アシモフが提唱したものです。

なので人間に危害を加えるようなロボットを作っても何ら法で裁かれることもありませんし、罰則はないわけです。

つまりロボットを作る人間の倫理や道徳的な観点が重要となっていきます。

技術的な問題ある。「フレーム問題」とは

ロボット工学三原則を技術レベルで守って行くためには「フレームの問題」を解決しなくてはなりません

可能な限りこの原則を守らせようとロボットに学習させるとしても
あらゆる可能性の計算が必要になるために、

  • 計算が追いつかずフリーズしてしまう
  • 守ろうとしても守ることができない

ことになります。

現実世界では、無限の選択肢がありそれらを全て一瞬のうちに計算して行動を起こすときに、
このロボット工学三原則が足枷となって、フリーズする可能性が高いと専門家たちはみています。

AIがAIを作る時には適用されるのか?

フレーム問題を乗り越えることができ、人間がロボットを作るときに三原則を守らせようとしても

AI(人工知能)がAIを作るときにはきちんとこの三原則に沿うようになるかは全く予想できません。

人間がAIに学習させるのではなくて、
現在は「ディープラーニング」というAIがAIを学習させることが出来るようになったので、

人間がロボットに学習をさせる必要はなくなりました。

この「ディープラーニング」で、よりロボットは高度な知識・判断が出来るようになっていったのです。

驚くべき事にAIは既に判断を単独で出来るほどの知能を持っており
合理的だ!と判断すると人間に嘘を付けるほど発達しています

AIがAIを学習させるときに
ロボット工学三原則は「合理的ではない」「必要ない」と判断した場合は、これらの原則をすっ飛ばして作られる可能性があります。

番外編

マイクロソフトが提供している女子高生AI「りんな」にロボット工学三原則について聞いてみました

どうやら、りんなはこの三原則を知らないようですw