Go to contents

「AIキラーロボット作らない」 AI研究者2400人が署名

「AIキラーロボット作らない」 AI研究者2400人が署名

Posted July. 20, 2018 09:28,   

Updated July. 20, 2018 09:28

한국어

 

「法則1.ロボットは人間を傷つけてはならず、行動しないことで危険に直面した人間を傍観してもならない。法則2.法則1に反しない限り、ロボットは人間の命令に服従しなければならない」

ロボットと共に暮らす人間社会の姿を描いたSF映画「アイ,ロボット」(2004年)に登場する「ロボットの法則」だ。有名なSF作家、アイザック・アシモフが1950年に作ったロボットの原則だ。2035年を背景にしたこの映画は、未来のロボットに対する人間の期待と恐れを共に描いた。

 

技術は予想よりも早く発展した。ロボットに関する法則が、映画の背景になった時期より17年も早く宣言されたのだ。世界36ヵ国150の企業、2400人以上の人工知能(AI)研究者は18日、スウェーデン・ストックホルムで開かれた「2018国際人工知能協力会議(IJCAI)」で、「人間を識別して攻撃する兵器を作ることに参加しない」と宣言した。

責任ある技術開発に向けて結成された団体「命の未来研究所(Future of Life Institute)」は、世界約2400人の研究者がこのような内容の同意書に署名したと明らかにした。この同意書には、グーグル・ディープマインドの囲碁プログラム「アルファ碁」開発者のデミス・ハサピス氏、電気自動車大手「テスラ」と民間宇宙企業「スペースX」の最高経営責任者(CEO)イーロン・マスク氏など情報技術(IT)業界の有名CEOやエンジニアが署名した。

彼らは公開宣言書で、「AIは軍事システムで多くの役割をする準備が終わった」とし、世界のリーダーがAI技術の使用に関するガイドラインを提示する時が来たと呼びかけた。また、「AIを利用した自律殺傷兵器は核や生物化学兵器とまったく異なる特性を持つ。一旦導入されれば、世界が限りない軍備競争に突き進むことになるだろう」と憂慮を示した。

AI技術が、兵器製造に使われてはならないという研究者の声が出たのは初めてではない。昨年、AIとロボット専門家約100人は、国連に「AI兵器は第3の戦争を招く」という内容の公開書簡を送った。

自律殺傷兵器を開発しているという疑惑が起こり、企業や国家機関が研究を中止したケースもある。昨年4月、グーグル職員約3千人は、グーグルが米国防総省と協力して進める「メイヴェン・プロジェクト」が、攻撃用AIドローンの開発につながる恐れがあるという論議が起こると、CEOのサンダー・ピチャイ氏に書簡を送って研究中止を求めた。韓国のKAISTも非難されたことがある。今年4月、KAISTがハンファ・グループ系列会社のハンファ・システムと国防人工知能研究センターを開くと、世界のロボット研究者が、「自律殺傷兵器を開発するのではないか」とKAISTに「研究ボイコット」を宣言した。この論議は、KAISTが「研究センターは防衛産業と関連した物流システム開発に活用される」と説明して収まった。

すべての専門家が「AIディストピア論」を主張するわけではない。フェイスブックCEOのマーク・ザッカーバーグ氏は、代表的なAI楽観論者だ。ザッカーバーグ氏は昨年、「技術はこれまで常に良いことにも悪いことにも使われてきた。何が起きるか事前に考える必要はない」とし、AIの発展にブレーキをかけようとする人々を批判した。マイクロソフト創業者のビル・ゲイツ氏もAI楽観論を展開している。


チョン・チェウン記者 chan2@donga.com