『現在の人工知能の身近な例』

〜AIがすべてを変える〜

【日本語和訳】アシロマAI原則とは?AI(人工知能)による『反乱』を防ぐための基本原則です。

f:id:inaka-gurashi-saikou:20170802132249j:plain

こんにちは、AIブロガーです

 

AI(人工知能)が企業・人にとって大きな価値を与える存在なのは間違いありません。

 

ですが、FacebookAIのボブとアリスが人間に理解できない独自言語を喋った事で、破棄されたように、AI(人口知能)が何をしでかすのかはまだまだ未知数です。

 

今回は、世界中のAI研究・科学者が集まって2017年の春頃に完成させた「アシロマAI原則」に関する日本語和訳をお伝えします。

 

目次を見ると、読みたい項目にすぐ行けます!

SPONSORED LINK

   

ASILOMAR AI PRINCIPLES(アシロマAI 23原則)とは?

f:id:inaka-gurashi-saikou:20170722073243j:plain

AI(人工知能)による人類の存続を脅かす危機を緩和するために活動を行っているFuture of Life Institute(FLI)は、2017年2月3日に人工知能の研究課題、倫理と価値観、長期的な課題の3領域を含むガイドライン「アシロマ原則」を発表しました。

 

 

これは、AI(人工知能)が人間の知性や能力を飛び越えてASI(人工超知能)へと進化し、まるでターミネーター世界のスカイネットのようにAI(人工知能)が、戦争を引き起こしたり、情報改ざんによるサイバー攻撃を行う可能性があるので、このようなガイドラインを作る必要がありました。

 

 

では、以下にアシロマAI原則の3つの分類に関する日本語和訳をお伝えします。

 

研究課題

 

1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきである。

 

2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。

 

・将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。

 

・人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。

 

人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。

 

人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。

 

3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。

 

4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。

 

5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。

 

 

SPONSORED LINK

 

 

倫理と価値

 

6) 安全性:人工知能システムは、運用寿命を通じて安全かつロバストであるべきで、適用可能かつ現実的な範囲で検証されるべきである。

 

7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。

 

8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべきである。

 

9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるステークホルダーである。

 

10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべきである。

 

11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべきである。

 

12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、自らアクセスし、管理し、制御する権利を持つべきである。

 

13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。

 

14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。

 

15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべきである。

 

16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。

 

17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはならない。

 

18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。

 

 

SPONSORED LINK

 

 

長期的な課題

 

19) 能力に対する警戒: コンセンサスが存在しない以上、将来の人工知能が持ちうる能力の上限について強い仮定をおくことは避けるべきである。

 

20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである。

 

21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。

 

22) 再帰的に自己改善する人工知能再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。

 

23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のために超知能は開発されるべきである。

 

 参照先URL:  AI Principles Japanese - Future of Life Institute

 

 

SPONSORED LINK