【AIと危険性】AI(人工知能)の危険性と事例を伝える|危ないAIの危険な理由など

f:id:inaka-gurashi-saikou:20171212163340j:plain

AI(人工知能)が危険だ。今回は、その点について熟考する

 

AI(人工知能)の個々の危険な事例に言及しながら、なぜAI(人工知能)が危険なのか意見を述べていく。

 

・AIの個々の危険な理由と事例

・AI(人工知能)が危険な本当の理由

 

と言った具合で伝えていく。

 

 

1. AI(人工知能)の危険性に関するさまざまな事例

f:id:inaka-gurashi-saikou:20171214075733j:plain

AI(人工知能)の危険性に関して個別の事例をお伝えします。

 

AIが人類を滅亡させる理由とは? 

f:id:inaka-gurashi-saikou:20171203143832j:plain

AI(人工知能)が人類を滅亡させる理由に関して、詳細に書いています。

 

詳細 => AIが人類を滅亡させる理由とは?「人工知能の頑健性」や「ASI(人口超知能)」が人を殺し尽くす..?

 

かいつまんでお伝えすると、AI(人工知能)が人類を滅ぼす大きな理由が書かれています。危険性を知る上では良い事例ですね。

 

AIのブラックボックスは人間の想像を超えている危険性がある

f:id:inaka-gurashi-saikou:20171214085133j:plain

 AI(人工知能)がもっとも危険だと言われる理由の一つには「ブラックボックス化されたAIの内部構造」という問題があります。

 

AI(人工知能)が機械学習・深層学習を通じて「人間よりも極めて早いスピードで学習し、結果を出すこと」は誰しもが知っていますが、実際問題として、どうしてAIが答えを出せているのかを具体的に答えられる人はいません。

 

つまり、なんでAIがすごい結果を出すのかが「ブラックボックス」なのです。

 

 

ブラックボックス化されたAIの学習構造は特に「深層学習が行われる際に顕著に現れる傾向があります」から、今後当たり前のようにAIが深層学習を続ける状況になれば、当然、どうしてかわからないけど、結果が出ている。

 

 

しかし、人間にはどうしてかわからない。

  

そういった英知の格差が生まれる危険性があります。

 

「エクスポネンシャル・シンキング」(指数関数的な思考)がAI(人工知能)の危険性を理解しやすい。

f:id:inaka-gurashi-saikou:20171204164419j:plain

AI(人工知能) が人間にとって脅威になるのは、シンギュラリティ(技術的特異点)と呼ばれるAIがAIを作り出す状況に到達した時です。

 

その状態に進化するまでの経過を理解するために「エクスポネンシャル・シンキング」(指数関数的な思考)」が重要になります。

 

エクスポネンシャル・シンキングとは・・・

 

・Digitized(デジタル化)

・Deceptive(潜行)

・Disruptive(破壊)

・Demonetize(非収益化)

・Dematerialize(非物質化)

・Democratize(大衆化)

 

上記の6つのDから形成される現象がシンギュラリティであり、 デジタル化した事実・現象・オブジェクトが逆指数関数的に成長することから、初期はDeceptive(潜行)した状態で、のちに一気に大衆化へと突き進む。

 

言い換えれば、シンギュラリティ(技術的特異点)に到達したと私たち大衆が認識する以前に特殊な事実は想像されていて、気づいたらあっという間に時代が革新される。  

 

これが、シンギュラリティを理解する上で重要な思考フレームワーク「「エクスポネンシャル・シンキング」(指数関数的な思考)」だ。  

 

 

AI(人工知能)の危険性を知る上でシンギュラリティは重要で、シンギュラリティがどういった経緯で生じるのか?

 

 

その点について理解しておく必要がある。

 

 GooleのAIは新たな惑星すら見つけてしまう?|人間の能力をAIが超える危険性

f:id:inaka-gurashi-saikou:20171217095955j:plain

米航空宇宙局(NASA)はグーグルのニューラルネットワーク(AI/人工知能)を活用し、太陽系に似た「ケプラー90」恒星系から未知の系外惑星を発見したことを発表しています。

 

 

つまり、人間には見つけられない惑星をAI(人工知能)が機械学習をすることで新たに発見した。ということだ。

 

AI(人工知能)の学習力が、人間を大幅に超えている危険性を明らかに示している。

AI(人工知能)の危険性が高いと感じる理由としては、わかりやすいだろう。

 

 

なぜなら、人が見つけられないものをAI(機械)が見つけたのだから。

 

 

まだそこまで大きなニュースになっていないが、知っておくべきAIの危険性を知る良い事例だ。

 

 

知能革命が近づいてきている?AIに人間が負ける危険がつきまとう

f:id:inaka-gurashi-saikou:20171122154333j:plain

知能革命(intelligence revolution)とは、AI(人工知能)が進化し続けた先に生じる「革命」のことです。  

 

具体的には「AI(人工知能)が今まで以上に人間の仕事を代替し、知能の低い人・知能の高い人との隔たりが是正」が起きます。

 

それによって、AI(機械)が体現できない「人間の真心・感情・愛する気持ち?」のような心の有様が唯一無二の再現性のない重要なオブジェクトとして価値化する。ということになります。  

 

端的に言えば「AI(機械)に表現できない"人間の心"が、今後社会に提供可能なもっとも価値の高いものになる」ということです。  

 

これって何が危険なのか?

 

AIが進化することで人間を平均化させ、経済学的な差別化要因を生み出すことが極めて難しくなるからです。

 

誰しもが機械が表現できない何かを社会に提供する時代になる。

 

 

これは、結構怖いものだと感じています。

 

2. 人工知能の危険 / 危険性とは?

f:id:inaka-gurashi-saikou:20171207153034j:plain

AI(人工知能)の危険性を考えるときに、最初に思いつくこと。

 

それはAI(人工知能)が人間の知性を飛び越え、AIが機械にも関わらず人間よりも上位の存在になり、人間を奴隷のように扱う未来がくるのではないか?ということだ。

 

世界的に著名な理論物理学者スティーブンホーキングも、以前から「ASI (超人工知能)/ Airtificial Super Inteligence」と呼ばれる人工知能の最後の進化形態が、人間を敵と認定し、抹殺するかもしれない可能性を危惧している。

 

 

これは本当のことなのか?

 

 

2010年代の現在では、いわゆるAI(人工知能)は「特化型AI(弱いAI)」が主流で、データサイエンティストであるAIエンジニアが「AI(人工知能)に適切な学習データを与えなければ、まともな学習結果も返せないような機械」でしかない。

 

機械学習ではそうだ。だが、深層学習(ディープラーニング)なら、学習すべき対象をAIに与えておけばあとは全自動で楽チンじゃないか。

 

そう考える人もいるだろう。

 

しかし、まだまだ深層学習(ディープラーニング)を行えるだけの環境は少なく、多くの企業では実証事件程度でしかない。

 

 

これは、つまり、まだまだAI(人工知能)は大したやつではないことを意味している。

 

未来においては危険だが、現時点ではそうとは言い切れない。

 

 

そう考えることが、実は妥当なんだ。

 

ASI(超人工知能)| AIがAIを生み出す危険性

f:id:inaka-gurashi-saikou:20171119081415j:plain

現在存在しているAI(人工知能)は、赤ん坊だと言って良い。

人間側が丁寧に学習すべきデータを探して、与えてやらなければ、精度の高い学習ができずに終わってしまう。

 

しかし、ASI(超人工知能)が生まれてしまうと、やばい。

 

 

なぜなら「AI(人工知能)が新たなAI(人工知能)を生み出せるからだ

 

 

機械が機械を生み出すのは意味がわかりづらいが、例えば、自動走行する車のAIがあったとして、AIに不具合があったとする。

 

その時は、エンジニア側がエラーを見つけて、修理、改善しないといけない。

 

だが、ASI(超人工知能)がいれば、AIがAIを修理できるようになる。

 

 

あれ、良いことでは?らくじゃん。もう働かなくて良いかも?

 

 

と、思うかもしれないが「AI(人工知能)がAI(人工知能)を新たに改善した状態で生み出せるなら、そこに人間の介在する余地がない

 

つまりは「どうやってAIを直したのか?なんで直さなきゃいけなかったのか?直し方はどうしたのか?」なんていう「問題原因を理解しないままに、AIが問題を解決してしまう状況」になってしまうのだ。

 

 

AIは問題を解けるけど、人間はどうしたって問題を解けなくなる。

だって、AIが勝手に問題を解いてくれるから。

 

けれど、どうやって問題を解決したのかが、ブラックボックスする。

すると、AIが「暴走し始めた時にどう対処して良いのかわからなくなる。

 

 

これは、めちゃくちゃに怖いことだ。

スティーブンホーキングもこの一面を危惧していると言って良い。

 

まー彼の場合は「AI(人工知能)が人間が地球に存在することが問題だ」と定義した時のことを危惧している側面が強いけれども。

 

 

言い換えれば・・・

 

AI(人工知能)の危険性とは、AI(人工知能)が暴走した時になすすべなく人間が蹂躙される可能性が0ではないことだ。 

 

ターミネータースカイネットを覚えている?

f:id:inaka-gurashi-saikou:20171108145017j:plain

ターミネーターに出てくるスカイネット

 

あれは、こんな存在。

 

スカイネットアメリカ合衆国のハイテク企業サイバーダイン社が1999年に生み出した戦略防衛コンピュータシステムである。

 

稼動後、自我に目覚めたスカイネットは全世界に核ミサイルを発射し、人類の半数を死滅させ、生き残った人々はこれを「審判の日」と名付けた。

Link to Wikipedia

 

スカイネットは並列処理システムに基づくコンピュータで、AI(人工知能)ではない。

 

けれど、機械が人間を倒そうとする話は、随分まえからあったんだよね。

それが最近になって現実味を帯びてきたというだけの話。

 

スカイネットの場合は「核ミサイル」を打ち込むわけだけど、AI(人工知能)の場合は「人間を超える知性でもって人間を超越し、君臨し、世界そのものをAIがもつ圧倒的な学習力と学習スピードで蹂躙する

 

核ミサイルが落ちるなら、物理的に対処できる。

 

しかし、生物的ヒエラルキーすら超克したAI(人工知能)という機械が、もしかしたら将来的に人間を飛び越えて、人間よりも上位の存在になるかもしれない。

 

 

そうなってしまっては、どうしようもない。

 

 

新たな為政者(AI)が生まれた地球に「2つの種族、AI(機械)と人間(生物)」が存在するわけだから、争うし、戦争するし、戦うのだろう。 

 

AI(人工知能)の危険性|結論

f:id:inaka-gurashi-saikou:20171115193005j:plain

新たな進化を果たしたAI(人工知能)が、地球に存在する人間を敵と認識し、争う可能性がある。

 

そして、AI(人工知能)の暴走を誰も止める手段を持っていないのが、今の現状なんだ。

 

ということですね。

 

しかし、今後AIがAIを生み出すだろう段階になった時点で、 AI(人工知能)が暴走しない手段を考えるでしょうし、そこまで悲観的ではないです。

 

ただ、人間は間違え続けながら歴史を歩んできた生物なので、楽観もできないですが。