『現在の人口知能の身近な例』

〜AIがすべてを変える〜

AIが人類を滅亡させる理由とは?「人工知能の頑健性」や「ASI(人口超知能)」が人を殺し尽くす...。

f:id:inaka-gurashi-saikou:20170718072518j:plain

aiが人類を滅亡させるのは、AI(人工知能)が持ち合わせる頑健性(ロバスト性)にあるからだと考えています。

 

人間はどこまで行っても自分自身の考えを否定し、ぶち壊すことができません。

 

だからこそ、AIに人間は負けるのです。

 

SPONSORED LINK

 

1. AIが人類を滅亡させる理由は『機会学習時の頑健性』にあります。 

f:id:inaka-gurashi-saikou:20170718072608j:plain

人工知能が学習していく過程において重要となる特徴量とは、学習対象となるデータを定量的に決定するための変数を意味しています。

 

それらの大量に存在する特徴量(変数)を段階的に選択し、多層的に学習していく事で、最終的にAI(人工知能)それ自体が学習対象の『概念』を推論し、理解します。

 

そして、AI(人工知能)が定義する「概念」それ自体が意味を持ち、価値を持つ事を頑強に定義する為の要素として「頑健性 / ロバスト性」が存在しています

 

AI(人工知能)が『概念』を抽出する為には非常に長時間の精錬の時間を必要としていて、それらの概念や考えが揺るぎがない状態へと移行させるには、逆説的にデータにノイズを代入させる必要があります。

 

AIに対して何度もノイズを加えても加えても自然と浮き上がる概念は、やはり頑健性/ロバスト性を持ち合わせている事を意味します。

 

ここまでは頑強性 / ロバスト性に説明程度です。

 

ここからが重要です。

 

AI(人工知能)がディープラーニング(深層学習)を行う場合、少し間違っている情報(ノイズのある情報)を大量に用意する事で、結果として頑健性のある「絶対に間違いではない情報」を抽出する事ができ、その抽出した概念を土台に新たな高次概念へと突入する事ができます。

 

これだけ聞いてもいまいちピンときませんよね。朝だし。

 

では、この状況をを将棋に例えてみます。

 

将棋では前提として今までのプロ棋士たちが積み上げてきた棋譜を土台に正解とされる戦い方や戦法が存在しています。

 

ですが、これらのTure(真)とされている戦法や概念はどの角度から見ても正しいと言えるのでしょうか?

 

将棋の戦法に関する情報・概念の正しさを人間が証明するには、実際にその正しいとされる戦法を利用しながら、何回も戦わなくてはいけません。ですが、AI(人工知能)と比較してもすぐに死んでしまいます。

 

反対に、この動作をAI(人工知能)は人間の施行回数とは全く違うレベルで行う事が出来ると考えられる以上、AIが人類を滅亡させるに足る理由になると感じるのです。

 

正しい勝ち方や戦い方は、将棋には存在しないのかもしれません。

 

けれど、勝つためのルートを人間の10000億倍は用意できるAI(人工知能)は、常に自身が持ち合わせている考えや概念に「少し間違っている情報」を加えながら、頑健性を確認する事が出来ます。

 

そう考えてしまうと、

 

人間風情(生き物)がAI(機械)に勝てる通りを僕は見つける事ができないのです。

 

頑健性を見出すためにAI(人工知能)が逆説的に間違いを内包する手法は、ありえないくらいにハッとさせられました。

 

プロ棋士がAI(人工知能)に勝てない理由はここにあるのだなと。

 

これらの頑健性を高めるためにAIをいじめぬく作業のことを、専門的には「正規化のための新しい方法」と呼ぶそうです。

 

いじめって...という感覚ですけど。

SPONSORED LINK

 

2. Elon Musk(イーロンマスク)も人類にとってAI(人工知能)が危険になる前に規制せよ!と言及

www.theverge.com

AI(人工知能)に関する危険性を言及している人といえば、イーロンマスクという感じですけど、彼も今日のニュースでAIの危険性について警告しています。

 

記事によれば、以下のように警告しています。

 

“I keep sounding the alarm bell, but until people see robots going down the street killing people, they don't know how to react, because it seems so ethereal.”

 

"私は警鐘を鳴らし続けるが、人々は通りにいる人を殺すAIを見るまでどう反応するかという方法を知らない。

 

また、映画のような話でしかないですが、AI(人工知能)がフェイクニュースを作り出し、電子メールを偽装し、裏から情報を操作するだけで戦争を引き起こす可能性にも言及していて、いわゆるAI(人工知能)のコントロールを失った場合の悲劇を回避する可能性を私たちは理解しておく必要があるようです。

 

マスクの言及動画はこちらです(48分くらいから

SPONSORED LINK

 

3. ASI(人工超知能)がシンギュラリティ(技術的特異点)になると現れて、人類滅亡?

f:id:inaka-gurashi-saikou:20170629120600j:plain

Artificial Super Inteligence(人工超知能)がシンギュラリティ(技術的特異点)に到達すると現れると言われています。

 

シンギュラリティに関する言及は様々ですが、平たく言えば『人間を超える知性(超知能)を持つAI(人工知能)が生まれる瞬間』の事です。

 

その意味において、人工的に作られたスーパーAI(人工超知能)が生まれてしまう事が、技術的特異点に到達した時に恐れなければならない事と言えます。

 

さて、まずスーパーな人工知能を理解する前に、どんな人工知能があるのか知る必要があります。

 

AI(人工知能)は、以下の3つの種類に分類できます。

 

Narrow AI(特化型AI)=> ポナンザなどの将棋ソフトなど

Artificial General Inteligence(汎用型AI)=> 株式会社ルナウェアAIテクノロジーズのAI『LUNA(ルナ)』など

Artificial Super Inteligence(人工超知能)=> まだ生まれていない

 

特化型AI・汎用型AI・人工超知能の3種類にAI(人工知能)は分類できる。という訳ですね。

 

特化型とは、何かしらの能力に特化したAIのことです。

汎用型とは、なんでも一通りは人間と同様に行動できるAIのことです。

人工超知能とは、人間を超えた知性、超知性を持つAIのことです。

 

AI(人工知能)が人類を滅亡させてしまうのは、上記のASI(人工超知能)が生まれてしまい、人間すらも飛び越えた知性を通じて、大きな反乱や戦争を引き起こす可能性があるからです。

 

シンギュラリティの2045年問題などもAI(人工知能)とどう共生していくのかを考えるための契機にすぎません。

 

また、2017年2月頃にはロボット三原則ならぬ、アシロマ23原則というAI開発における関わり方を決めた原則が世界中の人たちが集まって決めています。 

 

とはいえ、現状では>Artificial Super Inteligence(人工超知能)が生まれ、映画さながらの恐怖を撒き散らしながら、人間を絶滅させる可能性がまだ残っています。

SPONSORED LINK

 

参照:


人工知能は人間を超えるか【電子書籍】[ 松尾 豊 ]

http://www.epochtimes.jp/2017/07/28006.html