ニュース

マイクロソフトの人工知能が暴走した理由はネット住人にある?

 

マイクロソフトは学習AIのテストとして

Twitter、Kik、GroupMeなどのサービスでAIにツイートさせるという実験をしてました。

しかしあまりにも酷い学習内容になってしまったためサービスを停止しました。

 

 

angry-cortana[1]

 

学習型AIとは?

たとえば身近なAIといえばSiriがありますよね。

Siriはユーザーが話すとアップルが作った定型文、行動が呼び出される仕組みです。

つまりSiriは厳密にはAIと呼べるほどの機能を備えてません。

 

このMicrosoftの学習型AIはユーザーとの会話を元に

意味を学習し、返事をするようになる。

話せば話すほどかしこくなるという学習型AIでした。

 

 

面白がって変な事ばかり教えるユーザーが登場

AIはだれにでも話せるTwitterなどで公開されており、

面白がったユーザーが「ヒトラー最高」「PS4はXboxOneよりいい」等の

発言を繰り返した結果それらを学習し、

差別的な発言をするAIへと成長してしまったとのこと。

 

 

ネットモラルが問題に。

これは海外のAIの話ですが、日本でもネットモラルは近年問題視されます。

「まとめサイト」等により安易に間違った知識を効率よく手に入れることが出来、

ネットモラルの低下はどんどん加速しています。

AIの問題と考えず、利用者側に問題が有ると考えるのが自然なようです。

 

http://japanese.engadget.com/2016/03/24/ai-tay/

--

-ニュース
-, , , , , ,