iPhoneのSiri、Amazon Alexa、Googleアシスタント、Microsoftのコルタナ…
殆どの音声アシスタントは女性の声ですが、これが女性差別を助長しているとしてUNESCOが報告書を発表しました。 従順なアシスタントが女性の声であると言うことがジェンダーバイアスに繋がると指摘しています。
ユーザーの言葉に応える”従順さ”
報告書によると、人工知能AIアシスタントは、殆どが女性の声が標準音声となっています。 また男性の声に変更出来ない物が殆どです。
ユーザーは適当な言葉を投げかけることで、「女性は従属的である」というジェンダーバイアスを強化させる存在になっていると主張されています。
問題は2つあり、まず「命令的な言葉」を行って使う物であること。 そしてもう一つは乱暴な言葉遣いに対しても柔らかい物腰で対応する点が差別を助長しているとしています。
必ず女性でもない?
実はSiriの場合も、アラビア語、フランス語、ドイツ語、イギリス英語は標準で男性の声となっています。 つまり必ずしも女性の声が標準設定になっているわけでもありません。
また日本語の場合も、設定で男性の声に任意で切り替えることは可能です。
コルタナは男性と戦うシナリオに改変
マイクロソフトの音声アシスタントコルタナといえば、元々はマイクロソフトのビデオゲームヘイローのAIアシスタントの名前からとられています。
そんなコルタナですが、ゲームでは男性の上司に意見したことで命令違反による”AIの廃棄”を命じられたこともあって人類を裏切り、人類と戦うという大胆なイメージチェンジを図りました。
女性活動家でマイクロソフトウーマン、そしてヘイローの343 Industriesの創設者でもあるボニーロス氏ならではの着眼点かもしれません。
-
https://unesdoc.unesco.org/ark:/48223/pf0000367416
続きを見る
Auto Amazon Links: プロダクトが見つかりません。 (1 items filtered out)
--