女性の声のAIアシスタント、性差別的偏見を助長 ユネスコ報告書
(CNN Business) 国連教育科学文化機関(ユネスコ)がこのほど発表した報告書で、アップルの「Siri」やアマゾンの「アレクサ」など初期設定で女性の声が使われているAIパーソナルアシスタントについて、性別に関する固定観念を定着させ、性差別的な発言や乱暴な発言を助長すると指摘した。
報告書では、そうした女性の声のパーソナルアシスタントについて、「女性は愛想が良く従順で、いつも人を助けて喜ばせたいと思っており、ボタン1つ、あるいは音声で命令するだけで利用できる」という概念を固定させると警鐘を鳴らした。
ユーザーが性虐待的な言葉を浴びせた場合でも、AIアシスタントからは受動的で丁寧な反応が返ってくるとも指摘。「女性は従順で、不当な扱いも我慢するという偏見を助長させる」などと述べ、「感情も意識もない非人間のコンピューターコードであるSiriが、女性という異性で、男性の性的な誘いや嫌がらせに耐え、時には誘いもするという幻想を抱かせる」とした。
音声アシスタントはSiriやアレクサに加え、マイクロソフトの「コルタナ」、グーグルの「Googleアシスタント」の主要4製品すべてで、女性の声が初期設定として使われている。
ユネスコのサニエ・ギルセル・コラット男女共同参画局長は「AI技術の性別がどのように決められるのか。そして誰がそれを決めているのか」にもっと注目すべきだと訴えた。
今回の報告書に先立ち慈善事業家のメリンダ・ゲイツ氏は、AI業界の多様性の欠如に警鐘を鳴らし、この業界は「信じられないほど女性が少ない」と指摘した。影響力が強まるAI業界において、この問題は重大な影響を及ぼしていると同氏は述べ、「女性や非白人を参加させないことによって、システムに偏見を焼き付けている」と話している。