AI倫理の著名研究者が離職、グーグルに非難の声

  • このエントリーをはてなブックマークに追加
人工知能(AI)の倫理学に関する研究の草分けとして知られる研究者が離職したことを受けて、グーグルに対する批判の声が出ている/Justin Sullivan/Getty Images

人工知能(AI)の倫理学に関する研究の草分けとして知られる研究者が離職したことを受けて、グーグルに対する批判の声が出ている/Justin Sullivan/Getty Images

(CNN Business) 人工知能(AI)の倫理学に関する研究の草分けとして知られ、米グーグルの倫理的AIチームの共同リーダーを務めていた研究者が、突然の退社に追い込まれた。この経緯をめぐり、業界大手のグーグルが多様性を支える環境を醸成できなかったことの表れだとして、従業員や業界、学会などの関係者が反発を強めている。

AIの偏見と不平等に関する研究で有名なティムニット・ゲブル氏は、特に商用の顔認識ソフトウェアが女性や非白人をうまく認識できない現実に脚光を浴びせた2018年の共著論文で知られる。この論文をきっかけとして、AIに共通する問題、特にこの技術を人の識別に使う場合の問題が広く認識されるようになった。

2018年にグーグル入りした同氏は、同社で数少ない黒人従業員の1人でもあった(同社の2020年版多様性レポートによると、従業員に占める黒人の比率は3.7%)。ところが今月2日夜にゲブル氏は、グーグル社内のメーリングリストに送ったメールを理由に「即日解雇」されたとツイートした。

その後のツイートでゲブル氏は、グーグルからはっきりと解雇を通告されたわけではないと説明した。グーグルは、ゲブル氏の電子メールの内容が「グーグル経営陣の期待に反する行為」を反映しているという理由で、即日辞任を受け入れると通告してきたという。

問題の電子メールの中でゲブル氏は、グーグルの社内で自分は「常に人間扱いされない」と感じていると述べ、同社の多様性の欠如に対して失望感を表明していた。

「説明責任がゼロなので、女性を39%雇用するインセンティブはない。少数派を擁護し始めると自分の立場が悪くなり、校正の過程で高評価を与えなければ他の上層部の機嫌を損ねる。文書や会話を増やしても何も達成できない」。同氏はそう記している。

ゲブル氏はさらに、社内外の研究者と共同で執筆した論文の社内審査をめぐってグーグル上層部と確執があったことも明らかにした。

ゲブル氏がCNN Businessに語ったところによると、問題の論文は、AIで注目されている大規模言語モデルの危険性を指摘する内容で、来年3月に開かれる「公正・説明責任・透明性に関する会議」に提出していた。しかし社内審査の過程でグーグルのAI上層部から繰り返し、同会議への論文提出を撤回するか、論文からゲブル氏の名を外すよう要求されていたという。

ゲブル氏は2日、CNN Businessの取材に対して、グーグルからはもはや社員ではないと告げられたと述べ、「こんなはずではなかった」と訴えた。

この問題についてグーグルの広報はノーコメントだった。

メールマガジン登録
見過ごしていた世界の動き一目でわかる

世界20億を超える人々にニュースを提供する米CNN。「CNN.co.jpメールマガジン」は、世界各地のCNN記者から届く記事を、日本語で毎日皆様にお届けします*。世界の最新情勢やトレンドを把握しておきたい人に有益なツールです。

*平日のみ、年末年始など一部期間除く。

「米国」のニュース

Video

Photo

注目ニュース

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]