オープンAI従業員ら、AIの「重大なリスク」警告 内部告発者の保護も要求

  • このエントリーをはてなブックマークに追加
米オープンAIの従業員らが人工知能(AI)開発企業に対し企業の透明性を高める必要性を訴えている/Didem Mente/Anadolu/Getty Image

米オープンAIの従業員らが人工知能(AI)開発企業に対し企業の透明性を高める必要性を訴えている/Didem Mente/Anadolu/Getty Image

(CNN) ChatGPT(チャットGPT)を開発する米オープンAIの内部関係者は4日、人工知能(AI)開発企業に対し、AIの「重大なリスク」について透明性を高め、自社が構築している技術について懸念を表明する従業員を保護することを求める書簡を公開した。

オープンAIを含むAI企業の現従業員と元従業員らが署名した書簡には「AI企業には効果的な監督を回避する強い経済的インセンティブがある」と記されている。

書簡を作成した人物らはAI企業に対し、懸念を表明する人々を罰するのではなく歓迎する「批判を受け入れる文化」を育むことも求めた。

書簡には、企業はAIがもたらす「重大なリスク」を認識しているが、こうしたリスクと保護対策について一般市民を啓蒙(けいもう)するために今以上に努力すべきだと書かれている。重大なリスクとは、改ざんから、AIが人間の知性を超える「シンギュラリティー」まで人類絶滅につながる可能性を意味する。

書簡の作成者らはAI開発企業が技術に関する重要な情報を自発的に共有するとは考えていない。そのため、従業員が声を上げること、そして企業がその人に対して報復しないことが不可欠だという。

この書簡に対し、オープンAIの広報担当者は「この技術の重要性を考えると、厳密な議論が不可欠である」ことに同意すると述べた。

同社には匿名によるホットラインと、取締役会のメンバーと同社の安全性に関する責任者が率いる安全・セキュリティー委員会が設けられているという。

この書簡の発起人の1人で、2018年から21年まで同社で働いていた初期の機械学習エンジニアであるダニエル・ジーグラー氏はCNNに対し、同社の透明性への取り組みには懐疑的であり続けることが重要だと語った。

同氏は「特に極めて迅速に動かなければならないという強い商業的圧力があるため、安全性の評価と社会的損害の解明に彼らがどれほど真剣に取り組んでいるかを外部から判断するのは非常に困難だ」と述べ、従業員が懸念を抱いたときに発言できるように、適切な文化とプロセスを持つことが非常に重要だと話した。

同氏はこの書簡をきっかけにAI業界のより多くの専門家が懸念を公にしてくれることを期待している。

メールマガジン登録
見過ごしていた世界の動き一目でわかる

世界20億を超える人々にニュースを提供する米CNN。「CNN.co.jpメールマガジン」は、世界各地のCNN記者から届く記事を、日本語で毎日皆様にお届けします*。世界の最新情勢やトレンドを把握しておきたい人に有益なツールです。

*平日のみ、年末年始など一部期間除く。

「米国」のニュース

Video

Photo

注目ニュース

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]