オープンAI従業員ら、AIの「重大なリスク」警告 内部告発者の保護も要求
(CNN) ChatGPT(チャットGPT)を開発する米オープンAIの内部関係者は4日、人工知能(AI)開発企業に対し、AIの「重大なリスク」について透明性を高め、自社が構築している技術について懸念を表明する従業員を保護することを求める書簡を公開した。
オープンAIを含むAI企業の現従業員と元従業員らが署名した書簡には「AI企業には効果的な監督を回避する強い経済的インセンティブがある」と記されている。
書簡を作成した人物らはAI企業に対し、懸念を表明する人々を罰するのではなく歓迎する「批判を受け入れる文化」を育むことも求めた。
書簡には、企業はAIがもたらす「重大なリスク」を認識しているが、こうしたリスクと保護対策について一般市民を啓蒙(けいもう)するために今以上に努力すべきだと書かれている。重大なリスクとは、改ざんから、AIが人間の知性を超える「シンギュラリティー」まで人類絶滅につながる可能性を意味する。
書簡の作成者らはAI開発企業が技術に関する重要な情報を自発的に共有するとは考えていない。そのため、従業員が声を上げること、そして企業がその人に対して報復しないことが不可欠だという。
この書簡に対し、オープンAIの広報担当者は「この技術の重要性を考えると、厳密な議論が不可欠である」ことに同意すると述べた。
同社には匿名によるホットラインと、取締役会のメンバーと同社の安全性に関する責任者が率いる安全・セキュリティー委員会が設けられているという。
この書簡の発起人の1人で、2018年から21年まで同社で働いていた初期の機械学習エンジニアであるダニエル・ジーグラー氏はCNNに対し、同社の透明性への取り組みには懐疑的であり続けることが重要だと語った。
同氏は「特に極めて迅速に動かなければならないという強い商業的圧力があるため、安全性の評価と社会的損害の解明に彼らがどれほど真剣に取り組んでいるかを外部から判断するのは非常に困難だ」と述べ、従業員が懸念を抱いたときに発言できるように、適切な文化とプロセスを持つことが非常に重要だと話した。
同氏はこの書簡をきっかけにAI業界のより多くの専門家が懸念を公にしてくれることを期待している。