米グーグルの倫理規範、「兵器にAIを使用せず」の文言を削除
ニューヨーク(CNN) 米グーグルが人工知能(AI)の使用に関する倫理規範を改定し、「兵器や監視活動にAIを使用しない」としていた文言を削除した。
改定前の倫理規範には、兵器など人の殺傷を目的とした技術や、国際的な規範を超えた監視活動に使われる技術にはAIを使用しないと明記していた。
しかし改定後の倫理規範からは、そうした文言が消えていた。
米オープンAIが2022年に「チャットGPT」を公開して以来、AIをめぐる競争がとてつもないペースで激化する一方、透明性や倫理性に関する法規制は利用増大に追い付かなくなった。そうした中でグーグルは、自らに課した制約を緩めることにしたらしい。
グーグルは4日、公式ブログで「複雑化が進む地政学的情勢の中で、AIの主導権をめぐる世界的な競争が起きている。AI開発は自由、平等、人権の尊重といった価値観に導かれ、民主主義国家が主導すべきだと我々は信じる」と強調した。
その上で、「そうした価値観を共有する企業、政府、組織が協力して、人々を守り、世界の成長を促し、国家安全保障を支援するAIを作り出すべきだと確信する」とした。
グーグルが最初にAI原則を公表したのは、AIが広く普及する前の18年だった。今回の改定で、当時の価値観は根底から覆った。
18年にグーグルは、米国防総省のクラウドコンピューティング・プロジェクトに対する100億ドル規模の入札を取り下げた。「我々のAI原則に沿うかどうかを確信できない」という理由だった。同社従業員は4000人以上が「グーグルも業務委託業者も戦争技術を決して構築しないとポリシーに明記すること」を求める嘆願書に署名。十数人が抗議の辞職をしていた。