「AIが感情を持った」、エンジニアの発言に波紋 グーグルは否定
(CNN Business) 米グーグルのエンジニアが、「LaMDA」と呼ばれる同社最先端のAI(人工知能)について、何百回もの会話を経て、同AIが意識をもつレベルに到達したことを確信したと、米紙ワシントン・ポストに語った。
グーグルは即座にこの見解を否定する声明を発表。AIの専門家や業界関係者からも、このエンジニアの主張に対する反論が相次いでいる。それでもグーグルのAIが意識をもち得るという考え方は、この技術に対する不安と期待の両方を浮き彫りにした。
LaMDAの名称は「Language Model for Dialog Applications(対話アプリケーションのための言語モデル)」の略。同AIは膨大な量の文章をインターネットから学習させ、書かれた言葉に対して反応できる。こうしたAIは基本的に、パターンを見つけ出して次に来る単語を予想することが可能で、質問に答えたり、人間が書いたように見える文章を書いたりする能力が向上している。グーグルは昨年5月のブログでLaMDAについて「際限なさそうに思えるテーマについて自由に会話ができる」と紹介していた。
ワシントン・ポストによると、グーグルのエンジニア、ブレイク・ルモワン氏は、LaMDAが感情をもつ証拠をグーグルと共有したと話しているという。これに対してグーグルは13日に発表した声明で、「我々のAI原則に関するブレイクの懸念を検証し、その証拠は彼の主張の裏付けにはならないと伝えた」と強調した。
ルモワン氏は6日、ネットへの寄稿で、「私が社内で指摘したAI倫理懸念に関する調査に関連して」グーグルから有給休暇を取らされたと打ち明け、近いうちに解雇されるかもしれないと述べていた。
グーグル広報は、ルモワン氏が休職していることを確認した。ワシントン・ポストによれば、同氏は守秘義務違反を理由に休職扱いとなっている。
大量のデータで学習させた強力なコンピューティングプログラムの台頭に伴い、そうした技術の開発や使用に関する倫理的懸念も浮上している。
ルモワン氏の見解に対し、週末にかけてSNSに投稿されたAI業界関係者の反応は全般的に、「グーグルのAIは意識を持つにはほど遠い」という結論で一致していた。
グーグルの声明では、LaMDAが11項目の「AI原則審査」を受けており、品質や安全性、事実に基づいて発言できる能力に関連した「厳格な調査とテスト」を行っていると強調。「幅広いAI業界の一部では、感情を持つAIや汎用AIの長期的な可能性を検討しているが、感情を持たない現在の会話モデルを擬人化することによってそうすることは筋が通らない」とした。
その上で、「何百人もの研究者やエンジニアがLaMDAと会話してきたが、ブレイクのように幅広い主張を展開し、LaMDAを擬人化した者はほかに誰もいない」としている。