主要AI企業の安全管理体制、国際基準はるかに下回る=専門家調査 04-Dec 07:56

アンソロピックやオープンAI、xAI、メタといった主要人工知能(AI)企業の安全管理体制は、現在形成されつつある国際基準をはるかに下回っている――。非営利団体「生命の未来研究所」は3日、AIの安全性指数最新版を公表し、こうした見解を示した。

同指数は外部専門家の委員会が実施した安全性評価調査に基づくもので、各企業とも人類の英知を超えるASI(人工超知能)開発競争に忙しいが、そうした先進的なシステムを制御するための確固とした戦略を持ち合わせていないという。

マサチューセッツ工科大学(MIT)教授で研究所代表を務めるマックス・テグマーク氏は「AIによるハッキングや、AIが人々を精神錯乱や自傷行為に追い込むことを巡る最近の騒動にもかかわらず、米国のAI企業に対する規制は飲食店より緩く、業界は拘束力のある安全基準への反対活動を続けている」と批判した。

今年10月に研究者グループは、人々が要求し、科学的に安全な推進が可能となるまで、ASIの開発を禁止するよう提言している。

グーグル・ディープマインドの広報担当者は、AIモデルの高度化が進むのに伴って「能力に沿って安全性とガバナンスの革新を継続する」とコメント。xAIは「既存メディアはうそをつく」と自動生成されたような回答をした。

オープンAIの広報担当者は「われわれは安全性の枠組み、評価、研究を共有し、業界標準の向上に貢献している。また将来の能力(増大)に備えるための保護措置を継続的に強化している」と説明した。

またオープンAIは、最先端の安全性研究に多額の投資をしているという。

アンソロピック、メタ、Z.ai、ディープシーク、アリババ・クラウドは今回の調査に関するコメント要請に回答していない。