オープンソースLLMのコンピューターは悪用が容易、研究者が警鐘 30-Jan 09:40

大手人工知能(AI)プラットフォームのような安全対策が講じられていないオープンソースの大規模言語モデル(LLM)を動かすコンピューターは、ハッカーなどに簡単に悪用されかねず、深刻なセキュリティーリスクを生む恐れがあることが、29日公表の研究結果で明らかになった。

この研究は米セキュリティー大手のセンチネルワン(S.N)とセンシスが共同で行い、結果をロイターに独占的に提供した。

研究者によると、ハッカーはLLMを動かしているコンピューターを標的に、プラットフォームのセキュリティー対策を回避しながら、スパム(迷惑情報の大量送信)の実行、フィッシング詐欺用コンテンツの作成、偽情報のキャンペーンを展開することが可能だという。

設計図をネットで共有してアプリなどの開発を進める「オープンソース」のLLMには数千の派生モデルが存在するが、研究者によると、インターネットからアクセス可能なホスト上で稼働しているLLMの相当部分を米メタ(META.O)の「Llama(ラマ)」や、グーグル・ディープマインドの「Gemma(ジェマ)」などの派生版が占めている。

一部のオープンソースモデルには、犯罪などを目的とする指示にAIが従わないよう「ガードレール」と呼ばれる安全機能が組み込まれているが、この機能が意図的に取り外されている事例が数百件確認されたという。