Mercor、LiteLLM侵害で情報流出か?AI採用企業へのサイバー攻撃の全貌

テクノロジー

■オープンソースの光と影:サプライチェーン攻撃がAI開発の最前線を揺るがす

いやはや、最近のテクノロジー界隈、特にAIの進化は目覚ましいものがありますが、それに伴って新しいリスクも浮上しているのを皆さんはご存知でしょうか。AI採用のスタートアップとして注目されているMercorが、あるセキュリティインシデントに見舞われたというニュースが飛び込んできました。これは単なる一企業のトラブルというだけでなく、私たちが日々当たり前のように利用している、あるいはこれから利用しようとしているテクノロジーの根幹に関わる、非常に示唆に富んだ出来事だと感じています。

事の発端は、オープンソースプロジェクト「LiteLLM」への悪意あるコードの混入です。LiteLLMは、Y Combinatorという、あの有名なアクセラレータープログラムが支援しているプロジェクトで、数百万回もダウンロードされているという、まさに「縁の下の力持ち」的な存在。多くのAI開発者や企業が、このLiteLLMを介して様々な大規模言語モデル(LLM)にアクセスしたり、それを活用したりしています。そう、まるで水道の蛇口のように、私たちのAIライフを支えているインフラの一つと言ってもいいでしょう。

ところが、この信頼できるインフラに「毒」が盛られてしまった、というのが今回の事件の核心です。具体的には、LiteLLMに悪意のあるコードが仕込まれ、それがサプライチェーン攻撃という形で、LiteLLMを利用していたMercorへと影響が及んだ、とされています。サプライチェーン攻撃とは、製品やサービスの開発・提供プロセスにおいて、一連の連鎖(サプライチェーン)のどこか一箇所に脆弱性があると、そこから狙って全体を崩壊させようとする手口のこと。例えるなら、ある工場で作られた部品に問題があったせいで、その部品を使った完成品全体が使えなくなってしまう、といったイメージです。今回は、オープンソースという、世界中の開発者が協力して作り上げる「開かれた」システムが、その「開かれ具合」ゆえに、攻撃者にとって格好の標的となってしまった側面があるのかもしれません。

さらに事態を複雑にしているのは、このインシデントが、恐喝ハッキンググループ「TeamPCP」に関連付けられているという点。そして、Mercor自身は、別の恐喝ハッキンググループ「Lapsus$」によって標的にされ、データにアクセスされたと主張していることです。Lapsus$は、かつてNVIDIAやMicrosoftのような巨大企業からデータを流出させたと主張した、あのグループです。Mercorは、彼らのリークサイトでデータ流出を主張されたことで、今回のインシデントとの関連が指摘されているのです。

Mercorがどのような企業か、ここで少し触れておきましょう。2023年に設立されたばかりの、比較的新しいスタートアップですが、そのビジョンは非常に野心的です。OpenAIやAnthropicといった、AI業界を牽引する企業と連携し、科学者、医師、弁護士といった、高度な専門知識を持つ人材をAIモデルのトレーニングに活用するという、まさに「専門家 x AI」という最先端の取り組みを行っています。彼らは、AIの能力を最大限に引き出すために、人間ならではの知見や経験をAIに「教え込む」という、非常に価値の高い作業に多額の投資を行っているようです。1日あたり200万ドル以上もの支払いをしているという話を聞くと、そのスケールの大きさと、AI開発における「人材」の重要性がどれほどか、想像に難くありません。2025年10月には100億ドルという評価額を記録したという情報もあり、まさに飛ぶ鳥を落とす勢いだったと言えるでしょう。

しかし、今回のセキュリティインシデントは、そんな輝かしい成長の裏側で、常に潜むリスクを浮き彫りにしました。Mercorの広報担当者は、インシデントの発生を認め、「迅速に対応」して封じ込めと修復を進めているとコメントしています。外部のフォレンジック専門家による調査も実施されており、顧客や契約者とも直接コミュニケーションを取っているとのこと。これは、事態の深刻さを認識し、真摯に対応しようとしている姿勢の表れでしょう。ただ、Lapsus$の主張との直接的な関連性や、顧客・契約者データのアクセス、流出、不正利用の有無については、現時点では詳細な回答を控えているとのこと。この「詳細な回答を控えている」という部分に、事態の複雑さと、まだ全容が明らかになっていないことが伺えます。

LiteLLMの侵害自体は、先週明らかになり、悪意のあるコードは数時間以内に特定・削除されたとのこと。しかし、その影響の広範さを考えると、この「数時間」という期間でも、多くの企業が潜在的なリスクに晒されていた可能性があります。オープンソースソフトウェアは、その透明性や、コミュニティによる迅速な改善が魅力ですが、今回のように悪意あるコードが混入した場合、その「広範さ」が逆に「広範な被害」につながってしまうという、両刃の剣のような側面があることを改めて認識させられます。LiteLLM側も、このインシデントを受けて、コンプライアンスプロセスを見直し、認証ベンダーをVantaに変更したとのこと。これは、今回の教訓を活かし、より強固なセキュリティ体制を構築しようとする動きと言えるでしょう。

現時点では、LiteLLM関連のインシデントによって影響を受けた企業数、そしてデータ漏洩の有無は、まだはっきりとは分かっていません。調査が継続されている状況です。Mercorのインシデントが、Lapsus$の主張するデータ流出と直接関係があるのか、それともTeamPCPによるLiteLLMの侵害を介して間接的に影響を受けたのか、その詳細な経路はまだ謎に包まれています。しかし、AI開発の最前線で、高度な専門知識と多額の投資が行われている環境が、このようにサイバー攻撃の脅威に晒されているという事実は、私たちに多くのことを考えさせます。

■AI開発の未来と、私たちが直面する課題

今回のMercorのインシデント、そしてLiteLLMへの攻撃は、AI開発、特にAIモデルのトレーニングという、AIの「頭脳」を形成するプロセスがいかにデリケートで、そして、いかにサイバーセキュリティの脅威に晒されているかを示しています。Mercorが活用している、科学者、医師、弁護士といった専門家たちの知見は、まさに人類が長年培ってきた「叡智」の結晶です。これらの叡智をAIに学習させることで、医療診断の精度向上、難病の治療法発見、複雑な法律問題の解決など、私たちの社会に計り知れない貢献をもたらす可能性を秘めています。

しかし、その学習プロセスに悪意あるコードが混入したり、データが不正にアクセスされたりすれば、どうなるでしょうか。AIは間違った知識を学習してしまうかもしれませんし、あるいは、機密性の高い情報が漏洩してしまうリスクもあります。例えば、医療AIに誤った診断基準を学習させてしまえば、多くの患者さんの健康が脅かされる可能性があります。弁護士AIが機密性の高い訴訟情報を漏洩させれば、社会的な混乱を招きかねません。

今回のケースで注目すべきは、「サプライチェーン攻撃」という手法です。これは、ソフトウェア開発の世界では以前から存在する脅威ですが、AI、特にオープンソースのAIコンポーネントが多用される現代においては、その影響範囲が格段に広がっていると言えます。LiteLLMのように、多くの開発者に利用されているライブラリやフレームワークに悪意あるコードが混入された場合、その影響は一企業にとどまらず、業界全体、ひいては社会全体に波及する可能性があります。まるで、川上にある水源が汚染されたら、その川の水を利用する全ての地域が影響を受けるようなものです。

AI開発においては、オープンソースソフトウェアの活用は避けて通れません。その自由度、開発スピード、そしてコミュニティによる活発な改善は、AI技術の民主化と発展を強力に後押ししてきました。しかし、今回のインシデントは、そのオープンソースの「信頼性」という点に、改めて光を当てる必要性を訴えかけているのです。信頼できるコミュニティによって開発されているからといって、鵜呑みにするのではなく、常にそのコードの出所や、どのようにビルドされているのか、といった点にも注意を払う必要が出てきているのかもしれません。

また、恐喝ハッキンググループ「Lapsus$」の関与は、AI開発企業が保有する「データ」の価値の高さを示唆しています。Mercorのような企業は、専門家の知見という、極めて貴重なデータをAIに学習させています。これは、単なる個人情報とは異なり、特定の分野における高度な「知性」の断片と言えるものです。このようなデータが攻撃者の手に渡れば、その悪用方法も多岐にわたるでしょう。例えば、競合他社への情報提供、あるいはAIモデル自体の脆弱性を突くための情報収集など、様々なシナリオが考えられます。

Mercorは、1日あたり200万ドル以上もの支払いをして、AIトレーニングのための専門家を確保しています。これは、AIの能力を最大限に引き出すためには、質の高い「データ」と、それを生成・検証する「人材」が不可欠であることを示しています。しかし、その貴重な「人材」と、彼らが提供する「データ」を守るためのセキュリティ対策が、今回のインシデントによって十分ではなかった、という見方もできます。

AI技術は、私たちの生活を豊かにし、社会課題を解決する可能性を秘めた、まさに「希望の光」です。しかし、その光を最大限に活かすためには、影の部分、つまりサイバーセキュリティのリスクに真摯に向き合い、対策を講じていく必要があります。今回のMercorのインシデントは、AI開発の現場が直面する、避けては通れない現実を突きつけていると言えるでしょう。

■私たちがAIの未来と共に歩むために

今回のMercorのインシデントは、AI技術の急速な発展の陰で、サイバーセキュリティという、一見地味ながらも極めて重要な課題が、いかに大きな影響力を持っているのかを私たちに教えてくれます。AIは、私たちの生活を便利にするだけでなく、医療、教育、科学研究といった、社会の根幹を支える分野に革命をもたらす可能性を秘めています。その可能性を最大限に引き出すためには、技術的な進歩だけでなく、それを支える強固なセキュリティ基盤が不可欠なのです。

AI開発におけるオープンソースソフトウェアの活用は、開発スピードを加速させ、イノベーションを促進する上で非常に有効な手段です。しかし、その利用にあたっては、コードの信頼性や、サプライチェーン全体のリスクを常に意識する必要があります。今回のLiteLLMの件のように、悪意あるコードの混入は、たとえ数時間であっても、潜在的な被害の連鎖を引き起こす可能性があります。今後、オープンソースプロジェクトのコミュニティだけでなく、それを利用する企業側も、より一層の注意と、リスク管理体制の構築が求められるでしょう。

Mercorが、専門家をAIトレーニングに活用し、多額の投資を行っていることは、AIの進化において「人間」の知見がどれほど重要であるかを示しています。AIは、データからパターンを学習することは得意ですが、人間の持つ創造性、倫理観、そして文脈を理解する能力といった、高度な認知能力は、まだAIが到達できていない領域です。これらの人間ならではの能力をAIに注入し、AIをより賢く、より信頼できるものにしていくための努力は、今後ますます重要になるでしょう。しかし、その過程で生成されるデータ、あるいはAIが学習するデータは、極めて価値が高く、同時に攻撃者にとって魅力的な標的となります。

AI開発企業は、単に高度なAIモデルを開発するだけでなく、その開発プロセス全体におけるセキュリティ対策を徹底する必要があります。これには、コードの脆弱性管理、アクセス制御の強化、そして、Lapsus$のような攻撃者によるデータ流出を防ぐための、多層的な防御策が求められます。また、万が一インシデントが発生した場合の、迅速かつ透明性のある対応も、顧客や社会からの信頼を維持するために不可欠です。Mercorが、外部専門家を招き、迅速な対応を表明していることは、そういった意味で評価されるべき点でしょう。

私たち一般ユーザーも、AI技術の恩恵を受ける一方で、そのリスクについても理解を深めることが大切です。AIが生成する情報が常に正しいとは限らない、ということを認識し、批判的な視点を持つこと。そして、AIサービスを提供する企業が、どのようにセキュリティ対策を行っているのか、といった点にも、関心を持つことが重要です。

AI技術は、私たちの未来を形作る上で、避けては通れない存在です。その可能性を最大限に引き出し、より良い社会を築くためには、技術開発だけでなく、それを支えるセキュリティ、倫理、そして社会的な合意形成といった、多角的なアプローチが不可欠です。今回のMercorのインシデントは、その道のりが決して平坦ではないことを示唆していますが、同時に、私たちがこの課題に真摯に向き合うことで、より安全で、より信頼できるAIの未来を築くことができると信じています。テクノロジーの進化は、常に私たちの好奇心と探求心を刺激し続けます。その進化の光と影を理解し、賢く付き合っていくこと。それが、このテクノロジーが溢れる時代を生きる私たちに求められていることなのだと思います。

タイトルとURLをコピーしました