Multiverse Computingは、LLMエコシステムを再配線するために1億8,900万ユーロになります

量子にインスパイアされたAIモデル圧縮会社マルチバースコンピューティングは、1億8,900万ユーロのシリーズBを調達しました。

モデルのパフォーマンスを維持しながら、LLMSのサイズを最大95%減らすことができる圧縮技術であるCompactifaiを開発しました。

LLMは通常、データセンターのコストを高める専門のクラウドベースのインフラストラクチャで実行されます。従来の圧縮技術(定量化と剪定)は、これらの課題に対処することを目的としていますが、その結果のモデルは元のLLMを大幅に低下させます。

Compactifaiの開発により、Multiverseは新しいアプローチを発見しました。 Compactifaiモデルは、元の精度を維持する主要なオープンソースLLMの高度に圧縮されたバージョンであり、4倍速い速さで、推論コストが50〜80%削減されます。

これらの圧縮、手頃な価格の、エネルギー効率の高いモデルは、クラウド、プライベートデータセンター、または超圧縮されたLLMの場合、PC、電話、車、ドローン、さらにはラズベリーPIなどのデバイスで直接実行できます。

「一般的な知恵は、LLMSの縮小にはコストがかかるということです。多元宇宙はそれを変えています」と、Multiverse Computingの創設者兼CEOであるEnrique Lizaso Olmos氏は述べています。

「モデル圧縮のブレークスルーとして始まったものは、迅速に変革的であることが判明しました。AIの展開における新しい効率のロックを解除し、AIモデルを実行するためのハードウェア要件を根本的に削減する能力のために迅速な採用を獲得しました。」

専門家と戦略的なグローバル投資家のユニークなシンジケートと、リード投資家としてのブルハウンドの資本のシンジケートにより、最小限のインフラストラクチャで優れたパフォーマンスを提供する圧縮AIモデルのレーザー中心の配信をさらに進めることができます。」

Compactifaiは、テンソルネットワークを使用して作成されました。これは、ニューラルネットワークを簡素化するための量子に触発されたアプローチです。

Tensor Networksは、Multiverseの共同設立者兼最高科学責任者であるRománOrúsによって開拓された専門分野です。

「歴史上初めて、ニューラルネットワークの内側の仕組みをプロファイルして、何十億もの偽の相関を排除して、あらゆる種類のAIモデルを真に最適化することができます」とOrous氏は述べています。

Top Llama、Deepseek、Mistralモデルの圧縮バージョン 現在利用可能で、追加のモデルが近日公開されています。

Bullhound Capitalは、HP Tech Ventures、Set、Forgepoint Capital International、CDP Venture Capital、Santander Climate VC、Toshiba、およびCapital Riesgo De Euskadi -Grupo Spriの支援を受けて、資金を主導しました。

Bullhound Capitalの共同設立者兼マネージングパートナーであるPer Romanによると、Multiverse’s Compactifaiは、AIのより大きな効率性の世界的なニーズに対処するAI処理に重大な変更を導入し、その創意工夫はヨーロッパの主権を促進しています。

「ロマン・オルスは、彼と彼のエンジニアチームがこの非常に複雑で計算された集中的な分野で真に世界クラスのソリューションを開発していると私たちに確信させました。」

Enrique Lizasoは、AI優位のグローバルレースでビジネスを迅速に拡大するのに最適なCEOです。また、HPやForgepointなどの多くの有名な投資家がラウンドに参加することを決めたことを嬉しく思います。私たちは彼らの参加を歓迎します。」

Towan Tran、Technology and Innovationの社長、HP Inc.はコメントしました。

「HPでは、ビジネスの成長を促進し、専門家の履行を強化するソリューションを提供することにより、仕事の未来をリードすることに専念しています。」

この投資は、LLMSの広範な採用を加速して、現在展開を禁止している大規模なコストに対処します。