
Model lingvistic extins (LLM)
Un startup spaniol, Multiverse Computing, a obținut o importantă finanțare de 189 de milioane de euro (aproximativ 215 milioane de dolari) pentru o tehnologie de compresie inspirată din calculul cuantic. Aceasta permite reducerea considerabilă a dimensiunii modelelor mari de limbaj (LLM) cu până la 95%, fără a afecta performanțele.
LLM, în contextul inteligenței artificiale, reprezintă un model lingvistic extins. Exemple cunoscute includ GPT-4, Gemini, Claude, DeepSeek, LLaMA și Mistral.
Un LLM este un model de inteligență artificială antrenat pe cantități enorme de texte pentru a înțelege, genera și analiza limbajul uman, într-un mod logic și relevant.
Multiverse Computing oferă versiuni comprimate ale unor modele open-source cunoscute de LLM, concentrându-se pe modele mai mici, cum ar fi Llama 4 Scout, Llama 3.3 70B, Llama 3.1 8B și Mistral Small 3.1.
Tehnologia CompactifAI permite o procesare mult mai rapidă (de 4 până la 12 ori) și o reducere a costurilor de rulare a modelelor AI cu 50-80%, făcând accesibile modelele avansate pe dispozitive mai simple.
Compania susține că anumite modele pot rula eficient chiar și pe computere personale, telefoane inteligente, vehicule, drone și mini-computere Raspberry PI.
Proiectanții spanioli se pregătesc să lanseze o versiune comprimată a DeepSeek R1 și menționează că lucrează la mai multe modele open-source și orientate spre raționament. Modelele comerciale ale OpenAI și altor furnizori nu sunt compatibile.
Runda de finanțare Serie B a fost condusă de Bullhound Capital, cunoscută pentru investițiile în companii tehnologice de succes.
Investitorii din această rundă includ și HP Tech Ventures, SETT, Forgepoint Capital International, Santander Climate VC și Toshiba.
Multiverse Computing deține un număr important de brevete și are peste 100 de clienți globali, printre care se numără companiile Iberdrola, Bosch și Banca Centrală a Canadei. Această finanțare reprezintă un total aproximativ de 250 de milioane de dolari pentru companie.














