Liquid AI lancia LFM 2.5: La nuova generazione di modelli on-device
LLM e VLMs validi su smartphone non sono più una fantasia!

Liquid AI ha annunciato il rilascio di LFM 2.5 (Liquid Foundation Models 2.5), una nuova famiglia di modelli progettati specificamente per l'edge AI. Questa serie punta a ridefinire cosa è possibile fare con modelli di dimensioni ridotte (intorno a 1 miliardo di parametri), sfidando apertamente giganti come Llama e Qwen.
LFM 2.5 non è solo un aggiornamento incrementale, ma un salto significativo nell'efficienza e nelle capacità di reasoning su dispositivi locali come laptop e smartphone.
Un addestramento massivo per modelli compatti
Il cuore dell'annuncio risiede nella scala del pre-training. Nonostante le dimensioni ridotte del modello (1.2B parametri per la versione testuale), Liquid AI ha esteso il dataset di pre-training da 10T a ben 28T tokens.
Inoltre, hanno implementato una pipeline di post-training basata su Reinforcement Learning (RL) su larga scala. Questo approccio ha permesso di spingere le capacità di instruction following e general knowledge ben oltre i limiti tipici della classe 1B.
La famiglia LFM 2.5
La release è composta da diverse varianti, tutte open-weight (attenzione alla licenza LFM 1.0, più info sotto) e disponibili su Hugging Face:
- LFM2.5-1.2B-Instruct: Il modello di punta per uso generale. Nei benchmark supera nettamente Llama 3.2 1B Instruct e Qwen3-1.7B. Ad esempio, su GPQA (un benchmark molto difficile per il reasoning) ottiene un punteggio di 38.89 contro i 16.57 di Llama 3.2 1B.
- LFM2.5-VL-1.6B (Vision-Language): Un modello multimodale aggiornato che migliora la comprensione multi-immagine e le performance multilingua (inclusi francese, tedesco, cinese e giapponese).
- LFM2.5-Audio-1.5B: Un modello audio nativo capace di gestire input e output vocali senza passare per step separati di trascrizione (ASR) e sintesi (TTS). Utilizza un nuovo detokenizer personalizzato che è 8 volte più veloce del precedente, riducendo drasticamente la latenza.
- LFM2.5-1.2B-JP: Una variante ottimizzata specificamente per la lingua giapponese, che stabilisce un nuovo stato dell'arte per la sua categoria.
Le lingue ufficialmente supportate da LFM 2.5 sono 8: Inglese, Arabo, Cinese, Francese, Tedesco, Giapponese, Coreano, Spagnolo. Nella realtà, il modello si comporta bene anche in Italiano!
Efficienza e Deployment
Il vero punto di forza di LFM 2.5 è l'efficienza operativa. Liquid AI ha stretto partnership con AMD e Nexa AI per ottimizzare l'inferenza sulle NPU (Neural Processing Units).
I modelli vantano un memory profile estremamente basso (meno di 1GB di RAM per il modello 1.2B quantizzato) e velocità di inferenza elevate anche su CPU standard. Ad esempio, su un processore AMD Ryzen AI 9, il modello Instruct raggiunge una velocità di decode di 116 tokens/s.
Per facilitare l'adozione, LFM 2.5 arriva con supporto day-zero per i framework più popolari:
- llama.cpp (per inferenza CPU efficiente)
- MLX (per Apple Silicon)
- vLLM (per serving ad alto throughput su GPU)
- ONNX (per compatibilità cross-platform)
LiquidAI/LFM2.5-VL-1.6B transformers.js + onnx
Su huggingface potete trovare lo Space ufficiale con codice HTML+JS annesso!
LiquidAI consiglia di usare la combo fp16 per il vision encoder e Q4 per il decoder, per un totale di ~2.3GB.
Punti di forza dell'AI on device
Questa release dimostra che la battaglia per l'AI non si gioca solo sui modelli enormi da centinaia di miliardi di parametri. L'abilità di avere un'intelligenza "always-on", privata e veloce direttamente sul dispositivo è fondamentale per la prossima ondata di applicazioni AI consumer e industriali. Con LFM 2.5, Liquid AI sta democratizzando l'accesso a performance di livello superiore su hardware consumer.
LFM Open License v1.0
E' una licenza che bilancia l'open source con tutele commerciali specifiche. In sostanza, concede permessi ampi per l'uso, la riproduzione, la modifica e la distribuzione dei modelli, sia in formato Source che Object.
Tuttavia, introduce una clausola critica per l'utilizzo commerciale: l'uso è libero e gratuito (royalty-free) solo se l'entità che ne usufruisce (o il gruppo a cui appartiene) ha un fatturato annuo inferiore alla soglia ("Threshold") di 10 milioni di dollari.
Al di sopra di questa cifra, l'uso commerciale non è coperto dalla licenza standard e richiede accordi separati.
Restano escluse da questo limite le organizzazioni non-profit qualificate, che possono utilizzare i modelli liberamente per scopi di ricerca o non commerciali. Come di consueto, la redistribuzione richiede il mantenimento delle note di copyright e l'inclusione della licenza stessa.