Guida all'Intelligenza Artificiale Classificazione del Testo con PyTorch: Guida Completa e codice Addestrare un classificatore testuale in pytorch con 500 righe di python? 22 febbraio 2026 Leggi l'articolo
Universal Weight Subspace Hypothesis guida completa I large language model convergono tutti allo stesso modo? 16 gennaio 2026
TranslateGemma: Guida completa del nuovo modello open per la traduzione AI TranslateGemma è una suite di modelli aperti basati su Gemma 3, ottimizzati per la traduzione. 15 gennaio 2026
GDPO: NVIDIA risolve il "Reward Collapse" di GRPO nel Multi-Reward RL GDPO è una nuova tecnica di ottimizzazione per il Multi-reward RL che risolve il "reward collapse" di GRPO, fornendo segnali di addestramento più ricchi e precisi. 10 gennaio 2026
DeepSeek mHC: Spiegazione del paper e codice pytorch DeepSeek sfrutta la geometria per stabilizzare reti profonde, bilanciando le connessioni per massimizzare le performance senza degradare il segnale. 3 gennaio 2026
MambaSeg: segmentazione semantica RGB+Event con Vision Mamba e fusione spazio-temporale DDIM MambaSeg unisce due encoder Vision Mamba e un modulo DDIM spazio-temporale per segmentazione semantica RGB+event efficiente, SOTA su DDD17/DSEC benchmark. 2 gennaio 2026
RadAR: dall’autoregressione sequenziale a quella spaziale per generare immagini più velocemente (paper breakdown) RadAR riorganizza l'autoregressione in anelli concentrici, genera token in parallelo e corregge errori con nested attention, accelerando drasticamente l'inference. 1 gennaio 2026
LIVR: come i token latenti potenziano il ragionamento visivo negli LMM Migliora il ragionamento visivo dei Large Multimodal Models tramite token latenti e bottleneck visivi, eliminando la necessità di supervisione esplicita. 27 dicembre 2025
Nemotron 3 Nano: L'Ibrido Mamba-Transformer MoE per l'Agentic AI on-device Modello ibrido Mamba-Transformer MoE da 3.9B parametri che ridefinisce efficienza e reasoning per l'AI on-device. 26 dicembre 2025
Step-DeepResearch: Analisi tecnica del modello che sfida OpenAI con "soli" 32B parametri Modello da 32B parametri che eguaglia le prestazioni di ricerca di OpenAI e Gemini. 24 dicembre 2025
MAGIC: Ottimizzare il Model Merging tramite la Calibrazione della Magnitude MAGIC ottimizza il model merging calibrando la magnitude di pesi e feature, training-free 23 dicembre 2025
Addestrare un GPT da 20M su ImageNet-1K (classificazione come generazione) Addestrare un mini VLM decoder-only da 20M su ImageNet-1k: classificazione come generazione! 17 dicembre 2025
Classificazione del Testo con PyTorch: Guida Completa e codice Addestrare un classificatore testuale in pytorch con 500 righe di python? 22 febbraio 2026
Cos'è un modello encoder-decoder? Guida completa Il Transformer originale! Con codice pytorch funzionante. 3 gennaio 2026
Claude Sonnet 4.6: cos'è, come funziona e novità principali quasi Opus 4.5 ma più veloce (?) 18 febbraio 2026
Notizie AI Gennaio 2026: Novità dell'ultima settimana (19-25 Gennaio) Quanto puoi fidarti di un LLM che include pubblicità? 25 gennaio 2026
Pubblicità su ChatGPT e il nuovo tier Go da 8€ L'inizio di una nuova era pubblicitaria.. 16 gennaio 2026
Novità AI e Deep Learning: Resoconto Notizie 5-11 Gennaio 2026 Un bell'inizio 2026 con Qwen3-VL-Embedding e Liquid FM 2.5 ! 10 gennaio 2026
ElevenLabs Scribe v2: API per trascrizione Speech-to-Text Oltre 90 lingue supportate con accuratezza state-of-art 10 gennaio 2026
Qwen3-VL-Embedding e Reranker: il nuovo standard per il Multimodal Retrieval Quando Qwen rilascia, è sempre un'emozione! 8 gennaio 2026
Liquid AI lancia LFM 2.5: La nuova generazione di modelli on-device LLM e VLMs validi su smartphone non sono più una fantasia! 6 gennaio 2026
Baidu punta alla IPO di Kunlunxin: la Cina accelera sull'hardware AI domestico Un passaggio strategico cruciale per il gigante tecnologico cinese. 2 gennaio 2026