Notizie AI Novità AI e Deep Learning: Resoconto Notizie 5-11 Gennaio 2026 Un bell'inizio 2026 con Qwen3-VL-Embedding e Liquid FM 2.5 ! 10 gennaio 2026 Leggi l'articolo
GDPO: NVIDIA risolve il "Reward Collapse" di GRPO nel Multi-Reward RL GDPO è una nuova tecnica di ottimizzazione per il Multi-reward RL che risolve il "reward collapse" di GRPO, fornendo segnali di addestramento più ricchi e precisi. 10 gennaio 2026
DeepSeek mHC: Spiegazione del paper e codice pytorch DeepSeek sfrutta la geometria per stabilizzare reti profonde, bilanciando le connessioni per massimizzare le performance senza degradare il segnale. 3 gennaio 2026
MambaSeg: segmentazione semantica RGB+Event con Vision Mamba e fusione spazio-temporale DDIM MambaSeg unisce due encoder Vision Mamba e un modulo DDIM spazio-temporale per segmentazione semantica RGB+event efficiente, SOTA su DDD17/DSEC benchmark. 2 gennaio 2026
RadAR: dall’autoregressione sequenziale a quella spaziale per generare immagini più velocemente (paper breakdown) RadAR riorganizza l'autoregressione in anelli concentrici, genera token in parallelo e corregge errori con nested attention, accelerando drasticamente l'inference. 1 gennaio 2026
LIVR: come i token latenti potenziano il ragionamento visivo negli LMM Migliora il ragionamento visivo dei Large Multimodal Models tramite token latenti e bottleneck visivi, eliminando la necessità di supervisione esplicita. 27 dicembre 2025
Nemotron 3 Nano: L'Ibrido Mamba-Transformer MoE per l'Agentic AI on-device Modello ibrido Mamba-Transformer MoE da 3.9B parametri che ridefinisce efficienza e reasoning per l'AI on-device. 26 dicembre 2025
Step-DeepResearch: Analisi tecnica del modello che sfida OpenAI con "soli" 32B parametri Modello da 32B parametri che eguaglia le prestazioni di ricerca di OpenAI e Gemini. 24 dicembre 2025
MAGIC: Ottimizzare il Model Merging tramite la Calibrazione della Magnitude MAGIC ottimizza il model merging calibrando la magnitude di pesi e feature, training-free 23 dicembre 2025
4D-RGPT: Migliorare la comprensione 4D nei Multimodal LLM 4D-RGPT integra la comprensione 4D a livello di regione nei Multimodal LLM tramite Perceptual Distillation, definendo nuovi standard su R4D-Bench. 22 dicembre 2025
Addestrare un GPT da 20M su ImageNet-1K (classificazione come generazione) Addestrare un mini VLM decoder-only da 20M su ImageNet-1k: classificazione come generazione! 17 dicembre 2025
Modelli Encoder-Decoder: Guida Completa all'Architettura Seq2Seq Encoder-Decoder: dal funzionamento Sequence-to-Sequence alla formulazione matematica, implementazione PyTorch. 3 gennaio 2026
Novità AI e Deep Learning: Resoconto Notizie 5-11 Gennaio 2026 Un bell'inizio 2026 con Qwen3-VL-Embedding e Liquid FM 2.5 ! 10 gennaio 2026
ElevenLabs Scribe v2: API per trascrizione Speech-to-Text Oltre 90 lingue supportate con accuratezza state-of-art 10 gennaio 2026
Qwen3-VL-Embedding e Reranker: il nuovo standard per il Multimodal Retrieval Quando Qwen rilascia, è sempre un'emozione! 8 gennaio 2026
Liquid AI lancia LFM 2.5: La nuova generazione di modelli on-device LLM e VLMs validi su smartphone non sono più una fantasia! 6 gennaio 2026
Baidu punta alla IPO di Kunlunxin: la Cina accelera sull'hardware AI domestico Un passaggio strategico cruciale per il gigante tecnologico cinese. 2 gennaio 2026
Meta acquisisce Manus: Il futuro degli Agenti AI Autonomi Da oggi anche Meta ha un vero prodotto AI. Per loro è stato più semplice comprarlo che costruirlo. 30 dicembre 2025
OpenAI cerca un Head of Preparedness: 555k$ per gestire i rischi dei modelli di frontiera Per caso I chatbot avanzati creano più problemi di quanti ne risolvano? 28 dicembre 2025
Meta AI su WhatsApp: lo stop dell'Antitrust per abuso di posizione dominante L’Antitrust blocca Meta AI su WhatsApp per abuso di posizione dominante e l'esclusione di Chatbot AI concorrenti. 24 dicembre 2025