
Black-Box On-Policy Distillation of Large Language Models
Il Segreto della “Scatola Nera”: Di Cosa Parla il Paper Questo paper introduce Generative Adversarial Distillation (GAD), un metodo innovativo per distillare Large Language Models quando abbiamo accesso solo agli output testuali del modello teacher, senza poter guardare dentro i suoi parametri o logit interni. È un problema cruciale nel mondo reale: molti modelli potenti […]