Questo workshop insegnerà come personalizzare un LLM open-source con i propri dati, utilizzando risorse computazionali limitate. In concreto, guideremo i partecipanti nel fine-tuning di un modello Llama 3.1 su un piccolo dataset di esempio, il tutto con risorse free sfruttando Google Colab.
Questo workshop insegnerà come personalizzare un LLM open-source con i propri dati, utilizzando risorse computazionali limitate. In concreto, guideremo i partecipanti nel fine-tuning di un modello Llama 3.1 su un piccolo dataset di esempio, il tutto con risorse free sfruttando Google Colab. Verranno illustrate tecniche di Parameter-Efficient Tuning (come LoRA) per aggiornare modelli grandi senza doverli addestrare completamente da zero e tecniche di quantizzazione per sfruttare al meglio hardware limitati. I partecipanti configureranno l’ambiente (usando librerie Python come Hugging Face Transformers, PEFT, ecc.), prepareranno i dati di training, lanceranno il fine-tuning e infine testeranno il modello custom ottenuto con prompt di prova. Si discuterà anche di come valutare le performance e evitare overfitting.
Vincenzo è un ricercatore informatico che lavora attivamente nel campo dell’Intelligenza Artificiale, coordinando progetti di ricerca e sviluppo che spaziano in diversi ambiti, come la mobilità intelligente, sistemi di telemedicina, la manutenzione predittiva, il controllo della produzione industriale e la formazione.