Struttura del corso

Introduzione a QLoRA e Quantizzazione

  • Panoramica sulla quantizzazione e il suo ruolo nell'ottimizzazione del modello
  • Introduzione al framework QLoRA e i suoi vantaggi
  • Differenze chiave tra QLoRA e metodi di tuning tradizionali

Fondamenti di Large Language Models (LLMs)

  • Introduzione ai LLM (Large Language Models) e la loro architettura
  • Sfide del tuning a grande scala dei modelli grandi
  • Come la quantizzazione supera le limitazioni computazionali nel tuning di LLM

Messa in Pratica QLoRA per Fine-Tuning LLMs

  • Configurazione del framework e ambiente QLoRA
  • Preparazione dei dataset per il tuning con QLoRA
  • Guida passo-passo per implementare QLoRA sui LLM utilizzando Python e PyTorch/TensorFlow

Ottimizzazione delle Prestazioni di Fine-Tuning con QLoRA

  • Come bilanciare l'accuratezza del modello e le prestazioni con la quantizzazione
  • Tecniche per ridurre i costi computazionali e l'utilizzo della memoria durante il tuning
  • Strategie per il tuning con requisiti hardware minimi

Valutazione dei Modelli Fine-Tuned

  • Come valutare l'efficacia dei modelli fine-tuned
  • Metriche di valutazione comuni per i modelli linguistici
  • Ottimizzazione delle prestazioni del modello post-tuning e risoluzione dei problemi

Distribuzione e Scalabilità dei Modelli Fine-Tuned

  • Best practice per la distribuzione di LLM quantizzati in ambienti di produzione
  • Scalabilità della distribuzione per gestire le richieste in tempo reale
  • Strumenti e framework per la distribuzione e il monitoraggio del modello

Casi Realistici Use Case e Studi di Caso

  • Studio di caso: Fine-tuning dei LLM per supporto al cliente e compiti NLP
  • Esempi di fine-tuning dei LLM in vari settori come sanità, finanza ed e-commerce
  • Insegnamenti tratti dalle distribuzioni reali di modelli basati su QLoRA

Riepilogo e Prossimi Passaggi

Requisiti

  • Una comprensione dei fondamenti dell'apprendimento automatico e delle reti neurali
  • Esperienza nella regolazione dei modelli e nell'apprendimento transfer
  • Familiarità con i grandi modelli linguistici (LLMs) e i framework di deep learning (ad esempio, PyTorch, TensorFlow)

Pubblico

  • Ingegneri dell'apprendimento automatico
  • Sviluppatori AI
  • Scienziati dei dati
 14 ore

Numero di Partecipanti


Prezzo per Partecipante

Corsi in Arrivo

Categorie relative