Struttura del corso

Introduzione a Ollama

  • Che cosa è Ollama e come funziona?
  • Vantaggi dell'esecuzione locale dei modelli di intelligenza artificiale
  • Panoramica degli LLM supportati (Llama, DeepSeek, Mistral, ecc.)

Installazione e configurazione Ollama

  • Requisiti di sistema e considerazioni hardware
  • Installazione Ollama su sistemi operativi diversi
  • Configurazione delle dipendenze e impostazione dell'ambiente

Esecuzione di modelli di intelligenza artificiale in locale

  • Scaricamento e caricamento di modelli AI in Ollama
  • Interazione con i modelli tramite la riga di comando
  • Ingegneria di base dei prompt per attività di intelligenza artificiale locale

Ottimizzazione delle prestazioni e dell'utilizzo delle risorse

  • Gestione delle risorse hardware per un'esecuzione efficiente dell'IA
  • Riduzione della latenza e miglioramento del tempo di risposta del modello
  • Benchmarking delle prestazioni per diversi modelli

Use Cases per la distribuzione dell'intelligenza artificiale locale

  • Chatbot e assistenti virtuali basati sull'intelligenza artificiale
  • Attività di elaborazione e automazione dei dati
  • Applicazioni AI incentrate sulla privacy

Riepilogo e passaggi successivi

Requisiti

  • Comprensione di base dei concetti di intelligenza artificiale e apprendimento automatico
  • Familiarità con le interfacce della riga di comando

Pubblico

  • Sviluppatori che eseguono modelli di intelligenza artificiale senza dipendenze dal cloud
  • Business professionisti interessati alla privacy dell’IA e alla distribuzione conveniente
  • Gli appassionati di intelligenza artificiale esplorano l'implementazione di modelli locali
 7 ore

Numero di Partecipanti


Prezzo per Partecipante

Corsi in Arrivo

Categorie relative