Struttura del corso

Introduzione a Ollama per l'implementazione LLM

  • Panoramica delle capacità di Ollama
  • Vantaggi dell'implementazione del modello di intelligenza artificiale locale
  • Confronto con soluzioni di hosting AI basate su cloud

Impostazione dell'ambiente di distribuzione

  • Installazione Ollama e dipendenze richieste
  • Configurazione hardware e accelerazione GPU
  • Dockerizing Ollama per distribuzioni scalabili

Distribuzione di LLM con Ollama

  • Caricamento e gestione dei modelli AI
  • Dispiegamento di Llama 3, DeepSeek, Mistral e altri modelli
  • Creazione di API ed endpoint per l'accesso al modello AI

Ottimizzazione delle prestazioni LLM

  • Modelli di messa a punto per l'efficienza
  • Riduzione della latenza e miglioramento dei tempi di risposta
  • Gestione della memoria e dell'allocazione delle risorse

Integrazione di Ollama nei flussi di lavoro AI

  • Connessione Ollama ad applicazioni e servizi
  • Automazione dei processi basati sull'intelligenza artificiale
  • Utilizzo di Ollama in ambienti di edge computing

Monitoraggio e manutenzione

  • Monitoraggio delle prestazioni e problemi di debug
  • Aggiornamento e gestione dei modelli di intelligenza artificiale
  • Garantire la sicurezza e la conformità nelle distribuzioni di intelligenza artificiale

Scalabilità delle distribuzioni dei modelli di intelligenza artificiale

  • Le migliori pratiche per gestire carichi di lavoro elevati
  • Scalabilità Ollama per casi d'uso aziendali
  • Futuri progressi nell'implementazione del modello di intelligenza artificiale locale

Riepilogo e passaggi successivi

Requisiti

  • Esperienza di base con modelli di apprendimento automatico e intelligenza artificiale
  • Familiarità con le interfacce della riga di comando e gli script
  • Comprensione degli ambienti di distribuzione (locale, edge, cloud)

Pubblico

  • Ingegneri di intelligenza artificiale che ottimizzano le distribuzioni di intelligenza artificiale locali e basate sul cloud
  • Professionisti dell'apprendimento automatico che implementano e perfezionano gli LLM
  • DevOps specialisti nella gestione dell'integrazione dei modelli di intelligenza artificiale
 14 ore

Numero di Partecipanti


Prezzo per Partecipante

Corsi in Arrivo

Categorie relative