Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Struttura del corso
Introduzione a Ollama
- Che cosa è Ollama e come funziona?
- Vantaggi dell'esecuzione locale dei modelli di intelligenza artificiale
- Panoramica degli LLM supportati (Llama, DeepSeek, Mistral, ecc.)
Installazione e configurazione Ollama
- Requisiti di sistema e considerazioni hardware
- Installazione Ollama su sistemi operativi diversi
- Configurazione delle dipendenze e impostazione dell'ambiente
Esecuzione di modelli di intelligenza artificiale in locale
- Scaricamento e caricamento di modelli AI in Ollama
- Interazione con i modelli tramite la riga di comando
- Ingegneria di base dei prompt per attività di intelligenza artificiale locale
Ottimizzazione delle prestazioni e dell'utilizzo delle risorse
- Gestione delle risorse hardware per un'esecuzione efficiente dell'IA
- Riduzione della latenza e miglioramento del tempo di risposta del modello
- Benchmarking delle prestazioni per diversi modelli
Use Cases per la distribuzione dell'intelligenza artificiale locale
- Chatbot e assistenti virtuali basati sull'intelligenza artificiale
- Attività di elaborazione e automazione dei dati
- Applicazioni AI incentrate sulla privacy
Riepilogo e passaggi successivi
Requisiti
- Comprensione di base dei concetti di intelligenza artificiale e apprendimento automatico
- Familiarità con le interfacce della riga di comando
Pubblico
- Sviluppatori che eseguono modelli di intelligenza artificiale senza dipendenze dal cloud
- Business professionisti interessati alla privacy dell’IA e alla distribuzione conveniente
- Gli appassionati di intelligenza artificiale esplorano l'implementazione di modelli locali
7 ore