Struttura del corso

Introduzione alla fusione di dati multi-sensore

  • Importanza della fusione di dati nella navigazione autonoma
  • Sfide dell'integrazione multi-sensore
  • Applicazioni della fusione di dati nella percezione in tempo reale

Tecnologie dei sensori e caratteristiche dei dati

  • LiDAR: generazione ed elaborazione di nuvole di punti
  • Telecamera: acquisizione di dati visivi ed elaborazione delle immagini
  • RADAR: rilevamento di oggetti e stima della velocità
  • Unità di Misura Inerziale (IMU): tracciamento del movimento

Fondamenti della fusione di dati

  • MathematicaBasi teoriche: filtri di Kalman, inferenza bayesiana
  • Tecniche di associazione e allineamento dei dati
  • Gestione del rumore e dell'incertezza dei sensori

Algoritmi di fusione per la navigazione autonoma

  • Filtro di Kalman e Filtro di Kalman Esteso (EKF)
  • Filtro particellare per sistemi non lineari
  • Filtro di Unscented Kalman (UKF) per dinamiche complesse
  • Associazione dei dati utilizzando Nearest Neighbor e Joint Probabilistic Data Association (JPDA)

Implementazione pratica Sensor Fusion

  • Integrazione dei dati LiDAR e telecamera per il rilevamento di oggetti
  • Fusione dei dati RADAR e telecamera per la stima della velocità
  • Combinazione dei dati GPS e IMU per una localizzazione accurata

Elaborazione e sincronizzazione dei dati in tempo reale

  • Metodi di marcatura temporale e sincronizzazione dei dati
  • Gestione della latenza e ottimizzazione delle prestazioni in tempo reale
  • Gestione dei dati provenienti da sensori asincroni

Tecniche avanzate e sfide

  • Approcci di deep learning per la fusione di dati
  • Integrazione di dati multimodali ed estrazione di caratteristiche
  • Gestione dei guasti dei sensori e dei dati degradati

Valutazione e ottimizzazione delle prestazioni

  • Metriche quantitative per la valutazione dell'accuratezza della fusione
  • Analisi delle prestazioni in diverse condizioni ambientali
  • Miglioramento della robustezza e della tolleranza agli errori del sistema

Casi di studio e applicazioni reali

  • Tecniche di fusione nei prototipi di veicoli autonomi
  • Distribuzione di successo di algoritmi di fusione di sensori
  • Workshop: implementazione di una pipeline di fusione multi-sensore

Riepilogo e prossimi passi

Requisiti

  • Esperienza con la programmazione Python
  • Conoscenza delle tecnologie di base dei sensori (ad es. LiDAR, telecamere, RADAR)
  • Familiarità con ROS ed elaborazione dati

Pubblico di riferimento

  • Specialisti di sensor fusion che lavorano su sistemi di navigazione autonoma
  • Ingegneri AI focalizzati sull'integrazione multi-sensore e l'elaborazione dei dati
  • Ricercatori nel campo della percezione dei veicoli autonomi
 21 ore

Numero di Partecipanti


Prezzo per Partecipante

Corsi in Arrivo

Categorie relative