Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Struttura del corso
Introduzione alla fusione di dati multi-sensore
- Importanza della fusione di dati nella navigazione autonoma
- Sfide dell'integrazione multi-sensore
- Applicazioni della fusione di dati nella percezione in tempo reale
Tecnologie dei sensori e caratteristiche dei dati
- LiDAR: generazione ed elaborazione di nuvole di punti
- Telecamera: acquisizione di dati visivi ed elaborazione delle immagini
- RADAR: rilevamento di oggetti e stima della velocità
- Unità di Misura Inerziale (IMU): tracciamento del movimento
Fondamenti della fusione di dati
- MathematicaBasi teoriche: filtri di Kalman, inferenza bayesiana
- Tecniche di associazione e allineamento dei dati
- Gestione del rumore e dell'incertezza dei sensori
Algoritmi di fusione per la navigazione autonoma
- Filtro di Kalman e Filtro di Kalman Esteso (EKF)
- Filtro particellare per sistemi non lineari
- Filtro di Unscented Kalman (UKF) per dinamiche complesse
- Associazione dei dati utilizzando Nearest Neighbor e Joint Probabilistic Data Association (JPDA)
Implementazione pratica Sensor Fusion
- Integrazione dei dati LiDAR e telecamera per il rilevamento di oggetti
- Fusione dei dati RADAR e telecamera per la stima della velocità
- Combinazione dei dati GPS e IMU per una localizzazione accurata
Elaborazione e sincronizzazione dei dati in tempo reale
- Metodi di marcatura temporale e sincronizzazione dei dati
- Gestione della latenza e ottimizzazione delle prestazioni in tempo reale
- Gestione dei dati provenienti da sensori asincroni
Tecniche avanzate e sfide
- Approcci di deep learning per la fusione di dati
- Integrazione di dati multimodali ed estrazione di caratteristiche
- Gestione dei guasti dei sensori e dei dati degradati
Valutazione e ottimizzazione delle prestazioni
- Metriche quantitative per la valutazione dell'accuratezza della fusione
- Analisi delle prestazioni in diverse condizioni ambientali
- Miglioramento della robustezza e della tolleranza agli errori del sistema
Casi di studio e applicazioni reali
- Tecniche di fusione nei prototipi di veicoli autonomi
- Distribuzione di successo di algoritmi di fusione di sensori
- Workshop: implementazione di una pipeline di fusione multi-sensore
Riepilogo e prossimi passi
Requisiti
- Esperienza con la programmazione Python
- Conoscenza delle tecnologie di base dei sensori (ad es. LiDAR, telecamere, RADAR)
- Familiarità con ROS ed elaborazione dati
Pubblico di riferimento
- Specialisti di sensor fusion che lavorano su sistemi di navigazione autonoma
- Ingegneri AI focalizzati sull'integrazione multi-sensore e l'elaborazione dei dati
- Ricercatori nel campo della percezione dei veicoli autonomi
21 ore