LiDAR Tabanlı Direksiyon Açısı Tahmini
MIT-Intel veri setindeki ham LiDAR sensör verilerini işleyerek otonom araç direksiyon açılarını tahmin eden, PyTorch tabanlı bir derin öğrenme projesi.
Genel Bakış
Bu proje, otonom navigasyonun temel taşlarından biri olan "çevresel algıya dayalı araç kontrolü" üzerine odaklanmaktadır. Mobil bir robottan alınan senkronize odometri ve lazer tarama bilgilerini içeren MIT-Intel veri setini kullanarak, sadece ham 2D LiDAR taramalarına bakarak direksiyon açısını tahmin edebilen bir derin sinir ağı geliştirdim.
Teknik Öne Çıkanlar
- Sensör Verisi Senkronizasyonu: Ham
intel.logdosyasını işlemek için özel bir ayrıştırıcı (parser) geliştirdim. Bu sistem, asenkron zaman serisi veri akışlarını (Odometri ve LiDAR) hizalayarak sensör girdilerinin doğru direksiyon etiketleriyle eşleşmesini sağlar. - Veri Ön İşleme: LiDAR taramalarını [0, 1] aralığına normalize eden ve nokta sayısını 180'den 90'a düşüren (downsampling) bir işlem hattı kurarak hesaplama açısından verimli bir girdi vektörü oluşturdum.
- Derin Öğrenme Mimarisi: PyTorch kullanarak
RegularizedLiDARNetmodelini tasarladım. Mimari, gürültülü sensör verilerinde aşırı öğrenmeyi (overfitting) önlemek için ReLU aktivasyonları ve Dropout katmanları içeren çoklu lineer katmanlardan oluşur. - Hiperparametre Optimizasyonu: En uygun öğrenme oranı (learning rate), toplu işlem boyutu (batch size) ve dropout oranını belirlemek için sistematik bir ızgara araması (grid search) yürüterek 2.9374'lük bir nihai test kaybı (test loss) elde ettim.
- Birlikte Çalışabilirlik: Eğitilen model, platformlar arası uyumluluk ve optimize edilmiş çıkarım (inference) yetenekleri için ONNX formatında dışa aktarıldı.
Teknoloji Yığını
- Çekirdek: Python, NumPy
- ML Çatısı: PyTorch (Eğitim), ONNX (Çıkarım/Export)
- Veri Bilimi: Scikit-learn, Matplotlib
- Veri Seti: MIT-Intel Mobil Robot veri seti