Cover des Buchs: Bestärkendes Lernen zur automatisierten Erkundung und Kartographierung von Indoor-Umgebungen mittels unbemanntem Luftfahrtsystem
, um zu prüfen, ob Sie einen Vollzugriff auf diese Publikation haben.
Monographie Kein Zugriff

Bestärkendes Lernen zur automatisierten Erkundung und Kartographierung von Indoor-Umgebungen mittels unbemanntem Luftfahrtsystem

Autor:innen:
Reihe:
Berichte aus dem IPH, Band 01/2025
Verlag:
 2025

Zusammenfassung

In dieser Arbeit wird die automatisierte Indoor-Erkundung und -Kartographierung als Schlüsselverfahren zur Digitalisierung von Umgebungsstrukturen in der Fabrikplanung untersucht. Aus dem Anwendungsfall werden vier Anforderungen abgeleitet, deren Erfüllung in anderen aktuellen Arbeiten nur teilweise erfolgt. Zur Schließung dieser Lücke wird ein integrierter Reinforcement-Learning-Algorithmus in einer entwickelten Simulationsumgebung mit UAS, virtueller Indoor-Struktur und mehreren Agenten evaluiert. Vier Versuchskonfigurationen variieren Sensorausrichtung und Netzarchitektur (CNN vs. MLP). Die Bewertung erfolgt mittels Konvergenzanalyse und leistungsbezogener Kennzahlen. Ergebnisse zeigen, dass der Algorithmus in mindestens einer Konfiguration beide Teilaufgaben integriert löst. Geneigte Sensoren verschlechtern das Lernverhalten, während CNN-Architekturen MLP-Netze deutlich übertreffen. Die Machbarkeit einer Navigationslösung unter den gegebenen Anforderungen wird bestätigt.

Schlagworte


Publikation durchsuchen


Bibliographische Angaben

Copyrightjahr
2025
ISBN-Online
978-3-69030-168-8
Verlag
TEWISS, Garbsen
Reihe
Berichte aus dem IPH
Band
01/2025
Sprache
Deutsch
Seiten
118
Produkttyp
Monographie

Inhaltsverzeichnis

KapitelSeiten
  1. Titelei/Inhaltsverzeichnis Kein Zugriff Seiten I - XX
  2. 1. Einleitung Kein Zugriff Seiten 1 - 3
  3. 2. Grundlagen Kein Zugriff Seiten 4 - 11
  4. 3. Stand der Wissenschaft und Technik Kein Zugriff Seiten 12 - 26
  5. 4. Wissenschaftliche Fragestellung und Zielsetzung Kein Zugriff Seiten 27 - 36
  6. 5. Entwicklung einer Simulationsumgebung Kein Zugriff Seiten 37 - 56
  7. 6. Entwicklung eines Reinforcement Learning-Modells Kein Zugriff Seiten 57 - 64
  8. 7. Implementierung Simulationsumgebung Kein Zugriff Seiten 65 - 75
  9. 8. Simulative Experimente und Ergebnisse Kein Zugriff Seiten 76 - 95
  10. 9. Zusammenfassung Kein Zugriff Seiten 96 - 96
  11. 10. Ausblick Kein Zugriff Seiten 97 - 97
  12. 11. Literaturverzeichnis Kein Zugriff Seiten 98 - 103
  13. 12. Anhang Kein Zugriff Seiten 104 - 113
  14. 13. Betreute studentische Arbeiten Kein Zugriff Seiten 114 - 114
  15. 14. Eigene Veröffentlichungen Kein Zugriff Seiten 115 - 115
  16. 15. Lebenslauf Kein Zugriff Seiten 116 - 118