Technologien zur Tiefen- und 3D-Erfassung
Strukturiertes Licht, passive/aktive Stereovision, integriertes Time of Flight, direktes Time of Flight oder Intensitätsnähe? Es gibt eine Vielzahl von optischen Sensortechniken zur Abstandsmessung und Erfassung von 3D-Szenen, von denen alle unterschiedliche Kompromisse haben. ams OSRAM ermöglicht es den Designern, die Lösung auszuwählen und umzusetzen, die am besten zu ihrer Anwendung passt, durch ein umfassendes Portfolio von Beleuchtungskörpern, Sensoren und Treibern.
Kameras erfassen 2D-Bilder. Tiefensensoren fügen Entfernung hinzu.
Von berührungslosen Armaturen bis hin zu AR/VR-Headsets, Robotern und selbstfahrenden Fahrzeugen - Produkte, die die Welt um sich herum "sehen", werden immer allgegenwärtiger.
Kamerasensoren sind die erste Technologie der Wahl, um Produkte herzustellen, die "sehen" können. Eine Kamera allein kann jedoch nur ein 2D-Bild erfassen. In der Praxis ist die Welt jedoch dreidimensional. Um zu funktionieren, müssen die meisten dieser Anwendungen auch die Tiefe kennen. Zum Beispiel müssen berührungslose Armaturen die Entfernung einer Hand kennen, Roboter und autonome Fahrzeuge müssen die Entfernung zu Objekten erkennen, um Kollisionen zu vermeiden, und Augmented-Reality-Erlebnisse benötigen eine 3D-Karte der realen Welt.
Tiefenerkennungsmethoden messen direkt den Abstand zwischen dem Sensor und den Objekten in der Umgebung. Bei Bedarf kann dies mit 2D-Bilddaten kombiniert werden, um eine vollständige 3D-Karte der Szene und der Position von 6 Freiheitsgraden darin zu erstellen, wobei Techniken wie Simultaneous Localization and Mapping (SLAM) zum Einsatz kommen.
Mehrere optische Entfernungsmessverfahren. Mehrere Kompromisse.
Zur optischen Entfernungserfassung können Kameras, LIDAR und Intensitätsnäherungsmethoden eingesetzt werden. Die Wahl der richtigen Technik ist eine Abwägung zwischen Reichweite, Robustheit, Auflösung, Leistung, Größe und Kosten, wie in der folgenden Tabelle dargestellt.
Live Webinar: High-Resolution Multi-Zone Sensing with the TMF8829 dToF sensor.
Discover how precise 3D depth sensing can improve presence detection and spatial awareness in real-world designs, from robotics and logistics to mobile, wearables and other smart appliances.
What you’ll gain:
- A clear introduction to direct Time-of-Flight sensing technology
- A deep dive in multi-zone dToF 3D depth sensing with insight into the TMF8829 sensor: up to 48×32 pixels, 11 m range, and 80° field of view
- Understanding of on-chip processing for distance, confidence, and ambient light data
- Examples of multi-object detection and AI-ready depth data in practice
Where it’s used:
- Depth-based object detection and scene mapping
- Gesture control for headphones and wearables
- Smart appliances such as lawn movers or coffee machines
- Industrial robotics, logistics, and camera autofocuus
Subscribers will get access to additional technical resources. Take your chance to talk to our expert David Smith in our live webinar on January 14, 2026.
Kamera-Systeme
Dreiecksmessung der Entfernung zu Merkmalen in der Szene oder projizierten Punkten unter Verwendung von Kamerabildern, die aus mehreren Positionen aufgenommen wurden.
ams OSRAM bietet Bildsensoren, Mikrokameras, Flut- und Punktbeleuchtungsmodule für passive Stereovision, strukturiertes Licht und aktive Stereovision Sensorsysteme.
LIDAR-Systeme
Direkte Messung der optischen Weglänge vom Laser, zum Ziel und zurück zum Empfänger.
ams OSRAM bietet voll integrierte dToF-Module und iToF-VCSEL-Beleuchtungen für Anwendungen im Nahbereich sowie Laser für dToF- und FMCW-LIDAR-Systeme mit großer Reichweite.
Intensity Proximity
Sehr kurze Entfernungen können annähernd gemessen werden, indem ein IR-Sender aktiviert und die von einem Ziel reflektierte Energie gemessen wird.
ams OSRAM bietet voll integrierte digitale Näherungssensoren und Module an.