Fortschrittliche Bildverarbeitungs- und Sensorlösungen für mobile Roboter

ams OSRAM bietet innovative Bildverarbeitungs- und Sensorlösungen, darunter VCSEL-basierte Beleuchtungen, Global-Shutter-Bildsensoren und Multi-Zone-Time-of-Flight-Module, die die Präzision, Effizienz und Sicherheit von mobilen Robotern in kollaborativen Umgebungen verbessern.

Mobile Roboter - autonom geführte Fahrzeuge (AGVs) 

Mobile Roboter, auch bekannt als autonom geführte Fahrzeuge (AGVs) oder autonome mobile Roboter (AMRs), werden in der Automatisierungstechnik immer beliebter, da sie über bildverarbeitungsbasierte Technologien verfügen, die eine zuverlässige 3D-Bildgebung zur Objekterkennung und Kollisionsvermeidung ermöglichen. Diese Technologien verwenden speziell entwickelte Kameras, entweder mit Stereovision (räumlich getrennte Bildsensoren mit synchronisierter Beleuchtung) oder mit strukturiertem Licht (ein einziger Sensor mit einem Laserpunktprojektionsmodul). Die Kombination beider Verfahren wird als aktive Stereovision bezeichnet.

Wir bieten eine Reihe von 3D-Bildgebungskomponenten an, darunter VCSEL-basierte Flächenbeleuchtungen, Punktmuster-Emitter-Projektoren und Bildsensoren im Nahinfrarot- oder visuellen Lichtspektrum. Unsere integrierten VCSEL-Beleuchtungs- und Projektionsmodule bieten eine hohe optische und Leistungseffizienz. Unsere kleinen Global-Shutter-Bildsensoren ermöglichen kompakte Kameradesigns mit ausgezeichneter optischer Leistung und Energieeffizienz. Für Szenarien, in denen kamerabasierte Lösungen nicht praktikabel sind, bieten unsere Multi-Zone Direct Time-of-Flight 3D-Scanning-Module eine skalierbare Alternative und liefern vorverarbeitete 3D-Daten für die Navigation.  

Verbesserte Mensch-Maschine-Schnittstellen können mobilen Robotern in kollaborativen Umgebungen weitere Vorteile bringen. Unsere innovativen Projektionslösungen verbessern die Interaktion zwischen Robotern und Menschen, reduzieren Kollisionen und minimieren „sichere Stopps“. 

Ein automatisiertes Lagerhaus mit einem Roboterarm, der Kisten auf ein Förderband legt, Drohnen, die Pakete transportieren, und autonomen mobilen Robotern, die Gegenstände befördern.
×

Das folgende Blockdiagramm veranschaulicht die wichtigsten Funktionen, die für die Entwicklung eines mobilen Robotersystems erforderlich sind, einschließlich Hinderniserkennung, Mensch-Maschine-Schnittstelle, Fahrmotorsteuerung und Batteriemanagementsysteme: 

Live Webinar: High-Resolution Multi-Zone Sensing with the TMF8829 dToF Sensor

Discover how precise 3D depth sensing can improve presence detection and spatial awareness in real-world designs, from robotics and logistics to mobile, wearables and other smart appliances.

What you’ll gain:

  • A clear introduction to direct Time-of-Flight sensing technology
  • A deep dive in multi-zone dToF 3D depth sensing with insight into the TMF8829 sensor: up to 48×32 pixels, 11 m range, and 80° field of view
  • Understanding of on-chip processing for distance, confidence, and ambient light data
  • Examples of multi-object detection and AI-ready depth data in practice

Where it’s used:

  • Depth-based object detection and scene mapping
  • Gesture control for headphones and wearables
  • Smart appliances such as lawn movers or coffee machines
  • Industrial robotics, logistics, and camera autofocuus

Subscribers will get access to additional technical resources. Take your chance to talk to our expert David Smith in our live webinar on January 14, 2026

×