LIDAR、光学距離センサ、タイムオブフライトセンサ
ショートレンジアプリケーション向けの完全統合型dToFモジュールとiToF VCSELイルミネータ。ロングレンジLIDARシステム向けレーザーソリューション。
光学距離センサ
レーザーから対象物へ、そしてそこで反射されてセンサへと戻る、反射された光路の長さとして距離を直接測定するためのさまざまなアプローチがあります。これらは一般的に、LIDAR、タイムオブフライトセンサなど、多様な名前で知られていますが、実のところそれらの間には原理的には重複しているところがあります。 下表に主なシステムのタイプをまとめています。以下の主なパラメータにより基本的に定義されています:
- 光学的距離測定原理: これは、z次元の光学的深度を測定する方法です。主なアプローチは、インダイレクトタイムオブフライト(iToF)、ダイレクトタイムオブフライト(dToF)、そして周波数変調連続波(FMCW)です。
- 走査アーキテクチャ: これは、システムがx次元とy次元にわたり複数の深度点を測定し、3D深度マップを作成する方法です。 この主なアプローチは、単一のエミッタとセンサアレイ、エミッタアレイとセンサアレイ、および単一の光源/検出器のみの走査ミラーシステムのいずれかです。
- 光学的開口/光出力: 光出力とアパーチャサイズ、達成可能な測距の間にはトレードオフがあります。これには主に、小型で低消費電力のショートレンジシステム、例えばコンシューマ向け電子機器用ウエハーレベル光学製品搭載の統合型モジュールと、ディスクリートコンポーネントとより強力な光源、より大きい開口のバルク光学系を使用して構築された、より大型でよりロングレンジのシステムの2つのカテゴリーがあります。
すべて通常は赤外線スペクトルで運用します。これは、レシーバで対応する赤外線バンドパスフィルターを使用することで、環境光からの干渉を最小限にすることができ、またシステムがユーザーからほとんど見えないようにすることができます。
光学的距離測定原理
ダイレクトタイムオブフライト(dToF)
レーザー光源を.パルス投光し、各パルスが反射してセンサに戻ってくるまでの時間が測定されます。その後、光の速度を使用して、この時間が距離に変換されます。dToFシステムは、ロバスト性を備えた低消費電力の距離測定を可能にします。しかし、レシーバは通常、単一光子アバランシェ検出器およびタイミング回路と実装されます。このために達成できるアレイサイズの実用的な限界によって、ソリッドステート型システムの解像度は、通常深度点が100個未満に制限されます。
インダイレクトタイムオブフライト(iToF)
レーザー光源は、振幅変調されています。発射された光とセンサに反射される光の間の位相差が測定されます。この位相差が時間に変換され、さらに光速を使用して距離に変換されます。レシーバは専用イメージセンサの一部として実装することができるため、可動部品がなく、高い解像度を実現することができます。しかし、iToFはクロストークやマルチパス干渉に脆弱であるため、dToFシステムよりもロバスト性が劣ります。通常、ショートレンジの高解像度システムでのみ使用されます。
周波数変調連続波(FMCW)
レーザー光源は連続発振で、のこぎり形波形(「チャープ」)で周波数変調されています。反射信号は光源からの参照信号と光学的に混合されます。そうして得られた信号には、距離に対応する「ビート」周波数が含まれ、それがスペクトル分析により抽出されます。FMCWは、dToFと比較して、ロバスト性とロングレンジ、低エミッタ電力、環境光に対する高い耐性、動径速度の直接計測などを含むパフォーマンス面の利点があります。しかし、光学的な複雑さを理由として、現時点ではより専門的なシステムのみで採用されています。
走査アーキテクチャ
単一のエミッタ+検出器アレイ
ソリッドステート型iToFおよびdToFシステムの最も一般的なアプローチは、単一の投光イルミネータと、検出器のアレイを使用するものです。 ショートレンジモジュールの場合、エミッタは必要な視野を得るための拡散光学系を備えたVCSELで、検出器上に対応する結像光学系を備えています。ロングレンジの「フラッシュLIDAR」システムは、高出力VCSELアレイまたは端面発光レーザー光源のdToFのアプローチと、両側の大型開口を使用します。
エミッタアレイ+検出器アレイ
dToF/フラッシュLIDARシステムのパフォーマンスは、いくつかの現実的な要因により制限されます。目の安全を確保するために、発射可能な最大の光出力には制限があり、これはレンジに影響します。さらに、各深度点に時間検出回路が必要なため、現実的に達成可能な解像度が制限されます。ソリッドステート型(TSS)Lidarシステムは、ピクセル状のエミッタアレイを使用して、シーンのさまざまな部分を順に照射することで、これらの課題に対応しています。これは、利用可能な光出力を各パルスにより集中させるとともに、ピクセルのTDCを共有することを可能にしています。しかし、発射の複雑さが増すという代償があります。
走査ミラー
最もロングレンジのLIDARシステムは、単一の光源と検出器を使用し、シーンの全体をスキャンします。このアプローチは、集中された光源と忠実度の高い時間検出を使用することで、レンジを最適化することができます。さらに、単一のチャンネルだけで、より複雑ではあるもののパフォーマンスに優れたFMCWのアプローチを導入することもできできます。MEMSミラーでの2次元スキャンや、回転するポリゴンミラーを使用した1次元スキャンなど、さまざまなスキャン構成が可能です。
ダイレクトタイムオブフライト(dToF)センサモジュール
ams OSRAMは、完全統合型のダイレクトタイムオブフライト(dToF)センサモジュールを提供しています。これらのコンパクトで低消費電力のデバイスは、940nm VCSEL(レーザー)、SPAD(単一光子アバランシェダイオード)ピクセルアレイ、タイムトゥデジタル変換器(TDC)、そしてすべての必要な信号処理を統合しており、I2Cを介した距離の直接読み出しが可能です。
最大5mの動作レンジと63度の視野を備えたシングルおよび最大8x8のマルチゾーンデバイスをわずか2.2x3.6x1.0mmのパッケージサイズで提供しています。
アプリケーションには、カメラやプロジェクタのオートフォーカス、ロボットやドローンの障害物検知、カメラシステムの低消費電力ウェイクアップ、タッチレスコントロールやハンドジェスチャセンシングなどが含まれます。
詳細情報は、タイムオブフライトセンサのホワイトペーパーをご覧ください。
インダイレクトタイムオブフライト(iToF)センシング向けのVCSELおよびVCSELモジュール
ams OSRAMは、iToFシステム向けに幅広い赤外線VCSELおよびVCSELモジュールを850nmと940nmで提供しています。例えば、
- BIDOS™ P2433 VCSELモジュールは、2.4 x 3.3 x 1.2 mmのパッケージでフォトダイオードを搭載し、60°x45°と72°x58°の視野角と、最大6.5Wを実現しています。
完全なiToFシステム参照設計図を当社パートナーからご利用いただけます。
- Chronoptics社によるKEAタイムオブフライトカメラ開発キット(写真)は、当社の BIDOS VCSELイルミネータ(940nm)を搭載し、製品への3Dデプスセンシング統合を簡素化して加速する完全なソリューションを構成しています。
- Melexis EVK75027 iToF評価キットは、車載向けの規格に準拠した当社のTARA-2000-AUT-SAFE VCSELイルミネータを搭載しています。 インキャビンモニタリングとジェスチャセンシング向けの完全なVGAデプスカメラシステムを実証しています。 目に安全なイルミネーションシステムの実装に関する詳細情報は、この ホワイトペーパーでご確認ください。
ロングレンジLIDAR向けのVCSELおよびEEL
ams OSRAMは、LIDARシステムのパルス動作モードで使用するVCSELと端面発光レーザー(EEL)の両方を提供しています。両タイプのレーザーは、さまざまなシステムおよび光学設計アプローチ向けに、VCSELアレイやシングルからマルチチャンネル端面発光レーザーなどの多様な構成と、複数の出力レベルで提供されています。端面発光レーザー向けに当社が独自開発した波長安定化テクノロジーにより、これらのエミッタは、VCSELと同程度の低い温度依存性波長シフトを提供できるようになりました。
次の製品を提供しています。
- SPL S4L90A_3 ams OSRAM LiDARポートフォリオのフラッグシップ: 4チャンネルSMTレーザー、QFNパッケージ、波長安定化済み、905 nm、220 µm、AEC-Q102
- SPL S1L90A_3 1チャンネルSMTレーザー、QFNパッケージ、905 nm、125 W 220 µm
- SPL DP90_3 ナノスタックパルスレーザーダイオード、905 nm、65W、110 µm、AEC-Q102
Live Webinar: High-Resolution Multi-Zone Sensing with the TMF8829 dToF Sensor.
Discover how precise 3D depth sensing can improve presence detection and spatial awareness in real-world designs, from robotics and logistics to mobile, wearables and other smart appliances.
What you’ll gain:
- A clear introduction to direct Time-of-Flight sensing technology
- A deep dive in multi-zone dToF 3D depth sensing with insight into the TMF8829 sensor: up to 48×32 pixels, 11 m range, and 80° field of view
- Understanding of on-chip processing for distance, confidence, and ambient light data
- Examples of multi-object detection and AI-ready depth data in practice
Where it’s used:
- Depth-based object detection and scene mapping
- Gesture control for headphones and wearables
- Smart appliances such as lawn movers or coffee machines
- Industrial robotics, logistics, and camera autofocuus
Subscribers will get access to additional technical resources. Take your chance to talk to our expert David Smith in our live webinar on January 14, 2026.