道路上の安全は大きな問題です。毎年110万人以上が交通事故で亡くなり1)、推定2,000万人から5,000万人が負傷しています。
このような衝突の主な原因はドライバーの過失です2)。自動車メーカーや政府の規制当局は常に安全性を向上させる方法を模索しており、近年では先進運転支援システム(ADAS)が道路上での死亡者や負傷者を減らすのに役立つ、大きな進歩を遂げています。
この記事では安全性向上におけるADASの役割と、それを実現するための重要な役割を果たす各種センサ技術について考察します。
ADASの進化と重要性
1970年代に最初のアンチロックブレーキシステム(ABS)が導入されて以来、乗用車へのADAS技術の導入が着実に増加しており、それに伴い安全性も向上しています。全米安全評議会(NSC)は、米国だけでもADASは交通事故死者数の約62%を防止し、毎年2万人以上の命を救う可能性があると推定しています3)。自動緊急ブレーキ(AEB)や前方衝突警告(FCW)のようなADAS機能は近年一般的になり、ドライバーの事故防止を支援し、最終的に人命を救うために、4分の1以上の車両でこれらの機能が利用できるようになりました。
ADASには、互いに連携して動作する複数の技術が必要です。センシングスイートはシステムの 「目」として機能し、車両の周囲を検知してシステムの「頭脳」にデータを供給し、そのデータを使って、ドライバーを支援するための車両の作動決定を計算します。例えば、前方に車両を検知したが、ドライバーが自分でブレーキを踏んでいない場合、AEBで追突を回避するために、すぐに自動的にブレーキをかけて車両を停止させます。ADASセンシングスイートは、車載グレードのカメラで構成されるビジョンシステムで構築されており、その中核となるのは、車の周囲のビデオストリームをキャプチャできる高性能イメージセンサです。この画像を使用して、車両、歩行者、交通標識などを検知し、それらの画像を表示して、低速操縦時や駐車時にドライバーを支援します。カメラは多くの場合、レーダー、LiDAR、超音波センサなどの深度センシングモダリティと組み合わせることにより、深度情報を提供してカメラの2次元画像を補強し、冗長性を追加し、物体までの距離測定の曖昧さを排除します。
ADASの導入は、自動車メーカーとそのティア1システムサプライヤーにとって困難な課題になる可能性があります。複数のセンサで生成されるすべてのデータを処理するのに利用可能な処理能力に限界があり、またセンサ自体にも性能上の限界があります。自動車業界の要求は、ハードウェアだけでなく、関連するソフトウェア・アルゴリズムも含め、すべてのコンポーネントに優れた信頼性を求めており、安全性を確保するために徹底的なテストが必要になります。また、システムは最も厳しい照明条件や気象条件でも安定した性能を発揮し、極端な温度にも対処でき、車両の寿命を通して確実に動作する必要があります。
ADASの主要センサ技術
それでは、画像センサ、LiDAR、超音波センサなど、ADASで使用される主要なセンサ技術をいくつか詳細に考察していきましょう。各センサモダリティは、ソフトウェア・アルゴリズムによって処理される特定の種類のデータを提供します。ソフトウェア・アルゴリズムは、データを相互に受信して、環境に関する正確で包括的な理解を生成します。このプロセスはセンサフュージョンと呼ばれ、ソフトウェア認識アルゴリズムの精度と信頼性を向上させ、複数のセンサモダリティの冗長性を通じてより信頼性の高い決定を下すことができ、より高いレベルの安全性を実現します。これらのマルチセンサスイートは急激に複雑化しており、アルゴリズムにはますます多くの処理能力が必要になる可能性があります。しかし、センサ自体も高度化しており、中央ADASプロセッサではなく、センサレベルでローカルに処理を実行できるようになっています。
車載用イメージセンサ
イメージセンサは車両の「目」であり、ADAS搭載車両にとって最も重要なセンサです。これらは、自動緊急ブレーキ、前方衝突警告、車線逸脱警告などの「マシンビジョン」ドライバー支援機能から、駐車支援のための「人が見下ろす」周囲360度サラウンドビューカメラ、電子ミラー用カメラモニタシステム、注意散漫や居眠り運転を検知して事故を防止するための警報を鳴らすドライバー監視システムまで、幅広いADAS機能の実現に使用できる画像データを提供します。
オンセミは、低消費電力で優れた画質を実現するHyperluxファミリをはじめ、幅広いイメージセンサを提供しています。Hyperluxイメージセンサのピクセルアーキテクチャには、LEDフリッカ抑制(LFM)機能を備えたハイダイナミックレンジ(HDR)フレームをキャプチャできる超露出イメージングスキームが採用されており、パルス式LEDの前後車両照明やLED交通標識による誤認問題を克服します。
また、最大150dBのダイナミックレンジをキャプチャすることにより、高架上の直射日光などの厳しい条件でも機能するように設計されています。このイメージセンサを搭載したカメラは、人間の目よりも優れた性能レベルでコーナーケースに対応し、1ルクスを下回るレベルでも適切に動作することができます。
ポートフォリオとしては、8Mピクセルの「AR0823AT」と3Mピクセルの「AR0341AT」があります。これらのデジタルCMOSイメージセンサは、Hyperlux 2.1μm超露光シングルフォトダイオードピクセル技術を採用し、高い低照度性能を実現すると同時に、低照度と高照度の場面で広いダイナミックレンジを同一フレームで捉えることを可能としています。超露光ピクセルは、1つのフレームで十分なダイナミックレンジを実現し、「一度設定するだけ」の露光スキームが可能になり、晴れた日にトンネルや駐車場から出る時など、照明条件が変化しても自動露出調整を行う必要をなくす技術です。
深度センサ(LiDAR)
物体がセンサからどのくらい離れているかを正確に測定することを、深度センシングと言います。深度情報はシーンから曖昧さを排除し、さまざまなADAS機能に不可欠であり、より高度なADASや完全自律走行を可能にします。
深度センシングには複数の技術を使用できます。深度性能を考慮する場合は、光検出と測距(LiDAR)が最適な選択肢です。LiDARは、近赤外(NIR)レーザーとセンサの組み合わせによる能動的な照明システムにより、高い深度と角度分解能での深度センシングを可能にし、あらゆる周囲光条件下で動作できます。LiDARは、短距離と長距離の両方のアプリケーションに適しています。低コストのレーダーセンサは今日、車載アプリケーションで広く普及していますが、LiDARほどの角度分解能が無いため、基本的なADASを超えるレベルの自律性に必要な、周囲の高解像度三次元ポイントクラウドを提供することはできません。
最も一般的なタイプのLiDARアーキテクチャは、ダイレクト・タイムオブフライト(ToF)です。ToFは、短い赤外線パルス光を送信し、信号が物体に反射してセンサに戻るまでの時間を測定することによって、距離の直接計算を可能にします。LiDARセンサは、赤外線パルス光をスキャンし、視野全体にわたってこの測定を繰り返してシーン全体をキャプチャします。
オンセミの「ARRAYRDM-0112A20」シリコンフォトマルチプライヤ(SiPM)アレイは、モノリシックアレイに12チャネルを搭載したシングル光子感応型センサで、905nmのような近赤外波長で高い光子検出効率(PDE)を実現し、戻りパルスを検出します。このSiPMアレイは、ドライバーに真の「目の解放(eyes off)」レベルの自動運転の利便性を提供する乗用車の1つに装備されたLiDAR4)に統合されています。これにより、セルフドライビング(自動運転)と呼ばれる基本的なドライバー支援を超えた機能が可能になり、ドライバーは事実上、道路に注意を払う必要がなくなりますが、この自動運転レベルがLiDARの深度センシングなしで高い信頼性を確保したうえで、一般乗用車に導入されるかどうかは今日まで明確ではありません。
超音波センサ
距離測定に使用されるもう1つの技術が超音波センシングです。超音波センシングでは、トランスデューサが人間の可聴域を超える周波数で音波を発し、跳ね返ってくる音を検知することで、ToFからの距離測定を可能にします。
超音波センサは、近距離障害物検知や、駐車支援などの低速操縦アプリケーションで利用されています。超音波センサの利点の1つは、音のほうが光よりもはるかに遅いことです。そのため、反射した音波がセンサに戻るまでの時間は通常、光のナノ秒に対して超音波センサでは数マイクロ秒かかります。したがって、超音波センサの場合は必要な処理性能がかなり低くて済むため、システムコストを削減できます。
超音波センサの一例として、オンセミの「NCV75215」駐車距離測定ASSPがあります。車両の駐車中、この部品は圧電型超音波トランスデューサと連動して動作し、障害物までの距離のToF測定を行います。0.25mから4.5mまでの距離にある物体を検知し、高感度、低ノイズで動作します。
結論
オンセミは、ADASに必要なセンサ技術の開発においてさまざまな役割を担ってきました。例えば現在、業界全体の多くのセンサで使用されているデュアルコンバージョン・ゲインピクセル技術とHDR動作を生み出し、1個のフォトダイオードからセンサの優れた低照度性能と飽和のないHDRシーンキャプチャ能力の両方を可能にする超露光設計のパイオニアとなりました。こうした技術を背景に、現在、活用されているADASイメージセンサの多くがオンセミが開発したものとなっています5)。技術革新を続けてきたことで、オンセミは20年にわたって車載アプリケーション向けに高性能センサを提供し続け、それによりADASが自動車の安全性を向上させ続けてきました。
自動車業界は、ADASへの大規模な投資を継続し、自動車の完全な自動化を目指しています。現在、SAE6)でレベル1および2と定義されるドライバーを支援する基本的な機能を超えて、レベル3、4、5と定義される真の自動運転機能へと向かっています。交通事故による死傷者を減らすことは、このトレンドの背後にある大きな動機の1つであり、オンセミのセンサ技術は自動車の安全性に係る進歩に今後も関与し続けていくことになるでしょう。
本記事はonsemiが「AutoSens」に寄稿した記事「Sensor Innovations in ADAS are Saving Lives on the Road」を翻訳・改編したものとなります
参考文献
- https://www.who.int/news-room/fact-sheets/detail/road-traffic-injuries
- https://journals.open.tudelft.nl/ejtir/article/view/3667/3784
- https://injuryfacts.nsc.org/motor-vehicle/occupant-protection/advanced-driver-assistance-systems/data-details/
- https://www.onsemi.com/company/news-media/blog/automotive/en-us/behind-onsemi-and-innoviz-s-collaboration-on-lidar-to-enable-autonomy-on-the-road
- https://www.onsemi.jp/company/news-media/blog/automotive/ja-jp/a-journey-through-advancements-in-automotive-image-sensors
- https://www.zf.com/master/media/magazine/2022/2204/202204296levelsofautomateddriving/sae-j3016-visual-chart5.3.21.pdf
Bahman Hadji(バハマン・ハッジ)