これらの特徴はカメラベースで実現するのは難しいため、過酷な条件でも動作が義務付けられる自動運転ではlidarが主に遠方の物体検出で使われることが期待されています。 通常のカメラは物体の明るさ、色を抽出するのに対し、距離センサは物体までの距離をセンシングします。そのため3DカメラやDepth Sensorなどと呼ばれたりします。距離を知ることは多様なアプリケーションにおいて重要であり、例えば自動運転では前方車両までの正確な距離を知ることは必須です。またゲームなどのアプリケーションでは人の動作などを距離センサで抽出するKinectが遊びの幅を広げました。またDaVinciといった手術ロボットでも患部の正確な距離を知るためにも距離センサは重要です。この記事では世の中に大きくどのような距離カメラがあるのか、それらの概要や特徴、使用されている製品をリストします。研究プロジェクトに使用する距離センサが選べるようにするのが目標です。自分はLiDARの専門家なのでカメラベースの手法にはあまり詳しくないのですが、使われることの多い距離センサなため、ステレオカメラやプロジェクションカメラについても記述しました。実際に各センサから得られる"絵"がどういう感じが見せられれば良かったですね。。スバルアイサイトなどに搭載されている市場に多く出回る距離センサです。またこちらのWhitePaperも参考になります。原理は人間がものを立体的にみるのと同じ原理です。目を左右交互につむり、モニタを見ると左右にずれるのがわかりますか?脳はこのずれが大きい物体ほど近くにあり、ずれが小さいほど遠くにあると認識してくれます。これがステレオカメラの原理であり、ステレオカメラではピクセルがどれくらいずれた事から、物体までの距離を測ることができます。この際カメラ同士が離れれば離れているほど物体に対してピクセルずれは大きくなるため、正確な距離が図りやすいです。一方でカメラ同士が近いとほとんどピクセルズレが起こらないため、距離を測るのは難しくなります。画素数を向上させれば原理的には測距距離は長くなりますが、信号処理量が指数関数的に増加してしまうのが欠点です。またステレオカメラ最大のチャレンジは、2つのカメラが同一の物体を見ているかどうかを判定することです。これには高度な画像処理テクニックが必要で、遠くの物体が本当に同一かどうかを当てるのはとても難しくなります。またステレオビジョンを適応するには左右の画像間で高低差があってはいけません。他の距離センサは専用部品(レーザなど)が必要な一方で、ステレオカメラは普通の市販カメラを2つ使うだけで実現できるため、ただ距離を測るために左右のカメラで同一の物体の同じ場所を見る(認識する)必要があり、また市販製品では近距離(1-3m)ならば高い精度は得られ、CPUでもリアルタイム(30FPS)で動作するので近距離のアプリケーションならば安く、使いやすいです。RealsenseD430系にはパターンプロジェクションも付いていますが、距離推定に用いているのはほぼステレオカメラです(プロジェクションを切ってもほぼ絵が変わらないためあくまで補助機能)工業用の高性能3Dカメラや物体に既知のパターンを投影し(パターンプロジェクション)、その歪み方からカメラと物体までの距離を信号処理によって導出します。説明を聞いてもよくわからないが、下記の図を見るとわかりやすいかと思います。ヘルメットのような物体があるところにしましまのパターンを投影すると、物体の高さによってしましまが歪むことがわかります。このような歪みを読み取り解析することで、ヘルメットの三次元形状を知ることができます。また下記の動画はiPhoneのFaceIDの仕組みについて解説してます。赤外線で顔中にパターンを放射し、顔の正確な形状を読み取ることができる。凹凸をみているのでFaceIDを騙すのは難しく、セキュリティを強固なものにしていますね。Using An Infrared Camera To Show How Face ID WorksLiDARに比べると部品がシンプルなため、価格が抑えられるのが特徴。室内使用であれば非常に高い精度が得られる(mm~um精度)。一方で外乱の多い屋外使用は厳しい。またパターンプロジェクションとステレオビジョンを両方使うアプローチは多いです。iPhoneの顔認証(FaceID)はアクティブプロジェクションカメラで実現されています。FaceIDが使われるたびに、iPhoneは赤外線のパターンを放射してます。実は元の技術はMicrosoft KinectV1を開発していた企業(PrimeSense)をAppleが買収し、発展したものです。数マイクロメートル精度が得られるためキーエンスのセンサなど工業用の製品に多く使われており、ロボット製品にも使われることが多い。一方でプロジェクションを正確に読み取れるのは数メートル範囲内のみであり野外の使用などは厳しい。カメラベースの距離センサ(ステレオカメラ、プロジェクション)とLiDARは原理が根本的に異なる。一方でLiDARはTime of Flight(光の飛行時間)をベースにして距離を測ります。原理としては単純で、下記の図のようにレーザ光を筐体から放ち、そのレーザが物体に反射して返ってくるまでの時間を計測する。もしレーザ光が10秒後に返ってきて光速を単純のため1m/sとすると、物体までの距離はと5m先に物体があることがわかります。このように飛行時間をベースにして距離を導出する手法をTime of Flightと呼びます。実際の光速はこのようなレーザパルスの帰還時間を直接測定するタイプのLiDARはdirect Time of Flight sensorとも呼ばれます。LiDARの最大の特徴はと4つ挙げられます。強いパルスレーザ光を照射し、その帰還時間から直接距離を導出するため誤差が混入しづらく信頼性が高いのが特徴です。これらの特徴はカメラベースで実現するのは難しいため、過酷な条件でも動作が義務付けられる自動運転ではLiDARが主に遠方の物体検出で使われることが期待されています。一方でスキャン機構、レーザ出射機、レーザ受光部と多くの専門素子が必要になるためカメラ型に対してコストはLiDARのの上記のTime of flightの原理で1画素あたりの距離を取得することはできます。それでは絵として距離情報を得るためにはどうしたら良いのでしょう?そのための工夫としてLiDARにはスキャンという概念があります。一つのアプローチはミラーを使い、出射するレーザ光を走査(スキャン)する方法です。上記のアニメーションはミラーを使ったLiDARのスキャンをわかりやすく表しています。ミラーを回転させることでレーザ光を360度走査し、周辺環境の全ての情報を得ることができます。このとき1画素ずつ情報を得ながら二次元的にスキャンするのが2Dラスタースキャンという方式で、縦画素を一気に取得しながら横方向にスキャンする方式を1Dスキャンと呼びます。両者とも距離は出ますが、1Dスキャン法が距離画像を得るために必要な時間が短いため、高いFPSを達成しやすいです。一方でミラーを使うと(一眼レフカメラのように)LiDARの筐体は大きくなってしまいます。そのためミラーを使わずにMEMSミラーを使ったり、光学的にスキャンするOptical Phased Array LiDARなども開発が活発に進められており、将来的にLiDARの小型化や低コスト化は進むと見られています。またスキャンをせずにカメラのイメージセンサのように二次元画素情報を一度に取得するようなLiDARも開発されています。イメージセンサ全体を覆うようなレーザ光を出射し、それを受光するだけなので構造的には非常に単純です。そのためスキャン型に比べ低コストで実現可能です。一方で課題はいくつかあり、最も有名なToF LiDARはVelodyneの製品でないでしょうか。LiDAR製品を初めて世に出したメーカーで現在も帝王として君臨しています。彼らの製品は数十万~数百万と非常に高額ですがそのクオリティは一級品。Velodyneを使っていない自動運転車はTeslaとWaymoくらいだと思います(Waymoは独自LiDARを使用)。ロボットの研究開発の現場でも画素数や精度が高いため、Veloが使われることが多いイメージです。またVelodyne以外にもLiDARを開発している企業は多いです(特に車載サプライヤー)。今後数年で一気に低価格化が進み、LiDARは身近なものになっていくのではないでしょうか。ちなみにアマゾンで検索すると縦方向が1画素のみの1Dライダーを安く買うことはできます笑 前方監視用途にはいいかもしれません。画像で言うProximity Sensorがそうです。
自動運転には、障害物や他の車との距離をつかむ技術が必須です。 距離をつかむ技術には「カメラ」「ミリ波レーダー」「lidar(ライダー)」の3つがあります。 それぞれの強みや弱みは?自動運転車や先進運転支援システム(ADAS)などでは、高精度カメラや光の先進技術を活用したレーザレーダであるLIDAR(ライダー)などのセンサーを活用し、車両周辺の環境を認識する。AI(人工知能)が自動運転車の「脳」なら、自動運転車の「目」はこれらのセンサーだ。この記事では、自動運転車に使われるセンサーや各センサーの仕組みについて解説する。記事の目次一般的に自動運転やADAS向けのカメラは車内にあるルームミラーの裏側などに配置されており、車両の進行方向を向いている。その場合、前方カメラはウインドガラスを挟んで前方の画像を撮影し、人工知能(AI)や画像処理用プロセッサが撮影した画像・映像の解析をリアルタイムで行う。この過程を経て、車両の前方に車両や障害物や人がいるかを検知することができる。標識もカメラが認識することができるので、車両速度をコントロールすることにも利用できる。道路上ある白線の認識にも活用でき、車両のレーン逸脱を防ぐことにもつなげることが可能だ。単眼カメラでは一般的に対象物までの距離の計測はできないが、複眼カメラではずれた視点から同時に撮影を行うことによって、距離を計測することも可能になると言われている。またカメラを使って前方だけではなく、路面の解析も行う企業も出てきた。一方、カメラで画像・映像を撮影するということは、基本的には人の目で見るという仕組みと類似の原理であることから、夜間や逆光に加え、濃霧、豪雨、豪雪などの悪天候の場合は検出能力が低下することが課題の一つとされている。・ZMP:自動運転技術に使われるセンサーの一つであるミリ波レーダ。「ミリ波」はとても波長の短い電波のことを指す。ミリ波レーダは、対象物に照射されて戻ってきた電波を検出し、対象物までの距離や方向を検出できる。スタンダートなミリ波レーダは、76GHz(前方検出用)、24GHz(後方や側方検出用)の電波を用いることが多い。ミリ波レーダを構成するパーツとしては、ミリ波が透過する筐体カバーに内蔵されている「レドーム」と呼ばれるミリ波の送受信用アンテナやミリ波の信号を処理するRF回路、受信信号のデジタル化と演算処理を行う処理回路などとなっている。ミリ波レーダは電波を使って検出するので、光源や天候に影響を受けずに検出特性を維持できたり、正確に対象物までの距離を計測できたりするメリットがある。しかし、物体の識別が困難だったり、電波の反射率の低い段ボール箱や発泡スチロールなどの検出が難しかったりするデメリットもある。・デンソー:LiDARとは「Laser Imaging Detection and Ranging(レーザ画像検出と測距)」の略語で、「ライダー」と読む。レーザ光(赤外線)をパルス状に照射し、対象物に反射されて戻ってくる時間によって距離を計測するセンサーで、「レーザレーダ」と呼ばれることもある。「スキャンLiDAR」と呼ばれるセンサーもあり、こちらは対象物の方位も検出できる。検出する方法は、可動ミラーを用いて細く絞ったレーザ光の方向を変更してスキャンする。LiDARはミリ波レーダと比較すると、波長の短い電磁波となる赤外光を用いるため、検出の際の空間分解能が高い。LIDARはレーザ光を使うため、電波の反射率が低い段ボール箱、木材、発泡スチロールなども検出が可能となっている。高い空間分解能で距離と方位を検出するまたスキャンLIDARは、対象物の検出以外にも、対象物間のフリースペースも検出できる。・デンソー:記事では自動運転を実現させるコアセンサーを3種類紹介してきた。それぞれに強みが弱みもあり、複合的に作動させることにより、自動運転車の実現に近づいていく。今後の各センサーの技術開発に着目していきたい。 PRイベント・セミナー情報掲載(無料)アクセス総合ランキングリカーリングビジネスとは? ソニーの“ヒットなき復活”の仕組みから解説禁句!なぜビジネスでは「行間を読む文章」はダメなのか?内閣府が語る「スーパーシティ構想」、“現実”の未来都市の姿とは国内ITサービス市場の売り上げランキング 3位NTTデータ、2位日立、トップは?歴史から学べるDXの教訓、技術革新の渦中ですべき経済構造の転換とは?ランキング一覧へ注目のイベント・セミナーランキング 関連ジャンル ビジネス+IT 会員登録で、会員限定コンテンツやメルマガを購読可能、スペシャルセミナーにもご招待! 自動運転車とは? lidarは自動運転車の実用と関わる技術の一部です。 まずは全体像を捉えるために「自動運転車」がどのようなものか見ていきましょう。 自動運転車は人間に変わり自動運転システムがドライバーの運転操作を代替します。 ここでは、自動運転におけるセンサの重要性について説明していきます。 自動運転に使われるセンサはカメラや3d-lidarやミリ波センサ、加速度センサやgpsセンサなど様々な種類が存在します。 そのセンサの役割は、人間で例えると、目の代わりであったり、
今がチャンス!テレワーク推進と定着化への取り組み ?テレワーク時代のサイバー攻撃最新動向2020/07/15テレワーク拡大、無防備な端末をどう守るか? ウィズコロナ時代のセキュリティ対策2020/07/13マイクロソフトのリモートワーク関連製品・サービスまとめ RDSやVPN、EMSなど2020/07/14見えてきたテレワークセキュリティのキモ、従来型のVPNでは何がダメなのか2020/06/17なぜコロナ禍の世界には5Gが必要なのか、教育現場の事例から見えてきた課題とは 篠崎教授のインフォメーション・エコノミー(第122回)2020/05/15IEEE802.11ax(Wi-Fi 6)とは何か? 5つのメリットで理解する最新無線LAN規格の詳細2020/06/035Gのビジネス活用、ガートナーが指南するデジタル戦略への3つの組み込み方2019/12/262025年には普及率67%、「5Gスマホ」市場はこう動く2019/12/09利用者のニーズに変化、ウィズコロナのロボット開発に求められる視点とは2020/07/01気づかれ始めたクラウド3つの難点、しかし「オンプレ回帰」も難しい事情2020/06/17「遠隔操作ロボット」をタイプ別に解説、8つの実例でわかるその可能性2020/06/03【マンガ】メルマガ会員登録に限界を感じたらスマホアプリスペシャル2020/07/15国内のコンテナ市場を分析レポート、kubernetesの導入が進んでいる業種は?2020/06/19マイクロソフトの「Power Apps」とは何か?わかりやすくアプリをローコードで開発する方法を解説する2020/04/06 [ 閉じる ]「ビジネス+IT(登録無料)」にご登録いただくと、最新の関連情報が届きます。この続きを読むを前に…「ビジネス+IT(登録無料)」にご登録いただくと、最新の関連情報が届きます。 モノづくりをバージョンアップ!これからのスマートファクトリー戦略2020 自動運転に必須とされるクルマの「目」だ。レーザー光線を使って周囲を詳細に測定し、どこにスペースがあるかも把握する。自動車大手が採用を決め、市場が一気に拡大する可能性が高い。 自動ブレーキや車線維持支援システムなどに使われてきたミリ波レーダーやカメラセンサーに加え、lidarを活用することによって初めて、自動運転が現実のものとなってきているのです。 ここでは、自動運転におけるセンサの重要性について説明していきます。 自動運転に使われるセンサはカメラや3d-lidarやミリ波センサ、加速度センサやgpsセンサなど様々な種類が存在します。 そのセンサの役割は、人間で例えると、目の代わりであったり、 自動運転車や先進運転支援システム(adas)などでは、高精度カメラや光の先進技術を活用したレーザーレーダーであるlidar(ライダー)などのセンサーを活用し、車両周辺の環境を認識する。ai(人工知能)が自動運転車の「脳」なら、自動運転車の「目」はこれらのセンサーだ。