フィルターのクリア

単眼カメラを用いた距離計測について

26 ビュー (過去 30 日間)
Ken
Ken 2019 年 12 月 16 日
編集済み: Kei Otsuka 2023 年 1 月 6 日
キャプチャ1.JPG
単眼カメラを用いた距離計測についての質問です。 添付した資料のように三角測量の要領で距離計測していると思っていたのですが、 Automated driving system toolbox内の例にある検出した物体との距離計測の関数computeVehicleLocations.
てみると、これは検出したbboxの下端の中心座標を車両の座標に射影変換しただけの計算のように思えるのですが、添付資料の方法では距離計測を行なっていないのでしょうか。また、添付資料の方法だとしたら、横方向の距離やロールとヨーの変化はどのように影響してくるのか教えて頂きたいです。 どうぞ宜しくお願い致します。
  1 件のコメント
Kenta
Kenta 2019 年 12 月 23 日
こんにちは、ざっと見た感想ですが、「明示的にd=h/tan(x+y)を使っているわけではないが、実装上では添付画像の関係の利用が含まれている」ということではないでしょうか。
computeVehicleLocations関数の例では、車からの画像(ピッチ角14度)を上から見た画像に変換し、前方の車との距離を予測していました。
この変換を見ると、一見、添付画像の方法は使っていないように見えるのですが、実際は、カメラ座標を上から見た画像の座標に変換する必要があります。カメラのピッチ角と、カメラの(内部)パラメータがわかっていれば、それを上からみた画像には1対1の関係で変換することができますね。その変換では、あらゆるカメラ座標の値(情報)を上から見た画像に変換する必要がありますが、そのときは任意のθに対して式展開するので、結局その計算にはαの変化が含まれる、というイメージでしょうか。
あまりこの例を深くは見れていないので参考程度に考えていただけると幸いです。よろしくお願いします。

サインインしてコメントする。

回答 (1 件)

Kei Otsuka
Kei Otsuka 2023 年 1 月 6 日
編集済み: Kei Otsuka 2023 年 1 月 6 日
添付頂いたスライドはMathWorksのセミナー等でご紹介しているものですが、computeVehicleLocationsについて
直接的に説明したものではなく、距離計測の考え方について理解を深めてもらうために準備したスライドになります。
Kenta様がコメントされている通りですが、スライド内の式が明示的に使われている訳ではないものの、
射影変換の過程でαやβの変化が含まれるとご理解頂ければ幸いです。

Community Treasure Hunt

Find the treasures in MATLAB Central and discover how the community can help you!

Start Hunting!