Main Content

このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。

2 つのビューからの structure from motion

structure from motion (SfM) は、一連の 2 次元イメージから 3 次元シーンの構造を推定するプロセスです。この例では、キャリブレートされたカメラの姿勢を 2 つのイメージから推定し、未知の倍率によるシーンの 3 次元構造を再構成した後、既知のサイズのオブジェクトを検出することで実際の倍率を復元する方法を説明します。

概要

この例では、カメラ キャリブレーターアプリを使ってキャリブレートされたカメラで撮影した 2 次元イメージのペアから、3 次元シーンを再構成する方法を説明します。アルゴリズムは以下のステップから構成されます。

  1. 2 つのイメージ間で点の疎集合をマッチングする。2 つのイメージ間で点の対応関係を見つけるには複数の方法があります。この例では、関数 detectMinEigenFeatures を使用して最初のイメージのコーナーを検出し、vision.PointTracker を使ってこれらを 2 番目のイメージ内で追跡します。あるいは、extractFeatures を使用した後で matchFeatures を使用する方法もあります。

  2. estimateEssentialMatrix を使用して基礎行列を推定する。

  3. 関数 relativeCameraPose を使用してカメラの動きを計算する。

  4. 2 つのイメージ間で点の稠密集合をマッチングする。detectMinEigenFeatures を使用して点を再検出します。'MinQuality' の設定を小さくしてより多くの点を取得します。その後、vision.PointTracker を使って稠密な点を 2 番目のイメージ内で追跡します。

  5. triangulate を使用して、マッチする点の 3 次元での位置を決定する。

  6. 既知のサイズのオブジェクトを検出する。このシーンには半径が 10 cm であるとわかっている地球儀があります。pcfitsphere を使用して、点群内で地球儀を見つけます。

  7. 実際のスケールを復元し、メートル法で再構成する。

イメージのペアの読み取り

ワークスペースにイメージのペアを読み込みます。

imageDir = fullfile(toolboxdir('vision'),'visiondata','upToScaleReconstructionImages');
images = imageDatastore(imageDir);
I1 = readimage(images, 1);
I2 = readimage(images, 2);
figure
imshowpair(I1, I2, 'montage'); 
title('Original Images');

Figure contains an axes object. The axes object with title Original Images contains an object of type image.

カメラ パラメーターの読み込み

この例ではカメラ キャリブレーターアプリで計算されたカメラ パラメーターを使用します。パラメーターは cameraParams オブジェクトに保存されており、カメラの内部パラメーターとレンズ歪み係数が含まれています。

% Load precomputed camera parameters
load upToScaleReconstructionCameraParameters.mat

レンズ歪みの除去

レンズ歪みは最終的な再構成の精度に影響することがあります。歪みは、関数 undistortImage を使用して各イメージから除去できます。この処理は、レンズの半径方向歪みによって曲がった線をまっすぐにします。

I1 = undistortImage(I1, cameraParams);
I2 = undistortImage(I2, cameraParams);
figure 
imshowpair(I1, I2, 'montage');
title('Undistorted Images');

Figure contains an axes object. The axes object with title Undistorted Images contains an object of type image.

イメージ間の点の対応関係の検出

追跡に適した特徴を検出します。'MinQuality' の値を小さくして検出される点を減らします。検出される点は、イメージ全体にわたってより一様に分布しています。カメラの動きがあまり大きくない場合、点の対応関係を確立するには KLT アルゴリズムによる追跡が適しています。

% Detect feature points
imagePoints1 = detectMinEigenFeatures(im2gray(I1), 'MinQuality', 0.1);

% Visualize detected points
figure
imshow(I1, 'InitialMagnification', 50);
title('150 Strongest Corners from the First Image');
hold on
plot(selectStrongest(imagePoints1, 150));

Figure contains an axes object. The axes object with title 150 Strongest Corners from the First Image contains 2 objects of type image, line.

% Create the point tracker
tracker = vision.PointTracker('MaxBidirectionalError', 1, 'NumPyramidLevels', 5);

% Initialize the point tracker
imagePoints1 = imagePoints1.Location;
initialize(tracker, imagePoints1, I1);

% Track the points
[imagePoints2, validIdx] = step(tracker, I2);
matchedPoints1 = imagePoints1(validIdx, :);
matchedPoints2 = imagePoints2(validIdx, :);

% Visualize correspondences
figure
showMatchedFeatures(I1, I2, matchedPoints1, matchedPoints2);
title('Tracked Features');

Figure contains an axes object. The axes object with title Tracked Features contains 4 objects of type image, line.

基本行列の推定

関数 estimateEssentialMatrix を使用して基本行列を計算し、エピポーラ制約を満たすインライア点を求めます。

% Estimate the fundamental matrix
[E, epipolarInliers] = estimateEssentialMatrix(...
    matchedPoints1, matchedPoints2, cameraParams, 'Confidence', 99.99);

% Find epipolar inliers
inlierPoints1 = matchedPoints1(epipolarInliers, :);
inlierPoints2 = matchedPoints2(epipolarInliers, :);

% Display inlier matches
figure
showMatchedFeatures(I1, I2, inlierPoints1, inlierPoints2);
title('Epipolar Inliers');

Figure contains an axes object. The axes object with title Epipolar Inliers contains 4 objects of type image, line.

カメラの姿勢の計算

最初のカメラに対する 2 番目のカメラの位置と向きを計算します。スケールを除いた並進のみが計算されるため、t は並進単位ベクトルであることに注意してください。

[orient, loc] = relativeCameraPose(E, cameraParams, inlierPoints1, inlierPoints2);

マッチする点の 3 次元位置の再構成

'MinQuality' の値をより低くして最初のイメージで点を再検出し、より多くの点を取得します。新しい点を 2 番目のイメージで追跡します。関数 triangulate を使用して、マッチする点に対応する 3 次元での位置を推定します。この関数は直接線形変換 (DLT) アルゴリズム [1] を実行します。最初のイメージに対応するカメラの光学的中心に原点を配置します。

% Detect dense feature points. Use an ROI to exclude points close to the
% image edges.
roi = [30, 30, size(I1, 2) - 30, size(I1, 1) - 30];
imagePoints1 = detectMinEigenFeatures(im2gray(I1), 'ROI', roi, ...
    'MinQuality', 0.001);

% Create the point tracker
tracker = vision.PointTracker('MaxBidirectionalError', 1, 'NumPyramidLevels', 5);

% Initialize the point tracker
imagePoints1 = imagePoints1.Location;
initialize(tracker, imagePoints1, I1);

% Track the points
[imagePoints2, validIdx] = step(tracker, I2);
matchedPoints1 = imagePoints1(validIdx, :);
matchedPoints2 = imagePoints2(validIdx, :);

% Compute the camera matrices for each position of the camera
% The first camera is at the origin looking along the Z-axis. Thus, its
% transformation is identity.
tform1 = rigid3d;
camMatrix1 = cameraMatrix(cameraParams, tform1);

% Compute extrinsics of the second camera
cameraPose = rigid3d(orient, loc);
tform2 = cameraPoseToExtrinsics(cameraPose);
camMatrix2 = cameraMatrix(cameraParams, tform2);

% Compute the 3-D points
points3D = triangulate(matchedPoints1, matchedPoints2, camMatrix1, camMatrix2);

% Get the color of each reconstructed point
numPixels = size(I1, 1) * size(I1, 2);
allColors = reshape(I1, [numPixels, 3]);
colorIdx = sub2ind([size(I1, 1), size(I1, 2)], round(matchedPoints1(:,2)), ...
    round(matchedPoints1(:, 1)));
color = allColors(colorIdx, :);

% Create the point cloud
ptCloud = pointCloud(points3D, 'Color', color);

3 次元点群の表示

関数 plotCamera を使用してカメラの位置と向きを可視化し、関数 pcshow を使用して点群を可視化します。

% Visualize the camera locations and orientations
cameraSize = 0.3;
figure
plotCamera('Size', cameraSize, 'Color', 'r', 'Label', '1', 'Opacity', 0);
hold on
grid on
plotCamera('Location', loc, 'Orientation', orient, 'Size', cameraSize, ...
    'Color', 'b', 'Label', '2', 'Opacity', 0);

% Visualize the point cloud
pcshow(ptCloud, 'VerticalAxis', 'y', 'VerticalAxisDir', 'down', ...
    'MarkerSize', 45);

% Rotate and zoom the plot
camorbit(0, -30);
camzoom(1.5);

% Label the axes
xlabel('x-axis');
ylabel('y-axis');
zlabel('z-axis')

title('Up to Scale Reconstruction of the Scene');

Figure contains an axes object. The axes object with title Up to Scale Reconstruction of the Scene contains 21 objects of type line, text, patch, scatter.

球体の点群への近似による地球儀の検出

関数 pcfitsphere を使用して球体を 3 次元点に近似させることで、点群内で地球儀を見つけます。

% Detect the globe
globe = pcfitsphere(ptCloud, 0.1);

% Display the surface of the globe
plot(globe);
title('Estimated Location and Size of the Globe');
hold off

Figure contains an axes object. The axes object with title Estimated Location and Size of the Globe contains 22 objects of type line, text, patch, scatter, surface.

メートル法によるシーンの再構成

地球儀の実際の半径は 10 cm です。これにより、3 次元点の座標をセンチメートル単位で求めることができます。

% Determine the scale factor
scaleFactor = 10 / globe.Radius;

% Scale the point cloud
ptCloud = pointCloud(points3D * scaleFactor, 'Color', color);
loc = loc * scaleFactor;

% Visualize the point cloud in centimeters
cameraSize = 2; 
figure
plotCamera('Size', cameraSize, 'Color', 'r', 'Label', '1', 'Opacity', 0);
hold on
grid on
plotCamera('Location', loc, 'Orientation', orient, 'Size', cameraSize, ...
    'Color', 'b', 'Label', '2', 'Opacity', 0);

% Visualize the point cloud
pcshow(ptCloud, 'VerticalAxis', 'y', 'VerticalAxisDir', 'down', ...
    'MarkerSize', 45);
camorbit(0, -30);
camzoom(1.5);

% Label the axes
xlabel('x-axis (cm)');
ylabel('y-axis (cm)');
zlabel('z-axis (cm)')
title('Metric Reconstruction of the Scene');

Figure contains an axes object. The axes object with title Metric Reconstruction of the Scene contains 21 objects of type line, text, patch, scatter.

まとめ

この例では、カメラの動きを復元し、キャリブレートされたカメラで撮影した 2 つのイメージから 3 次元の構造を再構成する方法を説明しました。

参考文献

[1] Hartley, Richard, and Andrew Zisserman. Multiple View Geometry in Computer Vision. Second Edition. Cambridge, 2000.