回答編集履歴
2
やってみたことを追加
test
CHANGED
@@ -3,3 +3,195 @@
|
|
3
3
|
|
4
4
|
|
5
5
|
「元座標→射影変換→(通常の変換後座標)→さらに平行移動」という結果になるマッピングテーブルを自前で求めてやることになりますが.
|
6
|
+
|
7
|
+
|
8
|
+
|
9
|
+
---
|
10
|
+
|
11
|
+
|
12
|
+
|
13
|
+
> とりあえず「今ある変換行列」で元画像の4隅の変換結果座標を調べれば,必要なオフセット量(や出力画像バッファのサイズ)がわかるでしょうから,その情報使って射影変換行列を作り直しちゃうとか.
|
14
|
+
|
15
|
+
|
16
|
+
|
17
|
+
これをやってみました.
|
18
|
+
|
19
|
+
```
|
20
|
+
|
21
|
+
//何か謎の射影変換行列を返す
|
22
|
+
|
23
|
+
cv::Mat CreateSomeHomographyMat()
|
24
|
+
|
25
|
+
{ //てきとーな変換を求めて返すよ
|
26
|
+
|
27
|
+
std::vector< cv::Point2f > SrcPoints;
|
28
|
+
|
29
|
+
SrcPoints.emplace_back( cv::Point2f(0, 0) );
|
30
|
+
|
31
|
+
SrcPoints.emplace_back( cv::Point2f(200, 0) );
|
32
|
+
|
33
|
+
SrcPoints.emplace_back( cv::Point2f(0, 200) );
|
34
|
+
|
35
|
+
SrcPoints.emplace_back( cv::Point2f(200, 200) );
|
36
|
+
|
37
|
+
|
38
|
+
|
39
|
+
std::vector< cv::Point2f > DstPoints;
|
40
|
+
|
41
|
+
DstPoints.emplace_back( cv::Point2f(-10, 12) );
|
42
|
+
|
43
|
+
DstPoints.emplace_back( cv::Point2f(155, -10) );
|
44
|
+
|
45
|
+
DstPoints.emplace_back( cv::Point2f(-50, 130) );
|
46
|
+
|
47
|
+
DstPoints.emplace_back( cv::Point2f(170, 155) );
|
48
|
+
|
49
|
+
|
50
|
+
|
51
|
+
return cv::findHomography( SrcPoints, DstPoints );
|
52
|
+
|
53
|
+
}
|
54
|
+
|
55
|
+
|
56
|
+
|
57
|
+
//main
|
58
|
+
|
59
|
+
int main(void)
|
60
|
+
|
61
|
+
{
|
62
|
+
|
63
|
+
//元画像
|
64
|
+
|
65
|
+
cv::Mat SrcImg = cv::imread( "Test.png" );
|
66
|
+
|
67
|
+
cv::imshow( "Src", SrcImg );
|
68
|
+
|
69
|
+
|
70
|
+
|
71
|
+
//------------------------------------
|
72
|
+
|
73
|
+
//(1)
|
74
|
+
|
75
|
+
|
76
|
+
|
77
|
+
//何か(既存の?)射影変換行列が与えられて…
|
78
|
+
|
79
|
+
cv::Mat M = CreateSomeHomographyMat();
|
80
|
+
|
81
|
+
//とりあえずてきとーなサイズの変換結果画像バッファを用意して変換したら…
|
82
|
+
|
83
|
+
cv::Mat ResultImg= cv::Mat::zeros( 200, 200, CV_8UC3 );
|
84
|
+
|
85
|
+
cv::warpPerspective( SrcImg, ResultImg, M, cv::Size(ResultImg.cols,ResultImg.rows) );
|
86
|
+
|
87
|
+
cv::imshow( "1stResult", ResultImg ); //元の絵の範囲が結果画像バッファに収まらない
|
88
|
+
|
89
|
+
|
90
|
+
|
91
|
+
//------------------------------------
|
92
|
+
|
93
|
+
//(2)
|
94
|
+
|
95
|
+
|
96
|
+
|
97
|
+
//元画像の四隅の変換結果画像を求めて,
|
98
|
+
|
99
|
+
//はみ出さないようにするのに必要なオフセット量と,結果画像バッファサイズを求める.
|
100
|
+
|
101
|
+
std::vector< cv::Point2f > SrcPoints;
|
102
|
+
|
103
|
+
SrcPoints.emplace_back( cv::Point2f(0, 0) );
|
104
|
+
|
105
|
+
SrcPoints.emplace_back( cv::Point2f(SrcImg.cols-1, 0) );
|
106
|
+
|
107
|
+
SrcPoints.emplace_back( cv::Point2f(0, SrcImg.rows-1) );
|
108
|
+
|
109
|
+
SrcPoints.emplace_back( cv::Point2f(SrcImg.cols-1, SrcImg.rows-1) );
|
110
|
+
|
111
|
+
|
112
|
+
|
113
|
+
std::vector< cv::Point2f > ResultPoints;
|
114
|
+
|
115
|
+
ResultPoints.reserve( 4 );
|
116
|
+
|
117
|
+
double MinX=0, MaxX=ResultImg.cols-1;
|
118
|
+
|
119
|
+
double MinY=0, MaxY=ResultImg.rows-1;
|
120
|
+
|
121
|
+
for( const auto &P : SrcPoints )
|
122
|
+
|
123
|
+
{
|
124
|
+
|
125
|
+
auto Src = cv::Matx<double,3,1>( P.x, P.y, 1 );
|
126
|
+
|
127
|
+
cv::Mat Dst = M * cv::Mat(Src);
|
128
|
+
|
129
|
+
double X = Dst.at<double>(0,0) / Dst.at<double>(2,0);
|
130
|
+
|
131
|
+
double Y = Dst.at<double>(1,0) / Dst.at<double>(2,0);
|
132
|
+
|
133
|
+
ResultPoints.emplace_back( cv::Point2f(X,Y) );
|
134
|
+
|
135
|
+
|
136
|
+
|
137
|
+
MinX = (std::min)( MinX, X );
|
138
|
+
|
139
|
+
MaxX = (std::max)( MaxX, X );
|
140
|
+
|
141
|
+
MinY = (std::min)( MinY, Y );
|
142
|
+
|
143
|
+
MaxY = (std::max)( MaxY, Y );
|
144
|
+
|
145
|
+
}
|
146
|
+
|
147
|
+
//結果バッファを必要なサイズで作り直す
|
148
|
+
|
149
|
+
//※行列の内容次第ではとんでもないサイズになるかもなので注意する必要があるが,とりあえずここでは何も考慮しない.
|
150
|
+
|
151
|
+
int NeedWidth = (int)( std::ceil( MaxX - MinX ) );
|
152
|
+
|
153
|
+
int NeedHeight = (int)( std::ceil( MaxY - MinY ) );
|
154
|
+
|
155
|
+
ResultImg= cv::Mat::zeros( NeedHeight, NeedWidth, CV_8UC3 );
|
156
|
+
|
157
|
+
|
158
|
+
|
159
|
+
//必要なぶんだけ結果をオフセットする形に射影変換行列を作り直してみる
|
160
|
+
|
161
|
+
double NeedOffsetX = ( MinX<0 ? -MinX : 0 );
|
162
|
+
|
163
|
+
double NeedOffsetY = ( MinY<0 ? -MinY : 0 );
|
164
|
+
|
165
|
+
for( auto &P : ResultPoints )
|
166
|
+
|
167
|
+
{
|
168
|
+
|
169
|
+
P.x += NeedOffsetX;
|
170
|
+
|
171
|
+
P.y += NeedOffsetY;
|
172
|
+
|
173
|
+
}
|
174
|
+
|
175
|
+
M = cv::findHomography( SrcPoints, ResultPoints );
|
176
|
+
|
177
|
+
cv::warpPerspective( SrcImg, ResultImg, M, cv::Size(ResultImg.cols,ResultImg.rows) );
|
178
|
+
|
179
|
+
cv::imshow( "2ndResult", ResultImg ); //元の絵の範囲が結果画像バッファに収まるハズ
|
180
|
+
|
181
|
+
|
182
|
+
|
183
|
+
//---
|
184
|
+
|
185
|
+
cv::waitKey();
|
186
|
+
|
187
|
+
return 0;
|
188
|
+
|
189
|
+
}
|
190
|
+
|
191
|
+
```
|
192
|
+
|
193
|
+
結果.
|
194
|
+
|
195
|
+
1stResultは絵がはみ出している→2ndResultは収まっている
|
196
|
+
|
197
|
+

|
1
単語が抜けていた
test
CHANGED
@@ -2,4 +2,4 @@
|
|
2
2
|
|
3
3
|
|
4
4
|
|
5
|
-
「元座標→射影変換→(通常の変換後座標)→さらに平行移動」という結果になるマッピングテーブルを自前でやることになりますが.
|
5
|
+
「元座標→射影変換→(通常の変換後座標)→さらに平行移動」という結果になるマッピングテーブルを自前で求めてやることになりますが.
|