回答編集履歴
3
修正
answer
CHANGED
@@ -79,7 +79,7 @@
|
|
79
79
|
cv2.imwrite("dst.png", dst)
|
80
80
|
```
|
81
81
|
|
82
|
-

|
83
83
|
|
84
84
|
照明の影響等もあるので、多少背景も残ってしまいます。
|
85
85
|
きれいに2値化することは1つの課題であり、2値化方法は Adaptive Thresholding など他にも方法はあるので、いろいろな手法を検討してみてください。
|
@@ -90,6 +90,16 @@
|
|
90
90
|
|
91
91
|
[Amazon.co.jp : グリーンバック](https://www.amazon.co.jp/%E3%82%B0%E3%83%AA%E3%83%BC%E3%83%B3%E3%83%90%E3%83%83%E3%82%AF/s?k=%E3%82%B0%E3%83%AA%E3%83%BC%E3%83%B3%E3%83%90%E3%83%83%E3%82%AF)
|
92
92
|
|
93
|
+
## グラフカットを使ったアプローチ
|
94
|
+
|
95
|
+
全自動でなく、対話式でよければ、グラフカットという方法があります。
|
96
|
+
|
97
|
+
[GrabCutを使った対話的前景領域抽出 — OpenCV-Python Tutorials 1 documentation](http://labs.eecs.tottori-u.ac.jp/sd/Member/oyamada/OpenCV/html/py_tutorials/py_imgproc/py_grabcut/py_grabcut.html)
|
98
|
+
|
99
|
+
↓ PowerPoint についてる背景削除のやつです。
|
100
|
+
|
101
|
+

|
102
|
+
|
93
103
|
## ディープラーニングを使った別のアプローチ
|
94
104
|
|
95
105
|
任意背景できれいに人の部分だけ抽出したいのであれば、自分であれば、ディープラーニングのセマンティックセグメンテーションモデルを使います。
|
2
修正
answer
CHANGED
@@ -90,7 +90,7 @@
|
|
90
90
|
|
91
91
|
[Amazon.co.jp : グリーンバック](https://www.amazon.co.jp/%E3%82%B0%E3%83%AA%E3%83%BC%E3%83%B3%E3%83%90%E3%83%83%E3%82%AF/s?k=%E3%82%B0%E3%83%AA%E3%83%BC%E3%83%B3%E3%83%90%E3%83%83%E3%82%AF)
|
92
92
|
|
93
|
-
## 別のアプローチ
|
93
|
+
## ディープラーニングを使った別のアプローチ
|
94
94
|
|
95
95
|
任意背景できれいに人の部分だけ抽出したいのであれば、自分であれば、ディープラーニングのセマンティックセグメンテーションモデルを使います。
|
96
96
|
詳細な解説はここでするには余白が足りないので、Pytorch を使ったコードの提示のみにとどめておきます。
|
1
修正
answer
CHANGED
@@ -12,4 +12,132 @@
|
|
12
12
|
|
13
13
|
↓イメージですが、このような感じで2値化したい対象が白、そうでない背景は黒の画像ができていないと、findContours() はうまくいきません。
|
14
14
|
|
15
|
-

|
15
|
+

|
16
|
+
|
17
|
+
## 追記
|
18
|
+
|
19
|
+
> そうなんですね。領域抽出がよいのですが、背景を除去することが可能ならそれでも良いのですができるのでしょうか。質問とずれてしまいすいません。おわかりでしたら教えていただきたいです。
|
20
|
+
|
21
|
+
輪郭抽出のアプローチでやる場合、まず人と背景をある程度きれいに2値化することは必要です。2値化は大津の手法など使えば、もう少しきれいになります。
|
22
|
+
|
23
|
+
背景除去の場合は以下の手順になります。
|
24
|
+
|
25
|
+
1. グレースケール化
|
26
|
+
2. 2値化
|
27
|
+
3. 輪郭抽出
|
28
|
+
4. 一番大きい輪郭が人と仮定
|
29
|
+
5. 輪郭内部を255、それ以外を0としたマスク画像を作成
|
30
|
+
6. 元画像にアルファチャンネルを追加
|
31
|
+
7. マスク画像の値が0 (背景) の画素の値を255にして透過
|
32
|
+
|
33
|
+
```python
|
34
|
+
import cv2
|
35
|
+
import numpy as np
|
36
|
+
from IPython import display
|
37
|
+
|
38
|
+
|
39
|
+
def imshow(img):
|
40
|
+
"""ndarray 配列をインラインで Notebook 上に表示する。
|
41
|
+
"""
|
42
|
+
ret, encoded = cv2.imencode(".jpg", img)
|
43
|
+
display.display(display.Image(encoded))
|
44
|
+
|
45
|
+
|
46
|
+
img = cv2.imread("person.jpg")
|
47
|
+
|
48
|
+
# グレースケールに変換する。
|
49
|
+
img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
|
50
|
+
|
51
|
+
# 大津の手法で2値化する。
|
52
|
+
ret, img_binary = cv2.threshold(
|
53
|
+
img_gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU
|
54
|
+
)
|
55
|
+
imshow(img_binary)
|
56
|
+
|
57
|
+
# 輪郭を抽出する。
|
58
|
+
contours, hierarchy = cv2.findContours(
|
59
|
+
img_binary, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_NONE
|
60
|
+
)
|
61
|
+
|
62
|
+
# 最大の輪郭を取り出す。
|
63
|
+
max_contour = max(contours, key=lambda x: cv2.contourArea(x))
|
64
|
+
|
65
|
+
# 輪郭を描画する。
|
66
|
+
img_contour = cv2.drawContours(img.copy(), [max_contour], -1, (0, 255, 0), 2)
|
67
|
+
imshow(img_contour)
|
68
|
+
|
69
|
+
mask = cv2.drawContours(
|
70
|
+
np.zeros_like(img_binary), contours, -1, color=255, thickness=-1
|
71
|
+
)
|
72
|
+
|
73
|
+
# アルファチャンネル追加
|
74
|
+
dst = cv2.cvtColor(img, cv2.COLOR_BGR2BGRA)
|
75
|
+
|
76
|
+
# mask の値が0のピクセルは透過する。
|
77
|
+
dst[mask == 0] = 0
|
78
|
+
|
79
|
+
cv2.imwrite("dst.png", dst)
|
80
|
+
```
|
81
|
+
|
82
|
+

|
83
|
+
|
84
|
+
照明の影響等もあるので、多少背景も残ってしまいます。
|
85
|
+
きれいに2値化することは1つの課題であり、2値化方法は Adaptive Thresholding など他にも方法はあるので、いろいろな手法を検討してみてください。
|
86
|
+
|
87
|
+
[画像のしきい値処理 — OpenCV-Python Tutorials 1 documentation](http://labs.eecs.tottori-u.ac.jp/sd/Member/oyamada/OpenCV/html/py_tutorials/py_imgproc/py_thresholding/py_thresholding.html)
|
88
|
+
|
89
|
+
もし撮影環境が変更可能であるならば、グリーンバックの背景を使うなど、2値化しやすいように撮影環境を工夫してください。テレビや映画の背景合成はこの方法でやっています。
|
90
|
+
|
91
|
+
[Amazon.co.jp : グリーンバック](https://www.amazon.co.jp/%E3%82%B0%E3%83%AA%E3%83%BC%E3%83%B3%E3%83%90%E3%83%83%E3%82%AF/s?k=%E3%82%B0%E3%83%AA%E3%83%BC%E3%83%B3%E3%83%90%E3%83%83%E3%82%AF)
|
92
|
+
|
93
|
+
## 別のアプローチ
|
94
|
+
|
95
|
+
任意背景できれいに人の部分だけ抽出したいのであれば、自分であれば、ディープラーニングのセマンティックセグメンテーションモデルを使います。
|
96
|
+
詳細な解説はここでするには余白が足りないので、Pytorch を使ったコードの提示のみにとどめておきます。
|
97
|
+
|
98
|
+
|
99
|
+
|
100
|
+
```python
|
101
|
+
import cv2
|
102
|
+
import numpy as np
|
103
|
+
import torch
|
104
|
+
import torchvision
|
105
|
+
from PIL import Image
|
106
|
+
from torchvision import models as models
|
107
|
+
from torchvision import transforms as transforms
|
108
|
+
|
109
|
+
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
|
110
|
+
PERSON_ID = 1
|
111
|
+
|
112
|
+
# モデルを作成する。
|
113
|
+
model = models.detection.maskrcnn_resnet50_fpn(pretrained=True).to(device)
|
114
|
+
model.eval()
|
115
|
+
|
116
|
+
# 画像を読み込む。
|
117
|
+
img = Image.open("person2.jpg")
|
118
|
+
img_tensor = transforms.functional.to_tensor(img).to(device)
|
119
|
+
|
120
|
+
# 推論する。
|
121
|
+
output = model([img_tensor])[0]
|
122
|
+
|
123
|
+
# ラベル 人 のマスクを取り出す。
|
124
|
+
person_scores = output["masks"][output["labels"] == PERSON_ID, 0]
|
125
|
+
person_score = person_scores.max(dim=0)[0]
|
126
|
+
|
127
|
+
mask = person_score >= 0.7
|
128
|
+
mask = mask.cpu().detach().numpy()
|
129
|
+
|
130
|
+
# アルファチャンネル追加
|
131
|
+
dst = cv2.cvtColor(np.array(img), cv2.COLOR_RGB2BGRA)
|
132
|
+
imshow(dst)
|
133
|
+
|
134
|
+
# mask の値が0のピクセルは透過する。
|
135
|
+
dst[mask == 0] = 0
|
136
|
+
imshow(dst)
|
137
|
+
```
|
138
|
+
|
139
|
+

|
140
|
+
|
141
|
+

|
142
|
+
↓
|
143
|
+

|