回答編集履歴

3

修正

2020/07/26 10:15

投稿

tiitoi
tiitoi

スコア21960

answer CHANGED
@@ -79,7 +79,7 @@
79
79
  cv2.imwrite("dst.png", dst)
80
80
  ```
81
81
 
82
- ![イメージ説明](395d203ebc820d3275b3e4758fa4605c.png)
82
+ ![イメージ説明](c3f4b7eb45fdbcf20ded346c469aac25.jpeg)
83
83
 
84
84
  照明の影響等もあるので、多少背景も残ってしまいます。
85
85
  きれいに2値化することは1つの課題であり、2値化方法は Adaptive Thresholding など他にも方法はあるので、いろいろな手法を検討してみてください。
@@ -90,6 +90,16 @@
90
90
 
91
91
  [Amazon.co.jp : グリーンバック](https://www.amazon.co.jp/%E3%82%B0%E3%83%AA%E3%83%BC%E3%83%B3%E3%83%90%E3%83%83%E3%82%AF/s?k=%E3%82%B0%E3%83%AA%E3%83%BC%E3%83%B3%E3%83%90%E3%83%83%E3%82%AF)
92
92
 
93
+ ## グラフカットを使ったアプローチ
94
+
95
+ 全自動でなく、対話式でよければ、グラフカットという方法があります。
96
+
97
+ [GrabCutを使った対話的前景領域抽出 — OpenCV-Python Tutorials 1 documentation](http://labs.eecs.tottori-u.ac.jp/sd/Member/oyamada/OpenCV/html/py_tutorials/py_imgproc/py_grabcut/py_grabcut.html)
98
+
99
+ ↓ PowerPoint についてる背景削除のやつです。
100
+
101
+ ![イメージ説明](9d3d0d247a9e69b2d26214817e242cee.png)
102
+
93
103
  ## ディープラーニングを使った別のアプローチ
94
104
 
95
105
  任意背景できれいに人の部分だけ抽出したいのであれば、自分であれば、ディープラーニングのセマンティックセグメンテーションモデルを使います。

2

修正

2020/07/26 10:15

投稿

tiitoi
tiitoi

スコア21960

answer CHANGED
@@ -90,7 +90,7 @@
90
90
 
91
91
  [Amazon.co.jp : グリーンバック](https://www.amazon.co.jp/%E3%82%B0%E3%83%AA%E3%83%BC%E3%83%B3%E3%83%90%E3%83%83%E3%82%AF/s?k=%E3%82%B0%E3%83%AA%E3%83%BC%E3%83%B3%E3%83%90%E3%83%83%E3%82%AF)
92
92
 
93
- ## 別のアプローチ
93
+ ## ディープラーニングを使った別のアプローチ
94
94
 
95
95
  任意背景できれいに人の部分だけ抽出したいのであれば、自分であれば、ディープラーニングのセマンティックセグメンテーションモデルを使います。
96
96
  詳細な解説はここでするには余白が足りないので、Pytorch を使ったコードの提示のみにとどめておきます。

1

修正

2020/07/26 10:10

投稿

tiitoi
tiitoi

スコア21960

answer CHANGED
@@ -12,4 +12,132 @@
12
12
 
13
13
  ↓イメージですが、このような感じで2値化したい対象が白、そうでない背景は黒の画像ができていないと、findContours() はうまくいきません。
14
14
 
15
- ![イメージ説明](fbaf0c485b6de9e6a3f4a09f95aa4006.png)
15
+ ![イメージ説明](fbaf0c485b6de9e6a3f4a09f95aa4006.png)
16
+
17
+ ## 追記
18
+
19
+ > そうなんですね。領域抽出がよいのですが、背景を除去することが可能ならそれでも良いのですができるのでしょうか。質問とずれてしまいすいません。おわかりでしたら教えていただきたいです。
20
+
21
+ 輪郭抽出のアプローチでやる場合、まず人と背景をある程度きれいに2値化することは必要です。2値化は大津の手法など使えば、もう少しきれいになります。
22
+
23
+ 背景除去の場合は以下の手順になります。
24
+
25
+ 1. グレースケール化
26
+ 2. 2値化
27
+ 3. 輪郭抽出
28
+ 4. 一番大きい輪郭が人と仮定
29
+ 5. 輪郭内部を255、それ以外を0としたマスク画像を作成
30
+ 6. 元画像にアルファチャンネルを追加
31
+ 7. マスク画像の値が0 (背景) の画素の値を255にして透過
32
+
33
+ ```python
34
+ import cv2
35
+ import numpy as np
36
+ from IPython import display
37
+
38
+
39
+ def imshow(img):
40
+ """ndarray 配列をインラインで Notebook 上に表示する。
41
+ """
42
+ ret, encoded = cv2.imencode(".jpg", img)
43
+ display.display(display.Image(encoded))
44
+
45
+
46
+ img = cv2.imread("person.jpg")
47
+
48
+ # グレースケールに変換する。
49
+ img_gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
50
+
51
+ # 大津の手法で2値化する。
52
+ ret, img_binary = cv2.threshold(
53
+ img_gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU
54
+ )
55
+ imshow(img_binary)
56
+
57
+ # 輪郭を抽出する。
58
+ contours, hierarchy = cv2.findContours(
59
+ img_binary, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_NONE
60
+ )
61
+
62
+ # 最大の輪郭を取り出す。
63
+ max_contour = max(contours, key=lambda x: cv2.contourArea(x))
64
+
65
+ # 輪郭を描画する。
66
+ img_contour = cv2.drawContours(img.copy(), [max_contour], -1, (0, 255, 0), 2)
67
+ imshow(img_contour)
68
+
69
+ mask = cv2.drawContours(
70
+ np.zeros_like(img_binary), contours, -1, color=255, thickness=-1
71
+ )
72
+
73
+ # アルファチャンネル追加
74
+ dst = cv2.cvtColor(img, cv2.COLOR_BGR2BGRA)
75
+
76
+ # mask の値が0のピクセルは透過する。
77
+ dst[mask == 0] = 0
78
+
79
+ cv2.imwrite("dst.png", dst)
80
+ ```
81
+
82
+ ![イメージ説明](395d203ebc820d3275b3e4758fa4605c.png)
83
+
84
+ 照明の影響等もあるので、多少背景も残ってしまいます。
85
+ きれいに2値化することは1つの課題であり、2値化方法は Adaptive Thresholding など他にも方法はあるので、いろいろな手法を検討してみてください。
86
+
87
+ [画像のしきい値処理 — OpenCV-Python Tutorials 1 documentation](http://labs.eecs.tottori-u.ac.jp/sd/Member/oyamada/OpenCV/html/py_tutorials/py_imgproc/py_thresholding/py_thresholding.html)
88
+
89
+ もし撮影環境が変更可能であるならば、グリーンバックの背景を使うなど、2値化しやすいように撮影環境を工夫してください。テレビや映画の背景合成はこの方法でやっています。
90
+
91
+ [Amazon.co.jp : グリーンバック](https://www.amazon.co.jp/%E3%82%B0%E3%83%AA%E3%83%BC%E3%83%B3%E3%83%90%E3%83%83%E3%82%AF/s?k=%E3%82%B0%E3%83%AA%E3%83%BC%E3%83%B3%E3%83%90%E3%83%83%E3%82%AF)
92
+
93
+ ## 別のアプローチ
94
+
95
+ 任意背景できれいに人の部分だけ抽出したいのであれば、自分であれば、ディープラーニングのセマンティックセグメンテーションモデルを使います。
96
+ 詳細な解説はここでするには余白が足りないので、Pytorch を使ったコードの提示のみにとどめておきます。
97
+
98
+
99
+
100
+ ```python
101
+ import cv2
102
+ import numpy as np
103
+ import torch
104
+ import torchvision
105
+ from PIL import Image
106
+ from torchvision import models as models
107
+ from torchvision import transforms as transforms
108
+
109
+ device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
110
+ PERSON_ID = 1
111
+
112
+ # モデルを作成する。
113
+ model = models.detection.maskrcnn_resnet50_fpn(pretrained=True).to(device)
114
+ model.eval()
115
+
116
+ # 画像を読み込む。
117
+ img = Image.open("person2.jpg")
118
+ img_tensor = transforms.functional.to_tensor(img).to(device)
119
+
120
+ # 推論する。
121
+ output = model([img_tensor])[0]
122
+
123
+ # ラベル 人 のマスクを取り出す。
124
+ person_scores = output["masks"][output["labels"] == PERSON_ID, 0]
125
+ person_score = person_scores.max(dim=0)[0]
126
+
127
+ mask = person_score >= 0.7
128
+ mask = mask.cpu().detach().numpy()
129
+
130
+ # アルファチャンネル追加
131
+ dst = cv2.cvtColor(np.array(img), cv2.COLOR_RGB2BGRA)
132
+ imshow(dst)
133
+
134
+ # mask の値が0のピクセルは透過する。
135
+ dst[mask == 0] = 0
136
+ imshow(dst)
137
+ ```
138
+
139
+ ![イメージ説明](ebf7ea5789e2d9d82aaf3761637fca4f.jpeg)
140
+
141
+ ![イメージ説明](b24577f80f24949871a8598fb2be976b.jpeg)
142
+
143
+ ![イメージ説明](238862306ab677c0f2c469782e486fb4.jpeg)