質問をすることでしか得られない、回答やアドバイスがある。

15分調べてもわからないことは、質問しよう!

新規登録して質問してみよう
ただいま回答率
85.46%
Docker

Dockerは、Docker社が開発したオープンソースのコンテナー管理ソフトウェアの1つです

Q&A

解決済

1回答

4721閲覧

Dockerを使ったGrowiの環境構築ができない

kakeiteiya

総合スコア252

Docker

Dockerは、Docker社が開発したオープンソースのコンテナー管理ソフトウェアの1つです

0グッド

0クリップ

投稿2020/10/07 00:44

編集2020/10/08 03:02

手順

此方のサイトの通りに進めました
環境はCentOS8です
https://qiita.com/m1na1P/items/1fb49151a3b72af2924c

sudo docker-compose up -d
をしてから20分~1時間まったりしたのですがブラウザからは「このサイトにアクセスできません」とでました

実行エラー?

エラーはでていないのですが、このメッセージのあとずっと止まっており進みません
mongo01 end connection 4 connections now open
mongo01 end connection 3 connections now open
mongo01 end connection 2 connections now open

原因が何かわかりますでしょうか・・

コンテナのログです

growi-docker-compose_app_1

growi

1[2020-10-08T02:07:17.556Z] INFO: growi:service:s2s-messaging:S2sMessagingServiceFactory/71 on eb421d29449e: Config pub/sub server is not defined. 2[2020-10-08T02:07:18.465Z] DEBUG: growi:service:PassportService/71 on eb421d29449e: setting up serializer and deserializer 3[2020-10-08T02:07:18.466Z] DEBUG: growi:service:PassportService/71 on eb421d29449e: LocalStrategy: reset 4[2020-10-08T02:07:18.466Z] DEBUG: growi:service:PassportService/71 on eb421d29449e: LocalStrategy: setting up.. 5[2020-10-08T02:07:18.466Z] DEBUG: growi:service:PassportService/71 on eb421d29449e: LocalStrategy: setup is done 6[2020-10-08T02:07:18.467Z] DEBUG: growi:service:PassportService/71 on eb421d29449e: LdapStrategy: reset 7[2020-10-08T02:07:18.467Z] DEBUG: growi:service:PassportService/71 on eb421d29449e: SamlStrategy: reset 8[2020-10-08T02:07:18.468Z] DEBUG: growi:service:PassportService/71 on eb421d29449e: OidcStrategy: reset 9[2020-10-08T02:07:18.468Z] DEBUG: growi:service:PassportService/71 on eb421d29449e: BasicStrategy: reset 10[2020-10-08T02:07:18.468Z] DEBUG: growi:service:PassportService/71 on eb421d29449e: GoogleStrategy: reset 11[2020-10-08T02:07:18.469Z] DEBUG: growi:service:PassportService/71 on eb421d29449e: GitHubStrategy: reset 12[2020-10-08T02:07:18.469Z] DEBUG: growi:service:PassportService/71 on eb421d29449e: TwitterStrategy: reset 13[2020-10-08T02:07:18.471Z] INFO: growi:service:search/71 on eb421d29449e: Initializing search delegator 14[2020-10-08T02:07:18.471Z] INFO: growi:service:search/71 on eb421d29449e: Elasticsearch (not Searchbox) is enabled 15[2020-10-08T02:07:20.379Z] INFO: growi:plugins:PluginService/71 on eb421d29449e: load plugin 'growi-plugin-attachment-refs' 16[2020-10-08T02:07:20.383Z] INFO: growi:plugins:PluginService/71 on eb421d29449e: load plugin 'growi-plugin-lsx' 17[2020-10-08T02:07:20.386Z] INFO: growi:plugins:PluginService/71 on eb421d29449e: load plugin 'growi-plugin-pukiwiki-like-linker' 18[2020-10-08T02:07:20.831Z] INFO: growi:crowi/71 on eb421d29449e: [production] Express server is listening on port 3000
growi-docker-compose_app_1
[2020-10-08T02:06:59,264][INFO ][o.e.p.PluginsService ] [e7h7cZ8] loaded plugin [ingest-geoip] [2020-10-08T02:06:59,264][INFO ][o.e.p.PluginsService ] [e7h7cZ8] loaded plugin [ingest-user-agent] [2020-10-08T02:07:06,137][INFO ][o.e.x.s.a.s.FileRolesStore] [e7h7cZ8] parsed [0] roles from file [/usr/share/elasticsearch/config/roles.yml] [2020-10-08T02:07:06,814][INFO ][o.e.x.m.p.l.CppLogMessageHandler] [e7h7cZ8] [controller/86] [Main.cc@109] controller (64 bit): Version 6.6.1 (Build a033f1b9679cab) Copyright (c) 2019 Elasticsearch BV [2020-10-08T02:07:07,842][INFO ][o.e.d.DiscoveryModule ] [e7h7cZ8] using discovery type [zen] and host providers [settings] [2020-10-08T02:07:09,030][INFO ][o.e.n.Node ] [e7h7cZ8] initialized [2020-10-08T02:07:09,031][INFO ][o.e.n.Node ] [e7h7cZ8] starting ... [2020-10-08T02:07:09,438][INFO ][o.e.t.TransportService ] [e7h7cZ8] publish_address {127.0.0.1:9300}, bound_addresses {127.0.0.1:9300} [2020-10-08T02:07:09,474][WARN ][o.e.b.BootstrapChecks ] [e7h7cZ8] max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144] [2020-10-08T02:07:12,617][INFO ][o.e.c.s.MasterService ] [e7h7cZ8] zen-disco-elected-as-master ([0] nodes joined), reason: new_master {e7h7cZ8}{e7h7cZ8-QaO0Nt14jpWBWA}{fWQLuIXxQeC1vuhBcOoA2w}{127.0.0.1}{127.0.0.1:9300}{ml.machine_memory=8186896384, xpack.installed=true, ml.max_open_jobs=20, ml.enabled=true} [2020-10-08T02:07:12,633][INFO ][o.e.c.s.ClusterApplierService] [e7h7cZ8] new_master {e7h7cZ8}{e7h7cZ8-QaO0Nt14jpWBWA}{fWQLuIXxQeC1vuhBcOoA2w}{127.0.0.1}{127.0.0.1:9300}{ml.machine_memory=8186896384, xpack.installed=true, ml.max_open_jobs=20, ml.enabled=true}, reason: apply cluster state (from master [master {e7h7cZ8}{e7h7cZ8-QaO0Nt14jpWBWA}{fWQLuIXxQeC1vuhBcOoA2w}{127.0.0.1}{127.0.0.1:9300}{ml.machine_memory=8186896384, xpack.installed=true, ml.max_open_jobs=20, ml.enabled=true} committed version [1] source [zen-disco-elected-as-master ([0] nodes joined)]]) [2020-10-08T02:07:12,738][INFO ][o.e.h.n.Netty4HttpServerTransport] [e7h7cZ8] publish_address {172.19.0.3:9200}, bound_addresses {0.0.0.0:9200} [2020-10-08T02:07:12,738][INFO ][o.e.n.Node ] [e7h7cZ8] started [2020-10-08T02:07:12,819][WARN ][o.e.x.s.a.s.m.NativeRoleMappingStore] [e7h7cZ8] Failed to clear cache for realms [[]] [2020-10-08T02:07:12,987][INFO ][o.e.g.GatewayService ] [e7h7cZ8] recovered [0] indices into cluster_state [2020-10-08T02:07:15,050][INFO ][o.e.c.m.MetaDataIndexTemplateService] [e7h7cZ8] adding template [.watch-history-9] for index patterns [.watcher-history-9*] [2020-10-08T02:07:15,159][INFO ][o.e.c.m.MetaDataIndexTemplateService] [e7h7cZ8] adding template [.triggered_watches] for index patterns [.triggered_watches*] [2020-10-08T02:07:15,245][INFO ][o.e.c.m.MetaDataIndexTemplateService] [e7h7cZ8] adding template [.watches] for index patterns [.watches*] [2020-10-08T02:07:15,330][INFO ][o.e.c.m.MetaDataIndexTemplateService] [e7h7cZ8] adding template [.monitoring-logstash] for index patterns [.monitoring-logstash-6-*] [2020-10-08T02:07:15,458][INFO ][o.e.c.m.MetaDataIndexTemplateService] [e7h7cZ8] adding template [.monitoring-es] for index patterns [.monitoring-es-6-*] [2020-10-08T02:07:15,527][INFO ][o.e.c.m.MetaDataIndexTemplateService] [e7h7cZ8] adding template [.monitoring-alerts] for index patterns [.monitoring-alerts-6] [2020-10-08T02:07:15,621][INFO ][o.e.c.m.MetaDataIndexTemplateService] [e7h7cZ8] adding template [.monitoring-beats] for index patterns [.monitoring-beats-6-*] [2020-10-08T02:07:15,683][INFO ][o.e.c.m.MetaDataIndexTemplateService] [e7h7cZ8] adding template [.monitoring-kibana] for index patterns [.monitoring-kibana-6-*] [2020-10-08T02:07:15,921][INFO ][o.e.l.LicenseService ] [e7h7cZ8] license [71409035-13bc-4995-a7f1-e1a57a0a4add] mode [basic] - valid [2020-10-08T02:07:19,294][WARN ][o.e.d.c.m.MetaDataCreateIndexService] [e7h7cZ8] the default number of shards will change from [5] to [1] in 7.0.0; if you wish to continue using the default of [5] shards, you must manage this on the create index request or with an index template [2020-10-08T02:07:19,337][INFO ][o.e.c.m.MetaDataCreateIndexService] [e7h7cZ8] [growi] creating index, cause [api], templates [], shards [5]/[1], mappings [pages]
growi-docker-compose_mongo_1
2020-10-08T02:07:21.034+0000 I COMMAND [conn60] command growi.$cmd command: createIndexes { createIndexes: "bookmarks", indexes: [ { name: "page_1_user_1", key: { page: 1, user: 1 }, unique: true, background: true } ], lsid: { id: UUID("99732457-3865-4c08-8bce-00e5594976ba") }, $db: "growi" } numYields:0 reslen:98 locks:{ Global: { acquireCount: { r: 2, w: 2 } }, Database: { acquireCount: { w: 3, W: 2 }, acquireWaitCount: { w: 1, W: 2 }, timeAcquiringMicros: { w: 42650, W: 61290 } }, Collection: { acquireCount: { w: 2 } } } protocol:op_msg 132ms 2020-10-08T02:07:21.050+0000 I COMMAND [conn64] command growi.$cmd command: createIndexes { createIndexes: "attachments", indexes: [ { name: "fileName_1", key: { fileName: 1 }, unique: true, background: true } ], lsid: { id: UUID("25a39d6c-25e3-47e3-8f81-fcfa47097d8b") }, $db: "growi" } numYields:0 reslen:98 locks:{ Global: { acquireCount: { r: 2, w: 2 } }, Database: { acquireCount: { w: 3, W: 2 }, acquireWaitCount: { w: 2, W: 2 }, timeAcquiringMicros: { w: 45381, W: 46695 } }, Collection: { acquireCount: { w: 2 } } } protocol:op_msg 152ms 2020-10-08T02:13:20.900+0000 I NETWORK [conn61] end connection 172.19.0.4:50198 (6 connections now open) 2020-10-08T02:13:20.941+0000 I NETWORK [conn62] end connection 172.19.0.4:50200 (5 connections now open) 2020-10-08T02:13:20.945+0000 I NETWORK [conn63] end connection 172.19.0.4:50202 (4 connections now open) 2020-10-08T02:13:21.042+0000 I NETWORK [conn60] end connection 172.19.0.4:50196 (3 connections now open) 2020-10-08T02:13:21.054+0000 I NETWORK [conn64] end connection 172.19.0.4:50204 (2 connections now open)

気になる質問をクリップする

クリップした質問は、後からいつでもMYページで確認できます。

またクリップした質問に回答があった際、通知やメールを受け取ることができます。

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

gentaro

2020/10/07 04:32

その記事のコメントで書いた人に直接聞けばいいのに、やらないのはなんで?
kakeiteiya

2020/10/07 04:41

たしかに????思いつきませんでした????
kmdkuk

2020/10/07 22:48

これは,動いていると思うのですが,,, localhost:3000とかにアクセスしてみても何もみれないということですか? このmessage自体はそれぞれmongoDBへのコネクションがN個開いてますよっていうメッセージだと思うのですが
kakeiteiya

2020/10/08 00:37

localhost:3000でアクセスできませんでした・・・何か原因考えられますか?
kakeiteiya

2020/10/08 01:08

すみません。正確にはEC2のパブリック IPv4 DNS:3000(ec2-~~~~~~~.ap-northeast-1.compute.amazonaws.com:3000)でアクセスできませんでした。 IPアドレス:3000でも同じでしたが。。。
guest

回答1

0

ベストアンサー

docker-compose up -dが途中で止まるという事ですよね?
mongodbへの接続に関係してそうですが頂いたログだけでは判断が難しいです。
コンテナがキャッシュされてないか確認して、再作成からやりなおしするか、
コンテナ内のログなどもう少し詳細な情報が無いと判断が難しいと考えております。

投稿2020/10/08 00:52

yasutakatou

総合スコア446

バッドをするには、ログインかつ

こちらの条件を満たす必要があります。

kakeiteiya

2020/10/08 01:03

コンテナ内のログを見ていませんでした・・・!ありがとうございます 確認してみます
yasutakatou

2020/10/08 01:42

お手数おかけします。作り直しは出来ない状況でしょうか。 経験上、コンテナ作成時に負荷が高いとか稀なタイミングでオーケストレーションが必要なものが 失敗したことがありまして。もしよろしければあわせてご検討頂ければと思います。
kakeiteiya

2020/10/08 01:45

ありがとうございます・・・! つくりなおしてみます! dockerに疎くて申し訳ないのですが、作成したディレクトリごとけして再度git cloneすればいいですよね・・・
kakeiteiya

2020/10/08 01:58

コンテナもイメージも全部けしてgit cloneからはじめます・・・!
kakeiteiya

2020/10/08 02:19

sudo docker-compose up -dで起動して10分ですが、まだブラウザからは見れず。。。 コンテナのログを追記しましたが何か怪しい箇所あればすみませんが教えてください????????????
yasutakatou

2020/10/08 02:59

[production] Express server is listening on port 3000が出ているのでhttp://localhost:3000から アクセスできるはずなんですがわからないですね。。Growiは動いているように見えます。 curl http://localhost:3000などでサーバーのローカルからアクセスしてどうなるかご確認頂けますか? それでアクセスできないならOSのファイアウォールなど別要因かもしれないです。
kakeiteiya

2020/10/08 03:22

ありがとうございます・・・! 自分のパソコンからcurlうちましたが、time outしました・・ファイアウォールですね・・・確認してみます・・! $ curl http://EC2のオープンアドレス:3000/ curl: (7) Failed to connect to EC2のオープンアドレス port 3000: Timed out
yasutakatou

2020/10/08 04:32

おお!だとするとファイウォールの可能性が高くなってきましたね。 ただ、EC2にログインしてからローカルでうって反応するか念のために確認した方が良いです。 そこでアクセスできて反応があるようであればファイアウォール確定ぽいと思われます。 ファイアウォールはOSなら例えばiptablesやufw、firewalldでポート空けるか(ちと危険ですが)一瞬全開放するかで試せます。OSやその版数、ディストリビューションの種類によってファイアウォールは違うので注意です。またクラウドなのでクラウドの機能としてのファイアウォールもあるので両方確認が要ります。
kakeiteiya

2020/10/08 04:36

>EC2にログインしてからローカルでうって反応するか念のために確認した方が良いです。 此方も試しましたが、同じくタイムアウトでした。。。
kakeiteiya

2020/10/08 04:38

どちらにせよ一度全開放してみます・・・!ありがとうございます・・・!
yasutakatou

2020/10/08 04:45

なるほど。それならOS側だけかもしれないですね。もしよろしければコンテナの中から3000ポートがあがっているか、curlでアクセスできるかが試せればより調査が進みそうです。 コンテナの中にはいるにはdocker execの使い方を調べると良いです。 コンテナの中で調査するにはdocker cpなどでコンテナにコマンドを送り込んであげると良いかと思います。
kakeiteiya

2020/10/08 04:53

EC2のファイアウォールの設定でした???????????????????????????? ありがとうございます????????????????????????????????????????????????
kakeiteiya

2020/10/08 05:08

ご丁寧に対応ありがとうございました????
yasutakatou

2020/10/08 05:59

やったー!解決できて僕も嬉しいです!!! 見る人によっては先にファイアウォールチェックするもんだよーって言うかもなので、今後同じような対応するときの学びになりました!!
kakeiteiya

2020/10/08 08:14

自分もこれからファイアウォールのチェックをするよう心がけます????
guest

あなたの回答

tips

太字

斜体

打ち消し線

見出し

引用テキストの挿入

コードの挿入

リンクの挿入

リストの挿入

番号リストの挿入

表の挿入

水平線の挿入

プレビュー

15分調べてもわからないことは
teratailで質問しよう!

ただいまの回答率
85.46%

質問をまとめることで
思考を整理して素早く解決

テンプレート機能で
簡単に質問をまとめる

質問する

関連した質問