AWSのEKSのバージョンアップをマネジメントコンソール上から実施したいのですが、以下のようなエラーが発生しており、完了できません。eksctlを使用してのアップデートも同様のエラーが発生します
調べても類似のエラー発生報告すらなく、手詰まりです。
Role with arn: arn:aws:iam::999999999999:role/eksctl-hoge-eks-cluster-ServiceRole-XXXXXXXXXX, could not be assumed because it does not exist or the trusted entity is not correct
確認済み、試したこと
- エラー本文内のサービスロールが存在することは確認できています。
- サービスロールの信頼されたエンティティに操作実施するロールは追加しています
kube-system 内の aws-config ConfigMap は正しく設定できていますか?
また、正しい aws profile を使っていますか?
>kube-system 内の aws-config ConfigMap は正しく設定できていますか?
ここでいう、正しくとは、どういった状態であれば正しいと判断できるのでしょう?
現状のmapRolesは以下のようになっていました
`kubectl edit -n kube-system configmap/aws-auth`
```
data:
mapRoles: |
- groups:
- system:bootstrappers
- system:nodes
- system:node-proxier
rolearn: arn:aws:iam::999999999999:role/eksctl-hoge-eks-cluster-FargatePodExecutionRole-AAAAAAAAAAAA
username: system:node:{{SessionName}}
```
editは編集ができる危険なコマンドなので、
`kubectl get cm aws-auth -n kube-system -o yaml` のほうが良いと思います。
すみません、クラスター自体のバージョンアップだったので、このConfigMapは関係なかったですね・・・
https://github.com/weaveworks/eksctl/issues/2182 このへんにもあるように、お使いのロールにポリシーが足りない場合にエラーが出るようです。
あなたの回答
tips
プレビュー