JSON과 Protobuf 직렬화 스키마 모두 스키마 변경에 대해서
동일한 가이드라인을 따른다. 이후 설명에서는 이 형식 모두를 다룬다.
API 버전 규칙과 소프트웨어 버전 규칙은 간접적으로 연관된다.
API와 릴리스 버전 부여에 관한 제안에는
API 버전 규칙과 소프트웨어 버전 규칙 간의 관계가 기술되어 있다.
API 버전의 차이는 수준의 안정성과 지원의 차이를 나타낸다.
API 변경 문서에서
각 수준의 기준에 대한 더 많은 정보를 찾을 수 있다.
아래는 각 수준의 기준에 대한 요약이다.
알파(Alpha):
버전 이름에 alpha가 포함된다(예: v1alpha1).
빌트인 알파 API 버전은 기본적으로 활성화되지 않으며, 활성화하기 위해서는 kube-apiserver 설정에 반드시 명시해야 한다.
버그가 있을 수도 있다. 이 기능을 활성화하면 버그에 노출될 수 있다.
알파 API에 대한 기술 지원이 언제든 공지 없이 중단될 수 있다.
다음 소프트웨어를 릴리스할 때 공지 없이 API의 호환성이 깨지는 방식으로 변경될 수 있다.
버그에 대한 위험이 높고 장기간 지원되지 않으므로
단기간 테스트 용도의 클러스터에서만 사용하기를 권장한다.
베타(Beta):
버전 이름에 beta가 포함된다(예: v2beta3).
빌트인 베타 API 버전은 기본적으로 활성화되지 않으며, 활성화하기 위해서는 kube-apiserver 설정에 반드시 명시해야 한다.
(예외사항 쿠버네티스 1.22 버전 이전의 베타 API들은 기본적으로 활성화되어 있다.)
빌트인 베타 API 버전이 더 이상 지원되지 않기까지는 9달 또는 3번의 마이너 릴리스(둘 중 더 긴 것을 기준으로 함)가 걸린다.
그리고 지원되지 않은 시점에서 제거되기까지는 다시 9달 또는 3번의 마이너 릴리스(둘 중 더 긴 것을 기준으로 함)가 걸린다.
코드가 잘 테스트 되었다. 이 기능을 활성화해도 안전하다.
구체적인 내용이 바뀔 수는 있지만, 전반적인 기능에 대한 기술 지원이 중단되지 않는다.
오브젝트에 대한 스키마나 문법이 다음 베타 또는 안정화 API 버전에서
호환되지 않는 방식으로 바뀔 수도 있다. 이런 경우, 다음 버전으로
이관할 수 있는 가이드가 제공된다. 다음 베타 또는 안정화 API 버전을 적용하는 것은
API 오브젝트의 편집 또는 재생성이 필요할 수도 있으며, 그렇게 쉬운 일만은 아닐 것이다.
이 기능에 의존하고 있는 애플리케이션은 다운타임이 필요할 수도 있다.
이 소프트웨어는 프로덕션 용도로 권장하지 않는다. 이후 여러 버전에서
호환되지 않는 변경 사항이 적용될 수 있다.
베타 API 버전이 더 이상 지원되지 않는 경우, 후속 베타 또는 안정화 API 버전으로 전환하기 위해서는
베타 API 버전을 사용해야 한다.
참고: 베타 기능을 사용해보고 피드백을 제공하자. 기능이 베타 수준을 벗어난 이후에는
실질적으로 더 많은 변경이 어렵다.
안정화(Stable):
버전 이름이 vX이고 X 는 정수다.
안정화된 API 버전은 이후의 모든 쿠버네티스 메이저 버전에서 사용 가능하며,
현재로써 쿠버네티스 메이저 버전에서 안정화된 API를 제거하려는 계획은 없다.
API 그룹
API 그룹은
쿠버네티스 API를 더 쉽게 확장할 수 있도록 해 준다.
API 그룹은 REST 경로와 직렬화된 오브젝트의 apiVersion 필드에
명시된다.
쿠버네티스에는 다음과 같은 다양한 API 그룹이 있다.
핵심 (또는 레거시 라고 불리는) 그룹은 REST 경로 /api/v1에 있다.
핵심 그룹은 apiVersion 필드의 일부로 명시되지 않는다. 예를
들어, apiVersion: v1 과 같다.
이름이 있는 그룹은 REST 경로 /apis/$GROUP_NAME/$VERSION에 있으며
apiVersion: $GROUP_NAME/$VERSION을 사용한다(예를 들어, apiVersion: batch/v1).
지원되는 API 그룹 전체의 목록은
쿠버네티스 API 참조 문서에서 확인할 수 있다.
API 그룹 활성화 또는 비활성화
특정 리소스 및 API 그룹은 기본적으로 활성화된다. API 서버에서
--runtime-config 를 설정하여 활성화 또는 비활성화할 수 있다.
--runtime-config 플래그는 API 서버의 런타임 구성을 설명하는
쉼표로 구분된 <key>=<value> 쌍을 허용한다. 만약 =<value>
부분을 생략하면, =true 가 명시된 것처럼 취급한다. 예를 들면, 다음과 같다.
batch/v1 을 비활성화하려면, --runtime-config=batch/v1=false 로 설정
batch/v2alpha1 을 활성화하려면, --runtime-config=batch/v2alpha1 으로 설정
예를 들어 storage.k8s.io/v1beta1/csistoragecapacities와 같이 특정 버전의 API를 활성화하려면, --runtime-config=storage.k8s.io/v1beta1/csistoragecapacities와 같이 설정
참고: 그룹이나 리소스를 활성화 또는 비활성화하려면, apiserver와 controller-manager를 재시작하여
--runtime-config 변경을 반영해야 한다.
이 페이지는 다양한 프로그래밍 언어에서 쿠버네티스 API를 사용하기 위한
클라이언트 라이브러리에 대한 개요를 포함하고 있다.
쿠버네티스 REST API를 사용해 애플리케이션을 작성하기 위해
API 호출 또는 요청/응답 타입을 직접 구현할 필요는 없다.
사용하고 있는 프로그래밍 언어를 위한 클라이언트 라이브러리를 사용하면 된다.
클라이언트 라이브러리는 대체로 인증과 같은 공통의 태스크를 처리한다.
대부분의 클라이언트 라이브러리들은 API 클라이언트가 쿠버네티스 클러스터 내부에서 동작하는 경우 인증
또는 kubeconfig 파일 포맷을 통해
자격증명과 API 서버 주소를 읽을 수 있게
쿠버네티스 서비스 어카운트를 발견하고 사용할 수 있다.
참고: 이 섹션은 쿠버네티스에 필요한 기능을 제공하는 써드파티 프로젝트와 관련이 있다. 쿠버네티스 프로젝트 작성자는 써드파티 프로젝트에 책임이 없다. 이 페이지는 CNCF 웹사이트 가이드라인에 따라 프로젝트를 알파벳 순으로 나열한다. 이 목록에 프로젝트를 추가하려면 변경사항을 제출하기 전에 콘텐츠 가이드를 읽어본다.
다음의 쿠버네티스 API 클라이언트 라이브러리들은 쿠버네티스 팀이 아닌
각각의 저자들이 제공하고 관리한다.
쿠버네티스 API 서버는 현재 상태를 나타내는 API 엔드포인트를 제공한다.
이 페이지에서는 API 엔드포인트들에 대해 설명하고 이를 사용하는 방법을 다룬다.
헬스를 위한 API 엔드포인트
쿠버네티스 API 서버는 현재 상태를 나타내는 세 가지 API 엔드포인트(healthz, livez 와 readyz)를 제공한다.
healthz 엔드포인트는 사용 중단(deprecated)됐으며 (쿠버네티스 v1.16 버전 이후), 대신 보다 구체적인 livez 와 readyz 엔드포인트를 사용해야 한다.
livez 엔드포인트는 --livez-grace-period플래그 옵션을 사용하여 시작 대기 시간을 지정할 수 있다.
/readyz 엔드포인트는 --shutdown-delay-duration플래그 옵션을 사용하여 정상적(graceful)으로 셧다운할 수 있다.
API 서버의 healthz/livez/readyz 를 사용하는 머신은 HTTP 상태 코드에 의존해야 한다.
상태 코드 200은 호출된 엔드포인트에 따라 API 서버의 healthy/live/ready 상태를 나타낸다.
아래 표시된 더 자세한 옵션은 운영자가 클러스터를 디버깅하거나 특정 API 서버의 상태를 이해하는 데 사용할 수 있다.
다음의 예시는 헬스 API 엔드포인트와 상호 작용할 수 있는 방법을 보여준다.
모든 엔드포인트에 대해, verbose 파라미터를 사용하여 검사 항목과 상태를 출력할 수 있다.
이는 운영자가 머신 사용을 위한 것이 아닌, API 서버의 현재 상태를 디버깅하는데 유용하다.
curl -k https://localhost:6443/livez?verbose
인증을 사용하는 원격 호스트에서 사용할 경우에는 다음과 같이 수행한다.
kubectl get --raw='/readyz?verbose'
출력은 다음과 같다.
[+]ping ok
[+]log ok
[+]etcd ok
[+]poststarthook/start-kube-apiserver-admission-initializer ok
[+]poststarthook/generic-apiserver-start-informers ok
[+]poststarthook/start-apiextensions-informers ok
[+]poststarthook/start-apiextensions-controllers ok
[+]poststarthook/crd-informer-synced ok
[+]poststarthook/bootstrap-controller ok
[+]poststarthook/rbac/bootstrap-roles ok
[+]poststarthook/scheduling/bootstrap-system-priority-classes ok
[+]poststarthook/start-cluster-authentication-info-controller ok
[+]poststarthook/start-kube-aggregator-informers ok
[+]poststarthook/apiservice-registration-controller ok
[+]poststarthook/apiservice-status-available-controller ok
[+]poststarthook/kube-apiserver-autoregistration ok
[+]autoregister-completion ok
[+]poststarthook/apiservice-openapi-controller ok
healthz check passed
또한 쿠버네티스 API 서버는 특정 체크를 제외할 수 있다.
쿼리 파라미터는 다음 예와 같이 조합될 수 있다.
[+]ping ok
[+]log ok
[+]etcd excluded: ok
[+]poststarthook/start-kube-apiserver-admission-initializer ok
[+]poststarthook/generic-apiserver-start-informers ok
[+]poststarthook/start-apiextensions-informers ok
[+]poststarthook/start-apiextensions-controllers ok
[+]poststarthook/crd-informer-synced ok
[+]poststarthook/bootstrap-controller ok
[+]poststarthook/rbac/bootstrap-roles ok
[+]poststarthook/scheduling/bootstrap-system-priority-classes ok
[+]poststarthook/start-cluster-authentication-info-controller ok
[+]poststarthook/start-kube-aggregator-informers ok
[+]poststarthook/apiservice-registration-controller ok
[+]poststarthook/apiservice-status-available-controller ok
[+]poststarthook/kube-apiserver-autoregistration ok
[+]autoregister-completion ok
[+]poststarthook/apiservice-openapi-controller ok
[+]shutdown ok
healthz check passed
개별 헬스 체크
기능 상태:Kubernetes v1.29 [alpha]
각 개별 헬스 체크는 HTTP 엔드포인트를 노출하며 개별적으로 체크할 수 있다.
개별 체크를 위한 스키마는 /livez/<healthcheck-name> 이고, 여기서 livez 와 readyz 는 API 서버의 활성 상태 또는 준비 상태인지를 확인할 때 사용한다.
<healthcheck-name> 경로 위에서 설명한 verbose 플래그를 사용해서 찾을 수 있고, [+] 와 ok 사이의 경로를 사용한다.
이러한 개별 헬스 체크는 머신에서 사용되서는 안되며, 운영자가 시스템의 현재 상태를 디버깅하는데 유용하다.
부트스트랩 토큰은 새 클러스터를 만들거나 새 노드를 기존 클러스터에 결합할 때
사용되는 간단한 전달자 토큰이다.
kubeadm을 지원하도록 구축되었지만
kubeadm 없이 클러스터를 시작하려는 사용자를 위해 다른 컨텍스트에서 사용할 수 있다.
또한 RBAC 정책을 통해 Kubelet TLS 부트스트래핑
시스템과 함께 동작하도록 구축되었다.
부트스트랩 토큰 개요
부트스트랩 토큰은 kube-system 네임스페이스에 있는
특정 유형(bootstrap.kubernetes.io/token)의 시크릿(Secret)으로 정의된다.
API 서버의 부트스트랩 인증자가 이러한 시크릿을 읽는다.
만료된 토큰은 컨트롤러 관리자가 TokenCleaner 컨트롤러로 제거한다.
토큰은 BootstrapSigner 컨트롤러를 통해
"discovery" 프로세스에 사용되는 특정 컨피그맵(ConfigMap)에 대한
서명을 만드는 데도 사용된다.
토큰 형식
부트스트랩 토큰은 abcdef.0123456789abcdef 형식을 취한다. 더 공식적으로는
정규식 [a-z0-9]{6}\.[a-z0-9]{16} 와 일치해야 한다.
토큰의 첫 번째 부분은 "Token ID" 이며 공개 정보로 간주된다.
인증에 사용하는 시크릿의 일부를 노출하지 않고 토큰을 참조할 때 사용한다.
두 번째 부분은 "Token Secret"이며
신뢰할 수 있는 당사자와만 공유해야 한다.
부트스트랩 토큰 인증 활성화
API 서버에서 다음 플래그를 사용하여 부트스트랩 토큰 인증자를
활성화할 수 있다.
--enable-bootstrap-token-auth
활성화되면 부트스트랩 토큰을 API 서버에 대한 요청을 인증하기 위한
전달자 토큰 자격 증명으로 사용할 수 있다.
Authorization: Bearer 07401b.f395accd246ae52d
토큰은 사용자 이름 system:bootstrap:<token id> 로 인증되며 system:bootstrappers 그룹의 구성원이다.
토큰의 시크릿에 추가 그룹을
지정할 수 있다.
만료된 토큰은 컨트롤러 관리자에서 tokencleaner
컨트롤러를 활성화하여 자동으로 삭제할 수 있다.
--controllers=*,tokencleaner
부트스트랩 토큰 시크릿 형식
각각의 유효한 토큰은 kube-system 네임스페이스의 시크릿에 의해 지원된다.
전체 디자인 문서는
여기에서 찾을 수 있다.
시크릿은 다음과 같다.
apiVersion:v1kind:Secretmetadata:# Name MUST be of form "bootstrap-token-<token id>"name:bootstrap-token-07401bnamespace:kube-system# Type MUST be 'bootstrap.kubernetes.io/token'type:bootstrap.kubernetes.io/tokenstringData:# Human readable description. Optional.description:"The default bootstrap token generated by 'kubeadm init'."# Token ID and secret. Required.token-id:07401btoken-secret:f395accd246ae52d# Expiration. Optional.expiration:2017-03-10T03:22:11Z# Allowed usages.usage-bootstrap-authentication:"true"usage-bootstrap-signing:"true"# Extra groups to authenticate the token as. Must start with "system:bootstrappers:"auth-extra-groups:system:bootstrappers:worker,system:bootstrappers:ingress
시크릿 유형은 bootstrap.kubernetes.io/token 이어야 하고
이름은 bootstrap-token-<token id>여야 한다. 반드시 kube-system
네임스페이스에도 존재해야 한다.
usage-bootstrap-* 멤버는 이 시크릿의 용도를 나타낸다.
활성화하려면 값을 true 로 설정해야 한다.
usage-bootstrap-authentication 은 토큰을 API 서버에
베어러 토큰으로 인증하는데 사용할 수 있음을 나타낸다.
usage-bootstrap-signing 은 토큰을 사용하여 아래에 설명된
cluster-info 컨피그맵에 서명할 수 있음을 나타낸다.
expiration 필드는 토큰의 만료를 제어한다. 만료된 토큰은
인증에 사용될 때 거부되고 컨피그맵서명 중에 무시된다.
만료된 값은 RFC3339를 사용하여 절대 UTC 시간으로 인코딩된다.
만료된 토큰을 자동으로 삭제하려면 tokencleaner 컨트롤러를 활성화한다.
kubeadm을 사용한 토큰 관리
kubeadm 툴을 사용하여 실행중인 클러스터에서 토큰을 관리할 수 있다.
자세한 내용은 kubeadm token docs 에서 찾을 수 있다.
컨피그맵 서명
토큰은 인증 외에도 컨피그맵에 서명하는데 사용할 수 있다.
이것은 클라이언트가 API 서버를 신뢰하기 전에 클러스터 부트스트랩 프로세스의 초기에 사용된다.
서명된 컨피그맵은 공유 토큰으로 인증할 수 있다.
컨트롤러 관리자에서 bootstrapsigner 컨트롤러를 활성화하여
컨피그맵서명을 활성화 한다.
--controllers=*,bootstrapsigner
서명된 컨피그맵은 kube-public 네임스페이스에 있는 cluster-info 이다.
일반적인 흐름은 클라이언트가 인증되지 않고 TLS 오류를 무시하는 동안
컨피그맵을 읽는 것이다. 그런 다음 컨피그맵에 포함된 서명을 확인하여
컨피그맵의 페이로드를 확인한다.
컨피그맵의 kubeconfig 멤버는 클러스터 정보만 입력된 구성 파일이다.
여기서 전달되는 핵심은 certificate-authority-data 이다.
이는 향후 확대될 수 있다.
서명은 "detached" 모드를 사용하는 JWS 서명이다. 서명을 검증하려면
사용자는 JWS 규칙(뒤로 오는 = 를 삭제하는 동안 인코딩된 base64)에 따라
kubeconfig 페이로드를 인코딩해야 한다. 그런 다음 인코딩된 페이로드는
두 개의 점 사이에 삽입하여 전체 JWS를 형성하는 데 사용된다.
전체 토큰(예:07401b.f395accd246ae52d)을 공유 시크릿으로 사용하여
HS256 방식(HMAC-SHA256)을 사용함으로 JWS를 확인할 수 있다.
사용자는 반드시 HS256이 사용되고 있는지 확인해야 한다.
경고: 부트스트래핑 토큰을 가진 모든 당사자는 해당 토큰에 대한 유효한 서명을 만들 수 있다.
컨피그맵 서명을 사용할 때 많은 클라이언트와 동일한 토큰을 공유하는 것은 권장되지 않는다.
손상된 클라이언트는 잠재적으로 서명에 의존하여
TLS 트러스트를 부트스트랩하는 다른 클라이언트를 대신할 수 있기 때문이다.
이 가이드는 서비스어카운트와 관련된 개념 중 일부를 설명하며,
서비스어카운트를 나타내는 토큰을 얻거나 취소하는
방법에 대해서도 설명한다.
시작하기 전에
쿠버네티스 클러스터가 필요하고, kubectl 커맨드-라인 툴이 클러스터와
통신할 수 있도록 설정되어 있어야 한다. 이 튜토리얼은 컨트롤 플레인 호스트가 아닌 노드가 적어도 2개 포함된 클러스터에서 실행하는 것을 추천한다. 만약, 아직 클러스터를 가지고
있지 않다면,
minikube를 사용해서 생성하거나
다음 쿠버네티스 플레이그라운드 중 하나를 사용할 수 있다.
아래 내용들을 따라하기 위해서는
examplens라는 네임스페이스가 필요하다.
없을 경우 다음과 같이 네임스페이스를 생성한다.
kubectl create namespace examplens
사용자 어카운트와 서비스 어카운트 비교
쿠버네티스는 여러 가지 이유로 사용자 어카운트와 서비스 어카운트의 개념을
구분한다.
사용자 어카운트는 사람을 위한 것이지만, 서비스 어카운트는 쿠버네티스의 경우 파드의 일부 컨테이너에서 실행되는
애플리케이션 프로세스를 위한 것이다.
사용자 어카운트는 전역적으로 고려되기 때문에,
클러스터의 모든 네임스페이스에 걸쳐 이름이 고유해야 한다. 어떤 네임스페이스를 확인하든지 간에,
특정 사용자명은 해당 유저만을 나타낸다.
쿠버네티스에서 서비스 어카운트는 네임스페이스별로 구분된다. 두 개의 서로 다른 네임스페이스는
동일한 이름의 서비스어카운트를 각자 가질 수 있다.
일반적으로 클러스터의 사용자 어카운트는 기업 데이터베이스로부터 동기화될 수 있으며,
여기서 새로운 사용자 어카운트를 생성하려면 특별한 권한이 필요하며 복잡한 비즈니스 프로세스에 연결된다.
반면에 서비스 어카운트를 생성하는 경우는,
클러스터 사용자가 최소 권한 원칙에 따라 특정 작업을 위한 서비스 어카운트를 만들 수 있도록
보다 가볍게 만들어졌다.
실 사용자를 온보딩하는 단계와 서비스어카운트를 생성하는 단계를 분리하는 것은,
워크로드가 최소 권한 원칙을 따르기 쉬워지게 한다.
사람과 서비스 어카운트에 대한 감사 고려 사항은 다를 수 있다. 이 둘을 따로 관리함으로써
더욱 쉽게 감사를 수행할 수 있다.
복잡한 시스템의 설정들은 그 시스템의 구성요소에 대한 다양한 서비스 어카운트 정의를 포함할 수 있다.
서비스 어카운트는 많은 제약없이 만들 수 있고
네임스페이스에 할당된 이름을 가질 수 있기 때문에
이러한 설정은 이식성이 좋다.
바인딩된 서비스 어카운트 토큰 볼륨 메커니즘
기능 상태:Kubernetes v1.22 [stable]
기본적으로,
쿠버네티스 컨트롤 플레인(구체적으로 말하자면 서비스어카운트 어드미션 컨트롤러)은
프로젝티드 볼륨을 파드에 추가하며,
이 볼륨은 쿠버네티스 API에 접근할 수 있는 토큰을 포함한다.
다음은 실행된 파드에서 해당 토큰이 어떻게 보이는지에 대한 예시이다.
...- name:kube-api-access-<random-suffix>projected:sources:- serviceAccountToken:path:token# 애플리케이션이 알고 있는 경로와 일치해야 한다.- configMap:items:- key:ca.crtpath:ca.crtname:kube-root-ca.crt- downwardAPI:items:- fieldRef:apiVersion:v1fieldPath:metadata.namespacepath:namespace
위의 매니페스트는 세 가지 정보로 구성된 프로젝티드 볼륨을 정의한다.
이 경우, 각 정보는 해당 볼륨 내의 단일 경로를 나타내기도 한다. 세 가지 정보는 다음과 같다.
서비스어카운트토큰(serviceAccountToken) 정보는 kubelet이 kube-apiserver로부터 취득한 토큰을 포함한다.
kubelet은 TokenRequest API를 통해 일정 시간 동안 사용할 수 있는 토큰을 발급 받는다.
이렇게 취득한 토큰은 파드가 삭제되거나 지정된 수명 주기 이후에 만료된다(기본값은 1시간이다).
이 토큰은 특정한 파드에 바인딩되며 kube-apiserver를 그 대상으로 한다.
이 메커니즘은 시크릿을 기반으로 볼륨을 추가하던 이전 메커니즘을 대체한 것이다.
해당 시크릿은 파드의 서비스어카운트를 나타냈었는데, 이는 토큰과는 달리 만료가 되지 않는 것이었다.
컨피그맵(ConfigMap) 정보는 인증 및 인가에 관한 번들을 포함한다.
파드들은 이러한 인증서를 사용하여 해당 클러스터의 kube-apiserver(미들박스나 실수로 잘못 구성된 피어가 아닌)
에 대한 연결을 확인할 수 있다.
DownwardAPI 정보는 파드가 포함된 네임스페이스를 검색하고,
해당 정보를 파드 내부에서 실행 중인 애플리케이션에서 사용할 수 있도록 한다.
이러한 볼륨을 마운트한 컨테이너는 위의 정보들에 접근할 수 있다.
참고: TokenRequest를 통해 발급된 토큰을 무효화하는 메커니즘은 없다.
만약 파드에 바인딩된 서비스 어카운트 토큰을 더 이상 신뢰하지 못하게 된다면, 파드를 삭제한다.
파드를 삭제하면 바인딩 되어있던 서비스 어카운트 토큰 역시 만료된다.
서비스어카운트에 대해 수동으로 시크릿 관리하기
쿠버네티스 v1.22 이전의 버전들은 쿠버네티스 API에 접근하기 위한 자격 증명들을 자동으로 생성했다.
이러한 옛 메커니즘들은, 실행 중인 파드에 마운트 될 수 있는
토큰 시크릿을 만드는 것에 기반을 두었다.
쿠버네티스 v1.29을 포함한 최신 버전에서는,
API 자격 증명들은 TokenRequest API를 사용하여
직접 얻을 수 있으며,
프로젝티드 볼륨을 사용하여 파드에 마운트할 수 있다.
이 방법으로 취득한 토큰은 시간 제한이 있으며,
마운트 되었던 파드가 삭제되는 경우 자동으로 만료된다.
예를 들어 평생 만료되지 않는 토큰이 필요한 경우, 서비스 어카운트 토큰을 유지하기 위한 시크릿을 수동으로 생성할 수 있다.
한 번 시크릿을 수동으로 생성하여 서비스어카운트에 연결했다면, 쿠버네티스 컨트롤 플레인은 자동으로 해당 시크릿에 토큰을 채운다.
참고: 장기간 사용할 서비스어카운트 토큰을 수동으로 생성하는 메커니즘이 존재하지만,
단기간 동안에만 사용할 토큰을 취득하는 경우
TokenRequest를 사용하는 것이 권장된다.
컨트롤 플레인의 세부 사항들
토큰 컨트롤러
토큰 컨트롤러는 kube-controller-manager 의 일부로써 실행되며,
비동기적으로 동작한다.
서비스어카운트에 대한 삭제를 감시하고, 해당하는 모든 서비스어카운트
토큰 시크릿을 같이 삭제한다.
서비스어카운트 토큰 시크릿에 대한 추가를 감시하고, 참조된 서비스어카운트가
존재하는지 확인하며, 필요한 경우 시크릿에 토큰을 추가한다.
시크릿에 대한 삭제를 감시하고, 필요한 경우 해당 서비스어카운트에서
참조 중인 항목들을 제거한다.
서비스 어카운트 개인키 파일은 --service-account-private-key-file
플래그를 사용하여 kube-controller-manager 의 토큰 컨트롤러에 전달해야
한다. 개인키는 생성된 서비스 어카운트 토큰에 서명하는 데 사용될 것이다.
마찬가지로 --service-account-key-file 플래그를 사용하여 해당 공개키를
kube-apiserver 에 전달해야 한다. 공개키는 인증 과정에서 토큰을
검증하는 데 사용될 것이다.
서비스어카운트 어드미션 컨트롤러
파드 수정은 어드미션 컨트롤러라는
플러그인을 통해 구현된다.
이것은 API 서버의 일부이며,
파드가 생성될 때 파드를 수정하기 위해 동기적으로 동작한다.
이 플러그인이 활성 상태(대부분의 배포에서 기본값)인 경우,
어드미션 컨트롤러는 파드의 생성 시점에 다음 작업들을 수행한다.
어드미션 컨트롤러는 실행되는 파드가 참조하는 서비스어카운트가 존재하는지 확인한다.
만약 해당하는 이름의 서비스어카운트가 존재하지 않는 경우, 어드미션 컨트롤러는 파드를 실행시키지 않는다.
이는 default 서비스어카운트에 대해서도 동일하게 적용된다.
서비스어카운트의 automountServiceAccountToken 또는 파드의 automountServiceAccountToken 중
어느 것도 false 로 설정되어 있지 않다면,
어드미션 컨트롤러는 실행하려는 파드에
API에 접근할 수 있는 토큰을 포함하는
볼륨 을 추가한다.
어드미션 컨트롤러는 파드의 각 컨테이너에 volumeMount를 추가한다.
이미 /var/run/secrets/kubernetes.io/serviceaccount 경로에 볼륨이 마운트 되어있는
컨테이너에 대해서는 추가하지 않는다.
리눅스 컨테이너의 경우, 해당 볼륨은 /var/run/secrets/kubernetes.io/serviceaccount 위치에 마운트되며,
윈도우 노드 역시 동일한 경로에 마운트된다.
파드의 spec에 imagePullSecrets 이 없는 경우,
어드미션 컨트롤러는 ServiceAccount의 imagePullSecrets을 복사하여 추가된다.
TokenRequest API
기능 상태:Kubernetes v1.22 [stable]
서비스어카운트의 하위 리소스인 TokenRequest를 사용하여
일정 시간 동안 해당 서비스어카운트에서 사용할 수 있는 토큰을 가져올 수 있다.
컨테이너 내에서 사용하기 위한 API 토큰을 얻기 위해 이 요청을 직접 호출할 필요는 없는데,
kubelet이 프로젝티드 볼륨 을 사용하여 이를 설정하기 때문이다.
서비스어카운트토큰(serviceAccountToken) 정보는 kubelet이 kube-apiserver로부터 취득한 토큰을 포함한다.
kubelet은 TokenRequest API를 통해 일정 시간 동안 사용할 수 있는 토큰을 발급 받는다.
이렇게 취득한 토큰은 파드가 삭제되거나 지정된 수명 주기 이후에 만료된다(기본값은 1시간이다).
이 토큰은 특정한 파드에 바인딩되며 kube-apiserver를 그 대상으로 한다.
컨피그맵(ConfigMap) 정보는 인증 및 인가에 관한 번들을 포함한다.
파드들은 이러한 인증서를 사용하여 해당 클러스터의 kube-apiserver(미들박스나 실수로 잘못 구성된 피어가 아닌)
에 대한 연결을 확인할 수 있다.
DownwardAPI 정보는 파드가 포함된 네임스페이스를 검색하고,
해당 정보를 파드 내부에서 실행 중인 애플리케이션에서 사용할 수 있도록 한다.
이러한 볼륨을 마운트한 컨테이너는 위의 정보들에 접근할 수 있다.
추가적인 API 토큰 생성하기
주의:토큰 요청 메커니즘이 적합하지 않은 경우에만 수명이 긴 API 토큰을 생성한다.
토큰 요청 메커니즘은 시간 제한이 있는 토큰만을 제공하며,
토큰이 만료되기 때문에 보안에 대한 위험이 적다.
서비스어카운트를 위한 만료되지 않는 API 토큰을 생성하려면,
해당 서비스어카운트를 참조하는 어노테이션을 갖는 kubernetes.io/service-account-token 타입의 시크릿을 생성한다.
그러면 컨트롤 플레인은 장기적으로 사용 가능한 토큰을 발급하여
시크릿을 갱신할 것이다.
예제를 위해 examplens 네임스페이스를 생성했었다면, 아래의 명령어로 제거할 수 있다.
kubectl delete namespace examplens
컨트롤 플레인의 세부 사항들
서비스어카운트 컨트롤러
서비스어카운트 컨트롤러는 네임스페이스 내의 서비스어카운트들을 관리하며,
활성화된 모든 네임스페이스에 "default"라는 이름의 서비스어카운트가 존재하도록 한다.
토큰 컨트롤러
토큰 컨트롤러는 kube-controller-manager의 일부로써 실행되며,
비동기적으로 동작한다.
서비스어카운트에 대한 생성을 감시하고, 해당 서비스어카운트 토큰 시크릿을 생성하여
API에 대한 접근을 허용한다.
서비스어카운트에 대한 삭제를 감시하고, 해당하는 모든 서비스어카운트
토큰 시크릿을 같이 삭제한다.
서비스어카운트 토큰 시크릿에 대한 추가를 감시하고, 참조된 서비스어카운트가
존재하는지 확인하며, 필요한 경우 시크릿에 토큰을 추가한다.
시크릿에 대한 삭제를 감시하고, 필요한 경우 해당 서비스어카운트에서
참조 중인 항목들을 제거한다.
서비스 어카운트 개인키 파일은 --service-account-private-key-file
플래그를 사용하여 kube-controller-manager 의 토큰 컨트롤러에 전달해야
한다. 개인키는 생성된 서비스 어카운트 토큰에 서명하는 데 사용될 것이다.
마찬가지로 --service-account-key-file 플래그를 사용하여 해당 공개키를
kube-apiserver 에 전달해야 한다. 공개키는 인증 과정에서 토큰을
검증하는 데 사용될 것이다.
지원되는 인가 모듈을 사용하여 정책을 만드는 방법을 포함한
쿠버네티스 인가에 대해 자세히 알아보자.
쿠버네티스에서는 사용자의 요청이 인가(접근 권한을 부여) 받기 전에 사용자가 인증(로그인)되어야 한다.
인증에 대한 자세한 내용은 쿠버네티스 API 접근 제어하기를
참고한다.
쿠버네티스는 REST API 요청에 공통적인 속성을 요구한다.
이는 쿠버네티스 인가가 쿠버네티스 API 이외에 다른 API를 처리할 수 있는
기존 조직 전체 또는 클라우드 제공자 전체의 접근 제어 시스템과
연동된다는 것을 의미한다.
요청 허용 또는 거부 결정
쿠버네티스는 API 서버를 이용하여 API 요청을 인가한다.
모든 정책과 비교하여 모든 요청 속성을 평가하고 요청을 허용하거나 거부한다.
계속 진행하려면 API 요청의 모든 부분이 일부 정책에 의해 반드시 허용되어야 한다.
이는 기본적으로 승인이 거부된다는 것을 의미한다.
(쿠버네티스는 API 서버를 사용하지만,
특정 오브젝트의 특정 필드에 의존하는 접근 제어 및 정책은
어드미션 컨트롤러에 의해 처리된다.)
여러 개의 인가 모듈이 구성되면 각 모듈이 순서대로 확인된다.
어느 인가 모듈이 요청을 승인하거나 거부할 경우, 그 결정은 즉시 반환되며 다른 인가 모듈이 참고되지 않는다.
모든 모듈에서 요청에 대한 평가가 없으면 요청이 거부된다.
요청 거부는 HTTP 상태 코드 403을 반환한다.
요청 속성 검토
쿠버네티스는 다음 API 요청 속성만 검토한다.
user - 인증 중에 제공된 user 문자열.
group - 인증된 사용자가 속한 그룹 이름 목록.
extra - 인증 계층에서 제공하는 문자열 값에 대한 임의의 문자열 키 맵.
API - 요청이 API 리소스에 대한 것인지 여부.
Request path - /api 또는 /healthz와 같이 다양한 리소스가 아닌 엔드포인트의 경로.
API request verb - get, list, create, update, patch, watch, delete, deletecollection과 같은 리소스 요청에 사용하는 API 동사. 리소스 API 엔드포인트의 요청 동사를 결정하려면 요청 동사 결정을 참고한다.
HTTP request verb - get, post, put, delete처럼 소문자 HTTP 메서드는 리소스가 아닌 요청에 사용한다.
Resource - 접근 중인 리소스의 ID 또는 이름(리소스 요청만 해당) -- get, update, patch, delete 동사를 사용하는 리소스 요청의 경우 리소스 이름을 지정해야 한다.
Subresource - 접근 중인 하위 리소스(리소스 요청만 해당).
Namespace - 접근 중인 오브젝트의 네임스페이스(네임스페이스에 할당된 리소스 요청만 해당)
API group - 접근 중인 API 그룹(리소스 요청에만 해당). 빈 문자열은 핵심(core)API 그룹을 지정한다.
요청 동사 결정
리소스가 아닌 요청/api/v1/... 또는 /apis/<group>/<version>/... 이외에 다른 엔드포인트에 대한 요청은
"리소스가 아닌 요청"으로 간주되며, 요청의 소문자 HTTP 메서드를 동사로 사용한다.
예를 들어, /api 또는 /healthz와 같은 엔드포인트에 대한 GET 요청은 get을 동사로 사용할 것이다.
리소스 요청
리소스 API 엔드포인트에 대한 요청 동사를 결정하려면
사용된 HTTP 동사와 해당 요청이 개별 리소스 또는 리소스 모음에 적용되는지 여부를
검토한다.
HTTP 동사
요청 동사
POST
create
GET, HEAD
get(개별 리소스), list(전체 오브젝트 내용을 포함한 리소스 모음), watch(개별 리소스 또는 리소스 모음을 주시)
PUT
update
PATCH
patch
DELETE
delete(개별 리소스), deletecollection(리소스 모음)
주의:get, list, watch 요청은 모두 리소스의 전체 세부 내용을 반환할 수 있다. 반환된 데이터의 관점으론 모두 동일하다. 예를 들어 secrets에 대해 list 요청은 반환된 리소스의 data 속성을 여전히 드러낼 것이다.
핵심 API 그룹의 users, groups, serviceaccounts와 authentication.k8s.io API 그룹의 userextras 동사.
인가 모드
쿠버네티스 API 서버는 몇 가지 인가 모드 중 하나를 사용하여 요청을 승인할 수 있다.
Node - 실행되도록 스케줄된 파드에 따라 kubelet에게 권한을 부여하는 특수 목적 인가 모드. Node 인가 모드 사용에 대한 자세한 내용은 Node 인가를 참조한다.
ABAC - 속성 기반 접근 제어 (ABAC, Attribute-based access control)는 속성과 결합한 정책의 사용을 통해 사용자에게 접근 권한을 부여하는 접근 제어 패러다임을 말한다. 이 정책은 모든 유형의 속성(사용자 속성, 리소스 속성, 오브젝트, 환경 속성 등)을 사용할 수 있다. ABAC 모드 사용에 대한 자세한 내용은 ABAC 모드를 참조한다.
RBAC - 역할 기반 접근 제어(RBAC, Role-based access control)는 기업 내 개별 사용자의 역할을 기반으로 컴퓨터나 네트워크 리소스에 대한 접근을 규제하는 방식이다. 이 맥락에서 접근은 개별 사용자가 파일을 보거나 만들거나 수정하는 것과 같은 특정 작업을 수행할 수 있는 능력이다. RBAC 모드 사용에 대한 자세한 내용은 RBAC 모드를 참조한다.
지정된 RBAC(역할 기반 접근 제어)이 인가 결정을 위해 rbac.authorization.k8s.io API 그룹을 사용하면, 관리자가 쿠버네티스 API를 통해 권한 정책을 동적으로 구성할 수 있다.
RBAC을 활성화하려면 --authorization-mode=RBAC로 API 서버를 시작한다.
Webhook - WebHook은 HTTP 콜백이다(어떤 일이 일어날 때 발생하는 HTTP POST와 HTTP POST를 통한 간단한 이벤트 알림). WebHook을 구현하는 웹 애플리케이션은 특정한 일이 발생할 때 URL에 메시지를 POST 할 것이다. Webhook 모드 사용에 대한 자세한 내용은 Webhook 모드를 참조한다.
API 접근 확인
kubectl은 API 인증 계층을 신속하게 쿼리하기 위한 auth can-i 하위 명령어를 제공한다.
이 명령은 현재 사용자가 지정된 작업을 수행할 수 있는지 여부를 알아내기 위해 SelfSubjectAccessReview API를 사용하며,
사용되는 인가 모드에 관계없이 작동한다.
kubectl auth can-i create deployments --namespace dev
SelfSubjectAccessReview는 authorization.k8s.io API 그룹의 일부로서
API 서버 인가를 외부 서비스에 노출시킨다.
이 그룹의 기타 리소스에는 다음이 포함된다.
SubjectAccessReview - 현재 사용자뿐만 아니라 모든 사용자에 대한 접근 검토. API 서버에 인가 결정을 위임하는 데 유용하다. 예를 들어, kubelet 및 확장(extension) API 서버는 자신의 API에 대한 사용자 접근을 결정하기 위해 해당 리소스를 사용한다.
LocalSubjectAccessReview - SubjectAccessReview와 비슷하지만 특정 네임스페이스로 제한된다.
SelfSubjectRulesReview - 사용자가 네임스페이스 안에서 수행할 수 있는 작업 집합을 반환하는 검토. 사용자가 자신의 접근을 빠르게 요약해서 보거나 UI가 작업을 숨기거나 표시하는 데 유용하다.
이러한 API는 반환된 오브젝트의 응답 "status" 필드가 쿼리의 결과인
일반 쿠버네티스 리소스를 생성하여 쿼리할 수 있다.
이 어노테이션이 "true"로 설정된 경우, 파드 축출을 막는 다른 규칙이 있는 경우에도
클러스터 오토스케일러가 파드를 축출할 수 있다.
클러스터 오토스케일러는 명시적으로 이 어노테이션이 "false"로 설정된 파드를 절대 축출하지 않는다.
따라서, 계속해서 실행을 유지하고자 하는 중요한 파드에 설정할 수 있다.
이 어노테이션이 설정되지 않은 경우, 클러스터 오토스케일러는 파드 수준(Pod-level) 동작을 따른다.
kubernetes.io/arch
예시: kubernetes.io/arch=amd64
적용 대상: 노드
Go에 의해 정의된 runtime.GOARCH 값을 kubelet이 읽어서 이 레이블의 값으로 채운다. arm 노드와 x86 노드를 혼합하여 사용하는 경우 유용할 수 있다.
kubernetes.io/os
예시: kubernetes.io/os=linux
적용 대상: 노드
Go에 의해 정의된 runtime.GOOS 값을 kubelet이 읽어서 이 레이블의 값으로 채운다. 클러스터에서 여러 운영체제를 혼합하여 사용(예: 리눅스 및 윈도우 노드)하는 경우 유용할 수 있다.
kubernetes.io/metadata.name
예시: kubernetes.io/metadata.name=mynamespace
적용 대상: 네임스페이스
(컨트롤 플레인의 일부인)
쿠버네티스 API 서버가 이 레이블을 모든 네임스페이스에 설정한다.
레이블의 값은 네임스페이스의 이름으로 적용된다. 이 레이블의 값을 변경할 수는 없다.
레이블 셀렉터를 이용하여 특정 네임스페이스를 지정하고 싶다면
이 레이블이 유용할 수 있다.
kubernetes.io/limit-ranger
예시: kubernetes.io/limit-ranger: "LimitRanger plugin set: cpu, memory request for container nginx; cpu, memory limit for container nginx"
적용 대상: 파드
쿠버네티스는 기본적으로 어떠한 리소스 한도도 설정하지 않는다. 명시적으로 한도를 설정하지 않을 경우,
컨테이너는 CPU와 메모리를 무제한으로 사용하게 된다.
네임스페이스에 리밋레인지를 생성함으로써 리소스에 대한 요청이나 한도 기본값을 파드에 설정할 수 있다.
리밋레인지를 정의한 뒤에 배포된 파드들은 이러한 한도가 적용된다.
kubernetes.io/limit-ranger 어노테이션은 파드에 대해 리소스 기본값이
성공적으로 적용되었다고 기록한다.
자세한 내용은 리밋레인지를 확인한다.
쿠버네티스는 클러스터에 ServiceNodeExclusion 기능 게이트를 자동으로 활성화한다. 해당 기능 게이트가 클러스터에 활성화되어 있으면,
백엔드 서버들로부터 특정 워커 노드를 제외시키도록 레이블을 추가할 수 있다.
다음 명령어는 백엔드 목록에서 워커 노드를 제외시키는 명령어이다.
kubectl label nodes <node-name> node.kubernetes.io/exclude-from-external-load-balancers=true
controller.kubernetes.io/pod-deletion-cost
예시: controller.kubernetes.io/pod-deletion-cost=10
적용 대상: 파드
이 어노테이션은 레플리카셋(ReplicaSet) 다운스케일 순서를 조정할 수 있는 요소인 파드 삭제 비용을
설정하기 위해 사용한다. 명시된 값은 int32 타입으로 파싱된다.
이 어노테이션은 클러스터 오토스케일러가 데몬셋 파드를 축출할 것인지 여부를 제어한다.
이 어노테이션은 데몬셋 매니페스트 내 데몬셋 파드에 명시되어야 한다.
이 어노테이션이 "true"로 설정된 경우, 파드 축출을 막는 다른 규칙이 있는 경우에도
클러스터 오토스케일러가 파드를 축출할 수 있다. 클러스터 오토스케일러가 데몬셋 파드를 축출하는 것을 허용하지 않기 위해서는,
중요한 데몬셋 파드에 이 어노테이션을 "false"로 설정한다.
이 어노테이션이 설정되지 않은 경우, 클러스터 오토스케일러는 전체 동작을 따른다. 즉, 해당 구성에 따라서 데몬셋을 축출한다.
참고: 이 어노테이션은 데몬셋 파드에만 적용된다.
kubernetes.io/ingress-bandwidth
참고: 인그레스 트래픽 조절 어노테이션은 실험적인 기능이다.
만약 트래픽 조절 기능을 활성화시키고 싶다면, CNI 설정 파일(기본적으로 /etc/cni/net.d)에 bandwidth 플러그인을 추가해야 하며,
실행파일이 CNI의 실행파일 경로(기본적으로 /opt/cni/bin) 아래에 포함되어있는지도 확인하자.
예시: kubernetes.io/ingress-bandwidth: 10M
적용 대상: 파드
파드에 QoS(quality-of-service)를 적용함으로써 가용한 대역폭을 효과적으로 제한할 수 있다.
인그레스 트래픽(파드로 향하는)은 효과적으로 데이터를 처리하기 위해 대기 중인 패킷을 큐로 관리한다.
파드의 대역폭을 제한하기 위해서는, 오브젝트를 정의하는 JSON 파일을 작성하고
kubernetes.io/ingress-bandwidth 어노테이션을 통해 데이터 트래픽의 속도를 명시한다. 인그레스 속도를 명시할 때 사용되는 단위는
초당 비트(수량)이다.
예를 들어, 10M은 초당 10 메가비트를 의미한다.
kubernetes.io/egress-bandwidth
참고: 이그레스 트래픽 조절 어노테이션은 실험적인 기능이다.
만약 트래픽 조절 기능을 활성화시키고 싶다면, CNI 설정 파일(기본적으로 /etc/cni/net.d)에 bandwidth 플러그인을 추가해야 하며,
실행파일이 CNI의 실행파일 경로(기본적으로 /opt/cni/bin) 아래에 포함되어있는지도 확인하자.
예시: kubernetes.io/egress-bandwidth: 10M
적용 대상: 파드
이그레스 트래픽(파드로부터의)은 설정된 속도를 초과하는 패킷을 삭제하는 정책에 의해 처리되며,
파드에 거는 제한은 다른 파드의 대역폭에 영향을 주지 않는다.
파드의 대역폭을 제한하기 위해서는, 오브젝트를 정의하는 JSON 파일을 작성하고
kubernetes.io/egress-bandwidth 어노테이션을 통해 데이터 트래픽의 속도를 명시한다. 이그레스 속도를 명시할 때 사용되는 단위는
초당 비트(수량)이다.
예를 들어, 10M은 초당 10 메가비트를 의미한다.
클라우드 제공자에 의해 정의된 인스턴스 타입의 값을 kubelet이 읽어서 이 레이블의 값으로 채운다.
클라우드 제공자를 사용하는 경우에만 이 레이블이 설정된다.
특정 워크로드를 특정 인스턴스 타입에 할당하고 싶다면 이 레이블이 유용할 수 있다.
하지만 일반적으로는 자원 기반 스케줄링을 수행하는 쿠버네티스 스케줄러를 이용하게 된다. 인스턴스 타입 보다는 특성을 기준으로 스케줄링을 고려해야 한다(예: g2.2xlarge 를 요구하기보다는, GPU가 필요하다고 요구한다).
노드의 경우: 클라우드 제공자가 제공하는 값을 이용하여 kubelet 또는 외부 cloud-controller-manager가 이 어노테이션의 값을 설정한다. 클라우드 제공자를 사용하는 경우에만 이 레이블이 설정된다. 하지만, 토폴로지 내에서 의미가 있는 경우에만 이 레이블을 노드에 설정해야 한다.
퍼시스턴트볼륨의 경우: 토폴로지 어웨어 볼륨 프로비저너가 자동으로 퍼시스턴트볼륨에 노드 어피니티 제약을 설정한다.
영역(zone)은 논리적 고장 도메인을 나타낸다. 가용성 향상을 위해 일반적으로 쿠버네티스 클러스터는 여러 영역에 걸쳐 구성된다. 영역에 대한 정확한 정의는 사업자 별 인프라 구현에 따라 다르지만, 일반적으로 영역은 '영역 내 매우 낮은 네트워크 지연시간, 영역 내 네트워크 트래픽 비용 없음, 다른 영역의 고장에 독립적임' 등의 공통적인 특성을 갖는다. 예를 들어, 같은 영역 내의 노드는 하나의 네트워크 스위치를 공유하여 활용할 수 있으며, 반대로 다른 영역에 있는 노드는 하나의 네트워크 스위치를 공유해서는 안 된다.
지역(region)은 하나 이상의 영역으로 구성된 더 큰 도메인을 나타낸다. 쿠버네티스 클러스터가 여러 지역에 걸쳐 있는 경우는 드물다. 영역이나 지역에 대한 정확한 정의는 사업자 별 인프라 구현에 따라 다르지만, 일반적으로 지역은 '지역 내 네트워크 지연시간보다 지역 간 네트워크 지연시간이 큼, 지역 간 네트워크 트래픽은 비용이 발생함, 다른 영역/지역의 고장에 독립적임' 등의 공통적인 특성을 갖는다. 예를 들어, 같은 지역 내의 노드는 전력 인프라(예: UPS 또는 발전기)를 공유하여 활용할 수 있으며, 반대로 다른 지역에 있는 노드는 일반적으로 전력 인프라를 공유하지 않는다.
쿠버네티스는 영역과 지역의 구조에 대해 다음과 같이 가정한다.
지역과 영역은 계층적이다. 영역은 지역의 엄격한 부분집합(strict subset)이며, 하나의 영역이 두 개의 지역에 속할 수는 없다.
영역 이름은 모든 지역에 걸쳐서 유일하다. 예를 들어, "africa-east-1" 라는 지역은 "africa-east-1a" 와 "africa-east-1b" 라는 영역으로 구성될 수 있다.
토폴로지 레이블이 변경되는 일은 없다고 가정할 수 있다. 일반적으로 레이블의 값은 변경될 수 있지만, 특정 노드가 삭제 후 재생성되지 않고서는 다른 영역으로 이동할 수 없기 때문이다.
쿠버네티스는 이 정보를 다양한 방식으로 활용할 수 있다. 예를 들어, 단일 영역 클러스터에서는 스케줄러가 자동으로 레플리카셋의 파드를 여러 노드에 퍼뜨린다(노드 고장의 영향을 줄이기 위해 - kubernetes.io/hostname 참고). 복수 영역 클러스터에서는, 여러 영역에 퍼뜨린다(영역 고장의 영향을 줄이기 위해). 이는 SelectorSpreadPriority 를 통해 실현된다.
SelectorSpreadPriority 는 최선 노력(best effort) 배치 방법이다. 클러스터가 위치한 영역들의 특성이 서로 다르다면(예: 노드 숫자가 다름, 노드 타입이 다름, 파드 자원 요구사항이 다름), 파드 숫자를 영역별로 다르게 하여 배치할 수 있다. 필요하다면, 영역들의 특성(노드 숫자/타입)을 일치시켜 불균형 배치의 가능성을 줄일 수 있다.
스케줄러도 (VolumeZonePredicate 표시자를 이용하여) '파드가 요청하는 볼륨'이 위치하는 영역과 같은 영역에 파드를 배치한다. 여러 영역에서 볼륨에 접근할 수는 없다.
PersistentVolumeLabel이 퍼시스턴트볼륨의 자동 레이블링을 지원하지 않는다면, 레이블을 수동으로 추가하거나 PersistentVolumeLabel이 동작하도록 변경할 수 있다.
PersistentVolumeLabel이 설정되어 있으면, 스케줄러는 파드가 다른 영역에 있는 볼륨에 마운트하는 것을 막는다. 만약 사용 중인 인프라에 이러한 제약이 없다면, 볼륨에 영역 레이블을 추가할 필요가 전혀 없다.
컨트롤 플레인은 kubernetes.io/service-account-token 타입을 갖는 시크릿에 대해서만 이 레이블을 추가한다.
이 레이블의 값은, 클라이언트가 서비스어카운트 토큰을 사용하여 인증한 요청을
컨트롤 플레인이 마지막으로 확인한 날짜(ISO 8601 형식, UTC 시간대)를 기록한다.
클러스터가 해당 기능을 얻기 전에 기존의 토큰을 마지막으로 사용한 경우(쿠버네티스 v1.26에 추가됨),
이 레이블은 설정되지 않는다.
Hyper-V 격리(isolation)를 사용하여 윈도우 컨테이너를 실행하려면 이 어노테이션을 사용한다. Hyper-V 격리 기능을 활성화하고 Hyper-V 격리가 적용된 컨테이너를 생성하기 위해, kubelet은 기능 게이트 HyperVContainer=true 로 설정하여 실행되어야 하며, 파드에는 experimental.windows.kubernetes.io/isolation-type=hyperv 어노테이션이 설정되어 있어야 한다.
참고: 이 어노테이션은 하나의 컨테이너로 구성된 파드에만 설정할 수 있다.
v1.20부터 이 어노테이션은 더이상 사용되지 않는다. 실험적인 Hyper-V 지원은 1.21버전에서 제거되었다.
kubelet이 노드에 할당된 IPv4 주소를 명시하기 위해 이 어노테이션을 사용할 수 있다.
kubelet이 --cloud-provider 플래그를 사용하여 어떤 값을 갖게 되었다면 (외부 또는 레거시 트리 내(in-tree) 클라우드 공급자 모두 포함), kubelet은 이 어노테이션을 노드에 설정하여 명령줄 플래그(--node-ip)를 통해 설정된 IP 주소를 명시한다. cloud-controller-manager는 클라우드 제공자에게 이 IP 주소가 유효한지를 검증한다.
batch.kubernetes.io/job-completion-index
예시: batch.kubernetes.io/job-completion-index: "3"
적용 대상: 파드
kube-controller-manager의 잡(Job) 컨트롤러는
Indexed완료 모드로 생성된 파드에 이 어노테이션을 추가한다.
파드의 기본 컨테이너로 사용할 컨테이너 이름을 지정하는 어노테이션이다. 예를 들어, kubectl logs 또는 kubectl exec 명령을 사용할 때 -c 또는 --container 플래그를 지정하지 않으면, 이 어노테이션으로 명시된 기본 컨테이너를 대상으로 실행될 것이다.
컨트롤 플레인은, 연결된 서비스에 1000개 이상의 엔드포인트가 있는 경우, 이 어노테이션을 엔드포인트 오브젝트에 추가한다. 이 어노테이션은 엔드포인트의 용량이 초과되었거나 엔드포인트의 수가 1000개로 잘렸음을 나타낸다.
백엔드 엔드포인트의 수가 1000개 미만이면, 컨트롤 플레인은 이 어노테이션을 제거한다.
batch.kubernetes.io/job-tracking (사용 중단)
예시: batch.kubernetes.io/job-tracking: ""
적용 대상: 잡
잡에 이 어노테이션이 있는 경우, 컨트롤 플레인이
파이널라이저(finalizer)를 이용하여 잡 상태를 추적하고 있음을 나타낸다.
컨트롤 플레인은 이 어노테이션을 사용하여, 아직 기능이 개발 중인 동안
파이널라이저를 사용하여 잡을 추적하도록 안전하게 전환한다.
이 어노테이션을 수동으로 추가하거나 제거해서는 안 된다.
참고: 쿠버네티스 1.26 부터, 이 어노테이션은 사용되지 않는다.
쿠버네티스 1.27 과 그 이상의 버전들은 이 어노테이션을 무시할 것이며,
항상 파이널라이저를 사용하여 잡을 추적할 것이다..
노드 컨트롤러는 노드의 헬스를 모니터링하여 노드가 사용 가능한 상태인지를 감지하고 그에 따라 이 테인트를 추가하거나 제거한다.
node.kubernetes.io/unreachable
예시: node.kubernetes.io/unreachable:NoExecute
노드 컨트롤러는 노드 컨디션이 Ready에서 Unknown으로 변경된 노드에 이 테인트를 추가한다.
node.kubernetes.io/unschedulable
예시: node.kubernetes.io/unschedulable:NoSchedule
경쟁 상태(race condition) 발생을 막기 위해, 생성 중인 노드에 이 테인트가 추가된다.
node.kubernetes.io/memory-pressure
예시: node.kubernetes.io/memory-pressure:NoSchedule
kubelet은 노드의 memory.available와 allocatableMemory.available을 관측하여 메모리 압박을 감지한다. 그 뒤, 관측한 값을 kubelet에 설정된 문턱값(threshold)과 비교하여 노드 컨디션과 테인트의 추가/삭제 여부를 결정한다.
node.kubernetes.io/disk-pressure
예시: node.kubernetes.io/disk-pressure:NoSchedule
kubelet은 노드의 imagefs.available, imagefs.inodesFree, nodefs.available, nodefs.inodesFree(리눅스에 대해서만)를 관측하여 디스크 압박을 감지한다. 그 뒤, 관측한 값을 kubelet에 설정된 문턱값(threshold)과 비교하여 노드 컨디션과 테인트의 추가/삭제 여부를 결정한다.
사용 중인 클라우드 공급자가 추가 네트워크 환경설정을 필요로 한다고 명시하면, kubelet이 이 테인트를 설정한다. 클라우드 상의 네트워크 경로가 올바르게 구성되어야, 클라우드 공급자가 이 테인트를 제거할 것이다.
node.kubernetes.io/pid-pressure
예시: node.kubernetes.io/pid-pressure:NoSchedule
kubelet은 '/proc/sys/kernel/pid_max의 크기의 D-값'과 노드에서 쿠버네티스가 사용 중인 PID를 확인하여, pid.available 지표라고 불리는 '사용 가능한 PID 수'를 가져온다. 그 뒤, 관측한 지표를 kubelet에 설정된 문턱값(threshold)과 비교하여 노드 컨디션과 테인트의 추가/삭제 여부를 결정한다.
node.kubernetes.io/out-of-service
예시: node.kubernetes.io/out-of-service:NoExecute
사용자는 노드에 테인트를 수동으로 추가함으로써 서비스 중이 아니라고 표시할 수 있다. 만약 NodeOutOfServiceVolumeDetach기능 게이트가 kube-controller-manager에 활성화되어 있으며
노드가 이 테인트로 인해 서비스 중이 아니라고 표시되어있을 경우, 노드에서 실행되던 매칭되는 톨러레이션이 없는 파드들은 강제로 삭제됨과 동시에 볼륨이 분리된다. 이는 서비스 중이 아닌 노드의 파드들이 다른 노드에서 빠르게 복구될 수 있도록 해준다.
주의: 이 테인트를 언제 어떻게 사용할지에 대한 자세한 사항은
논 그레이스풀 노드 셧다운
를 참조한다.
값은 반드시파드 보안 표준 레벨과 상응하는
privileged, baseline, 또는 restricted 중 하나여야 한다.
특히 audit 레이블은 표시된 수준에 정의된 요구 사항을 충족하지 않는 레이블 네임스페이스에 파드를 생성하는 것을
방지하지 않지만, 해당 파드에 audit 어노테이션을 추가한다.
값은 반드시파드 보안 표준 레벨과 상응하는
privileged, baseline, 또는 restricted 중 하나여야 한다.
특히 warn 레이블은 해당 레이블이 달린 네임스페이스에, 표시된 레벨에 명시된 요구 사항을 충족하지 않는 파드를 생성하는 것을
방지하지는 않지만, 그러한 파드가 생성되면 사용자에게 경고를 반환한다.
디플로이먼트, 잡, 스테이트풀셋 등과 같은 파드 템플릿을 포함하는
객체를 만들거나 업데이트할 때에도 경고가 표시된다.
값은 반드시latest이거나 v<MAJOR>.<MINOR> 형식의 유효한 쿠버네티스 버전이어야 한다.
설정된 파드의 유효성을 검사할 때 적용할 파드 보안 표준
정책의 버전이 결정된다. 디플로이먼트, 잡, 스테이트풀셋 등과 같은 파드 템플릿을 포함하는
객체를 만들거나 업데이트할 때에도 경고가 표시된다.
이 어노테이션은 파드시큐리티폴리시(PodSecurityPolicy)PodSecurityPolicies를 사용하는 경우에만 관련이 있다.
쿠버네티스 v1.29은 파드시큐리티폴리시 API를 지원하지 않는다.
파드시큐리티폴리시 어드미션 컨트롤러가 파드를 승인했을 때,
어드미션 컨트롤러는 파드가 이 어노테이션을 갖도록 수정했다.
이 어노테이션 값은 유효성 검사에서 사용된 파드시큐리티폴리시의 이름이었다.
seccomp.security.alpha.kubernetes.io/pod (사용 중단됨)
이 어노테이션은 쿠버네티스 v1.19부터 사용 중단되었으며 향후 릴리스에서는 작동하지 않을 것이다.
대신 해당 파드 또는 컨테이너의 securityContext.seccompProfile 필드를 사용한다.
파드의 보안 설정을 지정하려면, 파드 스펙에 securityContext 필드를 추가한다.
파드의 .spec 내의 securityContext 필드는 파드 수준 보안 속성을 정의한다.
파드의 보안 컨텍스트를 설정하면,
해당 설정이 파드 내의 모든 컨테이너에 적용된다.
이 어노테이션은 쿠버네티스 v1.19부터 사용 중단되었으며 향후 릴리스에서는 작동하지 않을 것이다.
대신 해당 파드 또는 컨테이너의 securityContext.seccompProfile 필드를 사용한다.
seccomp를 이용하여 컨테이너의 syscall 제한하기 튜토리얼에서
seccomp 프로파일을 파드 또는 파드 내 컨테이너에 적용하는 단계를 확인한다.
튜토리얼에서는 쿠버네티스에 seccomp를 설정하기 위해 사용할 수 있는 방법을 소개하며,
이는 파드의 .spec 내에 securityContext 를 설정함으로써 가능하다.
kubeadm init/join시 주어지는 CRI 소켓 정보를 유지하기 위해 사용하는 어노테이션.
kubeadm은 노드 오브젝트를 이 정보를 주석 처리한다. 이상적으로는 KubeletConfiguration의 항목이어야 하기 때문에,
어노테이션은 "alpha" 상태로 남아있다.
통계 요약 API에 대한 요청을
쿠버네티스 API 서버를 통해 프록시하여 전송할 수 있다.
다음은 minikube라는 이름의 노드에 대한 요약 API 요청 예시이다.
kubectl get --raw "/api/v1/nodes/minikube/proxy/stats/summary"
다음은 curl을 이용하여 동일한 API 호출을 하는 명령어다.
# 먼저 "kubectl proxy"를 실행해야 한다.# 8080 부분을 "kubectl proxy" 명령이 할당해 준 포트로 치환한다.curl http://localhost:8080/api/v1/nodes/minikube/proxy/stats/summary
참고:metrics-server 0.6.x 버전부터, metrics-server는 /stats/summary가 아닌
/metrics/resource kubelet 엔드포인트에 대해 질의한다.
요약 메트릭 API 소스
기본적으로, 쿠버네티스는 kubelet 내부에서 실행되는
내장 cAdvisor를 사용하여 노드 요약 메트릭 데이터를 가져온다.
CRI를 통해 요약 API 데이터 가져오기
기능 상태:Kubernetes v1.23 [alpha]
클러스터에 PodAndContainerStatsFromCRI기능 게이트를 활성화하고,
컨테이너 런타임 인터페이스(CRI)를
통한 통계 정보 접근을 지원하는 컨테이너 런타임을 사용하는 경우,
kubelet은 cAdvisor가 아닌 CRI를 사용하여 파드 및 컨테이너 수준의 메트릭 데이터를 가져온다.
다음 내용
클러스터 트러블슈팅하기 태스크 페이지에서
이러한 데이터에 의존하는 메트릭 파이프라인을 사용하는 방법에 대해 다룬다.
각 보고서는 보안 대응 위원회 위원들에 의해 작업일 3일 이내에 인정되고 분석된다. 이렇게 하면 보안 릴리스 프로세스가 시작된다.
보안 대응 위원회와 공유하는 모든 취약성 정보는 쿠버네티스 프로젝트 내에 있으며, 문제를 해결할 필요가 없는 한 다른 프로젝트에 전파되지 않는다.
보안 문제가 심사에서 확인된 수정, 릴리스 계획으로 이동함에 따라 리포터를 계속 업데이트할 것이다.
공개 시기
공개 날짜는 쿠버네티스 보안 대응 위원회와 버그 제출자가 협상한다. 사용자 완화가 가능해지면 가능한 빨리 버그를 완전히 공개하는 것이 좋다. 버그 또는 픽스가 아직 완전히 이해되지 않았거나 솔루션이 제대로 테스트되지 않았거나 벤더 협력을 위해 공개를 지연시키는 것이 합리적이다. 공개 기간은 즉시(특히 이미 공개적으로 알려진 경우)부터 몇 주까지다. 간단한 완화 기능이 있는 취약점의 경우 보고 날짜부터 공개 날짜까지는 7일 정도 소요될 것으로 예상된다. 쿠버네티스 보안 대응 위원회는 공개 날짜를 설정할 때 최종 결정권을 갖는다.
컨테이너 체크포인트는 실행 중인 컨테이너의 스테이트풀(stateful) 복사본을 생성하는 기능이다.
컨테이너의 스테이트풀 복사본이 있으면,
디버깅 또는 다른 목적을 위해 이를 다른 컴퓨터로 이동할 수 있다.
체크포인트 컨테이너 데이터를 복원할 수 있는 컴퓨터로 이동하면,
복원된 컨테이너는 체크포인트된 지점과
정확히 동일한 지점에서 계속 실행된다. 적절한 도구가 있다면,
저장된 데이터를 검사해 볼 수도 있다.
컨테이너 체크포인트 생성 시에는 유의해야 할 보안 사항이 있다.
일반적으로 각 체크포인트는 체크포인트된 컨테이너의 모든 프로세스의 메모리 페이지를 포함한다.
이는 곧 메모리에 있던 모든 데이터가 로컬 디스크에 저장되어 열람이 가능함을 의미한다.
이 아카이브(archive)에는 모든 개인 데이터와 암호화 키가 포함된다.
따라서, 내부 CRI 구현체(노드의 컨테이너 런타임)는
체크포인트 아카이브를 생성 시 root 사용자만 액세스 가능하도록 처리해야 한다.
그럼에도 여전히 주의가 필요한데, 체크포인트 아카이브를 다른 시스템으로 전송하게 되면 해당 시스템의 체크포인트 아카이브 소유자가
모든 메모리 페이지를 읽을 수 있기 때문이다.
운영
POST 특정 컨테이너의 체크포인트 생성
지정된 파드의 특정 컨테이너를 체크포인트하도록 kubelet에 지시한다.
kubelet 체크포인트 인터페이스로의 접근이 어떻게 제어되는지에 대한 자세한 내용은
Kubelet 인증/인가 레퍼런스
를 참고한다.
kubelet은 내부 CRI 구현체에
체크포인트를 요청한다.
체크포인트 요청 시, kubelet은 체크포인트 아카이브의 이름을
checkpoint-<podFullName>-<containerName>-<timestamp>.tar로 지정하고
루트 디렉토리(--root-dir 로 지정 가능) 아래의 checkpoints 디렉토리에
체크포인트 아카이브를 저장하도록 요청한다.
기본값은 /var/lib/kubelet/checkpoints이다.
체크포인트 아카이브는 tar 형식이며
tar 유틸리티를 사용하여 조회해 볼 수 있다.
아카이브의 내용은 내부 CRI 구현체(노드의 컨테이너 런타임)에 따라 다르다.
체크포인트 생성이 완료될 때까지 대기할 시간제한(초)이다.
시간 제한이 0 또는 지정되지 않은 경우
기본 CRI 시간 제한 값이 사용될 것이다.
체크포인트 생성 시간은 컨테이너가 사용하고 있는 메모리에 따라 다르다.
컨테이너가 사용하는 메모리가 많을수록 해당 체크포인트를 생성하는 데
더 많은 시간이 필요하다.
응답
200: OK
401: Unauthorized
404: Not Found (ContainerCheckpoint 기능 게이트가 비활성화된 경우)
404: Not Found (명시한 namespace, pod 또는 container를 찾을 수 없는 경우)
500: Internal Server Error (CRI 구현체가 체크포인트를 수행하는 중에 오류가 발생한 경우 (자세한 내용은 오류 메시지를 확인한다.))
500: Internal Server Error (CRI 구현체가 체크포인트 CRI API를 구현하지 않은 경우 (자세한 내용은 오류 메시지를 확인한다.))
7.2 - 도커심 제거 및 CRI 호환 런타임 사용에 대한 기사
이 문서는 쿠버네티스의 도커심
사용 중단(deprecation) 및 제거, 또는
해당 제거를 고려한 CRI 호환 컨테이너 런타임
사용에 관한 기사 및 기타 페이지 목록을 제공한다.
쿠버네티스 프로젝트
쿠버네티스 블로그: 도커심 제거 FAQ (originally published 2020/12/02)
SCTP 트래픽을 지원하는 네트워크 플러그인을 사용하는 경우, 대부분의 서비스에
SCTP를 사용할 수 있다. type: LoadBalancer 서비스의 경우 SCTP 지원 여부는
이 기능을 제공하는 클라우드 공급자에 따라 다르다. (대부분 지원하지 않음)
SCTP는 윈도우 노드에서는 지원되지 않는다.
멀티홈(multihomed) SCTP 연결 지원
멀티홈 SCTP 연결 지원을 위해서는 CNI 플러그인이 파드에 복수개의 인터페이스 및 IP 주소를 할당하는 기능을 지원해야 한다.
멀티홈 SCTP 연결에서의 NAT는 상응하는 커널 모듈 내의 특수한 로직을 필요로 한다.
TCP
모든 종류의 서비스에 TCP를 사용할 수 있으며, 이는 기본 네트워크 프로토콜이다.
UDP
대부분의 서비스에 UDP를 사용할 수 있다. type: LoadBalancer 서비스의 경우,
UDP 지원 여부는 이 기능을 제공하는 클라우드 공급자에 따라 다르다.
특수 케이스
HTTP
클라우드 공급자가 이를 지원하는 경우,
LoadBalancer 모드의 서비스를 사용하여,
쿠버네티스 클러스터 외부에, HTTP / HTTPS 리버스 프록싱을 통해
해당 서비스의 백엔드 엔드포인트로 트래픽을 전달하는 로드밸런서를 구성할 수 있다.
일반적으로, 트래픽을 HTTP 수준에서 제어하려면
해당 서비스의 프로토콜을 TCP로 지정하고
로드밸런서를 구성하는
어노테이션(보통
클라우드 공급자마다 다름)을 추가한다.
이 구성은 워크로드로의 HTTPS (HTTP over TLS) 지원 및 평문 HTTP 리버스 프록시도 포함할 수 있다.
특정 연결의
애플리케이션 프로토콜을
http 또는 https로 추가적으로 명시하고 싶을 수도 있다.
로드밸런서에서 워크로드로 가는 세션이 HTTP without TLS이면 http를 사용하고,
로드밸런서에서 워크로드로 가는 세션이 TLS 암호화를 사용하면 https를 사용한다.
PROXY 프로토콜
클라우드 공급자가 지원하는 경우에,
type: LoadBalancer로 설정된 서비스를 사용하여,
쿠버네티스 외부에 존재하면서 연결들을
PROXY 프로토콜로 감싸 전달하는 로드밸런서를 구성할 수 있다.
이러한 로드 밸런서는 들어오는 연결을 설명하는 초기 일련의 옥텟(octets)을 전송하며,
이는 다음의 예시(PROXY 프로토콜 v1)와 유사하다.
PROXY TCP4 192.0.2.202 10.0.42.7 12345 7\r\n
프록시 프로토콜 프리앰블(preamble) 뒤에 오는 데이터는
클라이언트가 전송한 원본 데이터이다.
양쪽 중 한쪽에서 연결을 닫으면,
로드밸런서도 연결 종료를 트리거하며 남아있는 데이터를 수신 가능한 쪽으로 보낸다.
일반적으로는, 프로토콜을 TCP로 설정한 서비스를 정의한다.
또한, 클라우드 공급자별로 상이한 어노테이션을 설정하여
로드밸런서가 각 인커밍 연결을 PROXY 프로토콜로 감싸도록 구성할 수도 있다.
TLS
클라우드 공급자가 지원하는 경우에,
type: LoadBalancer로 설정된 서비스를 사용하여,
쿠버네티스 외부에 존재하는 리버스 프록시를 구축할 수 있으며,
이 때 클라이언트로부터 로드밸런서까지의 연결은 TLS 암호화되고 로드밸런서는 TLS 서버 피어가 된다.
로드밸런서로부터 워크로드까지의 연결은 TLS일 수도 있으며, 평문일 수도 있다.
사용 가능한 정확한 옵션의 범위는 클라우드 공급자 또는 커스텀 서비스 구현에 따라 다를 수 있다.
일반적으로는, 프로토콜을 TCP로 설정하고
어노테이션(보통 클라우드 공급자별로 상이함)을 설정하여
로드밸런서가 TLS 서버로 작동하도록 구성한다.
클라우드 공급자별로 상이한 메커니즘을 사용하여
TLS 아이덴티티(서버, 그리고 경우에 따라 워크로드로 연결하는 클라이언트도 가능)를 구성할 수도 있다.
8.2 - 포트와 프로토콜
물리적 네트워크 방화벽이 있는 온프레미스 데이터 센터 또는
퍼블릭 클라우드의 가상 네트워크와 같이 네트워크 경계가 엄격한 환경에서
쿠버네티스를 실행할 때, 쿠버네티스 구성 요소에서
사용하는 포트와 프로토콜을 알고 있는 것이 유용하다.
컨트롤 플레인
프로토콜
방향
포트 범위
용도
사용 주체
TCP
인바운드
6443
쿠버네티스 API 서버
전부
TCP
인바운드
2379-2380
etcd 서버 클라이언트 API
kube-apiserver, etcd
TCP
인바운드
10250
Kubelet API
Self, 컨트롤 플레인
TCP
인바운드
10259
kube-scheduler
Self
TCP
인바운드
10257
kube-controller-manager
Self
etcd 포트가 컨트롤 플레인 섹션에 포함되어 있지만, 외부 또는 사용자 지정 포트에서 자체
etcd 클러스터를 호스팅할 수도 있다.
모든 기본 포트 번호를 재정의할 수 있다. 사용자 지정 포트를 사용하는 경우
여기에 언급된 기본값 대신 해당 포트를 열어야 한다.
종종 발생하는 한 가지 일반적인 예는 API 서버 포트를 443으로 변경하는 경우이다.
또는, API 서버의 기본 포트를 그대로 유지하고,
443 포트에서 수신 대기하는 로드 밸런서 뒤에 API 서버를 두고,
로드 밸런서에서 API 서버로 가는 요청을 API 서버의 기본 포트로 라우팅할 수도 있다.
8.3 - 가상 IP 및 서비스 프록시
쿠버네티스 클러스터의 모든 노드는
kube-proxy를
실행한다(kube-proxy를 대체하는 구성요소를 직접 배포한 경우가 아니라면).
kube-proxy는
ExternalName 외의 type의
서비스를 위한
가상 IP 메커니즘의 구현을 담당한다.
항상 발생하는 질문은,
왜 쿠버네티스가 인바운드 트래픽을 백엔드로 전달하기 위해
프록시에 의존하는가 하는 점이다.
다른 접근법이 있는가? 예를 들어, 여러 A 값 (또는 IPv6의 경우 AAAA)을 가진 DNS 레코드를 구성하고,
라운드-로빈 이름 확인 방식을 취할 수 있는가?
There are a few reasons for using proxying for Services:
레코드 TTL을 고려하지 않고, 만료된 이름 검색 결과를 캐싱하는
DNS 구현에 대한 오래된 역사가 있다.
일부 앱은 DNS 검색을 한 번만 수행하고 결과를 무기한으로 캐시한다.
앱과 라이브러리가 적절히 재-확인을 했다고 하더라도,
DNS 레코드의 TTL이 낮거나 0이면
DNS에 부하가 높아 관리하기가 어려워질 수 있다.
본 페이지의 뒷 부분에서 다양한 kube-proxy 구현이 동작하는 방식에 대해 읽을 수 있다.
우선 알아두어야 할 것은, kube-proxy를 구동할 때,
커널 수준의 규칙이 수정(예를 들어, iptables 규칙이 생성될 수 있음)될 수 있고,
이는 때로는 리부트 전까지 정리되지 않을 수도 있다.
그래서, kube-proxy는 컴퓨터에서 저수준의, 특권을 가진(privileged) 네트워킹 프록시 서비스가 구동됨으로써 발생하는
결과를 이해하고 있는 관리자에 의해서만 구동되어야 한다.
비록 kube-proxy 실행 파일이 cleanup 기능을 지원하기는 하지만,
이 기능은 공식적인 기능이 아니기 때문에 구현된 그대로만 사용할 수 있다.
예를 들어, 3개의 레플리카로 실행되는 스테이트리스 이미지-처리 백엔드를 생각해보자.
이러한 레플리카는 대체 가능하다.
즉, 프론트엔드는 그것들이 사용하는 백엔드를 신경쓰지 않는다.
백엔드 세트를 구성하는 실제 파드는 변경될 수 있지만,
프론트엔드 클라이언트는 이를 인식할 필요가 없으며, 백엔드 세트 자체를 추적해야 할 필요도 없다.
프록시 모드들
kube-proxy는 여러 모드 중 하나로 기동될 수 있으며, 이는 환경 설정에 따라 결정됨에 유의한다.
kube-proxy의 구성은 컨피그맵(ConfigMap)을 통해 이루어진다.
그리고 해당 kube-proxy를 위한 컨피그맵은 실효성있게
거의 대부분의 kube-proxy의 플래그의 행위를 더 이상 사용하지 않도록 한다.
kube-proxy를 위한 해당 컨피그맵은 기동 중 구성의 재적용(live reloading)은 지원하지 않는다.
kube-proxy를 위한 컨피그맵 파라미터는 기동 시에 검증이나 확인을 하지 않는다.
예를 들어, 운영 체계가 iptables 명령을 허용하지 않을 경우,
표준 커널 kube-proxy 구현체는 작동하지 않을 것이다.
iptables 프록시 모드
이 모드에서는, kube-proxy는 쿠버네티스 컨트롤 플레인의
서비스, 엔드포인트슬라이스 오브젝트의 추가와 제거를 감시한다.
각 서비스에 대해, 서비스의 clusterIP 및 port에 대한 트래픽을 캡처하고
해당 트래픽을 서비스의 백엔드 세트 중 하나로 리다이렉트(redirect)하는
iptables 규칙을 설치한다.
각 엔드포인트 오브젝트에 대해, 백엔드 파드를 선택하는 iptables 규칙을 설치한다.
기본적으로, iptables 모드의 kube-proxy는 백엔드를 임의로 선택한다.
트래픽을 처리하기 위해 iptables를 사용하면 시스템 오버헤드가 줄어드는데,
유저스페이스와 커널 스페이스 사이를 전환할 필요없이 리눅스 넷필터(netfilter)가
트래픽을 처리하기 때문이다. 이 접근 방식은 더 신뢰할 수 있기도 하다.
kube-proxy가 iptables 모드에서 실행 중이고 선택된 첫 번째 파드가 응답하지 않으면, 연결이 실패한다.
이는 이전의 userspace 모드와 다르다.
이전의 userspace 시나리오에서는,
kube-proxy는 첫 번째 파드에 대한 연결이 실패했음을 감지하고 다른 백엔드 파드로 자동으로 재시도한다.
파드 준비성 프로브(readiness probe)를 사용하여
백엔드 파드가 제대로 작동하는지 확인할 수 있으므로,
iptables 모드의 kube-proxy는 정상으로 테스트된 백엔드만 볼 수 있다.
이렇게 하면 트래픽이 kube-proxy를 통해 실패한 것으로 알려진 파드로 전송되는 것을 막을 수 있다.
예시
다시 한번, 위에서 설명한
이미지 처리 애플리케이션을 고려한다.
백엔드 서비스가 생성되면,
쿠버네티스 컨트롤 플레인은 가상 IP 주소(예 : 10.0.0.1)를 할당한다.
서비스 포트를 1234라고 가정하자.
클러스터의 모든 kube-proxy 인스턴스는
새 서비스의 생성을 관찰할 수 있다.
프록시가 새로운 서비스를 발견하면,
가상 IP 주소에서 서비스-별 규칙으로 리다이렉션되는 일련의 iptables 규칙을 설치한다.
서비스-별 규칙은 트래픽을 (목적지 NAT를 사용하여) 백엔드로 리다이렉션하는
엔드포인트-별 규칙에 연결한다.
클라이언트가 서비스의 가상 IP 주소에 연결하면 iptables 규칙이 시작한다.
(세션 어피니티(Affinity)에 따라 또는 무작위로) 백엔드가 선택되고,
패킷의 클라이언트 IP 주소를 덮어쓰지 않고 백엔드로 리다이렉션된다.
트래픽이 노드-포트 또는 로드 밸런서를 통해 들어오는 경우에도,
이와 동일한 기본 흐름이 실행되지만, 클라이언트 IP는 변경된다.
IPVS 프록시 모드
ipvs 모드에서, kube-proxy는 쿠버네티스 서비스와 엔드포인트슬라이스를 감시하고,
netlink 인터페이스를 호출하여 그에 따라 IPVS 규칙을 생성하고
IPVS 규칙을 쿠버네티스 서비스 및 엔드포인트슬라이스와 주기적으로 동기화한다.
이 제어 루프는 IPVS 상태가 원하는 상태와 일치하도록
보장한다.
서비스에 접근하면, IPVS는 트래픽을 백엔드 파드 중 하나로 보낸다.
IPVS 프록시 모드는 iptables 모드와 유사한 넷필터 후크 기능을
기반으로 하지만, 해시 테이블을 기본 데이터 구조로 사용하고
커널 스페이스에서 동작한다.
이는 IPVS 모드의 kube-proxy는 iptables 모드의 kube-proxy보다
지연 시간이 짧은 트래픽을 리다이렉션하고, 프록시 규칙을 동기화할 때 성능이
훨씬 향상됨을 의미한다. 다른 프록시 모드와 비교했을 때, IPVS 모드는
높은 네트워크 트래픽 처리량도 지원한다.
IPVS는 트래픽을 백엔드 파드로 밸런싱하기 위한 추가 옵션을 제공하며,
그 목록은 다음과 같다.
rr: 라운드-로빈
lc: 최소 연결 (가장 적은 수의 열려있는 연결)
dh: 목적지 해싱
sh: 소스 해싱
sed: 최단 예상 지연 (shortest expected delay)
nq: 큐 미사용 (never queue)
참고:
IPVS 모드에서 kube-proxy를 실행하려면, kube-proxy를 시작하기 전에 노드에서 IPVS를
사용 가능하도록 해야 한다.
kube-proxy가 IPVS 프록시 모드로 시작될 때, IPVS 커널 모듈이
사용 가능한지 확인한다. IPVS 커널 모듈이 감지되지 않으면, kube-proxy는
iptables 프록시 모드로 다시 실행된다.
세션 어피니티
이러한 프록시 모델에서,
클라이언트가 쿠버네티스/서비스/파드에 대해 전혀 모르더라도
서비스의 IP:포트로 향하는 트래픽은 적절한 백엔드로 프록시된다.
특정 클라이언트의 연결이 매번 동일한 파드로
전달되도록 하려면, 서비스의 .spec.sessionAffinity를 ClientIP로 설정하여
클라이언트의 IP 주소를 기반으로 세션 어피니티를 선택할 수 있다.
(기본값은 None)
세션 고정(Session stickiness) 타임아웃
서비스의 .spec.sessionAffinityConfig.clientIP.timeoutSeconds를 적절히 설정하여
최대 세션 고정 시간을 설정할 수도 있다.
(기본값은 10800으로, 이는 3시간에 해당됨)
참고: 윈도우에서는, 서비스의 최대 세션 고정 시간(maximum session sticky time)을 설정하는 것이 지원되지 않는다.
서비스에 IP 주소 할당
고정된 목적지로 실제로 라우팅되는 파드 IP 주소와 달리,
서비스 IP는 실제로는 단일 호스트에서 응답하지 않는다.
대신에, kube-proxy는 패킷 처리 로직(예: 리눅스의 iptables)을 사용하여,
필요에 따라 투명하게 리다이렉션되는 가상 IP 주소를 정의한다.
클라이언트가 VIP에 연결하면, 트래픽이 자동으로 적절한 엔드포인트로 전송된다.
환경 변수와 서비스 용 DNS는
실제로는 서비스의 가상 IP 주소 (및 포트)로 채워진다.
충돌 방지하기
쿠버네티스의 주요 철학 중 하나는,
사용자가 잘못한 것이 없는 경우에는 실패할 수 있는 상황에 노출되어서는 안된다는 것이다.
서비스 리소스 설계 시,
다른 사람의 포트 선택과 충돌할 경우에 대비해 자신의 포트 번호를 선택하지 않아도 된다.
만약 그러한 일이 발생한다면 그것은 격리 실패이다.
서비스에 대한 포트 번호를 사용자가 선택할 수 있도록 하려면,
두 개의 서비스가 충돌하지 않도록 해야 한다.
쿠버네티스는 API 서버에 설정되어 있는 service-cluster-ip-range CIDR 범위에서
각 서비스에 고유한 IP 주소를 할당하여 이를 달성한다.
각 서비스가 고유한 IP를 받도록 하기 위해, 각 서비스를 만들기 전에 내부 할당기가
etcd에서
글로벌 할당 맵을 원자적으로(atomically) 업데이트한다.
서비스가 IP 주소 할당을 가져오려면 레지스트리에 맵 오브젝트가 있어야 하는데,
그렇지 않으면 IP 주소를 할당할 수 없다는 메시지와 함께 생성에 실패한다.
컨트롤 플레인에서, 백그라운드 컨트롤러는 해당 맵을 생성해야
한다(인-메모리 잠금을 사용하는 이전 버전의 쿠버네티스에서의 마이그레이션 지원을 위해 필요함).
쿠버네티스는 또한 컨트롤러를 사용하여 유효하지 않은
할당(예: 관리자 개입에 의한)을 체크하고
더 이상 어떠한 서비스도 사용하지 않는 할당된 IP 주소를 정리한다.
서비스 가상 IP 주소의 IP 주소 범위
기능 상태:Kubernetes v1.25 [beta]
쿠버네티스는 min(max(16, cidrSize / 16), 256) 공식을 사용하여 얻어진
service-cluster-ip-range의 크기에 기반하여 ClusterIP 범위를 두 대역으로 나누며,
여기서 이 공식은 16 이상 256 이하이며,
그 사이에 계단 함수가 있음 으로 설명할 수 있다.
쿠버네티스는 서비스에 대한 동적 IP 할당 시 상위 대역에서 우선적으로 선택하며,
이는 곧 만약 사용자가 type: ClusterIP 서비스에 특정 IP 주소를 할당하고 싶다면
하위 대역에서 골라야 함을 의미한다.
이렇게 함으로써 할당 시 충돌의 위험을 줄일 수 있다.
만약 ServiceIPStaticSubrange기능 게이트를 비활성화하면
쿠버네티스는 type: ClusterIP 서비스에 대해
수동 및 동적 할당 IP 주소를 위한 하나의 공유되는 풀을 사용한다.
트래픽 폴리시
.spec.internalTrafficPolicy 및 .spec.externalTrafficPolicy 필드를 설정하여
쿠버네티스가 트래픽을 어떻게 정상(healthy, “ready”) 백엔드로 라우팅할지를 제어할 수 있다.
내부 트래픽 폴리시
기능 상태:Kubernetes v1.22 [beta]
spec.internalTrafficPolicy 필드를 설정하여 내부 소스에서 오는 트래픽이 어떻게 라우트될지를 제어할 수 있다.
이 필드는 Cluster 또는 Local로 설정할 수 있다.
필드를 Cluster로 설정하면 내부 트래픽을 준비 상태의 모든 엔드포인트로 라우트하며,
Local로 설정하면 준비 상태의 노드-로컬 엔드포인트로만 라우트한다.
만약 트래픽 정책이 Local로 설정되어 있는데 노드-로컬 엔드포인트가 하나도 없는 경우, kube-proxy는 트래픽을 드롭시킨다.
외부 트래픽 폴리시
spec.externalTrafficPolicy 필드를 설정하여 외부 소스에서 오는 트래픽이 어떻게 라우트될지를 제어할 수 있다.
이 필드는 Cluster 또는 Local로 설정할 수 있다.
필드를 Cluster로 설정하면 외부 트래픽을 준비 상태의 모든 엔드포인트로 라우트하며,
Local로 설정하면 준비 상태의 노드-로컬 엔드포인트로만 라우트한다.
만약 트래픽 정책이 Local로 설정되어 있는데 노드-로컬 엔드포인트가 하나도 없는 경우,
kube-proxy는 연관된 서비스로의 트래픽을 포워드하지 않는다.
종료 중인 엔드포인트로 가는 트래픽
기능 상태:Kubernetes v1.26 [beta]
kube-proxy에 대해 ProxyTerminatingEndpoints기능 게이트가 활성화되어 있고
트래픽 폴리시가 Local이면,
해당 노드의 kube-proxy는 서비스에 대한 엔드포인트를 선택할 때 좀 더 복잡한 알고리즘을 사용한다.
이 기능이 활성화되어 있으면, kube-proxy는 노드가 로컬 엔드포인트를 갖고 있는지,
그리고 모든 로컬 엔드포인트가 '종료 중'으로 표시되어 있는지 여부를 확인한다.
만약 로컬 엔드포인트가 존재하고 모든 로컬 엔드포인트가 종료 중이면,
kube-proxy는 종료 중인 해당 엔드포인트로 트래픽을 전달한다.
이외의 경우, kube-proxy는 종료 중이 아닌 엔드포인트로 트래픽을 전달하는 편을 선호한다.
종료 중인 엔드포인트에 대한 이러한 포워딩 정책 덕분에, externalTrafficPolicy: Local을 사용하는 경우에
NodePort 및 LoadBalancer 서비스가 연결들을 자비롭게(gracefully) 종료시킬 수 있다.
디플로이먼트가 롤링 업데이트될 때, 로드밸런서 뒤에 있는 노드가 해당 디플로이먼트의 레플리카를 N개에서 0개 갖도록 변경될 수 있다.
일부 경우에, 외부 로드 밸런서가 헬스 체크 프로브 사이의 기간에 레플리카 0개를 갖는 노드로 트래픽을 전송할 수 있다.
종료 중인 엔드포인트로의 트래픽 라우팅 기능을 통해
파드를 스케일 다운 중인 노드가 해당 종료 중인 파드로의 트래픽을 자비롭게 수신 및 드레인할 수 있다.
파드 종료가 완료되면, 외부 로드 밸런서는 이미 노드의 헬스 체크가 실패했음을 확인하고
해당 노드를 백엔드 풀에서 완전히 제거했을 것이다.
Kubeadm은 쿠버네티스 클러스터 생성을 위한 "빠른 경로"의 모범 사례로 kubeadm init 및 kubeadm join 을 제공하도록 만들어진 도구이다.
kubeadm은 실행 가능한 최소 클러스터를 시작하고 실행하는 데 필요한 작업을 수행한다. 설계 상, 시스템 프로비저닝이 아닌 부트스트랩(bootstrapping)만 다룬다. 마찬가지로, 쿠버네티스 대시보드, 모니터링 솔루션 및 클라우드별 애드온과 같은 다양한 있으면 좋은(nice-to-have) 애드온을 설치하는 것은 범위에 포함되지 않는다.
대신, 우리는 더 높은 수준의 맞춤형 도구가 kubeadm 위에 구축될 것으로 기대하며, 이상적으로는, 모든 배포의 기반으로 kubeadm을 사용하면 규격을 따르는 클러스터를 더 쉽게 생성할 수 있다.
command: 하나 이상의 리소스에서 수행하려는 동작을 지정한다.
예: create, get, describe, delete
TYPE: 리소스 타입을 지정한다. 리소스 타입은 대소문자를 구분하지 않으며
단수형, 복수형 또는 약어 형식을 지정할 수 있다.
예를 들어, 다음의 명령은 동일한 출력 결과를 생성한다.
kubectl get pod pod1
kubectl get pods pod1
kubectl get po pod1
NAME: 리소스 이름을 지정한다. 이름은 대소문자를 구분한다. 이름을 생략하면, 모든 리소스에 대한 세부 사항이 표시된다. 예: kubectl get pods
여러 리소스에 대한 작업을 수행할 때, 타입 및 이름별로 각 리소스를 지정하거나 하나 이상의 파일을 지정할 수 있다.
타입 및 이름으로 리소스를 지정하려면 다음을 참고한다.
리소스가 모두 동일한 타입인 경우 리소스를 그룹화하려면 다음을 사용한다. TYPE1 name1 name2 name<#>
예: kubectl get pod example-pod1 example-pod2
여러 리소스 타입을 개별적으로 지정하려면 다음을 사용한다. TYPE1/name1 TYPE1/name2 TYPE2/name3 TYPE<#>/name<#>
예: kubectl get pod/example-pod1 replicationcontroller/example-rc1
하나 이상의 파일로 리소스를 지정하려면 다음을 사용한다. -f file1 -f file2 -f file<#>
YAML이 특히 구성 파일에 대해 더 사용자 친화적이므로, JSON 대신 YAML을 사용한다.
예: kubectl get -f ./pod.yaml
flags: 선택적 플래그를 지정한다. 예를 들어, -s 또는 --server 플래그를 사용하여 쿠버네티스 API 서버의 주소와 포트를 지정할 수 있다.
주의: 커맨드 라인에서 지정하는 플래그는 기본값과 해당 환경 변수를 무시한다.
도움이 필요하다면, 터미널 창에서 kubectl help 를 실행한다.
클러스터 내 인증과 네임스페이스 오버라이드
기본적으로 kubectl은 먼저 자신이 파드 안에서 실행되고 있는지, 즉 클러스터 안에 있는지를 판별한다. 이를 위해 KUBERNETES_SERVICE_HOST와 KUBERNETES_SERVICE_PORT 환경 변수, 그리고 서비스 어카운트 토큰 파일이 /var/run/secrets/kubernetes.io/serviceaccount/token 경로에 있는지를 확인한다. 세 가지가 모두 감지되면, 클러스터 내 인증이 적용된다.
하위 호환성을 위해, 클러스터 내 인증 시에 POD_NAMESPACE 환경 변수가 설정되어 있으면, 서비스 어카운트 토큰의 기본 네임스페이스 설정을 오버라이드한다. 기본 네임스페이스 설정에 의존하는 모든 매니페스트와 도구가 영향을 받을 것이다.
POD_NAMESPACE 환경 변수
POD_NAMESPACE 환경 변수가 설정되어 있으면, 네임스페이스에 속하는 자원에 대한 CLI 작업은 환경 변수에 설정된 네임스페이스를 기본값으로 사용한다. 예를 들어, 환경 변수가 seattle로 설정되어 있으면, kubectl get pods 명령은 seattle 네임스페이스에 있는 파드 목록을 반환한다. 이는 파드가 네임스페이스에 속하는 자원이며, 명령어에 네임스페이스를 특정하지 않았기 때문이다. kubectl api-resources 명령을 실행하고 결과를 확인하여 특정 자원이 네임스페이스에 속하는 자원인지 판별한다.
명시적으로 --namespace <value> 인자를 사용하면 위와 같은 동작을 오버라이드한다.
kubectl이 서비스어카운트 토큰을 관리하는 방법
만약
쿠버네티스 서비스 어카운트 토큰 파일이
/var/run/secrets/kubernetes.io/serviceaccount/token 경로에 마운트되어 있고,
KUBERNETES_SERVICE_HOST 환경 변수가 설정되어 있고,
KUBERNETES_SERVICE_PORT 환경 변수가 설정되어 있고,
kubectl 명령에 네임스페이스를 명시하지 않으면
kubectl은 자신이 클러스터 내부에서 실행되고 있다고 가정한다.
kubectl은 해당 서비스어카운트의 네임스페이스(파드의 네임스페이스와 동일하다)를 인식하고 해당 네임스페이스에 대해 동작한다.
이는 클러스터 외부에서 실행되었을 때와는 다른데,
kubectl이 클러스터 외부에서 실행되었으며 네임스페이스가 명시되지 않은 경우
kubectl 명령어는 클라이언트 구성에서 현재 컨텍스트(current context)에
설정된 네임스페이스에 대해 동작한다.
kubectl이 동작하는 기본 네임스페이스를 변경하려면 아래의 명령어를 실행한다.
이 예제에서, 다음의 명령은 단일 파드에 대한 세부 정보를 YAML 형식의 오브젝트로 출력한다.
kubectl get pod web-pod-13je7 -o yaml
기억하기: 각 명령이 지원하는 출력 형식에 대한 자세한 내용은
kubectl 참조 문서를 참고한다.
사용자 정의 열
사용자 정의 열을 정의하고 원하는 세부 정보만 테이블에 출력하려면, custom-columns 옵션을 사용할 수 있다.
사용자 정의 열을 인라인으로 정의하거나 템플릿 파일을 사용하도록 선택할 수 있다. -o custom-columns=<spec> 또는 -o custom-columns-file=<filename>
예제
인라인:
kubectl get pods <pod-name> -o custom-columns=NAME:.metadata.name,RSRC:.metadata.resourceVersion
템플릿 파일:
kubectl get pods <pod-name> -o custom-columns-file=template.txt
template.txt 파일에 포함된 내용은 다음과 같다.
NAME RSRC
metadata.name metadata.resourceVersion
두 명령 중 하나를 실행한 결과는 다음과 비슷하다.
NAME RSRC
submit-queue 610995
서버측 열
kubectl 는 서버에서 오브젝트에 대한 특정 열 정보 수신을 지원한다.
이는 클라이언트가 출력할 수 있도록, 주어진 리소스에 대해 서버가 해당 리소스와 관련된 열과 행을 반환한다는 것을 의미한다.
이는 서버가 출력의 세부 사항을 캡슐화하도록 하여, 동일한 클러스터에 대해 사용된 클라이언트에서 사람이 읽을 수 있는 일관된 출력을 허용한다.
이 기능은 기본적으로 활성화되어 있다. 사용하지 않으려면,
kubectl get 명령에 --server-print=false 플래그를 추가한다.
예제
파드 상태에 대한 정보를 출력하려면, 다음과 같은 명령을 사용한다.
kubectl get pods <pod-name> --server-print=false
출력 결과는 다음과 비슷하다.
NAME AGE
pod-name 1m
오브젝트 목록 정렬
터미널 창에서 정렬된 목록으로 오브젝트를 출력하기 위해, 지원되는 kubectl 명령에 --sort-by 플래그를 추가할 수 있다. --sort-by 플래그와 함께 숫자나 문자열 필드를 지정하여 오브젝트를 정렬한다. 필드를 지정하려면, jsonpath 표현식을 사용한다.
# example-service.yaml의 정의를 사용하여 서비스를 생성한다.kubectl apply -f example-service.yaml
# example-controller.yaml의 정의를 사용하여 레플리케이션 컨트롤러를 생성한다.kubectl apply -f example-controller.yaml
# <directory> 디렉터리 내의 .yaml, .yml 또는 .json 파일에 정의된 오브젝트를 생성한다.kubectl apply -f <directory>
kubectl get - 하나 이상의 리소스를 나열한다.
# 모든 파드를 일반 텍스트 출력 형식으로 나열한다.kubectl get pods
# 모든 파드를 일반 텍스트 출력 형식으로 나열하고 추가 정보(예: 노드 이름)를 포함한다.kubectl get pods -o wide
# 지정된 이름의 레플리케이션 컨트롤러를 일반 텍스트 출력 형식으로 나열한다. 팁: 'replicationcontroller' 리소스 타입을 'rc'로 짧게 바꿔쓸 수 있다.kubectl get replicationcontroller <rc-name>
# 모든 레플리케이션 컨트롤러와 서비스를 일반 텍스트 출력 형식으로 함께 나열한다.kubectl get rc,services
# 모든 데몬 셋을 일반 텍스트 출력 형식으로 나열한다.kubectl get ds
# 노드 server01에서 실행 중인 모든 파드를 나열한다.kubectl get pods --field-selector=spec.nodeName=server01
kubectl describe - 초기화되지 않은 리소스를 포함하여 하나 이상의 리소스의 기본 상태를 디폴트로 표시한다.
# 노드 이름이 <node-name>인 노드의 세부 사항을 표시한다.kubectl describe nodes <node-name>
# 파드 이름이 <pod-name> 인 파드의 세부 정보를 표시한다.kubectl describe pods/<pod-name>
# 이름이 <rc-name>인 레플리케이션 컨트롤러가 관리하는 모든 파드의 세부 정보를 표시한다.# 기억하기: 레플리케이션 컨트롤러에서 생성된 모든 파드에는 레플리케이션 컨트롤러 이름이 접두사로 붙는다.kubectl describe pods <rc-name>
# 모든 파드의 정보를 출력한다.kubectl describe pods
참고:kubectl get 명령은 일반적으로 동일한 리소스 타입의 하나 이상의
리소스를 검색하는 데 사용된다. 예를 들어, -o 또는 --output 플래그를
사용하여 출력 형식을 사용자 정의할 수 있는 풍부한 플래그 세트가 있다.
-w 또는 --watch 플래그를 지정하여 특정 오브젝트에 대한 업데이트 진행과정을 확인할 수
있다. kubectl describe 명령은 지정된 리소스의 여러 관련 측면을
설명하는 데 더 중점을 둔다. API 서버에 대한 여러 API 호출을 호출하여
사용자에 대한 뷰(view)를 빌드할 수 있다. 예를 들어, kubectl describe node
명령은 노드에 대한 정보뿐만 아니라, 노드에서 실행 중인 파드의 요약 정보, 노드에 대해 생성된 이벤트 등의
정보도 검색한다.
kubectl delete - 파일, 표준입력 또는 레이블 선택기, 이름, 리소스 선택기나 리소스를 지정하여 리소스를 삭제한다.
# pod.yaml 파일에 지정된 타입과 이름을 사용하여 파드를 삭제한다.kubectl delete -f pod.yaml
# '<label-key>=<label-value>' 레이블이 있는 모든 파드와 서비스를 삭제한다.kubectl delete pods,services -l <label-key>=<label-value>
# 초기화되지 않은 파드를 포함한 모든 파드를 삭제한다.kubectl delete pods --all
kubectl exec - 파드의 컨테이너에 대해 명령을 실행한다.
# 파드 <pod-name>에서 'date'를 실행한 결과를 얻는다. 기본적으로, 첫 번째 컨테이너에서 출력된다.kubectl exec <pod-name> -- date
# 파드 <pod-name>의 <container-name> 컨테이너에서 'date'를 실행하여 출력 결과를 얻는다.kubectl exec <pod-name> -c <container-name> -- date
# 파드 <pod-name>에서 대화식 TTY를 연결해 /bin/bash를 실행한다. 기본적으로, 첫 번째 컨테이너에서 출력된다.kubectl exec -ti <pod-name> -- /bin/bash
kubectl logs - 파드의 컨테이너에 대한 로그를 출력한다.
# 파드 <pod-name>에서 로그의 스냅샷을 반환한다.kubectl logs <pod-name>
# 파드 <pod-name>에서 로그 스트리밍을 시작한다. 이것은 리눅스 명령 'tail -f'와 비슷하다.kubectl logs -f <pod-name>
# 어떤 언어로든 간단한 플러그인을 만들고 "kubectl-" 접두사로# 시작하도록 실행 파일의 이름을 지정한다.cat ./kubectl-hello
#!/bin/sh
# 이 플러그인은 "hello world"라는 단어를 출력한다echo"hello world"
작성한 플러그인을 실행 가능하게 한다
chmod a+x ./kubectl-hello
# 그리고 PATH의 위치로 옮긴다sudo mv ./kubectl-hello /usr/local/bin
sudo chown root:root /usr/local/bin
# 이제 kubectl 플러그인을 만들고 "설치했다".# kubectl에서 플러그인을 일반 명령처럼 호출하여 플러그인을 사용할 수 있다kubectl hello
kubectl 에 사용할 수 있는 모든 플러그인을 보려면,
kubectl plugin list 하위 명령을 사용한다.
kubectl plugin list
출력 결과는 다음과 비슷하다.
The following kubectl-compatible plugins are available:
/usr/local/bin/kubectl-hello
/usr/local/bin/kubectl-foo
/usr/local/bin/kubectl-bar
kubectl plugin list 는 또한 실행 가능하지 않거나,
다른 플러그인에 의해 차단된 플러그인에 대해 경고한다. 예를 들면 다음과 같다.
sudo chmod -x /usr/local/bin/kubectl-foo # 실행 권한 제거kubectl plugin list
The following kubectl-compatible plugins are available:
/usr/local/bin/kubectl-hello
/usr/local/bin/kubectl-foo
- warning: /usr/local/bin/kubectl-foo identified as a plugin, but it is not executable
/usr/local/bin/kubectl-bar
error: one plugin warning was found
플러그인은 기존 kubectl 명령 위에 보다 복잡한 기능을
구축하는 수단으로 생각할 수 있다.
cat ./kubectl-whoami
다음 몇 가지 예는 이미 kubectl-whoami 에
다음 내용이 있다고 가정한다.
#!/bin/bash
# 이 플러그인은 현재 선택된 컨텍스트를 기반으로 현재 사용자에 대한# 정보를 출력하기 위해 'kubectl config' 명령을 사용한다.kubectl config view --template='{{ range .contexts }}{{ if eq .name "'$(kubectl config current-context)'" }}Current user: {{ printf "%s\n" .context.user }}{{ end }}{{ end }}'
위의 플러그인을 실행하면 KUBECONFIG 파일에서 현재의 컨텍스트에 대한
사용자가 포함된 출력이 제공된다.
# 파일을 실행 가능하게 한다sudo chmod +x ./kubectl-whoami
# 그리고 PATH로 옮긴다sudo mv ./kubectl-whoami /usr/local/bin
kubectl whoami
Current user: plugins-user
source <(kubectl completion bash)# bash-completion 패키지를 먼저 설치한 후, bash의 자동 완성을 현재 셸에 설정한다echo"source <(kubectl completion bash)" >> ~/.bashrc # 자동 완성을 bash 셸에 영구적으로 추가한다
또한, kubectl의 의미로 사용되는 약칭을 사용할 수 있다.
aliask=kubectl
complete -o default -F __start_kubectl k
ZSH
source <(kubectl completion zsh)# 현재 셸에 zsh의 자동 완성 설정echo'[[ $commands[kubectl] ]] && source <(kubectl completion zsh)' >> ~/.zshrc # 자동 완성을 zsh 셸에 영구적으로 추가한다.
--all-namespaces 에 대한 노트
--all-namespaces를 붙여야 하는 상황이 자주 발생하므로, --all-namespaces의 축약형을 알아 두는 것이 좋다.
# 기본 출력을 위한 Get 커맨드kubectl get services # 네임스페이스 내 모든 서비스의 목록 조회kubectl get pods --all-namespaces # 모든 네임스페이스 내 모든 파드의 목록 조회kubectl get pods -o wide # 해당하는 네임스페이스 내 모든 파드의 상세 목록 조회kubectl get deployment my-dep # 특정 디플로이먼트의 목록 조회kubectl get pods # 네임스페이스 내 모든 파드의 목록 조회kubectl get pod my-pod -o yaml # 파드의 YAML 조회# 상세 출력을 위한 Describe 커맨드kubectl describe nodes my-node
kubectl describe pods my-pod
# Name으로 정렬된 서비스의 목록 조회kubectl get services --sort-by=.metadata.name
# 재시작 횟수로 정렬된 파드의 목록 조회kubectl get pods --sort-by='.status.containerStatuses[0].restartCount'# PersistentVolumes을 용량별로 정렬해서 조회kubectl get pv --sort-by=.spec.capacity.storage
# app=cassandra 레이블을 가진 모든 파드의 레이블 버전 조회kubectl get pods --selector=app=cassandra -o \
jsonpath='{.items[*].metadata.labels.version}'# 예를 들어 'ca.crt'와 같이 점이 있는 키값을 검색한다kubectl get configmap myconfig \
-o jsonpath='{.data.ca\.crt}'# 밑줄(`_`) 대신 대시(`-`)를 사용하여 base64 인코딩된 값을 조회kubectl get secret my-secret --template='{{index .data "key-name-with-dashes"}}'# 모든 워커 노드 조회 (셀렉터를 사용하여 'node-role.kubernetes.io/control-plane'# 으로 명명된 라벨의 결과를 제외)kubectl get node --selector='!node-role.kubernetes.io/control-plane'# 네임스페이스의 모든 실행 중인 파드를 조회kubectl get pods --field-selector=status.phase=Running
# 모든 노드의 외부IP를 조회kubectl get nodes -o jsonpath='{.items[*].status.addresses[?(@.type=="ExternalIP")].address}'# 특정 RC에 속해있는 파드 이름의 목록 조회# "jq" 커맨드는 jsonpath를 사용하는 매우 복잡한 변환에 유용하다. https://stedolan.github.io/jq/ 에서 확인할 수 있다.sel=${$(kubectl get rc my-rc --output=json | jq -j '.spec.selector | to_entries | .[] | "\(.key)=\(.value),"')%?}echo$(kubectl get pods --selector=$sel --output=jsonpath={.items..metadata.name})# 모든 파드(또는 레이블을 지원하는 다른 쿠버네티스 오브젝트)의 레이블 조회kubectl get pods --show-labels
# 어떤 노드가 준비됐는지 확인JSONPATH='{range .items[*]}{@.metadata.name}:{range @.status.conditions[*]}{@.type}={@.status};{end}{end}'\
&& kubectl get nodes -o jsonpath="$JSONPATH" | grep "Ready=True"# 외부 도구 없이 디코딩된 시크릿 출력kubectl get secret my-secret -o go-template='{{range $k,$v := .data}}{{"### "}}{{$k}}{{"\n"}}{{$v|base64decode}}{{"\n\n"}}{{end}}'# 파드에 의해 현재 사용되고 있는 모든 시크릿 목록 조회kubectl get pods -o json | jq '.items[].spec.containers[].env[]?.valueFrom.secretKeyRef.name' | grep -v null | sort | uniq
# 모든 파드의 초기화 컨테이너(initContainer)의 컨테이너ID 목록 조회# 초기화 컨테이너(initContainer)를 제거하지 않고 정지된 모든 컨테이너를 정리할 때 유용하다.kubectl get pods --all-namespaces -o jsonpath='{range .items[*].status.initContainerStatuses[*]}{.containerID}{"\n"}{end}' | cut -d/ -f3
# 타임스탬프로 정렬된 이벤트 목록 조회kubectl get events --sort-by=.metadata.creationTimestamp
# 모든 Warning 타입 이벤트 조회kubectl events --types=Warning
# 매니페스트가 적용된 경우 클러스터의 현재 상태와 클러스터의 상태를 비교한다.kubectl diff -f ./my-manifest.yaml
# 노드에 대해 반환된 모든 키의 마침표로 구분된 트리를 생성한다.# 복잡한 중첩 JSON 구조 내에서 키를 찾을 때 유용하다.kubectl get nodes -o json | jq -c 'paths|join(".")'# 파드 등에 대해 반환된 모든 키의 마침표로 구분된 트리를 생성한다.kubectl get pods -o json | jq -c 'paths|join(".")'# 모든 파드에 대해 ENV를 생성한다(각 파드에 기본 컨테이너가 있고, 기본 네임스페이스가 있고, `env` 명령어가 동작한다고 가정).# `env` 뿐만 아니라 다른 지원되는 명령어를 모든 파드에 실행할 때에도 참고할 수 있다.for pod in $(kubectl get po --output=jsonpath={.items..metadata.name}); doecho$pod&& kubectl exec -it $pod -- env; done# 디플로이먼트의 status 서브리소스를 조회한다.kubectl get deployment nginx-deployment --subresource=status
리소스 업데이트
kubectl set image deployment/frontend www=image:v2 # "frontend" 디플로이먼트의 "www" 컨테이너 이미지를 업데이트하는 롤링 업데이트kubectl rollout history deployment/frontend # 현 리비전을 포함한 디플로이먼트의 이력을 체크kubectl rollout undo deployment/frontend # 이전 디플로이먼트로 롤백kubectl rollout undo deployment/frontend --to-revision=2# 특정 리비전으로 롤백kubectl rollout status -w deployment/frontend # 완료될 때까지 "frontend" 디플로이먼트의 롤링 업데이트 상태를 감시kubectl rollout restart deployment/frontend # "frontend" 디플로이먼트의 롤링 재시작cat pod.json | kubectl replace -f - # stdin으로 전달된 JSON을 기반으로 파드 교체# 리소스를 강제 교체, 삭제 후 재생성함. 이것은 서비스를 중단시킴.kubectl replace --force -f ./pod.json
# 복제된 nginx를 위한 서비스를 생성한다. 80 포트로 서비스하고, 컨테이너는 8000 포트로 연결한다.kubectl expose rc nginx --port=80 --target-port=8000# 단일-컨테이너 파드의 이미지 버전(태그)을 v4로 업데이트kubectl get pod mypod -o yaml | sed 's/\(image: myimage\):.*$/\1:v4/' | kubectl replace -f -
kubectl label pods my-pod new-label=awesome # 레이블 추가kubectl label pods my-pod new-label- # 레이블 제거kubectl annotate pods my-pod icon-url=http://goo.gl/XXBTWq # 어노테이션 추가kubectl autoscale deployment foo --min=2 --max=10# 디플로이먼트 "foo" 오토스케일
리소스 패치
# 노드를 부분적으로 업데이트kubectl patch node k8s-node-1 -p '{"spec":{"unschedulable":true}}'# 컨테이너의 이미지를 업데이트. 병합(merge) 키이므로, spec.containers[*].name이 필요kubectl patch pod valid-pod -p '{"spec":{"containers":[{"name":"kubernetes-serve-hostname","image":"new image"}]}}'# 위치 배열을 이용한 json 패치를 사용하여, 컨테이너의 이미지를 업데이트kubectl patch pod valid-pod --type='json' -p='[{"op": "replace", "path": "/spec/containers/0/image", "value":"new image"}]'# 위치 배열을 이용한 json 패치를 사용하여 livenessProbe 디플로이먼트 비활성화kubectl patch deployment valid-deployment --type json -p='[{"op": "remove", "path": "/spec/template/spec/containers/0/livenessProbe"}]'# 위치 배열에 새 요소 추가kubectl patch sa default --type='json' -p='[{"op": "add", "path": "/secrets/1", "value": {"name": "whatever" } }]'# 디플로이먼트의 scale 서브리소스를 패치하여 레플리카 수 업데이트kubectl patch deployment nginx-deployment --subresource='scale' --type='merge' -p '{"spec":{"replicas":2}}'
리소스 편집
선호하는 편집기로 모든 API 리소스를 편집할 수 있다.
kubectl edit svc/docker-registry # docker-registry라는 서비스 편집KUBE_EDITOR="nano" kubectl edit svc/docker-registry # 다른 편집기 사용
리소스 스케일링
kubectl scale --replicas=3 rs/foo # 'foo'라는 레플리카셋을 3으로 스케일kubectl scale --replicas=3 -f foo.yaml # "foo.yaml"에 지정된 리소스의 크기를 3으로 스케일kubectl scale --current-replicas=2 --replicas=3 deployment/mysql # mysql이라는 디플로이먼트의 현재 크기가 2인 경우, mysql을 3으로 스케일kubectl scale --replicas=5 rc/foo rc/bar rc/baz # 여러 개의 레플리케이션 컨트롤러 스케일
리소스 삭제
kubectl delete -f ./pod.json # pod.json에 지정된 유형 및 이름을 사용하여 파드 삭제kubectl delete pod unwanted --now # 유예 시간 없이 즉시 파드 삭제kubectl delete pod,service baz foo # "baz", "foo"와 동일한 이름을 가진 파드와 서비스 삭제kubectl delete pods,services -l name=myLabel # name=myLabel 라벨을 가진 파드와 서비스 삭제kubectl -n my-ns delete pod,svc --all # my-ns 네임스페이스 내 모든 파드와 서비스 삭제# awk pattern1 또는 pattern2에 매칭되는 모든 파드 삭제kubectl get pods -n mynamespace --no-headers=true | awk '/pattern1|pattern2/{print $1}' | xargs kubectl delete -n mynamespace pod
실행 중인 파드와 상호 작용
kubectl logs my-pod # 파드 로그 덤프 (stdout)kubectl logs -l name=myLabel # name이 myLabel인 파드 로그 덤프 (stdout)kubectl logs my-pod --previous # 컨테이너의 이전 인스턴스 생성에 대한 파드 로그 덤프 (stdout)kubectl logs my-pod -c my-container # 파드 로그 덤프 (stdout, 멀티-컨테이너 경우)kubectl logs -l name=myLabel -c my-container # name이 myLabel인 파드 로그 덤프 (stdout)kubectl logs my-pod -c my-container --previous # 컨테이너의 이전 인스턴스 생성에 대한 파드 로그 덤프 (stdout, 멀티-컨테이너 경우)kubectl logs -f my-pod # 실시간 스트림 파드 로그(stdout)kubectl logs -f my-pod -c my-container # 실시간 스트림 파드 로그(stdout, 멀티-컨테이너 경우)kubectl logs -f -l name=myLabel --all-containers # name이 myLabel인 모든 파드의 로그 스트리밍 (stdout)kubectl run -i --tty busybox --image=busybox:1.28 -- sh # 대화형 셸로 파드를 실행kubectl run nginx --image=nginx -n mynamespace # mynamespace 네임스페이스에서 nginx 파드 1개 실행kubectl run nginx --image=nginx --dry-run=client -o yaml > pod.yaml
# nginx 파드에 대한 spec을 생성하고, pod.yaml이라는 파일에 해당 내용을 기록한다.kubectl attach my-pod -i # 실행 중인 컨테이너에 연결kubectl port-forward my-pod 5000:6000 # 로컬 머신의 5000번 포트를 리스닝하고, my-pod의 6000번 포트로 전달kubectl exec my-pod -- ls / # 기존 파드에서 명령 실행(한 개 컨테이너 경우)kubectl exec --stdin --tty my-pod -- /bin/sh # 실행 중인 파드로 대화형 셸 액세스(1 컨테이너 경우)kubectl exec my-pod -c my-container -- ls / # 기존 파드에서 명령 실행(멀티-컨테이너 경우)kubectl top pod POD_NAME --containers # 특정 파드와 해당 컨테이너에 대한 메트릭 표시kubectl top pod POD_NAME --sort-by=cpu # 지정한 파드에 대한 메트릭을 표시하고 'cpu' 또는 'memory'별로 정렬
컨테이너로/컨테이너에서 파일과 디렉터리 복사
kubectl cp /tmp/foo_dir my-pod:/tmp/bar_dir # 로컬 디렉토리 /tmp/foo_dir 를 현재 네임스페이스의 my-pod 파드 안의 /tmp/bar_dir 로 복사kubectl cp /tmp/foo my-pod:/tmp/bar -c my-container # 로컬 파일 /tmp/foo 를 my-pod 파드의 my-container 컨테이너 안의 /tmp/bar 로 복사kubectl cp /tmp/foo my-namespace/my-pod:/tmp/bar # 로컬 파일 /tmp/foo 를 my-namespace 네임스페이스의 my-pod 파드 안의 /tmp/bar 로 복사kubectl cp my-namespace/my-pod:/tmp/foo /tmp/bar # my-namespace 네임스페이스의 my-pod 파드 안의 파일 /tmp/foo 를 로컬의 /tmp/bar 로 복사
참고:kubectl cp 명령을 사용하려면 컨테이너 이미지에 'tar' 바이너리가 포함되어 있어야 한다. 'tar'가 없으면, kubectl cp는 실패할 것이다.
심볼릭 링크, 와일드카드 확장, 파일 모드 보존과 같은 고급 사용 사례에 대해서는 kubectl exec 를 고려해 볼 수 있다.
tar cf - /tmp/foo | kubectl exec -i -n my-namespace my-pod -- tar xf - -C /tmp/bar # 로컬 파일 /tmp/foo 를 my-namespace 네임스페이스의 my-pod 파드 안의 /tmp/bar 로 복사kubectl exec -n my-namespace my-pod -- tar cf - /tmp/foo | tar xf - -C /tmp/bar # my-namespace 네임스페이스의 my-pod 파드 안의 파일 /tmp/foo 를 로컬의 /tmp/bar 로 복사
디플로이먼트, 서비스와 상호 작용
kubectl logs deploy/my-deployment # 디플로이먼트에 대한 파드 로그 덤프 (단일-컨테이너 경우)kubectl logs deploy/my-deployment -c my-container # 디플로이먼트에 대한 파드 로그 덤프 (멀티-컨테이너 경우)kubectl port-forward svc/my-service 5000# 로컬 머신의 5000번 포트를 리스닝하고, my-service의 동일한(5000번) 포트로 전달kubectl port-forward svc/my-service 5000:my-service-port # 로컬 머신의 5000번 포트를 리스닝하고, my-service의 <my-service-port> 라는 이름을 가진 포트로 전달kubectl port-forward deploy/my-deployment 5000:6000 # 로컬 머신의 5000번 포트를 리스닝하고, <my-deployment> 에 의해 생성된 파드의 6000번 포트로 전달kubectl exec deploy/my-deployment -- ls # <my-deployment> 에 의해 생성된 첫번째 파드의 첫번째 컨테이너에 명령어 실행 (단일- 또는 다중-컨테이너 경우)
노드, 클러스터와 상호 작용
kubectl cordon my-node # my-node를 스케줄링할 수 없도록 표기kubectl drain my-node # 유지 보수를 위해서 my-node를 준비 상태로 비움kubectl uncordon my-node # my-node를 스케줄링할 수 있도록 표기kubectl top node my-node # 주어진 노드에 대한 메트릭 표시kubectl cluster-info # 마스터 및 서비스의 주소 표시kubectl cluster-info dump # 현재 클러스터 상태를 stdout으로 덤프kubectl cluster-info dump --output-directory=/path/to/cluster-state # 현재 클러스터 상태를 /path/to/cluster-state으로 덤프# 현재 노드에 존재하고 있는 테인트(taint)들을 확인kubectl get nodes -o='custom-columns=NodeName:.metadata.name,TaintKey:.spec.taints[*].key,TaintValue:.spec.taints[*].value,TaintEffect:.spec.taints[*].effect'# 이미 존재하고 있는 key와 effect를 갖는 테인트의 경우, 지정한 값으로 대체kubectl taint nodes foo dedicated=special-user:NoSchedule
kubectl api-resources --namespaced=true# 네임스페이스를 가지는 모든 리소스kubectl api-resources --namespaced=false# 네임스페이스를 가지지 않는 모든 리소스kubectl api-resources -o name # 모든 리소스의 단순한 (리소스 이름만) 출력kubectl api-resources -o wide # 모든 리소스의 확장된 ("wide"로 알려진) 출력kubectl api-resources --verbs=list,get # "list"와 "get"의 요청 동사를 지원하는 모든 리소스 출력kubectl api-resources --api-group=extensions # "extensions" API 그룹의 모든 리소스
출력 형식 지정
특정 형식으로 터미널 창에 세부 사항을 출력하려면, 지원되는 kubectl 명령에 -o (또는 --output) 플래그를 추가한다.
# 클러스터에서 실행 중인 모든 이미지kubectl get pods -A -o=custom-columns='DATA:spec.containers[*].image'# `default` 네임스페이스의 모든 이미지를 파드별로 그룹지어 출력kubectl get pods --namespace default --output=custom-columns="NAME:.metadata.name,IMAGE:.spec.containers[*].image"# "registry.k8s.io/coredns:1.6.2" 를 제외한 모든 이미지kubectl get pods -A -o=custom-columns='DATA:spec.containers[?(@.image!="registry.k8s.io/coredns:1.6.2")].image'# 이름에 관계없이 메타데이터 아래의 모든 필드kubectl get pods -A -o=custom-columns='DATA:metadata.*'
kubectl wait - 실험적(experimental) 기능: 하나 이상의 리소스에 대해서 특정 조건이 만족될 때까지 대기(wait)
10.3 - JSONPath 지원
Kubectl은 JSONPath 템플릿을 지원한다.
JSONPath 템플릿은 중괄호 {}로 둘러싸인 JSONPath 표현식으로 구성된다.
Kubectl은 JSONPath 표현식을 사용하여 JSON 오브젝트의 특정 필드를 필터링하고 출력 형식을 지정한다.
원본 JSONPath 템플릿 구문 외에도 다음과 같은 기능과 구문이 유효하다.
큰따옴표를 사용하여 JSONPath 표현식 내부의 텍스트를 인용한다.
목록을 반복하려면 range, end 오퍼레이터를 사용한다.
목록에서 뒤로 이동하려면 negative slice 인덱스를 사용한다. negative 인덱스는 목록을 "순환(wrap around)" 하지 않으며, -index + listLength >= 0 인 한 유효하다.
kubectl get pods -o json
kubectl get pods -o=jsonpath='{@}'kubectl get pods -o=jsonpath='{.items[0]}'kubectl get pods -o=jsonpath='{.items[0].metadata.name}'kubectl get pods -o=jsonpath="{.items[*]['metadata.name', 'status.capacity']}"kubectl get pods -o=jsonpath='{range .items[*]}{.metadata.name}{"\t"}{.status.startTime}{"\n"}{end}'
참고:
윈도우에서 공백이 포함된 JSONPath 템플릿을 큰따옴표(위의 bash에 표시된 작은따옴표가 아님)로 묶어야 한다. 즉, 템플릿의 모든 문자 주변에 작은따옴표 또는 이스케이프된 큰따옴표를 사용해야 한다. 예를 들면, 다음과 같다.
kubectl get pods -o=jsonpath="{range .items[*]}{.metadata.name}{'\t'}{.status.startTime}{'\n'}{end}"kubectl get pods -o=jsonpath="{range .items[*]}{.metadata.name}{\"\t\"}{.status.startTime}{\"\n\"}{end}"
참고:
JSONPath 정규식은 지원되지 않는다. 정규 표현식을 이용해 매치하려면 jq와 같은 도구를 사용하면 된다.
# kubectl은 JSONPath 출력에 대한 정규 표현식을 지원하지 않는다.# 다음 커맨드는 작동하지 않는다.kubectl get pods -o jsonpath='{.items[?(@.metadata.name=~/^test$/)].metadata.name}'# 다음 커맨드는 원하는 결과를 얻는다.kubectl get pods -o json | jq -r '.items[] | select(.metadata.name | test("test-")).spec.containers[].image'
10.4 - 도커 사용자를 위한 kubectl
당신은 쿠버네티스 커맨드 라인 도구인 kubectl을 사용하여 API 서버와 상호 작용할 수 있다. 만약 도커 커맨드 라인 도구에 익숙하다면 kubectl을 사용하는 것은 간단하다. 다음 섹션에서는 도커의 하위 명령을 보여주고 kubectl과 같은 명령어를 설명한다.
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
55c103fa1296 nginx "nginx -g 'daemon of…" 9 seconds ago Up 9 seconds 0.0.0.0:80->80/tcp nginx-app
kubectl:
# nginx 실행하는 파드를 시작한다kubectl create deployment --image=nginx nginx-app
deployment.apps/nginx-app created
# nginx-app 에 env를 추가한다kubectl set env deployment/nginx-app DOMAIN=cluster
deployment.apps/nginx-app env updated
참고:kubectl 커맨드는 생성되거나 변경된 리소스의 유형과 이름을 출력하므로, 이를 후속 커맨드에 사용할 수 있다. 디플로이먼트가 생성된 후에는 새로운 서비스를 노출할 수 있다.
# 서비스를 통해 포트를 노출kubectl expose deployment nginx-app --port=80 --name=nginx-http
service "nginx-http" exposed
kubectl을 사용하면, N개의 파드가 nginx를 실행하도록 디플로이먼트를 생성할 수 있다. 여기서 N은 스펙에 명시된 레플리카 수이며, 기본값은 1이다. 또한 파드의 레이블과 셀럭터를 사용하여 서비스를 생성할 수 있다. 자세한 내용은 클러스터 내 애플리케이션에 접근하기 위해 서비스 사용하기를 참고한다.
기본적으로 이미지는 docker run -d ... 와 비슷하게 백그라운드로 실행된다. 포그라운드로 실행하려면 kubectl run을 이용하여 파드를 생성한다.
kubectl run [-i][--tty] --attach <name> --image=<image>
docker run ... 과 달리 --attach 를 지정하면 표준 입력(stdin), 표준 출력(stdout) 및 표준 오류(stderr)가 붙는다. 연결된(attached) 스트림을 제어할 수 없다(docker -a ...).
해당 컨테이너에서 분리(detach)하려면 이스케이프 시퀀스(escape sequence) Ctrl+P를 입력한 다음 Ctrl+Q를 입력한다.
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
14636241935f ubuntu:16.04 "echo test" 5 seconds ago Exited (0) 5 seconds ago cocky_fermi
55c103fa1296 nginx "nginx -g 'daemon of…" About a minute ago Up About a minute 0.0.0.0:80->80/tcp nginx-app
kubectl:
kubectl get po
NAME READY STATUS RESTARTS AGE
nginx-app-8df569cb7-4gd89 1/1 Running 0 3m
ubuntu 0/1 Completed 0 20s
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
55c103fa1296 nginx "nginx -g 'daemon of…" 5 minutes ago Up 5 minutes 0.0.0.0:80->80/tcp nginx-app
docker attach 55c103fa1296
...
kubectl:
kubectl get pods
NAME READY STATUS RESTARTS AGE
nginx-app-5jyvm 1/1 Running 0 10m
kubectl attach -it nginx-app-5jyvm
...
컨테이너에서 분리하려면 이스케이프 시퀀스 Ctrl+P를 입력한 다음 Ctrl+Q를 입력한다.
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
55c103fa1296 nginx "nginx -g 'daemon of…" 6 minutes ago Up 6 minutes 0.0.0.0:80->80/tcp nginx-app
docker exec 55c103fa1296 cat /etc/hostname
55c103fa1296
kubectl:
kubectl get po
NAME READY STATUS RESTARTS AGE
nginx-app-5jyvm 1/1 Running 0 10m
파드와 컨테이너에는 근소한 차이가 있다. 기본적으로 파드는 프로세스가 종료되어도 종료되지 않는다. 대신 파드가 프로세스를 다시 시작한다. 이는 도커의 실행 옵션인 --restart=always와 유사하지만, 한 가지 큰 차이점이 있다. 도커에서는 프로세스의 각 호출에 대한 출력이 연결되지만, 쿠버네티스의 경우 각 호출은 별개다. 쿠버네티스에서 이전 실행의 출력 내용을 보려면 다음을 수행한다.
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
a9ec34d98787 nginx "nginx -g 'daemon of" 22 hours ago Up 22 hours 0.0.0.0:80->80/tcp, 443/tcp nginx-app
docker stop a9ec34d98787
a9ec34d98787
docker rm a9ec34d98787
a9ec34d98787
kubectl:
kubectl get deployment nginx-app
NAME READY UP-TO-DATE AVAILABLE AGE
nginx-app 1/1 1 1 2m
kubectl get po -l app=nginx-app
NAME READY STATUS RESTARTS AGE
nginx-app-2883164633-aklf7 1/1 Running 0 2m
kubectl delete deployment nginx-app
deployment "nginx-app" deleted
kubectl get po -l app=nginx-app
# 아무것도 반환하지 않는다
참고: kubectl을 사용할 때는 파드를 직접 삭제하지 않는다. 먼저 파드를 소유한 디플로이먼트를 삭제해야 한다. 만약 파드를 직접 삭제하면 디플로이먼트가 파드를 재생성할 것이다.
docker login
kubectl은 docker login와 직접적인 유사점은 없다. 프라이빗 레지스트리와 함께 쿠버네티스를 사용하려면 프라이빗 레지스트리 사용을 참고한다.
Client version: 1.7.0
Client API version: 1.19
Go version (client): go1.4.2
Git commit (client): 0baf609
OS/Arch (client): linux/amd64
Server version: 1.7.0
Server API version: 1.19
Go version (server): go1.4.2
Git commit (server): 0baf609
OS/Arch (server): linux/amd64
Kubernetes master is running at https://203.0.113.141
KubeDNS is running at https://203.0.113.141/api/v1/namespaces/kube-system/services/kube-dns/proxy
kubernetes-dashboard is running at https://203.0.113.141/api/v1/namespaces/kube-system/services/kubernetes-dashboard/proxy
Grafana is running at https://203.0.113.141/api/v1/namespaces/kube-system/services/monitoring-grafana/proxy
Heapster is running at https://203.0.113.141/api/v1/namespaces/kube-system/services/monitoring-heapster/proxy
InfluxDB is running at https://203.0.113.141/api/v1/namespaces/kube-system/services/monitoring-influxdb/proxy
10.5 - kubectl 사용 규칙
kubectl에 대한 권장 사용 규칙.
재사용 가능한 스크립트에서 kubectl 사용
스크립트의 안정적인 출력을 위해서
-o name, -o json, -o yaml, -o go-template 혹은 -o jsonpath와 같은 머신 지향(machine-oriented) 출력 양식 중 하나를 요청한다.
예를 들어 jobs.v1.batch/myjob과 같이 전체 버전을 사용한다. 이를 통해 kubectl이 시간이 지남에 따라 변경될 수 있는 기본 버전을 사용하지 않도록 한다.
문맥, 설정 또는 기타 암묵적 상태에 의존하지 않는다.
서브리소스
kubectl의 get, patch, edit 및 replace와 같은 명령어에서
서브리소스를 지원하는 모든 리소스에 대해 --subresource 알파 플래그를 사용하여
서브리소스를 조회하고 업데이트할 수 있다. 현재, status와 scale 서브리소스만 지원된다.
서브리소스에 대한 API 계약은 전체 리소스와 동일하다.
status 서브리소스를 새 값으로 업데이트해도,
컨트롤러에서 서브리소스를 잠재적으로 다른 값으로 조정할 수 있다는 점을 염두에 두어야 한다.
모범 사례
kubectl run
kubectl run으로 infrastructure as code를 충족시키기 위해서
버전이 명시된 태그로 이미지를 태그하고 그 태그를 새로운 버전으로 이동하지 않는다. 예를 들어, :latest가 아닌 :v1234, v1.2.3, r03062016-1-4를 사용한다(자세한 정보는 구성 모범 사례를 참고한다).
많은 파라미터가 적용된 이미지를 위한 스크립트를 작성한다.
필요하지만 kubectl run 플래그를 통해 표현할 수 없는 기능은 구성 파일을 소스 코드 버전 관리 시스템에 넣어서 전환한다.
--dry-run 플래그를 사용하여 실제로 제출하지 않고 클러스터로 보낼 오브젝트를 미리 볼 수 있다.
kubectl apply
kubectl apply를 사용해서 리소스를 생성하거나 업데이트 할 수 있다. kubectl apply를 사용하여 리소스를 업데이트하는 방법에 대한 자세한 정보는 Kubectl 책을 참고한다.
11 - 컴포넌트 도구
11.1 - 기능 게이트
이 페이지에는 관리자가 다른 쿠버네티스 컴포넌트에서 지정할 수 있는 다양한
기능 게이트에 대한 개요가 포함되어 있다.
기능 게이트는 쿠버네티스 기능을 설명하는 일련의 키=값 쌍이다.
각 쿠버네티스 컴포넌트에서 --feature-gates 커맨드 라인 플래그를 사용하여
이러한 기능을 켜거나 끌 수 있다.
각 쿠버네티스 컴포넌트를 사용하면 해당 컴포넌트와 관련된 기능 게이트 집합을
활성화 또는 비활성화할 수 있다.
모든 컴포넌트에 대한 전체 기능 게이트 집합을 보려면 -h 플래그를 사용한다.
kubelet과 같은 컴포넌트의 기능 게이트를 설정하려면,
기능 쌍 목록에 지정된 --feature-gates 플래그를 사용한다.
--feature-gates=...,GracefulNodeShutdown=true
다음 표는 다른 쿠버네티스 컴포넌트에서 설정할 수 있는 기능 게이트를
요약한 것이다.
"도입" 열에는 기능이 소개되거나 릴리스 단계가 변경될 때의
쿠버네티스 릴리스가 포함된다.
"종료" 열이 비어 있지 않으면, 여전히 기능 게이트를 사용할 수 있는 마지막
쿠버네티스 릴리스가 포함된다.
참고: 제거된 옛 기능 게이트의 레퍼런스를 보려면,
제거된 기능 게이트 페이지를 참고한다.
알파 또는 베타 기능을 위한 기능 게이트
알파 또는 베타 단계에 있는 기능을 위한 기능 게이트
기능
디폴트
단계
도입
종료
APIListChunking
false
알파
1.8
1.8
APIListChunking
true
베타
1.9
APIPriorityAndFairness
false
알파
1.18
1.19
APIPriorityAndFairness
true
베타
1.20
APIResponseCompression
false
알파
1.7
1.15
APIResponseCompression
true
베타
1.16
APISelfSubjectAttributesReview
false
알파
1.26
APIServerIdentity
false
알파
1.20
1.25
APIServerIdentity
true
베타
1.26
APIServerTracing
false
알파
1.22
AllowInsecureBackendProxy
true
베타
1.17
AnyVolumeDataSource
false
알파
1.18
1.23
AnyVolumeDataSource
true
베타
1.24
AppArmor
true
베타
1.4
CPUManagerPolicyAlphaOptions
false
알파
1.23
CPUManagerPolicyBetaOptions
true
베타
1.23
CPUManagerPolicyOptions
false
알파
1.22
1.22
CPUManagerPolicyOptions
true
베타
1.23
CSIMigrationPortworx
false
알파
1.23
1.24
CSIMigrationPortworx
false
베타
1.25
CSIMigrationRBD
false
알파
1.23
CSINodeExpandSecret
false
알파
1.25
CSIVolumeHealth
false
알파
1.21
CrossNamespaceVolumeDataSource
false
알파
1.26
ContainerCheckpoint
false
알파
1.25
ContextualLogging
false
알파
1.24
CustomCPUCFSQuotaPeriod
false
알파
1.12
CustomResourceValidationExpressions
false
알파
1.23
1.24
CustomResourceValidationExpressions
true
베타
1.25
DisableCloudProviders
false
알파
1.22
DisableKubeletCloudCredentialProviders
false
알파
1.23
DownwardAPIHugePages
false
알파
1.20
1.20
DownwardAPIHugePages
false
베타
1.21
1.21
DownwardAPIHugePages
true
베타
1.22
DynamicResourceAllocation
false
알파
1.26
EndpointSliceTerminatingCondition
false
알파
1.20
1.21
EndpointSliceTerminatingCondition
true
베타
1.22
ExpandedDNSConfig
false
알파
1.22
ExperimentalHostUserNamespaceDefaulting
false
베타
1.5
GRPCContainerProbe
false
알파
1.23
1.23
GRPCContainerProbe
true
베타
1.24
GracefulNodeShutdown
false
알파
1.20
1.20
GracefulNodeShutdown
true
베타
1.21
GracefulNodeShutdownBasedOnPodPriority
false
알파
1.23
1.23
GracefulNodeShutdownBasedOnPodPriority
true
베타
1.24
HPAContainerMetrics
false
알파
1.20
HPAScaleToZero
false
알파
1.16
HonorPVReclaimPolicy
false
알파
1.23
InTreePluginAWSUnregister
false
알파
1.21
InTreePluginAzureDiskUnregister
false
알파
1.21
InTreePluginAzureFileUnregister
false
알파
1.21
InTreePluginGCEUnregister
false
알파
1.21
InTreePluginOpenStackUnregister
false
알파
1.21
InTreePluginPortworxUnregister
false
알파
1.23
InTreePluginRBDUnregister
false
알파
1.23
InTreePluginvSphereUnregister
false
알파
1.21
IPTablesOwnershipCleanup
false
알파
1.25
JobMutableNodeSchedulingDirectives
true
베타
1.23
JobPodFailurePolicy
false
알파
1.25
1.25
JobPodFailurePolicy
true
베타
1.26
JobReadyPods
false
알파
1.23
1.23
JobReadyPods
true
베타
1.24
JobTrackingWithFinalizers
false
알파
1.22
1.22
JobTrackingWithFinalizers
false
베타
1.23
1.24
JobTrackingWithFinalizers
true
베타
1.25
KMSv2
false
알파
1.25
KubeletInUserNamespace
false
알파
1.22
KubeletPodResources
false
알파
1.13
1.14
KubeletPodResources
true
베타
1.15
KubeletPodResourcesGetAllocatable
false
알파
1.21
1.22
KubeletPodResourcesGetAllocatable
true
베타
1.23
KubeletTracing
false
알파
1.25
LegacyServiceAccountTokenTracking
false
알파
1.26
LocalStorageCapacityIsolationFSQuotaMonitoring
false
알파
1.15
1.24
LocalStorageCapacityIsolationFSQuotaMonitoring
true
베타
1.25
LogarithmicScaleDown
false
알파
1.21
1.21
LogarithmicScaleDown
true
베타
1.22
MatchLabelKeysInPodTopologySpread
false
알파
1.25
MaxUnavailableStatefulSet
false
알파
1.24
MemoryManager
false
알파
1.21
1.21
MemoryManager
true
베타
1.22
MemoryQoS
false
알파
1.22
MinDomainsInPodTopologySpread
false
알파
1.24
1.24
MinDomainsInPodTopologySpread
false
베타
1.25
MixedProtocolLBService
false
알파
1.20
1.23
MixedProtocolLBService
true
베타
1.24
MultiCIDRRangeAllocator
false
알파
1.25
NetworkPolicyStatus
false
알파
1.24
NodeInclusionPolicyInPodTopologySpread
false
알파
1.25
NodeOutOfServiceVolumeDetach
false
알파
1.24
1.25
NodeOutOfServiceVolumeDetach
true
베타
1.26
NodeSwap
false
알파
1.22
OpenAPIEnums
false
알파
1.23
1.23
OpenAPIEnums
true
베타
1.24
OpenAPIV3
false
알파
1.23
1.23
OpenAPIV3
true
베타
1.24
PDBUnhealthyPodEvictionPolicy
false
알파
1.26
PodAndContainerStatsFromCRI
false
알파
1.23
PodDeletionCost
false
알파
1.21
1.21
PodDeletionCost
true
베타
1.22
PodDisruptionConditions
false
알파
1.25
1.25
PodDisruptionConditions
true
베타
1.26
PodHasNetworkCondition
false
알파
1.25
PodSchedulingReadiness
false
알파
1.26
ProbeTerminationGracePeriod
false
알파
1.21
1.21
ProbeTerminationGracePeriod
false
베타
1.22
1.24
ProbeTerminationGracePeriod
true
베타
1.25
ProcMountType
false
알파
1.12
ProxyTerminatingEndpoints
false
알파
1.22
1.25
ProxyTerminatingEndpoints
true
베타
1.26
QOSReserved
false
알파
1.11
ReadWriteOncePod
false
알파
1.22
RecoverVolumeExpansionFailure
false
알파
1.23
RemainingItemCount
false
알파
1.15
1.15
RemainingItemCount
true
베타
1.16
RetroactiveDefaultStorageClass
false
알파
1.25
1.25
RetroactiveDefaultStorageClass
true
베타
1.26
RotateKubeletServerCertificate
false
알파
1.7
1.11
RotateKubeletServerCertificate
true
베타
1.12
SELinuxMountReadWriteOncePod
false
알파
1.25
SeccompDefault
false
알파
1.22
1.24
SeccompDefault
true
베타
1.25
ServerSideFieldValidation
false
알파
1.23
1.24
ServerSideFieldValidation
true
베타
1.25
SizeMemoryBackedVolumes
false
알파
1.20
1.21
SizeMemoryBackedVolumes
true
베타
1.22
StatefulSetAutoDeletePVC
false
알파
1.22
StatefulSetStartOrdinal
false
알파
1.26
StorageVersionAPI
false
알파
1.20
StorageVersionHash
false
알파
1.14
1.14
StorageVersionHash
true
베타
1.15
TopologyAwareHints
false
알파
1.21
1.22
TopologyAwareHints
false
베타
1.23
1.23
TopologyAwareHints
true
베타
1.24
TopologyManager
false
알파
1.16
1.17
TopologyManager
true
베타
1.18
TopologyManagerPolicyAlphaOptions
false
알파
1.26
TopologyManagerPolicyBetaOptions
false
베타
1.26
TopologyManagerPolicyOptions
false
알파
1.26
UserNamespacesStatelessPodsSupport
false
알파
1.25
ValidatingAdmissionPolicy
false
알파
1.26
VolumeCapacityPriority
false
알파
1.21
-
WinDSR
false
알파
1.14
WinOverlay
false
알파
1.14
1.19
WinOverlay
true
베타
1.20
WindowsHostNetwork
false
알파
1.26
승급 또는 사용 중단된 기능을 위한 기능 게이트
승급 또는 사용 중단 기능을 위한 기능 게이트
기능
디폴트
단계
도입
종료
AdvancedAuditing
false
알파
1.7
1.7
AdvancedAuditing
true
베타
1.8
1.11
AdvancedAuditing
true
GA
1.12
-
CPUManager
false
알파
1.8
1.9
CPUManager
true
베타
1.10
1.25
CPUManager
true
GA
1.26
-
CSIInlineVolume
false
알파
1.15
1.15
CSIInlineVolume
true
베타
1.16
1.24
CSIInlineVolume
true
GA
1.25
-
CSIMigration
false
알파
1.14
1.16
CSIMigration
true
베타
1.17
1.24
CSIMigration
true
GA
1.25
-
CSIMigrationAWS
false
알파
1.14
1.16
CSIMigrationAWS
false
베타
1.17
1.22
CSIMigrationAWS
true
베타
1.23
1.24
CSIMigrationAWS
true
GA
1.25
-
CSIMigrationAzureDisk
false
알파
1.15
1.18
CSIMigrationAzureDisk
false
베타
1.19
1.22
CSIMigrationAzureDisk
true
베타
1.23
1.23
CSIMigrationAzureDisk
true
GA
1.24
CSIMigrationAzureFile
false
알파
1.15
1.20
CSIMigrationAzureFile
false
베타
1.21
1.23
CSIMigrationAzureFile
true
베타
1.24
1.25
CSIMigrationAzureFile
true
GA
1.26
CSIMigrationGCE
false
알파
1.14
1.16
CSIMigrationGCE
false
베타
1.17
1.22
CSIMigrationGCE
true
베타
1.23
1.24
CSIMigrationGCE
true
GA
1.25
-
CSIMigrationvSphere
false
알파
1.18
1.18
CSIMigrationvSphere
false
베타
1.19
1.24
CSIMigrationvSphere
true
베타
1.25
1.25
CSIMigrationvSphere
true
GA
1.26
-
CSIMigrationOpenStack
false
알파
1.14
1.17
CSIMigrationOpenStack
true
베타
1.18
1.23
CSIMigrationOpenStack
true
GA
1.24
CSIStorageCapacity
false
알파
1.19
1.20
CSIStorageCapacity
true
베타
1.21
1.23
CSIStorageCapacity
true
GA
1.24
-
ControllerManagerLeaderMigration
false
알파
1.21
1.21
ControllerManagerLeaderMigration
true
베타
1.22
1.23
ControllerManagerLeaderMigration
true
GA
1.24
-
CronJobTimeZone
false
알파
1.24
1.24
CronJobTimeZone
true
베타
1.25
DaemonSetUpdateSurge
false
알파
1.21
1.21
DaemonSetUpdateSurge
true
베타
1.22
1.24
DaemonSetUpdateSurge
true
GA
1.25
-
DefaultPodTopologySpread
false
알파
1.19
1.19
DefaultPodTopologySpread
true
베타
1.20
1.23
DefaultPodTopologySpread
true
GA
1.24
-
DelegateFSGroupToCSIDriver
false
알파
1.22
1.22
DelegateFSGroupToCSIDriver
true
베타
1.23
1.25
DelegateFSGroupToCSIDriver
true
GA
1.26
-
DisableAcceleratorUsageMetrics
false
알파
1.19
1.19
DisableAcceleratorUsageMetrics
true
베타
1.20
1.24
DisableAcceleratorUsageMetrics
true
GA
1.25
-
DevicePlugins
false
알파
1.8
1.9
DevicePlugins
true
베타
1.10
1.25
DevicePlugins
true
GA
1.26
-
DryRun
false
알파
1.12
1.12
DryRun
true
베타
1.13
1.18
DryRun
true
GA
1.19
-
DynamicKubeletConfig
false
알파
1.4
1.10
DynamicKubeletConfig
true
베타
1.11
1.21
DynamicKubeletConfig
false
Deprecated
1.22
-
EfficientWatchResumption
false
알파
1.20
1.20
EfficientWatchResumption
true
베타
1.21
1.23
EfficientWatchResumption
true
GA
1.24
-
EphemeralContainers
false
알파
1.16
1.22
EphemeralContainers
true
베타
1.23
1.24
EphemeralContainers
true
GA
1.25
-
EventedPLEG
false
알파
1.26
-
ExecProbeTimeout
true
GA
1.20
-
ExpandCSIVolumes
false
알파
1.14
1.15
ExpandCSIVolumes
true
베타
1.16
1.23
ExpandCSIVolumes
true
GA
1.24
-
ExpandInUsePersistentVolumes
false
알파
1.11
1.14
ExpandInUsePersistentVolumes
true
베타
1.15
1.23
ExpandInUsePersistentVolumes
true
GA
1.24
-
ExpandPersistentVolumes
false
알파
1.8
1.10
ExpandPersistentVolumes
true
베타
1.11
1.23
ExpandPersistentVolumes
true
GA
1.24
-
IdentifyPodOS
false
알파
1.23
1.23
IdentifyPodOS
true
베타
1.24
1.24
IdentifyPodOS
true
GA
1.25
-
IndexedJob
false
알파
1.21
1.21
IndexedJob
true
베타
1.22
1.23
IndexedJob
true
GA
1.24
-
JobTrackingWithFinalizers
false
알파
1.22
1.22
JobTrackingWithFinalizers
false
베타
1.23
1.24
JobTrackingWithFinalizers
true
베타
1.25
1.25
JobTrackingWithFinalizers
true
GA
1.26
-
KubeletCredentialProviders
false
알파
1.20
1.23
KubeletCredentialProviders
true
베타
1.24
1.25
KubeletCredentialProviders
true
GA
1.26
-
LegacyServiceAccountTokenNoAutoGeneration
true
베타
1.24
1.25
LegacyServiceAccountTokenNoAutoGeneration
true
GA
1.26
-
LocalStorageCapacityIsolation
false
알파
1.7
1.9
LocalStorageCapacityIsolation
true
베타
1.10
1.24
LocalStorageCapacityIsolation
true
GA
1.25
-
NetworkPolicyEndPort
false
알파
1.21
1.21
NetworkPolicyEndPort
true
베타
1.22
1.24
NetworkPolicyEndPort
true
GA
1.25
-
NonPreemptingPriority
false
알파
1.15
1.18
NonPreemptingPriority
true
베타
1.19
1.23
NonPreemptingPriority
true
GA
1.24
-
PodAffinityNamespaceSelector
false
알파
1.21
1.21
PodAffinityNamespaceSelector
true
베타
1.22
1.23
PodAffinityNamespaceSelector
true
GA
1.24
-
PodSecurity
false
알파
1.22
1.22
PodSecurity
true
베타
1.23
1.24
PodSecurity
true
GA
1.25
PreferNominatedNode
false
알파
1.21
1.21
PreferNominatedNode
true
베타
1.22
1.23
PreferNominatedNode
true
GA
1.24
-
RemoveSelfLink
false
알파
1.16
1.19
RemoveSelfLink
true
베타
1.20
1.23
RemoveSelfLink
true
GA
1.24
-
ServerSideApply
false
알파
1.14
1.15
ServerSideApply
true
베타
1.16
1.21
ServerSideApply
true
GA
1.22
-
ServiceInternalTrafficPolicy
false
알파
1.21
1.21
ServiceInternalTrafficPolicy
true
베타
1.22
1.25
ServiceInternalTrafficPolicy
true
GA
1.26
-
ServiceIPStaticSubrange
false
알파
1.24
1.24
ServiceIPStaticSubrange
true
베타
1.25
1.25
ServiceIPStaticSubrange
true
GA
1.26
-
ServiceLBNodePortControl
false
알파
1.20
1.21
ServiceLBNodePortControl
true
베타
1.22
1.23
ServiceLBNodePortControl
true
GA
1.24
-
ServiceLoadBalancerClass
false
알파
1.21
1.21
ServiceLoadBalancerClass
true
베타
1.22
1.23
ServiceLoadBalancerClass
true
GA
1.24
-
StatefulSetMinReadySeconds
false
알파
1.22
1.22
StatefulSetMinReadySeconds
true
베타
1.23
1.24
StatefulSetMinReadySeconds
true
GA
1.25
-
SuspendJob
false
알파
1.21
1.21
SuspendJob
true
베타
1.22
1.23
SuspendJob
true
GA
1.24
-
WatchBookmark
false
알파
1.15
1.15
WatchBookmark
true
베타
1.16
1.16
WatchBookmark
true
GA
1.17
-
WindowsHostProcessContainers
false
알파
1.22
1.22
WindowsHostProcessContainers
true
베타
1.23
1.25
WindowsHostProcessContainers
true
GA
1.26
-
기능 사용
기능 단계
기능은 알파, 베타 또는 GA 단계일 수 있다.
알파 기능은 다음을 의미한다.
기본적으로 비활성화되어 있다.
버그가 있을 수 있다. 이 기능을 사용하면 버그에 노출될 수 있다.
기능에 대한 지원은 사전 통지없이 언제든지 중단될 수 있다.
API는 이후 소프트웨어 릴리스에서 예고없이 호환되지 않는 방식으로 변경될 수 있다.
버그의 위험이 증가하고 장기 지원이 부족하여, 단기 테스트
클러스터에서만 사용하는 것이 좋다.
베타 기능은 다음을 의미한다.
기본적으로 활성화되어 있다.
이 기능은 잘 테스트되었다. 이 기능을 활성화하면 안전한 것으로 간주된다.
세부 내용은 변경될 수 있지만, 전체 기능에 대한 지원은 중단되지 않는다.
오브젝트의 스키마 및/또는 시맨틱은 후속 베타 또는 안정 릴리스에서
호환되지 않는 방식으로 변경될 수 있다. 이러한 상황이 발생하면, 다음 버전으로 마이그레이션하기 위한
지침을 제공한다. API 오브젝트를 삭제, 편집 및 재작성해야
할 수도 있다. 편집 과정에서 약간의 생각이 필요할 수 있다.
해당 기능에 의존하는 애플리케이션의 경우 다운타임이 필요할 수 있다.
후속 릴리스에서 호환되지 않는 변경이 발생할 수 있으므로
업무상 중요하지 않은(non-business-critical) 용도로만
권장한다. 독립적으로 업그레이드할 수 있는 여러 클러스터가 있는 경우, 이 제한을 완화할 수 있다.
참고:베타 기능을 사용해 보고 의견을 보내주길 바란다!
베타 기간이 종료된 후에는, 더 많은 변경을 하는 것이 실용적이지 않을 수 있다.
GA(General Availability) 기능은 안정 기능이라고도 한다. 이 의미는 다음과 같다.
이 기능은 항상 활성화되어 있다. 비활성화할 수 없다.
해당 기능 게이트는 더 이상 필요하지 않다.
여러 후속 버전의 릴리스된 소프트웨어에 안정적인 기능의 버전이 포함된다.
기능 게이트 목록
각 기능 게이트는 특정 기능을 활성화/비활성화하도록 설계되었다.
APIListChunking: API 클라이언트가 API 서버에서 (LIST 또는 GET)
리소스를 청크(chunks)로 검색할 수 있도록 한다.
APIPriorityAndFairness: 각 서버의 우선 순위와 공정성을 통해 동시 요청을
관리할 수 있다. (RequestManagement 에서 이름이 변경됨)
APIResponseCompression: LIST 또는 GET 요청에 대한 API 응답을 압축한다.
APIServerIdentity: 클러스터의 각 API 서버에 ID를 할당한다.
APIServerTracing: API 서버에서 분산 추적(tracing)에 대한 지원을 추가한다.
자세한 내용은 쿠버네티스 시스템 컴포넌트에 대한 추적페이지를 살펴본다.
APISelfSubjectAttributesReview: 사용자로 하여금 요청을 하는 주체(subject)의
인증 정보를 볼 수 있도록 하는 SelfSubjectReview API를 활성화한다.
더 자세한 정보는 클라이언트로서의 인증 정보 API 접근을
확인한다.
AllowInsecureBackendProxy: 사용자가 파드 로그 요청에서 kubelet의
TLS 확인을 건너뛸 수 있도록 한다.
AnyVolumeDataSource: PVC의
DataSource 로 모든 사용자 정의 리소스 사용을 활성화한다.
AppArmor: 리눅스 노드에서 실행되는 파드에 대한 AppArmor 필수 접근 제어의 사용을 활성화한다.
자세한 내용은 AppArmor 튜토리얼을 참고한다.
ContainerCheckpoint: kubelet의 체크포인트 API를 활성화한다.
자세한 내용은 kubelet 체크포인트 API를 확인한다.
ControllerManagerLeaderMigration: HA 클러스터에서 클러스터 오퍼레이터가
kube-controller-manager의 컨트롤러들을 외부 controller-manager(예를 들면,
cloud-controller-manager)로 다운타임 없이 라이브 마이그레이션할 수 있도록 허용하도록
kube-controller-manager와
cloud-controller-manager의
리더 마이그레이션(Leader Migration)을 활성화한다.
CPUManager: 컨테이너 수준의 CPU 어피니티 지원을 활성화한다.
CPU 관리 정책을 참고한다.
CPUManagerPolicyAlphaOptions: CPUManager 정책 중 실험적이며 알파 품질인 옵션의
미세 조정을 허용한다.
이 기능 게이트는 품질 수준이 알파인 CPUManager 옵션의 그룹을 보호한다.
이 기능 게이트는 베타 또는 안정(stable) 상태로 승급되지 않을 것이다.
CPUManagerPolicyBetaOptions: CPUManager 정책 중 실험적이며 베타 품질인 옵션의
미세 조정을 허용한다.
이 기능 게이트는 품질 수준이 베타인 CPUManager 옵션의 그룹을 보호한다.
이 기능 게이트는 안정(stable) 상태로 승급되지 않을 것이다.
CPUManagerPolicyOptions: CPUManager 정책의 미세 조정을 허용한다.
CrossNamespaceVolumeDataSource: 네임스페이스간 볼륨 데이터 소스 사용 기능을
활성화하며, 퍼시스턴트볼륨클레임의 dataSourceRef 필드에 소스 네임스페이스를
기재할 수 있게 된다.
CSIInlineVolume: 파드에 대한 CSI 인라인 볼륨 지원을 활성화한다.
CSIMigration: shim 및 변환 로직을 통해 볼륨 작업을 인-트리 플러그인에서
사전 설치된 해당 CSI 플러그인으로 라우팅할 수 있다.
CSIMigrationAWS: shim 및 변환 로직을 통해 볼륨 작업을
AWS-EBS 인-트리 플러그인에서 EBS CSI 플러그인으로 라우팅할 수 있다.
이 기능이 비활성화되어 있거나 EBS CSI 플러그인이 설치 및 구성되어 있지 않은 노드에서의 마운트 동작에 대해
인-트리 EBS 플러그인으로의 폴백(falling back)을 지원한다.
프로비전 동작에 대해서는 폴백을 지원하지 않는데,
프로비전 동작은 해당 CSI 플러그인이 설치 및 구성되어 있어야 가능하기 때문이다.
CSIMigrationAzureDisk: shim 및 변환 로직을 통해 볼륨 작업을
Azure-Disk 인-트리 플러그인에서 AzureDisk CSI 플러그인으로 라우팅할 수 있다.
이 기능이 비활성화되어 있거나 AzureDisk CSI 플러그인이 설치 및 구성되어 있지 않은 노드에서의 마운트 동작에 대해
인-트리 AzureDisk 플러그인으로의 폴백(falling back)을 지원한다.
프로비전 동작에 대해서는 폴백을 지원하지 않는데,
프로비전 동작은 해당 CSI 플러그인이 설치 및 구성되어 있어야 가능하기 때문이다.
이 기능을 사용하려면 CSIMigration 기능 플래그가 활성화되어 있어야 한다.
CSIMigrationAzureFile: shim 및 변환 로직을 통해 볼륨 작업을
Azure-File 인-트리 플러그인에서 AzureFile CSI 플러그인으로 라우팅할 수 있다.
이 기능이 비활성화되어 있거나 AzureFile CSI 플러그인이 설치 및 구성되어 있지 않은 노드에서의 마운트 동작에 대해
인-트리 AzureFile 플러그인으로의 폴백(falling back)을 지원한다.
프로비전 동작에 대해서는 폴백을 지원하지 않는데,
프로비전 동작은 해당 CSI 플러그인이 설치 및 구성되어 있어야 가능하기 때문이다.
이 기능을 사용하려면 CSIMigration 기능 플래그가 활성화되어 있어야 한다.
CSIMigrationGCE: shim 및 변환 로직을 통해 볼륨 작업을
GCE-PD 인-트리 플러그인에서 PD CSI 플러그인으로 라우팅할 수 있다.
이 기능이 비활성화되어 있거나 PD CSI 플러그인이 설치 및 구성되어 있지 않은 노드에서의 마운트 동작에 대해
인-트리 GCE 플러그인으로의 폴백(falling back)을 지원한다.
프로비전 동작에 대해서는 폴백을 지원하지 않는데,
프로비전 동작은 해당 CSI 플러그인이 설치 및 구성되어 있어야 가능하기 때문이다.
이 기능을 사용하려면 CSIMigration 기능 플래그가 활성화되어 있어야 한다.
CSIMigrationOpenStack: shim 및 변환 로직을 통해 볼륨 작업을
Cinder 인-트리 플러그인에서 Cinder CSI 플러그인으로 라우팅할 수 있다.
이 기능이 비활성화되어 있거나 Cinder CSI 플러그인이 설치 및 구성되어 있지 않은 노드에서의 마운트 동작에 대해
인-트리 Cinder 플러그인으로의 폴백(falling back)을 지원한다.
프로비전 동작에 대해서는 폴백을 지원하지 않는데,
프로비전 동작은 해당 CSI 플러그인이 설치 및 구성되어 있어야 가능하기 때문이다.
이 기능을 사용하려면 CSIMigration 기능 플래그가 활성화되어 있어야 한다.
csiMigrationRBD: RBD 트리 내(in-tree) 플러그인으로 가는 볼륨 작업을
Ceph RBD CSI 플러그인으로 라우트하는 심(shim)과 변환 로직을 활성화한다.
클러스터에 CSIMigration 및 csiMigrationRBD 기능 플래그가 활성화되어 있어야 하고,
Ceph CSI 플러그인이 설치 및 설정되어 있어야 한다.
이 플래그는 트리 내(in-tree) RBD 플러그인 등록을 금지시키는 InTreePluginRBDUnregister 기능 플래그에 의해
사용 중단되었다.
CSIMigrationvSphere: vSphere 인-트리 플러그인에서 vSphere CSI 플러그인으로 볼륨 작업을
라우팅하는 shim 및 변환 로직을 사용한다.
이 기능이 비활성화되어 있거나 vSphere CSI 플러그인이 설치 및 구성되어 있지 않은 노드에서의 마운트 동작에 대해
인-트리 vSphere 플러그인으로의 폴백(falling back)을 지원한다.
프로비전 동작에 대해서는 폴백을 지원하지 않는데,
프로비전 동작은 해당 CSI 플러그인이 설치 및 구성되어 있어야 가능하기 때문이다.
이 기능을 사용하려면 CSIMigration 기능 플래그가 활성화되어 있어야 한다.
CSIMigrationPortworx: Portworx 트리 내(in-tree) 플러그인으로 가는 볼륨 작업을
Portworx CSI 플러그인으로 라우트하는 심(shim)과 변환 로직을 활성화한다.
Portworx CSI 드라이버가 설치 및 설정되어 있어야 한다.
CSINodeExpandSecret: CSI 드라이버가 NodeExpandVolume 작업 수행 중에 사용할 수 있도록
시크릿 인증 데이터를 드라이버에 전송 가능하게 한다.
CSIStorageCapacity: CSI 드라이버가 스토리지 용량 정보를 게시하고
쿠버네티스 스케줄러가 파드를 스케줄할 때 해당 정보를 사용하도록 한다.
스토리지 용량을 참고한다.
자세한 내용은 csi 볼륨 유형 문서를 확인한다.
CSIVolumeHealth: 노드에서의 CSI 볼륨 상태 모니터링 기능을 활성화한다.
ContextualLogging: 이 기능을 활성화하면,
컨텍스츄얼 로깅을 지원하는 쿠버네티스 구성 요소가 로그 출력에 추가 상세를 추가한다.
ControllerManagerLeaderMigration: kube-controller-manager 및 cloud-controller-manager에
대한 리더 마이그레이션을 지원한다.
CustomCPUCFSQuotaPeriod: kubelet config에서
cpuCFSQuotaPeriod 를 노드가 변경할 수 있도록 한다.
CustomResourceValidationExpressions: x-kubernetes-validations 확장 기능으로 작성된
검증 규칙을 기반으로 커스텀 리소스를 검증하는
표현 언어 검증(expression language validation)을 CRD에 활성화한다.
DaemonSetUpdateSurge: 노드당 업데이트 중 가용성을 유지하도록
데몬셋 워크로드를 사용하도록 설정한다.
데몬셋에서 롤링 업데이트 수행을 참고한다.
DefaultPodTopologySpread: PodTopologySpread 스케줄링 플러그인을 사용하여
기본 분배를 수행한다.
DelegateFSGroupToCSIDriver: CSI 드라이버가 지원할 경우, NodeStageVolume 및 NodePublishVolume CSI 호출을 통해
fsGroup를 전달하여 파드의 securityContext에서
fsGroup를 드라이브에 적용하는 역할을 위임한다.
DisableCloudProviders: kube-apiserver, kube-controller-manager,
--cloud-provider 컴포넌트 플래그와 관련된 kubelet의
모든 기능을 비활성화한다.
DisableKubeletCloudCredentialProviders: 이미지 풀 크리덴셜을 위해
클라우드 프로바이더 컨테이너 레지스트리에 인증을 수행하는 kubelet 내부(in-tree) 기능을 비활성화한다.
DownwardAPIHugePages: 다운워드 API에서
hugepages 사용을 활성화한다.
DryRun: 서버 측의 dry run 요청을
요청을 활성화하여 커밋하지 않고 유효성 검사, 병합 및 변화를 테스트할 수 있다.
DynamicKubeletConfig: kubelet의 동적 구성을 활성화한다.
이 기능은 지원하는 버전 차이(supported skew policy) 바깥에서는 더 이상 지원되지 않는다.
이 기능 게이트는 1.24에 kubelet에서 제거되었다. kubelet 재구성하기를 참고한다.
EndpointSliceTerminatingCondition: 엔드포인트슬라이스 terminating 및 serving
조건 필드를 활성화한다.
EfficientWatchResumption: 스토리지에서 생성된 북마크(진행 알림) 이벤트를
사용자에게 전달할 수 있다. 이것은 감시 작업에만 적용된다.
EphemeralContainers: 파드를 실행하기 위한
임시 컨테이너를
추가할 수 있다.
EventedPLEG: kubelet이 CRI에 대한
확장(extension)을 통해 컨테이너 런타임으로부터
컨테이너 라이프사이클 이벤트를 받을 수 있는 기능을
활성화한다(PLEG는 “Pod lifecycle event generator”의 약자).
이 기능이 효과적이려면,
클러스터에서 실행되는 각 컨테이너 런타임의 컨테이너 라이프사이클 이벤트 기능도 활성화해야 한다.
컨테이너 런타임이 컨테이너 라이프사이클 이벤트 지원 여부를 옥시하지 않으면,
kubelet은 이 기능 게이트가 활성화되어 있더라도 자동으로 기존(legacy) 일반 PLEG 메커니즘으로 전환한다.
ExecProbeTimeout : kubelet이 exec 프로브 시간 초과를 준수하는지 확인한다.
이 기능 게이트는 기존 워크로드가 쿠버네티스가 exec 프로브 제한 시간을 무시한
현재 수정된 결함에 의존하는 경우 존재한다.
준비성 프로브를 참조한다.
ExpandCSIVolumes: CSI 볼륨 확장을 활성화한다.
ExpandedDNSConfig: 더 많은 DNS 검색 경로와 더 긴 DNS 검색 경로 목록을 허용하려면
kubelet과 kube-apiserver를 사용하도록 설정한다.
이 기능을 사용하려면 컨테이너 런타임이 지원해야 한다(Containerd: v1.5.6 이상, CRI-O: v1.22 이상).
확장된 DNS 구성을 참고한다.
ExpandPersistentVolumes: 퍼시스턴트 볼륨 확장을 활성화한다.
퍼시스턴트 볼륨 클레임 확장을 참고한다.
ExperimentalHostUserNamespaceDefaulting: 사용자 네임스페이스를 호스트로
기본 활성화한다. 이것은 다른 호스트 네임스페이스, 호스트 마운트,
권한이 있는 컨테이너 또는 특정 비-네임스페이스(non-namespaced) 기능(예: MKNODE, SYS_MODULE 등)을
사용하는 컨테이너를 위한 것이다. 도커 데몬에서 사용자 네임스페이스
재 매핑이 활성화된 경우에만 활성화해야 한다.
GracefulNodeShutdown : kubelet에서 정상 종료를 지원한다.
시스템 종료 중에 kubelet은 종료 이벤트를 감지하고 노드에서 실행 중인
파드를 정상적으로 종료하려고 시도한다. 자세한 내용은
Graceful Node Shutdown을
참조한다.
GracefulNodeShutdownBasedOnPodPriority: 그레이스풀(graceful) 노드 셧다운을 할 때
kubelet이 파드 우선순위를 체크할 수 있도록 활성화한다.
KubeletPodResources: kubelet의 파드 리소스 gPRC 엔드포인트를 활성화한다. 자세한 내용은
장치 모니터링 지원을
참고한다.
KubeletPodResourcesGetAllocatable: kubelet의 파드 리소스
GetAllocatableResources 기능을 활성화한다.
이 API는 클라이언트가 노드의 여유 컴퓨팅 자원을 잘 파악할 수 있도록,
할당 가능 자원에 대한 정보를
자원 할당 보고한다.
KubeletTracing: kubelet에 분산 추적에 대한 지원을 추가한다.
활성화된 경우, kubelet CRI 인터페이스와 인증된 http 서버들은
OpenTelemetry 추적 범위를 형성하는 데 도움을 준다.
자세한 내용은 쿠버네티스 시스템 컴포넌트에 대한 추적 페이지를 확인한다.
LegacyServiceAccountTokenNoAutoGeneration: 시크릿 기반
서비스 어카운트 토큰의 자동 생성을 중단한다.
LegacyServiceAccountTokenTracking: 시크릿 기반
서비스 어카운트 토큰의 사용을 추적한다.
LocalStorageCapacityIsolationFSQuotaMonitoring: 로컬 임시 스토리지에
LocalStorageCapacityIsolation 이 활성화되고
emptyDir 볼륨의
백업 파일시스템이 프로젝트 쿼터를 지원하고 활성화된 경우, 파일시스템 사용보다는
프로젝트 쿼터를 사용하여 emptyDir 볼륨
스토리지 사용을 모니터링하여 성능과 정확성을
향상시킨다.
LogarithmicScaleDown: 컨트롤러 스케일 다운 시에 파드 타임스탬프를 로그 스케일로 버켓화하여
축출할 파드를 반-랜덤하게 선택하는 기법을 활성화한다.
MaxUnavailableStatefulSet: 스테이트풀셋의
롤링 업데이트 전략에 대해
maxUnavailable 필드를 설정할 수 있도록 한다.
이 필드는 업데이트 동안 사용 불가능(unavailable) 상태의 파드를 몇 개까지 허용할지를 정한다.
MemoryManager: NUMA 토폴로지를 기반으로 컨테이너에 대한
메모리 어피니티를 설정할 수 있다.
MemoryQoS: cgroup v2 메모리 컨트롤러를 사용하여
파드/컨테이너에서 메모리 보호 및 사용 제한을 사용하도록 설정한다.
MinDomainsInPodTopologySpread: 파드 토폴로지 분배 제약 조건 내의
minDomains 사용을 활성화한다.
MixedProtocolLBService: 동일한 로드밸런서 유형 서비스 인스턴스에서 다른 프로토콜
사용을 활성화한다.
MultiCIDRRangeAllocator: MultiCIDR 범위 할당기를 활성화한다.
NetworkPolicyEndPort: 네트워크폴리시(NetworkPolicy) 오브젝트에서 단일 포트를 지정하는 것 대신에
포트 범위를 지정할 수 있도록, endPort 필드의 사용을 활성화한다.
NetworkPolicyStatus: 네트워크폴리시 오브젝트에 대해 status 서브리소스를 활성화한다.
NodeInclusionPolicyInPodTopologySpread: 파드 토폴로지 분배 비대칭도를 계산할 때
파드 토폴로지 분배 제약 조건의
nodeAffinityPolicy와 nodeTaintsPolicy를 활성화한다.
NodeOutOfServiceVolumeDetach: 노드가 node.kubernetes.io/out-of-service 테인트를 사용하여 서비스 불가(out-of-service)로 표시되면,
노드에 있던 이 테인트를 허용하지 않는 파드는 강제로 삭제되며,
종료되는 파드에 대한 볼륨 해제(detach) 동작도 즉시 수행된다.
이로 인해 삭제된 파드가 다른 노드에서 빠르게 복구될 수 있다.
NodeSwap: 노드의 쿠버네티스 워크로드용 스왑 메모리를 할당하려면 kubelet을 활성화한다.
반드시 KubeletConfiguration.failSwapOn를 false로 설정한 후 사용해야 한다.
더 자세한 정보는 스왑 메모리를 참고한다.
OpenAPIEnums: API 서버로부터 리턴된 스펙 내 OpenAPI 스키마의
"enum" 필드 채우기를 활성화한다.
OpenAPIV3: API 서버의 OpenAPI v3 발행을 활성화한다.
PDBUnhealthyPodEvictionPolicy: PodDisruptionBudget의 unhealthyPodEvictionPolicy 필드를 활성화한다.
비정상(unhealthy) 파드가 어느 시점에 축출 대상이 될지를 이 필드에 명시한다.
더 자세한 정보는 비정상 파드 축출 정책을 참고한다.
PodDeletionCost: 레플리카셋 다운스케일 시 삭제될 파드의 우선순위를 사용자가 조절할 수 있도록,
파드 삭제 비용 기능을 활성화한다.
ProcMountType: SecurityContext의 procMount 필드를 설정하여
컨테이너의 proc 타입의 마운트를 제어할 수 있다.
ProxyTerminatingEndpoints: ExternalTrafficPolicy=Local일 때 종료 엔드포인트를 처리하도록
kube-proxy를 활성화한다.
QOSReserved: QoS 수준에서 리소스 예약을 허용하여 낮은 QoS 수준의 파드가
더 높은 QoS 수준에서 요청된 리소스로 파열되는 것을 방지한다
(현재 메모리만 해당).
ReadWriteOncePod: ReadWriteOncePod 퍼시스턴트 볼륨 엑세스 모드를
사용한다.
RecoverVolumeExpansionFailure: 이전에 실패했던 볼륨 확장으로부터 복구할 수 있도록,
사용자가 PVC를 더 작은 크기로 변경할 수 있도록 한다.
볼륨 확장 시 오류 복구에서
자세한 사항을 확인한다.
RemainingItemCount: API 서버가
청크(chunking) 목록 요청에 대한
응답에서 남은 항목 수를 표시하도록 허용한다.
RemoveSelfLink: 모든 오브젝트와 콜렉션에 대해 .metadata.selfLink 필드를 빈 칸(빈 문자열)으로 설정한다.
이 필드는 쿠버네티스 v1.16에서 사용 중단되었다.
이 기능을 활성화하면, .metadata.selfLink 필드는 쿠버네티스 API에 존재하지만,
항상 빈 칸으로 유지된다.
RetroactiveDefaultStorageClass: 연결이 해제된(unbound) PVC에 스토리지클래스를 소급적으로 할당하는 것을 허용한다.
RotateKubeletServerCertificate: kubelet에서 서버 TLS 인증서의 로테이션을 활성화한다.
자세한 사항은
kubelet 구성을 확인한다.
SELinuxMountReadWriteOncePod: kubelet으로 하여금,
볼륨에 있는 모든 파일에 대해 SELinux 레이블을 재귀적으로 적용하는 대신
올바른 SELinux 레이블을 가지고 볼륨을 마운트할 수 있도록 한다.
SeccompDefault: 모든 워크로드의 기본 구분 프로파일로
RuntimeDefault을 사용한다.
seccomp 프로파일은 파드 및 컨테이너 securityContext에 지정되어 있다.
SELinuxMountReadWriteOncePod: kubelet으로 하여금,
볼륨에 있는 모든 파일에 대해 SELinux 레이블을 재귀적으로 적용하는 대신
올바른 SELinux 레이블을 가지고 볼륨을 마운트할 수 있도록 한다.
ServerSideFieldValidation: 서버-사이드(server-side) 필드 검증을 활성화한다.
이는 리소스 스키마의 검증이 클라이언트 사이드(예: kubectl create 또는 kubectl apply 명령줄)가 아니라
API 서버 사이드에서 수행됨을 의미한다.
ServiceLoadBalancerClass: 서비스에서 loadBalancerClass 필드를 활성화한다.
자세한 내용은
로드밸런서 구현체의 종류 확인하기를 참고한다.
ServiceIPStaticSubrange: ClusterIP 범위를 분할하는
서비스 ClusterIP 할당 전략을 활성화한다.
ClusterIP 동적 할당을 주로 상위 범위에서 수행하여,
사용자가 고정 ClusterIP를 하위 범위에서 할당하는 상황에서도 충돌 확률을 낮출 수 있다.
더 자세한 사항은
충돌 방지를 참고한다.
SizeMemoryBackedVolumes: memory-backed 볼륨(보통 emptyDir 볼륨)의 크기 상한을
지정할 수 있도록 kubelets를 활성화한다.
StatefulSetMinReadySeconds: 스테이트풀셋 컨트롤러가 minReadySeconds를
반영할 수 있다.
StatefulSetStartOrdinal: 스테이트풀셋 내에서 시작 서수(start ordinal)를 설정할 수 있도록 한다.
더 자세한 내용은
시작 서수를
확인한다.
StorageVersionHash: API 서버가 디스커버리에서 스토리지 버전 해시를 노출하도록
허용한다.
SuspendJob: 잡 중지/재시작 기능을 활성화한다.
자세한 내용은 잡 문서를 참고한다.
TopologyAwareHints: 엔드포인트슬라이스(EndpointSlices)에서 토폴로지 힌트 기반
토폴로지-어웨어 라우팅을 활성화한다. 자세한 내용은
토폴로지 인지 힌트
를 참고한다.
TopologyManager: 쿠버네티스의 다른 컴포넌트에 대한 세분화된 하드웨어 리소스
할당을 조정하는 메커니즘을 활성화한다.
노드의 토폴로지 관리 정책 제어를 참고한다.
TopologyManagerPolicyAlphaOptions: 토폴로지 매니저 폴리시(topology manager
policy)의 실험적이고 알파 품질인 옵션의 미세 조정 기능을 활성화한다.
이 기능 게이트는 품질 수준이 알파 상태인 토폴로지 매니저 옵션 군을 제어한다.
이 기능 게이트는 앞으로도 베타 또는 안정 상태로 승급되지 않는다.
TopologyManagerPolicyBetaOptions: 토폴로지 매니저 폴리시(topology manager
policy)의 실험적이고 베타 품질인 옵션의 미세 조정 기능을 활성화한다.
이 기능 게이트는 품질 수준이 베타 상태인 토폴로지 매니저 옵션 군을 제어한다.
이 기능 게이트는 앞으로도 안정 상태로 승급되지 않는다.
TopologyManagerPolicyOptions: 토폴로지 매니저 폴리시(topology manager policy)의 미세 조정 기능을 활성화한다.
UserNamespacesStatelessPodsSupport: 스테이트리스(stateless) 파드에 대한 유저 네임스페이스 지원 기능을 활성화한다.
ValidatingAdmissionPolicy: 어드미션 컨트롤에 CEL(Common Expression Language) 검증을 사용할 수 있도록 하는 ValidatingAdmissionPolicy 지원 기능을 활성화한다.
VolumeCapacityPriority: 가용 PV 용량을 기반으로
여러 토폴로지에 있는 노드들의 우선순위를 정하는 기능을 활성화한다.
WatchBookmark: 감시자 북마크(watch bookmark) 이벤트 지원을 활성화한다.
WinDSR: kube-proxy가 윈도우용 DSR 로드 밸런서를 생성할 수 있다.
WinOverlay: kube-proxy가 윈도우용 오버레이 모드에서 실행될 수 있도록 한다.
WindowsHostProcessContainers: 윈도우 HostProcess 컨테이너에 대한 지원을 사용하도록 설정한다.
다음 내용
사용 중단 정책은 쿠버네티스에 대한
기능과 컴포넌트를 제거하는 프로젝트의 접근 방법을 설명한다.
쿠버네티스 1.24부터, 새로운 베타 API는 기본적으로 활성화되어 있지 않다.
베타 기능을 활성화하려면, 연관된 API 리소스도 활성화해야 한다.
예를 들어, storage.k8s.io/v1beta1/csistoragecapacities와 같은 특정 리소스를 활성화하려면,
--runtime-config=storage.k8s.io/v1beta1/csistoragecapacities를 설정한다.
명령줄 플래그에 대한 상세 사항은 API 버전 규칙을 참고한다.
11.2 - 제거된 기능 게이트
이 페이지는 그간 제거된 기능 게이트의 목록을 나열한다.
이 페이지의 정보는 참고용이다.
제거된(removed) 기능 게이트는 더 이상 유효한 기능 게이트로 인식되지 않는다는 점에서 졸업(GA'ed)이나 사용 중단된(deprecated) 기능 게이트와 다르다.
반면, 승급되거나 사용 중단된 기능 게이트는
다른 쿠버네티스 컴포넌트가 인식할 수는 있지만 클러스터에서 어떠한 동작 차이도 유발하지 않는다.
AllowExtTrafficLocalEndpoints: 서비스가 외부 요청을 노드의 로컬 엔드포인트로 라우팅할 수 있도록 한다.
AttachVolumeLimit: 볼륨 플러그인이 노드에 연결될 수 있는 볼륨 수에
대한 제한을 보고하도록 한다.
자세한 내용은 동적 볼륨 제한을
참고한다.
BalanceAttachedNodeVolumes: 스케줄링 시 균형 잡힌 리소스 할당을 위해 고려할 노드의 볼륨 수를
포함한다. 스케줄러가 결정을 내리는 동안 CPU, 메모리 사용률 및 볼륨 수가
더 가까운 노드가 선호된다.
BlockVolume: 파드에서 원시 블록 장치의 정의와 사용을 활성화한다.
자세한 내용은 원시 블록 볼륨 지원을
참고한다.
BoundServiceAccountTokenVolume: ServiceAccountTokenVolumeProjection으로 구성된 프로젝션 볼륨을 사용하도록
서비스어카운트 볼륨을 마이그레이션한다.
클러스터 관리자는 serviceaccount_stale_tokens_total 메트릭을 사용하여
확장 토큰에 의존하는 워크로드를 모니터링 할 수 있다.
이러한 워크로드가 없는 경우 --service-account-extend-token-expiration=false 플래그로
kube-apiserver를 시작하여 확장 토큰 기능을 끈다.
자세한 내용은 바운드 서비스 계정 토큰을 확인한다.
CRIContainerLogRotation: CRI 컨테이너 런타임에 컨테이너 로그 로테이션을 활성화한다.
로그 파일 사이즈 기본값은 10MB이며,
컨테이너 당 최대 로그 파일 수 기본값은 5이다.
이 값은 kubelet 환경설정으로 변경할 수 있다.
더 자세한 내용은
노드 레벨에서의 로깅을 참고한다.
CSIBlockVolume: 외부 CSI 볼륨 드라이버가 블록 스토리지를 지원할 수 있게 한다.
자세한 내용은 csi 원시 블록 볼륨 지원을
참고한다.
CSIDriverRegistry: csi.storage.k8s.io에서 CSIDriver API 오브젝트와 관련된
모든 로직을 활성화한다.
CSIMigrationAWSComplete: kubelet 및 볼륨 컨트롤러에서 EBS 인-트리
플러그인 등록을 중지하고 shim 및 변환 로직을 사용하여 볼륨 작업을 AWS-EBS
인-트리 플러그인에서 EBS CSI 플러그인으로 라우팅할 수 있다.
클러스터의 모든 노드에 CSIMigration과 CSIMigrationAWS 기능 플래그가 활성화되고
EBS CSI 플러그인이 설치 및 구성이 되어 있어야 한다.
이 플래그는 인-트리 EBS 플러그인의 등록을 막는 InTreePluginAWSUnregister 기능 플래그로 인해
더 이상 사용되지 않는다.
CSIMigrationAzureDiskComplete: kubelet 및 볼륨 컨트롤러에서
Azure-Disk 인-트리 플러그인 등록을 중지하고
shim 및 변환 로직을 사용하여
볼륨 작업을 Azure-Disk 인-트리 플러그인에서 AzureDisk CSI 플러그인으로 라우팅할 수 있다.
클러스터의 모든 노드에 CSIMigration과 CSIMigrationAzureDisk 기능 플래그가 활성화되고
AzureDisk CSI 플러그인이 설치 및 구성이 되어 있어야 한다.
이 플래그는 인-트리 AzureDisk 플러그인의 등록을 막는
InTreePluginAzureDiskUnregister 기능 플래그로 인해 더 이상 사용되지 않는다.
CSIMigrationAzureFileComplete: kubelet 및 볼륨 컨트롤러에서 Azure 파일 인-트리
플러그인 등록을 중지하고 shim 및 변환 로직을 통해 볼륨 작업을
Azure 파일 인-트리 플러그인에서 AzureFile CSI 플러그인으로
라우팅할 수 있다. 클러스터의 모든 노드에 CSIMigration과 CSIMigrationAzureFile 기능
플래그가 활성화되고 AzureFile CSI 플러그인이 설치 및 구성이 되어
있어야 한다. 이 플래그는 인-트리 AzureFile 플러그인의 등록을 막는
InTreePluginAzureFileUnregister 기능 플래그로 인해
더 이상 사용되지 않는다.
CSIMigrationGCEComplete: kubelet 및 볼륨 컨트롤러에서 GCE-PD
인-트리 플러그인 등록을 중지하고 shim 및 변환 로직을 통해 볼륨 작업을 GCE-PD
인-트리 플러그인에서 PD CSI 플러그인으로 라우팅할 수 있다.
CSIMigration과 CSIMigrationGCE 기능 플래그가 활성화되고 PD CSI
플러그인이 클러스터의 모든 노드에 설치 및 구성이 되어 있어야 한다.
이 플래그는 인-트리 GCE PD 플러그인의 등록을 막는 InTreePluginGCEUnregister 기능 플래그로 인해
더 이상 사용되지 않는다.
CSIMigrationOpenStackComplete: kubelet 및 볼륨 컨트롤러에서
Cinder 인-트리 플러그인 등록을 중지하고 shim 및 변환 로직이 Cinder 인-트리
플러그인에서 Cinder CSI 플러그인으로 볼륨 작업을 라우팅할 수 있도록 한다.
클러스터의 모든 노드에 CSIMigration과 CSIMigrationOpenStack 기능 플래그가 활성화되고
Cinder CSI 플러그인이 설치 및 구성이 되어 있어야 한다.
이 플래그는 인-트리 openstack cinder 플러그인의 등록을 막는 InTreePluginOpenStackUnregister 기능 플래그로 인해
더 이상 사용되지 않는다.
CSIMigrationvSphereComplete: kubelet 및 볼륨 컨트롤러에서 vSphere 인-트리
플러그인 등록을 중지하고 shim 및 변환 로직을 활성화하여 vSphere 인-트리 플러그인에서
vSphere CSI 플러그인으로 볼륨 작업을 라우팅할 수 있도록 한다. CSIMigration 및
CSIMigrationvSphere 기능 플래그가 활성화되고 vSphere CSI 플러그인이
클러스터의 모든 노드에 설치 및 구성이 되어 있어야 한다.
이 플래그는 인-트리 vsphere 플러그인의 등록을 막는 InTreePluginvSphereUnregister 기능 플래그로 인해
더 이상 사용되지 않는다.
CSINodeInfo: csi.storage.k8s.io 내의 CSINodeInfo API 오브젝트와 관련된 모든 로직을 활성화한다.
ImmutableEphemeralVolumes: 안정성과 성능 향상을 위해 개별 시크릿(Secret)과 컨피그맵(ConfigMap)을
변경할 수 없는(immutable) 것으로 표시할 수 있다.
IngressClassNamespacedParams: 네임스페이스 범위의 파라미터가
IngressClass 리소스를 참조할 수 있도록 허용한다.
이 기능은 IngressClass.spec.parameters에 Scope 및 Namespace의 2 필드를 추가한다.
Initializers: Initializers 어드미션 플러그인을 사용하여,
오브젝트 생성 시 비동기 협조(asynchronous coordination)를 허용한다.
KubeletConfigFile: 구성 파일을 사용하여 지정된 파일에서
kubelet 구성을 로드할 수 있다.
자세한 내용은 구성 파일을 통해 kubelet 파라미터 설정을
참고한다.
KubeletPluginsWatcher: kubelet이 CSI 볼륨 드라이버와 같은
플러그인을 검색할 수 있도록 프로브 기반 플러그인 감시자(watcher) 유틸리티를 사용한다.
LegacyNodeRoleBehavior: 비활성화되면, 서비스 로드 밸런서 및 노드 중단의 레거시 동작은
NodeDisruptionExclusion 과 ServiceNodeExclusion 에 의해 제공된 기능별 레이블을 대신하여
node-role.kubernetes.io/master 레이블을 무시한다.
MountContainers: 호스트의 유틸리티 컨테이너를 볼륨 마운터로 사용할 수 있다.
MountPropagation: 한 컨테이너에서 다른 컨테이너 또는 파드로 마운트된 볼륨을 공유할 수 있다.
자세한 내용은 마운트 전파(propagation)을 참고한다.
NamespaceDefaultLabelName: API 서버로 하여금 모든 네임스페이스에 대해 변경할 수 없는 (immutable)
레이블kubernetes.io/metadata.name을 설정하도록 한다.
(네임스페이스의 이름도 변경 불가)
NodeDisruptionExclusion: 영역(zone) 장애 시 노드가 제외되지 않도록 노드 레이블 node.kubernetes.io/exclude-disruption
사용을 활성화한다.
NodeLease: 새로운 리스(Lease) API가 노드 상태 신호로 사용될 수 있는 노드 하트비트(heartbeats)를 보고할 수 있게 한다.
PVCProtection: 파드에서 사용 중일 때 퍼시스턴트볼륨클레임(PVC)이
삭제되지 않도록 한다.
PersistentLocalVolumes: 파드에서 local 볼륨 유형의 사용을 활성화한다.
local 볼륨을 요청하는 경우 파드 어피니티를 지정해야 한다.
PodReadinessGates: 파드 준비성 평가를 확장하기 위해
PodReadinessGate 필드 설정을 활성화한다. 자세한 내용은 파드의 준비성 게이트를
참고한다.
PodShareProcessNamespace: 파드에서 실행되는 컨테이너 간에 단일 프로세스 네임스페이스를
공유하기 위해 파드에서 shareProcessNamespace 설정을 활성화한다. 자세한 내용은
파드의 컨테이너 간 프로세스 네임스페이스 공유에서 확인할 수 있다.
RequestManagement: 각 API 서버에서 우선 순위 및 공정성으로 요청 동시성을
관리할 수 있다. 1.17 이후 APIPriorityAndFairness 에서 사용 중단되었다.
ResourceLimitsPriorityFunction: 입력 파드의 CPU 및 메모리 한도 중
하나 이상을 만족하는 노드에 가능한 최저 점수 1을 할당하는
스케줄러 우선 순위 기능을 활성화한다. 의도는 동일한 점수를 가진
노드 사이의 관계를 끊는 것이다.
ResourceQuotaScopeSelectors: 리소스 쿼터 범위 셀렉터를 활성화한다.
RootCAConfigMap: 모든 네임스페이스에 kube-root-ca.crt라는
컨피그맵을 게시하도록
kube-controller-manager 를 구성한다. 이 컨피그맵에는 kube-apiserver에 대한 연결을 확인하는 데
사용되는 CA 번들이 포함되어 있다. 자세한 내용은
바운드 서비스 계정 토큰을
참조한다.
RotateKubeletClientCertificate: kubelet에서 클라이언트 TLS 인증서의 로테이션을 활성화한다.
자세한 내용은
kubelet 구성을 참고한다.
RunAsGroup: 컨테이너의 init 프로세스에 설정된 기본 그룹 ID 제어를 활성화한다.
StorageObjectInUseProtection: 퍼시스턴트볼륨 또는 퍼시스턴트볼륨클레임 오브젝트가 여전히
사용 중인 경우 삭제를 연기한다.
StreamingProxyRedirects: 스트리밍 요청을 위해 백엔드(kubelet)에서 리디렉션을
가로채서 따르도록 API 서버에 지시한다.
스트리밍 요청의 예로는 exec, attach 및 port-forward 요청이 있다.
SupportIPVSProxyMode: IPVS를 사용하여 클러스터 내 서비스 로드 밸런싱을 제공한다.
자세한 내용은 서비스 프록시를 참고한다.
SupportNodePidsLimit: 노드에서 PID 제한 지원을 활성화한다.
--system-reserved 및 --kube-reserved 옵션의 pid=<number>
파라미터를 지정하여 지정된 수의 프로세스 ID가
시스템 전체와 각각 쿠버네티스 시스템 데몬에 대해 예약되도록 할 수 있다.
SupportPodPidsLimit: 파드의 PID 제한에 대한 지원을 활성화한다.
Sysctls: 각 파드에 설정할 수 있는 네임스페이스 커널 파라미터(sysctl)를 지원한다.
자세한 내용은 sysctl을 참고한다.
TTLAfterFinished: TTL 컨트롤러가
실행이 끝난 후 리소스를 정리하도록 허용한다.
TaintBasedEvictions: 노드의 테인트(taint) 및 파드의 톨러레이션(toleration)을 기반으로
노드에서 파드를 축출할 수 있다.
자세한 내용은 테인트와 톨러레이션을 참고한다.
TaintNodesByCondition: 노드 컨디션을
기반으로 자동 테인트 노드를 활성화한다.
TokenRequest: 서비스 어카운트 리소스에서 TokenRequest 엔드포인트를 활성화한다.
TokenRequestProjection: projected 볼륨을 통해
서비스 어카운트 토큰을 파드에 주입할 수 있다.
ValidateProxyRedirects: 이 플래그는 API 서버가 동일한 호스트로만 리디렉션되는가를 확인해야 하는지 여부를 제어한다.
StreamingProxyRedirects 플래그가 활성화된 경우에만 사용된다.
VolumePVCDataSource: 기존 PVC를 데이터 소스로 지정하는 기능을 지원한다.
VolumeScheduling: 볼륨 토폴로지 인식 스케줄링을 활성화하고
퍼시스턴트볼륨클레임(PVC) 바인딩이 스케줄링 결정을 인식하도록 한다. 또한
PersistentLocalVolumes 기능 게이트와 함께 사용될 때
local 볼륨 유형을 사용할 수 있다.
VolumeSnapshotDataSource: 볼륨 스냅샷 데이터 소스 지원을 활성화한다.
VolumeSubpath: 컨테이너에 볼륨의 하위 경로(subpath)를 마운트할 수 있다.
VolumeSubpathEnvExpansion: 환경 변수를 subPath로 확장하기 위해
subPathExpr 필드를 활성화한다.
WarningHeaders: API 응답에서 경고 헤더를 보낼 수 있다.
WindowsEndpointSliceProxying: 활성화되면, 윈도우에서 실행되는 kube-proxy는
엔드포인트 대신 엔드포인트슬라이스를 기본 데이터 소스로 사용하여
확장성과 성능을 향상시킨다.
엔드포인트슬라이스 활성화하기를 참고한다.
WindowsGMSA: 파드에서 컨테이너 런타임으로 GMSA 자격 증명 스펙을 전달할 수 있다.
WindowsRunAsUserName : 기본 사용자가 아닌(non-default) 사용자로 윈도우 컨테이너에서
애플리케이션을 실행할 수 있도록 지원한다. 자세한 내용은
RunAsUserName 구성을 참고한다.
11.3 - kube-proxy
시놉시스
쿠버네티스 네트워크 프록시는 각 노드에서 실행된다.
이는 각 노드의 쿠버네티스 API에 정의된 서비스를 반영하며 단순한
TCP, UDP 및 SCTP 스트림 포워딩 또는 라운드 로빈 TCP, UDP 및 SCTP 포워딩을 백엔드 셋에서 수행 할 수 있다.
서비스 클러스트 IP 및 포트는 현재 서비스 프록시에 의해 열린 포트를 지정하는
Docker-links-compatible 환경 변수를 통해 찾을 수 있다.
이러한 클러스터 IP에 클러스터 DNS를 제공하는 선택적 애드온이 있다. 유저는 apiserver API로
서비스를 생성하여 프록시를 구성해야 한다.
kube-proxy [flags]
옵션
--add_dir_header
true인 경우 파일 경로를 로그 메시지의 헤더에 추가한다.
--alsologtostderr
파일과 함께, 표준 에러에도 로그를 출력한다.
--bind-address string 기본값: 0.0.0.0
프록시 서버가 서비스할 IP 주소(모든 IPv4 인터페이스의 경우 '0.0.0.0'으로 설정, 모든 IPv6 인터페이스의 경우 '::'로 설정)
--bind-address-hard-fail
true인 경우 kube-proxy는 포트 바인딩 실패를 치명적인 것으로 간주하고 종료한다.
boot-id를 위해 확인할 파일 목록(쉼표로 분리). 가장 먼저 발견되는 항목을 사용한다.
--cleanup
true인 경우 iptables 및 ipvs 규칙을 제거하고 종료한다.
--cluster-cidr string
클러스터에 있는 파드의 CIDR 범위. 구성 후에는 이 범위 밖에서 서비스 클러스터 IP로 전송되는 트래픽은 마스커레이드되고 파드에서 외부 LoadBalancer IP로 전송된 트래픽은 대신 해당 클러스터 IP로 전송된다. 듀얼-스택(dual-stack) 클러스터의 경우, 각 IP 체계(IPv4와 IPv6)별로 최소한 하나의 CIDR을 포함하는 목록(쉼표로 분리)을 가진다. --config를 통해 설정 파일이 명시될 경우 이 파라미터는 무시된다.
--config string
설정 파일의 경로.
--config-sync-period duration 기본값: 15m0s
apiserver의 설정이 갱신되는 빈도. 0보다 커야 한다.
--conntrack-max-per-core int32 기본값: 32768
CPU 코어당 추적할 최대 NAT 연결 수(한도(limit)를 그대로 두고 contrack-min을 무시하려면 0으로 설정한다)(
--conntrack-min int32 기본값: 131072
conntrack-max-per-core와 관계없이 할당할 최소 conntrack 항목 수(한도를 그대로 두려면 conntrack-max-per-core값을 0으로 설정).
헬스 체크 서버가 서비스할 포트가 있는 IP 주소(모든 IPv4의 인터페이스의 경우 '0.0.0.0:10256', 모든 IPv6의 인터페이스인 경우 '[::]:10256'로 설정)이며, 사용 안 할 경우 빈칸으로 둔다. --config를 통해 설정 파일이 명시될 경우 이 파라미터는 무시된다.
-h, --help
kube-proxy에 대한 도움말.
--hostname-override string
문자열 값이 있으면, 이 값을 실제 호스트네임 대신에 ID로 사용한다.
--iptables-masquerade-bit int32 기본값: 14
순수 iptable 프록시를 사용하는 경우 SNAT가 필요한 패킷을 표시하는 fwmark 스페이스 비트. [0, 31] 범위 안에 있어야 한다.
--iptables-min-sync-period duration 기본값: 1s
엔드포인트 및 서비스가 변경될 때 iptable 규칙을 새로 고칠 수 있는 빈도의 최소 간격(예: '5s', '1m', '2h22m').
--iptables-sync-period duration 기본값: 30s
iptable 규칙을 새로 고치는 빈도의 최대 간격(예: '5s', '1m', '2h22m'). 0 보다 커야 한다.
--ipvs-exclude-cidrs stringSlice
IPVS 규칙을 정리할 때 ipvs 프록시가 건드리지 않아야 하는 쉼표로 구분된 CIDR 목록.
--ipvs-min-sync-period duration
엔드포인트 및 서비스가 변경될 때 ipvs 규칙을 새로 고칠 수 있는 빈도의 최소 간격(예: '5s', '1m', '2h22m').
--ipvs-scheduler string
프록시 모드가 ipvs인 경우 ipvs 스케줄러 유형.
--ipvs-strict-arp
arp_ignore를 1로 설정하고 arp_annotes를 2로 설정하여 엄격한 ARP를 사용.
--ipvs-sync-period duration 기본값: 30s
ipvs 규칙이 새로 갱신되는 빈도의 최대 간격(예: '5s', '1m', '2h22m'). 0 보다 커야 한다.
--ipvs-tcp-timeout duration
유휴 IPVS TCP 연결에 대한 시간 초과. 0이면 그대로 유지(예: '5s', '1m', '2h22m').
--ipvs-tcpfin-timeout duration
FIN 패킷을 수신한 후 IPVS TCP 연결에 대한 시간 초과. 0이면 그대로 유지(예: '5s', '1m', '2h22m').
--ipvs-udp-timeout duration
IPVS UDP 패킷에 대한 시간 초과. 0이면 그대로 유지(예: '5s', '1m', '2h22m').
메트릭 서버가 서비스할 포트가 있는 IP 주소(모든 IPv4 인터페이스의 경우 '0.0.0.0:10249', 모든 IPv6 인터페이스의 경우 '[::]:10249'로 설정됨)로, 사용하지 않으려면 비워둔다. --config를 통해 설정 파일이 명시될 경우 이 파라미터는 무시된다.
--nodeport-addresses stringSlice
NodePort에 사용할 주소를 지정하는 값의 문자열 조각. 값은 유효한 IP 블록(예: 1.2.3.0/24, 1.2.3.4/32). 기본값인 빈 문자열 조각값은([]) 모든 로컬 주소를 사용하는 것을 의미한다.
--one_output
true일 경우, 심각도 기본 레벨에서만 로그를 쓴다(false일 경우 크게 심각하지 않은 단계에서도 로그를 쓴다).
--oom-score-adj int32 기본값: -999
kube-proxy 프로세스에 대한 oom-score-adj 값. 값은 [-1000, 1000] 범위 내에 있어야 한다. --config를 통해 설정 파일이 명시될 경우 이 파라미터는 무시된다.
--pod-bridge-interface string
클러스터 내의 브리지 인터페이스 이름으로, kube-proxy는 지정된 인터페이스로부터 발생한 트래픽을 로컬로 간주한다. DetectLocalMode가 BridgeInterface로 설정되어 있을 경우, 해당 인자도 같이 설정되어야 한다.
--pod-interface-name-prefix string
클러스터 내에서 인터페이스의 접두사로, kube-proxy는 지정된 접두사가 붙은 인터페이스로부터 발생한 트래픽을 로컬로 간주한다. DetectLocalMode가 InterfaceNamePrefix로 설정되어 있을 경우, 해당 인자도 같이 설정되어야 한다.
--profiling
값이 true이면 /debug/pprof 핸들러에서 웹 인터페이스를 통한 프로파일링을 활성화한다. --config를 통해 설정 파일이 명시될 경우 이 파라미터는 무시된다.
--proxy-mode ProxyMode
사용할 프록시 모드: 'iptables' (리눅스), 'ipvs' (리눅스), 'kernelspace' (윈도우), 또는 'userspace' (리눅스/윈도우, 지원 중단). 리눅스에서의 기본값은 'iptables'이며, 윈도우에서의 기본값은 'userspace'(추후 'kernelspace'로 변경될 예정)이다. --config를 통해 설정 파일이 명시될 경우 이 파라미터는 무시된다.
--proxy-port-range port-range
서비스 트래픽을 프록시하기 위해 사용할 수 있는 호스트 포트 범위(beginPort-endPort, single port 또는 beginPort+offset 포함). 만약 범위가 0, 0-0, 혹은 지정되지 않으면, 포트는 무작위로 선택된다.
--show-hidden-metrics-for-version string
숨겨진 메트릭을 표시하려는 이전 버전. 이전 마이너 버전만 인식하며, 다른 값은 허용하지 않는다. 포멧은 <메이저>.<마이너> 와 같으며, 예를 들면 '1.16' 과 같다. 이 포멧의 목적은, 다음 릴리스가 숨길 추가적인 메트릭을 사용자에게 공지하여, 그 이후 릴리스에서 메트릭이 영구적으로 삭제됐을 때 사용자가 놀라지 않도록 하기 위함이다. --config를 통해 설정 파일이 명시될 경우 이 파라미터는 무시된다.
--skip_headers
true일 경우, 로그 메시지에 헤더를 쓰지 않는다.
--skip_log_headers
true일 경우, 로그 파일을 열 때 헤더를 보여주지 않는다.
--stderrthreshold int 기본값: 2
해당 임계값 이상의 로그를 표준에러로 보낸다.
--udp-timeout duration 기본값: 250ms
유휴 UDP 연결이 열린 상태로 유지되는 시간(예: '250ms', '2s'). 값은 0보다 커야 한다. 프록시 모드 userspace에만 적용 가능함.
-v, --v int
로그 상세 레벨(verbosity) 값
--version version[=true]
버전 정보를 출력하고 종료
--vmodule <쉼표로 구분된 'pattern=N' 설정들>
파일 필터 로깅을 위한 pattern=N 설정 목록(쉼표로 분리).
--write-config-to string
기본 구성 값을 이 파일에 옮겨쓰고 종료한다.
12 - 스케줄링
12.1 - 스케줄러 구성
기능 상태:Kubernetes v1.25 [stable]
구성 파일을 작성하고 해당 경로를 커맨드 라인 인수로 전달하여
kube-scheduler 의 동작을 사용자 정의할 수 있다.
스케줄링 프로파일(Profile)을 사용하면 kube-scheduler에서
여러 단계의 스케줄링을 구성할 수 있다.
각 단계는 익스텐션 포인트(extension point)를 통해 노출된다. 플러그인은 이러한
익스텐션 포인트 중 하나 이상을 구현하여 스케줄링 동작을 제공한다.
KubeSchedulerConfiguration (v1beta3
또는 v1)
구조에 맞게 파일을 작성하고,
kube-scheduler --config <filename>을 실행하여
스케줄링 프로파일을 지정할 수 있다.
NodeUnschedulable: .spec.unschedulable 이 true로 설정된 노드를
필터링한다.
익스텐션 포인트: filter.
NodeResourcesFit: 노드에 파드가 요청하는 모든 리소스가 있는지
확인한다. 점수는 LeastAllocated(기본값), MostAllocated, RequestedToCapacityRatio 등
3가지 전략 중 하나를 사용할 수 있다.
익스텐션 포인트: preFilter, filter, score.
NodeResourcesBalancedAllocation: 파드가 스케줄된 경우, 보다 균형잡힌 리소스 사용량을
얻을 수 있는 노드를 선호한다.
익스텐션 포인트: score.
VolumeBinding: 노드에 요청된 볼륨이 있는지
또는 바인딩할 수 있는지 확인한다.
익스텐션 포인트: preFilter, filter, reserve, preBind, score.
참고:score 익스텐션 포인트는 VolumeCapacityPriority 기능이
활성화되어 있어야 활성화되며,
요청된 볼륨 사이즈를 만족하는 가장 작은 PV들을 우선순위 매긴다.
VolumeRestrictions: 노드에 마운트된 볼륨이 볼륨 제공자에 특정한
제한 사항을 충족하는지 확인한다.
익스텐션 포인트: filter.
VolumeZone: 요청된 볼륨이 가질 수 있는 영역 요구 사항을 충족하는지
확인한다.
익스텐션 포인트: filter.
NodeVolumeLimits: 노드에 대해 CSI 볼륨 제한을 충족할 수 있는지
확인한다.
익스텐션 포인트: filter.
EBSLimits: 노드에 대해 AWS EBS 볼륨 제한을 충족할 수 있는지 확인한다.
익스텐션 포인트: filter.
GCEPDLimits: 노드에 대해 GCP-PD 볼륨 제한을 충족할 수 있는지 확인한다.
익스텐션 포인트: filter.
AzureDiskLimits: 노드에 대해 Azure 디스크 볼륨 제한을 충족할 수 있는지
확인한다.
익스텐션 포인트: filter.
InterPodAffinity: 파드 간 어피니티 및 안티-어피니티를
구현한다.
익스텐션 포인트: preFilter, filter, preScore, score.
PrioritySort: 기본 우선 순위 기반 정렬을 제공한다.
익스텐션 포인트: queueSort.
DefaultBinder: 기본 바인딩 메커니즘을 제공한다.
익스텐션 포인트: bind.
DefaultPreemption: 기본 선점 메커니즘을 제공한다.
익스텐션 포인트: postFilter.
기본으로 활성화되지 않는 다음의 플러그인을
컴포넌트 구성 API를 통해 활성화할 수도 있다.
CinderLimits: 노드에 대해 OpenStack Cinder
볼륨 제한이 충족될 수 있는지 확인한다.
익스텐션 포인트: filter.
여러 프로파일
둘 이상의 프로파일을 실행하도록 kube-scheduler 를 구성할 수 있다.
각 프로파일에는 연관된 스케줄러 이름이 있으며 익스텐션 포인트에 구성된
다른 플러그인 세트를 가질 수 있다.
다음의 샘플 구성을 사용하면, 스케줄러는 기본 플러그인이 있는
프로파일과 모든 스코어링 플러그인이 비활성화된 프로파일의 두 가지 프로파일로
실행된다.
특정 프로파일에 따라 스케줄하려는 파드는
.spec.schedulerName 에 해당 스케줄러 이름을 포함할 수 있다.
기본적으로, 스케줄러 이름 default-scheduler 를 가진 하나의 프로파일이 생성된다.
이 프로파일에는 위에서 설명한 기본 플러그인이 포함되어 있다. 둘 이상의
프로파일을 선언할 때, 각각에 대한 고유한 스케줄러 이름이 필요하다.
파드가 스케줄러 이름을 지정하지 않으면, kube-apiserver는 이를 default-scheduler 로
설정한다. 따라서, 해당 파드를 스케줄하려면 이 스케줄러 이름을 가진 프로파일이
있어야 한다.
참고: 파드의 스케줄링 이벤트에는 ReportingController로 .spec.schedulerName 이 있다.
리더 선출을 위한 이벤트는 목록에서 첫 번째 프로파일의 스케줄러 이름을
사용한다.
참고: 모든 프로파일은 queueSort 익스텐션 포인트에서 동일한 플러그인을 사용해야 하며
동일한 구성 파라미터(해당하는 경우)를 가져야 한다. 그 이유는 스케줄러가 보류 중 상태인 파드 대기열을
단 하나만 가질 수 있기 때문이다.
다수의 익스텐션 포인트에 플러그인 적용하기
kubescheduler.config.k8s.io/v1beta3 부터,
다수의 익스텐션 포인트에 대해 플러그인을 쉽게 활성화하거나
비활성화할 수 있게 하는 프로파일 환경 설정 multiPoint 가 추가되었다.
이를 사용하여 사용자와 관리자가 커스텀 프로파일을 사용할 때 환경 설정을 간소화할 수 있다.
preScore, score, preFilter, filter 익스텐션 포인트가 있는 MyPlugin 이라는 플러그인이 있다고 가정하자.
모든 사용 가능한 익스텐션 포인트에 대해 MyPlugin 을 활성화하려면,
다음과 같은 프로파일 환경 설정을 사용한다.
여기서 multiPoint 를 사용했을 때의 이점은,
추후 MyPlugin 이 다른 익스텐션 포인트에 대한 구현을 추가했을 때,
새로운 익스텐션에 대해서도 multiPoint 환경 설정이 자동으로 활성화될 것이라는 점이다.
disabled 필드를 사용하여, MultiPoint 확장으로부터 특정 익스텐션 포인트를 제외할 수 있다.
기본 플러그인을 비활성화하거나, 기본이 아닌(non-default) 플러그인을 비활성화하거나,
와일드카드('*')를 사용하여 모든 플러그인을 비활성화할 수 있다.
다음은 Score 와 PreScore 에 대해 비활성화하는 예시이다.
kubescheduler.config.k8s.io/v1beta3 부터, MultiPoint 필드를 통해
내부적으로 모든 기본 플러그인이 활성화된다.
그러나, 개별 익스텐션 포인트에 대해 기본값(예: 순서, Score 가중치)을 유연하게 재설정하는 것도 여전히 가능하다.
예를 들어, 2개의 Score 플러그인 DefaultScore1 과 DefaultScore2 가 있고
각각의 가중치가 1 이라고 하자.
이 때, 다음과 같이 가중치를 다르게 설정하여 순서를 바꿀 수 있다.
이 예제에서, 이 플러그인들을 MultiPoint 에 명시할 필요는 없는데,
이는 이 플러그인들이 기본 플러그인이기 때문이다.
그리고 Score 에는 DefaultScore2 플러그인만 명시되었다.
이는 익스텐션 포인트를 명시하여 설정된 플러그인은 언제나 MultiPoint 플러그인보다 우선순위가 높기 때문이다.
결론적으로, 위의 예시에서는 두 플러그인을 모두 명시하지 않고도 두 플러그인의 순서를 조정하였다.
MultiPoint 플러그인을 설정할 때, 일반적인 우선 순위는 다음과 같다.
명시된 익스텐션 포인트가 먼저 실행되며, 여기에 명시된 환경 설정은 다른 모든 곳에 설정된 내용보다 우선한다.
설정 버전 v1beta2 에서는, NodeResourcesFit 플러그인을 위한 새로운 스코어링 확장을
이용할 수 있다.
새 확장은 NodeResourcesLeastAllocated, NodeResourcesMostAllocated,
RequestedToCapacityRatio 플러그인의 기능을 통합하여 제공한다.
예를 들어, 이전에 NodeResourcesMostAllocated 플러그인을 사용했다면,
대신 NodeResourcesFit(기본적으로 활성화되어 있음)을 사용하면서
다음과 같이 scoreStrategy를 포함하는 pluginConfig를 추가할 수 있다.
쿠버네티스 v1.23 이전 버전에서는, 단정(predicates) 및 우선순위(priorities) 프로세스를 지정하기 위해 스케줄링 정책을 사용할 수 있다.
예를 들어, kube-scheduler --policy-config-file <filename> 또는 kube-scheduler --policy-configmap <ConfigMap> 명령을 실행하여 스케줄링 정책을 설정할 수 있다.
이러한 스케줄링 정책은 쿠버네티스 v1.23 버전부터 지원되지 않는다. 관련된 플래그인 policy-config-file, policy-configmap, policy-configmap-namespace, use-legacy-policy-config 플래그도 지원되지 않는다. 대신, 비슷한 효과를 얻기 위해 스케줄러 구성을 사용한다.