본문 바로가기

Personal/Cloud

AWS SAA 공부 2일차

출처: https://www.examtopics.com/exams/amazon/aws-certified-solutions-architect-associate-saa-c03/view/2/

* 공부하며 작성한 글이기 때문에, 정확하지 않은 내용이 존재할 수 있습니다.

문제11

회사에는 Amazon EC2 인스턴스에서 실행되고 Amazon Aurora 데이터베이스를 사용하는 애플리케이션이 있습니다. EC2 인스턴스는 파일에 로컬로 저장된 사용자 이름과 암호를 사용하여 데이터베이스에 연결합니다. 회사는 자격 증명 관리의 운영 오버헤드를 최소화하려고 합니다. 이 목표를 달성하려면 솔루션 아키텍트가 무엇을 해야 합니까?

  • A. AWS Secrets Manager를 사용하세요. 자동 회전을 켭니다.
  • B. AWS 시스템 관리자 매개변수 저장소를 사용합니다. 자동 회전을 켭니다.
  • C. AWS Key Management Service(AWS KMS) 암호화 키로 암호화된 객체를 저장할 Amazon S3 버킷을 생성합니다. 자격 증명 파일을 S3 버킷으로 마이그레이션합니다. 애플리케이션이 S3 버킷을 가리키도록 합니다.
  • D. 각 EC2 인스턴스에 대해 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다. 새 EBS 볼륨을 각 EC2 인스턴스에 연결합니다. 자격 증명 파일을 새 EBS 볼륨으로 마이그레이션합니다. 애플리케이션이 새 EBS 볼륨을 가리키도록 합니다.

정답

  • A. AWS Secrets Manager를 사용하세요. 자동 회전을 켭니다.

용어 정리 및 배운 점

-> ssm을 사용해서 자격증명이나 암호를 관리하는 건 너무 당연하고 이미 알고 있는 정보이다.

 

문제12

한 글로벌 기업이 ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스에서 웹 애플리케이션을 호스팅합니다. 웹 애플리케이션에는 정적 데이터와 동적 데이터가 있습니다. 회사는 정적 데이터를 Amazon S3 버킷에 저장합니다. 회사는 정적 데이터와 동적 데이터에 대한 성능을 향상하고 대기 시간을 줄이고 싶어합니다. 회사는 Amazon Route 53에 등록된 자체 도메인 이름을 사용하고 있습니다. 솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. S3 버킷과 ALB를 오리진으로 포함하는 Amazon CloudFront 배포를 생성합니다. 트래픽을 CloudFront 배포로 라우팅하도록 Route 53을 구성합니다.
  • B. ALB를 원본으로 하는 Amazon CloudFront 배포판을 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 트래픽을 CloudFront 배포로 라우팅하도록 Route 53을 구성합니다.
  • C. S3 버킷을 원본으로 하는 Amazon CloudFront 배포를 생성합니다. ALB 및 CloudFront 배포를 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 가속기 DNS 이름을 가리키는 사용자 지정 도메인 이름을 만듭니다. 사용자 지정 도메인 이름을 웹 애플리케이션의 엔드포인트로 사용합니다.
  • D. ALB를 오리진으로 하는 Amazon CloudFront 배포를 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 두 개의 도메인 이름을 만듭니다. 동적 콘텐츠의 CloudFront DNS 이름에 하나의 도메인 이름을 지정합니다. 다른 도메인 이름이 정적 콘텐츠의 가속기 DNS 이름을 가리키도록 합니다. 도메인 이름을 웹 애플리케이션의 엔드포인트로 사용합니다.

정답

A. S3 버킷과 ALB를 오리진으로 포함하는 Amazon CloudFront 배포를 생성합니다. 트래픽을 CloudFront 배포로 라우팅하도록 Route 53을 구성합니다.

용어 정리 및 배운 점

-> Global Accelerator Standard는 S3 엔드포인트 또는 CloudFront 배포 엔드포인트를 지원하지 않습니다. 그렇기 때문에 B, C, D는 답이 틀린 것이다.

문제13

회사에서는 AWS 인프라에 대해 월별 유지 관리를 수행합니다. 이러한 유지 관리 활동 중에 회사는 여러 AWS 리전에 걸쳐 MySQL용 Amazon RDS 데이터베이스에 대한 자격 증명을 교체해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 자격 증명을 AWS Secrets Manager에 비밀로 저장하십시오. 필요한 리전에 대해 다중 리전 비밀 복제를 사용합니다. 일정에 따라 비밀을 교체하도록 Secrets Manager를 구성합니다.
  • B. 보안 문자열 매개변수를 생성하여 AWS 시스템 관리자에 자격 증명을 비밀로 저장합니다. 필요한 리전에 대해 다중 리전 비밀 복제를 사용합니다. 일정에 따라 비밀을 교체하도록 Systems Manager를 구성합니다.
  • C. 서버 측 암호화(SSE)가 활성화된 Amazon S3 버킷에 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 자격 증명을 교체하는 AWS Lambda 함수를 호출합니다.
  • D. AWS Key Management Service(AWS KMS) 다중 지역 고객 관리형 키를 사용하여 자격 증명을 비밀로 암호화합니다. Amazon DynamoDB 전역 테이블에 비밀을 저장합니다. AWS Lambda 함수를 사용하여 DynamoDB에서 암호를 검색합니다. RDS API를 사용하여 비밀을 교체합니다.

정답

A. 자격 증명을 AWS Secrets Manager에 비밀로 저장하십시오. 필요한 리전에 대해 다중 리전 비밀 복제를 사용합니다. 일정에 따라 비밀을 교체하도록 Secrets Manager를 구성합니다.

용어 정리 및 배운 점

-> SSM이 지원하는 기능이다.

-> D는 A에 비해서 단계가 너무 많아서 최소한의 운영 오버헤드가 아니다.

-> Secrets Manager는 또한 정의된 일정에 따라 비밀을 자동으로 교체하는 내장 기능을 제공하여 운영 오버헤드를 줄입니다.

문제14

한 회사가 Application Load Balancer 뒤에 있는 Amazon EC2 인스턴스에서 전자상거래 애플리케이션을 실행합니다. 인스턴스는 여러 가용 영역에 걸쳐 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. Auto Scaling 그룹은 CPU 사용률 지표를 기준으로 확장됩니다. 전자상거래 애플리케이션은 대규모 EC2 인스턴스에서 호스팅되는 MySQL 8.0 데이터베이스에 거래 데이터를 저장합니다. 애플리케이션 로드가 증가하면 데이터베이스 성능이 빠르게 저하됩니다. 애플리케이션은 쓰기 트랜잭션보다 더 많은 읽기 요청을 처리합니다. 회사는 고가용성을 유지하면서 예측할 수 없는 읽기 작업 부하의 수요를 충족하기 위해 데이터베이스를 자동으로 확장하는 솔루션을 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 리더 및 컴퓨팅 기능을 위해 단일 노드와 함께 Amazon Redshift를 사용하십시오.
  • B. 단일 AZ 배포와 함께 Amazon RDS 사용 다른 가용 영역에 리더 인스턴스를 추가하도록 Amazon RDS를 구성합니다.
  • C. 다중 AZ 배포와 함께 Amazon Aurora를 사용하십시오. Aurora 복제본으로 Aurora Auto Scaling을 구성합니다.
  • D. EC2 스팟 인스턴스와 함께 Memcached용 Amazon ElastiCache를 사용하십시오.

정답

C. 다중 AZ 배포와 함께 Amazon Aurora를 사용하십시오. Aurora 복제본으로 Aurora Auto Scaling을 구성합니다.

용어 정리 및 배운 점

-> Aurora는 고성능 및 고가용성을 위해 설계된 완전 관리형 MySQL 호환 관계형 데이터베이스입니다. Aurora 다중 AZ 배포는 고가용성을 제공하기 위해 다른 가용 영역에 동기식 예비 복제본을 자동으로 유지합니다.

-> 또한 Aurora Auto Scaling을 사용하면 읽기 워크로드에 따라 Aurora 복제본 수를 자동으로 확장할 수 있으므로 고가용성을 유지하면서 예측할 수 없는 읽기 워크로드의 수요를 충족할 수 있습니다.

-> Aurora에서 읽기 전용 복제본을 사용하는 것은 기본 인스턴스의 쓰기 성능을 저하시키지 않고 읽기 확장을 허용하므로 이상적인 선택입니다.

-> Amazon Redshift는 데이터 분석 및 웨어하우스에 유용한 열형 블록 스토리지를 사용합니다. 또한 MySql에서 Redshift로 마이그레이션할 때 저장 절차, 트리거 등의 문제가 있습니다. 리더용 단일 노드는 고가용성을 유지하지 않습니다.

문제15

한 회사는 최근 AWS로 마이그레이션했으며 프로덕션 VPC에 들어오고 나가는 트래픽을 보호하는 솔루션을 구현하려고 합니다. 이 회사는 온프레미스 데이터 센터에 검사 서버를 갖고 있었습니다. 점검서버는 트래픽 흐름 점검, 트래픽 필터링 등의 특정 작업을 수행했다. 회사는 AWS 클라우드에서도 동일한 기능을 갖기를 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 프로덕션 VPC에서 트래픽 검사 및 트래픽 필터링을 위해 Amazon GuardDuty를 사용하십시오.
  • B. 트래픽 미러링을 사용하여 트래픽 검사 및 필터링을 위해 프로덕션 VPC의 트래픽을 미러링합니다.
  • C. AWS 네트워크 방화벽을 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
  • D. AWS Firewall Manager를 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.

정답

C. AWS 네트워크 방화벽을 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.

용어 정리 및 배운 점

-> AWS 네트워크 방화벽을 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다. AWS 네트워크 방화벽은 인바운드 및 아웃바운드 네트워크 트래픽 모두에 대한 필터링을 제공하는 관리형 방화벽 서비스입니다.

-> Amazon GuardDuty는 트래픽 검사 또는 필터링 서비스가 아닌 위협 탐지 서비스입니다.

-> 트래픽 미러링은 네트워크 트래픽 복사본을 VPC에서 다른 VPC 또는 온프레미스 위치로 복제하고 보낼 수 있는 기능입니다. 트래픽 검사나 필터링을 수행하는 서비스가 아닙니다.

-> AWS Firewall Manager는 계정 전반에 걸쳐 방화벽을 중앙에서 구성하고 관리하는 데 도움이 되는 보안 관리 서비스입니다.

문제16

한 회사가 AWS에서 데이터 레이크를 호스팅하고 있습니다. 데이터 레이크는 Amazon S3 및 PostgreSQL용 Amazon RDS의 데이터로 구성됩니다. 회사에는 데이터 시각화를 제공하고 데이터 레이크 내의 모든 데이터 소스를 포함하는 보고 솔루션이 필요합니다. 회사의 관리팀만이 모든 시각화에 대한 전체 액세스 권한을 가져야 합니다. 회사의 나머지 부분은 제한된 액세스 권한만 가져야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터세트를 생성합니다. 데이터를 시각화하기 위해 대시보드를 게시합니다. 적절한 IAM 역할과 대시보드를 공유합니다.
  • B. Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터세트를 생성합니다. 데이터를 시각화하기 위해 대시보드를 게시합니다. 적절한 사용자 및 그룹과 대시보드를 공유합니다.
  • C. Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. AWS Glue 추출, 변환 및 로드(ETL) 작업을 생성하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
  • D. Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. Amazon Athena Federated Query를 사용하여 PostgreSQL용 Amazon RDS 내의 데이터에 액세스합니다. Amazon Athena를 사용하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.

정답

D. Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. Amazon Athena Federated Query를 사용하여 PostgreSQL용 Amazon RDS 내의 데이터에 액세스합니다. Amazon Athena를 사용하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.

-> 정답이 애매한 게 사이트 토론에서는 다 B라고 하고, 덤프 2개 중 하나에서도 B로 나와있다...

용어 정리 및 배운 점

-> 데이터레이크는 구조화되거나 반구조화되거나 구조화되지 않은 대량의 데이터를 저장, 처리, 보호하기 위한 중앙 집중식 저장소

-> A와 B의 시작인 "Amazon QuickSight에서 분석을 생성합니다."라는 문장은 잘못됐다. QuickSight는 분석을 생성하지 않으며 그래프를 통해 데이터를 표시하는 대시보드입니다.

-> QuickSight는 사용자(표준) 및 그룹(Enterprise)을 지원하며 IAM은 지원하지 않습니다.

문제17

회사에서 새로운 비즈니스 애플리케이션을 구현하고 있습니다. 애플리케이션은 두 개의 Amazon EC2 인스턴스에서 실행되며 문서 저장을 위해 Amazon S3 버킷을 사용합니다. 솔루션 아키텍트는 EC2 인스턴스가 S3 버킷에 액세스할 수 있는지 확인해야 합니다. 이 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. S3 버킷에 대한 액세스 권한을 부여하는 IAM 역할을 생성합니다. EC2 인스턴스에 역할을 연결합니다.
  • B. S3 버킷에 대한 액세스 권한을 부여하는 IAM 정책을 생성합니다. EC2 인스턴스에 정책을 연결합니다.
  • C. S3 버킷에 대한 액세스 권한을 부여하는 IAM 그룹을 생성합니다. 그룹을 EC2 인스턴스에 연결합니다.
  • D. S3 버킷에 대한 액세스 권한을 부여하는 IAM 사용자를 생성합니다. 사용자 계정을 EC2 인스턴스에 연결합니다.
정답

A. S3 버킷에 대한 액세스 권한을 부여하는 IAM 역할을 생성합니다. EC2 인스턴스에 역할을 연결합니다.

용어 정리 및 배운 점

-> S3 버킷에 대한 액세스 권한을 부여하는 IAM 역할을 생성하고 해당 역할을 EC2 인스턴스에 연결하는 것입니다. IAM 역할은 AWS 리소스 및 서비스에 대한 액세스 권한을 위임할 수 있는 AWS 리소스입니다. S3 버킷에 대한 액세스 권한을 부여하는 IAM 역할을 생성한 다음 해당 역할을 EC2 인스턴스에 연결할 수 있습니다. 이렇게 하면 EC2 인스턴스가 S3 버킷과 그 안에 저장된 문서에 액세스할 수 있습니다.

-> IAM 정책은 EC2 인스턴스가 아닌 IAM 사용자 또는 그룹에 대한 권한을 정의하는 데 사용

-> IAM 그룹은 리소스에 대한 액세스 권한을 부여하는 것이 아니라 IAM 사용자와 정책을 함께 그룹화하는 데 사용되므로 옵션 C는 올바르지 않습니다.

문제18

애플리케이션 개발 팀은 큰 이미지를 더 작은 압축 이미지로 변환하는 마이크로서비스를 설계하고 있습니다. 사용자가 웹 인터페이스를 통해 이미지를 업로드하면 마이크로서비스는 Amazon S3 버킷에 이미지를 저장하고, AWS Lambda 함수를 사용하여 이미지를 처리 ​​및 압축한 다음, 다른 S3 버킷에 압축된 형식으로 이미지를 저장해야 합니다.
솔루션 아키텍트는 내구성이 뛰어난 상태 비저장 구성 요소를 사용하여 이미지를 자동으로 처리하는 솔루션을 설계해야 합니다. 이러한 요구 사항을 충족하는 작업 조합은 무엇입니까? (2개를 선택하세요.)

  • A. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 이미지가 S3 버킷에 업로드될 때 SQS 대기열에 알림을 보내도록 S3 버킷을 구성합니다.
  • B. Amazon Simple Queue Service(Amazon SQS) 대기열을 호출 소스로 사용하도록 Lambda 함수를 구성합니다. SQS 메시지가 성공적으로 처리되면 대기열에서 메시지를 삭제합니다.
  • C. S3 버킷의 새 업로드를 모니터링하도록 Lambda 함수를 구성합니다. 업로드된 이미지가 감지되면 메모리의 텍스트 파일에 파일 이름을 쓰고 해당 텍스트 파일을 사용하여 처리된 이미지를 추적합니다.
  • D. Amazon EC2 인스턴스를 시작하여 Amazon Simple Queue Service(Amazon SQS) 대기열을 모니터링합니다. 항목이 대기열에 추가되면 EC2 인스턴스의 텍스트 파일에 파일 이름을 기록하고 Lambda 함수를 호출합니다.
  • E. S3 버킷을 모니터링하도록 Amazon EventBridge(Amazon CloudWatch Events) 이벤트를 구성합니다. 이미지가 업로드되면 추가 처리를 위해 애플리케이션 소유자의 이메일 주소와 함께 Amazon ample 알림 서비스(Amazon SNS) 주제에 알림을 보냅니다.

정답

A. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 이미지가 S3 버킷에 업로드될 때 SQS 대기열에 알림을 보내도록 S3 버킷을 구성합니다.

B. Amazon Simple Queue Service(Amazon SQS) 대기열을 호출 소스로 사용하도록 Lambda 함수를 구성합니다. SQS 메시지가 성공적으로 처리되면 대기열에서 메시지를 삭제합니다.

용어 정리 및 배운 점

->  A - SQS 대기열을 생성하고 이미지가 업로드될 때 대기열에 알림을 보내도록 S3 버킷을 구성하는 작업이 포함됩니다. 이를 통해 애플리케이션은 이미지 업로드 프로세스를 이미지 처리 프로세스에서 분리할 수 있으며 새 이미지가 업로드될 때 이미지 처리 프로세스가 자동으로 트리거되도록 할 수 있습니다.

-> B - SQS 대기열을 호출 소스로 사용하도록 Lambda 함수를 구성하는 작업이 포함됩니다. SQS 메시지가 성공적으로 처리되면 메시지가 대기열에서 삭제됩니다. 이렇게 하면 Lambda 함수가 이미지당 한 번만 호출되고 이미지가 여러 번 처리되지 않습니다.

 

문제19

회사에는 AWS에 배포된 3티어 웹 애플리케이션이 있습니다. 웹 서버는 VPC의 퍼블릭 서브넷에 배포됩니다. 애플리케이션 서버와 데이터베이스 서버는 동일한 VPC의 프라이빗 서브넷에 배포됩니다. 회사는 AWS Marketplace의 타사 가상 방화벽 어플라이언스를 검사 VPC에 배포했습니다. 어플라이언스는 IP 패킷을 수락할 수 있는 IP 인터페이스로 구성됩니다.
솔루션 설계자는 웹 애플리케이션을 어플라이언스와 통합하여 트래픽이 웹 서버에 도달하기 전에 애플리케이션에 대한 모든 트래픽을 검사해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 애플리케이션 VPC의 퍼블릭 서브넷에 Network Load Balancer를 생성하여 패킷 검사를 위해 트래픽을 어플라이언스로 라우팅합니다.
  • B. 애플리케이션 VPC의 퍼블릭 서브넷에 Application Load Balancer를 생성하여 패킷 검사를 위해 트래픽을 어플라이언스로 라우팅합니다.
  • C. 검사 VPC구성 라우팅 테이블에 전송 게이트웨이를 배포하여 전송 게이트웨이를 통해 수신 패킷을 라우팅합니다.
  • D. 검사 VPC에 게이트웨이 로드 밸런서를 배포합니다. 들어오는 패킷을 수신하고 패킷을 어플라이언스에 전달하기 위한 게이트웨이 로드 밸런서 엔드포인트를 생성합니다.

정답

D. 검사 VPC에 게이트웨이 로드 밸런서를 배포합니다. 들어오는 패킷을 수신하고 패킷을 어플라이언스에 전달하기 위한 게이트웨이 로드 밸런서 엔드포인트를 생성합니다.

용어 정리 및 배운 점

-> GWLB(게이트웨이 로드 밸런서): GWLB는 타사 어플라이언스를 배포하도록 설계되었으며 어플라이언스를 통해 트래픽을 라우팅하는 확장 가능하고 쉬운 방법을 제공합니다.

-> https://docs.aws.amazon.com/elasticloadbalancing/latest/gateway/getting-started.html

문제20

한 회사는 동일한 AWS 리전의 테스트 환경에 대량의 프로덕션 데이터를 복제하는 기능을 개선하려고 합니다. 데이터는 Amazon Elastic Block Store(Amazon EBS) 볼륨의 Amazon EC2 인스턴스에 저장됩니다. 복제된 데이터를 수정해도 프로덕션 환경에 영향을 주어서는 안 됩니다. 이 데이터에 액세스하는 소프트웨어에는 지속적으로 높은 I/O 성능이 필요합니다. 솔루션 설계자는 프로덕션 데이터를 테스트 환경으로 복제하는 데 필요한 시간을 최소화해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 프로덕션 EBS 볼륨의 EBS 스냅샷을 찍습니다. 테스트 환경에서 스냅샷을 EC2 인스턴스 스토어 볼륨으로 복원합니다.
  • B. EBS 다중 연결 기능을 사용하도록 프로덕션 EBS 볼륨을 구성합니다. 프로덕션 EBS 볼륨의 EBS 스냅샷을 찍습니다. 테스트 환경의 EC2 인스턴스에 프로덕션 EBS 볼륨을 연결합니다.
  • C. 프로덕션 EBS 볼륨의 EBS 스냅샷을 찍습니다. 새 EBS 볼륨을 생성하고 초기화합니다. 프로덕션 EBS 스냅샷에서 볼륨을 복원하기 전에 테스트 환경의 EC2 인스턴스에 새 EBS 볼륨을 연결합니다.
  • D. 프로덕션 EBS 볼륨의 EBS 스냅샷을 찍습니다. EBS 스냅샷에서 EBS 빠른 스냅샷 복원 기능을 활성화합니다. 스냅샷을 새 EBS 볼륨으로 복원합니다. 테스트 환경의 EC2 인스턴스에 새 EBS 볼륨을 연결합니다.

정답

D. 프로덕션 EBS 볼륨의 EBS 스냅샷을 찍습니다. EBS 스냅샷에서 EBS 빠른 스냅샷 복원 기능을 활성화합니다. 스냅샷을 새 EBS 볼륨으로 복원합니다. 테스트 환경의 EC2 인스턴스에 새 EBS 볼륨을 연결합니다.

용어 정리 및 배운 점

->  https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ebs-fast-snapshot-restore.html

-> EBS 빠른 스냅샷 복원 기능을 활성화하면 스냅샷에서 데이터가 완전히 복사될 때까지 기다릴 필요 없이 EBS 스냅샷을 거의 즉시 새 EBS 볼륨으로 복원할 수 있습니다. 이를 통해 운영 데이터를 복제하는 데 필요한 시간이 크게 단축됩니다.

'Personal > Cloud' 카테고리의 다른 글

CloudGoat 실습 - iam_privesc_by_rollback  (1) 2024.03.12
AWS SAA 공부 3일차  (0) 2024.01.11
AWS SAA 공부 1일차  (0) 2024.01.09
SOA(Service-Oriented-Architecture)와 MSA(Micro Service Architecture)  (0) 2023.05.25
Microservice  (0) 2023.05.25