본문 바로가기

Personal/Cloud

AWS SAA 공부 1일차

출처: https://www.examtopics.com/exams/amazon/aws-certified-solutions-architect-associate-saa-c03/view/

올해 3월 전에 AWS SAA 자격증 취득을 목표로 하루에 10문제 이상씩 공부해보려고 한다.

위의 사이트에서 솔루션 보기를 하면 정답이 잘못 체크되어 있는 경우가 꽤 있는 것 같다.

그래서 자신이 가지고 있는 덤프의 정답을 믿는 것이 좋을 것 같다.

문제1

한 회사는 여러 대륙에 걸쳐 도시의 온도, 습도, 기압에 대한 데이터를 수집합니다. 회사가 매일 각 사이트에서 수집하는 평균 데이터 양은 500GB입니다. 각 사이트에는 고속 인터넷 연결이 제공됩니다. 회사는 이러한 모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 가능한 한 빨리 집계하려고 합니다. 솔루션은 운영상의 복잡성을 최소화해야 합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 대상 S3 버킷에서 S3 Transfer Acceleration을 활성화합니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.
  • B. 각 사이트의 데이터를 가장 가까운 지역의 S3 버킷에 업로드합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다.
  • C. 매일 AWS Snowball Edge Storage Optimized 디바이스 작업을 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다.
  • D. 각 사이트의 데이터를 가장 가까운 지역의 Amazon EC2 인스턴스에 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 정기적으로 EBS 스냅샷을 찍어 대상 S3 버킷이 포함된 리전에 복사합니다. 해당 리전에서 EBS 볼륨을 복원합니다.

정답

A. 대상 S3 버킷에서 S3 Transfer Acceleration을 활성화합니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.

용어 정리 및 배운 점

-> 다른 지역에서 복제를 하게 되면 추가적인 비용이 발생하게 된다.

-> S3를 사용하고 있으므로 EBS 같은 추가적인 것을 또 사용할 필요가 없다.

-> S3 Transfer Acceleration클라이언트와 S3 버킷 간의 장거리 파일 전송을 파일을 빠르고 쉽고 안전하게 전송할 수 있는 버킷 수준 기능, 전 세계에서 S3 버킷으로 전송 속도를 최적화하도록 설계,

-> AWS Snowball Edge Storage OptimizedAWS SnowballEdge는 필요에 따라 온보드 스토리지와 컴퓨팅 파워를 갖춘 일종의 Snowball 디바이스입니다.AWS기능. Snowball Edge는 로컬 환경과 환경 간에 데이터를 전송하는 것 외에도 로컬 처리 및 에지 컴퓨팅 워크로드를 수행할 수 있습니다.AWS 클라우드, 기타 디바이스로 S3를 사용하고 있는 지금 다른 디바이스를 사용할 이유가 없다.

출처: https://docs.aws.amazon.com/ko_kr/snowball/latest/developer-guide/whatisedge.html

 

문제2

회사에는 자사 독점 애플리케이션의 로그 파일을 분석할 수 있는 기능이 필요합니다. 로그는 Amazon S3 버킷에 JSON 형식으로 저장됩니다. 쿼리는 간단하며 주문형으로 실행됩니다. 솔루션 설계자는 기존 아키텍처를 최소한으로 변경하면서 분석을 수행해야 합니다. 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

    • A. Amazon Redshift를 사용하여 모든 콘텐츠를 한 곳에 로드하고 필요에 따라 SQL 쿼리를 실행하십시오.
    • B. Amazon CloudWatch Logs를 사용하여 로그를 저장합니다. Amazon CloudWatch 콘솔에서 필요에 따라 SQL 쿼리를 실행합니다.
    • C. Amazon S3와 함께 Amazon Athena를 직접 사용하여 필요에 따라 쿼리를 실행합니다.
    • D. AWS Glue를 사용하여 로그를 분류합니다. Amazon EMR에서 임시 Apache Spark 클러스터를 사용하여 필요에 따라 SQL 쿼리를 실행합니다.

정답

C. Amazon S3와 함께 Amazon Athena를 직접 사용하여 필요에 따라 쿼리를 실행합니다.

용어 정리 및 배운 점

-> Athena는 S3와 원활하게 통합되어 간단한 SQL 쿼리를 즉시 실행할 수 있습니다.

-> Redshift와 EMR은 오버헤드가 되거나 단순히 적합하지 않습니다.

-> CloudWatch에는 쿼리를 실행할 수 있는 콘솔이 없습니다.

문제3

회사는 AWS Organizations를 사용하여 다양한 부서의 여러 AWS 계정을 관리합니다. 마스터 계정에는 프로젝트 보고서가 포함된 Amazon S3 버킷이 있습니다. 회사는 이 S3 버킷에 대한 액세스를 AWS Organizations의 조직 내 계정 사용자로만 제한하려고 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 조직 ID에 대한 참조와 함께 aws PrincipalOrgID 전역 조건 키를 S3 버킷 정책에 추가합니다.
  • B. 각 부서에 대한 조직 단위(OU)를 생성합니다. S3 버킷 정책에 aws:PrincipalOrgPaths 전역 조건 키를 추가합니다.
  • C. AWS CloudTrail을 사용하여 CreateAccount, InviteAccountToOrganization, LeaveOrganization 및 RemoveAccountFromOrganization 이벤트를 모니터링합니다. 이에 따라 S3 버킷 정책을 업데이트하십시오.
  • D. S3 버킷에 액세스해야 하는 각 사용자에게 태그를 지정합니다. S3 버킷 정책에 aws:PrincipalTag 전역 조건 키를 추가합니다.

정답

A. 조직 ID에 대한 참조와 함께 aws PrincipalOrgID 전역 조건 키를 S3 버킷 정책에 추가합니다.

용어 정리 및 배운 점

-> https://aws.amazon.com/ko/blogs/security/control-access-to-aws-resources-by-using-the-aws-organization-of-iam-principals/

-> 이 조건 키를 사용하여 리소스 기반 정책의 Principal 요소 에 필터를 적용할 수 있습니다 . 이 조건에 StringLike 와 같은 문자열 연산자를 사용 하고 해당 값으로 AWS 조직 ID를 지정할 수 있습니다.

-> 이제는 IAM으로 더 간단하게 가능하다.

-> AWS CloudTrail은 API 이벤트만 기록하기 때문에 S3 버킷 사용자 액세스 관련 행위가 불가능하다..?

-> B와 D는 운영 오버헤드가 많이 발생한다.

문제4

애플리케이션은 VPC의 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 Amazon S3 버킷에 저장된 로그를 처리합니다. EC2 인스턴스는 인터넷에 연결하지 않고 S3 버킷에 액세스해야 합니다.
Amazon S3에 프라이빗 네트워크 연결을 제공하는 솔루션은 무엇입니까?

  • A. S3 버킷에 대한 게이트웨이 VPC 엔드포인트를 생성합니다.
  • B. 로그를 Amazon CloudWatch Logs로 스트리밍합니다. 로그를 S3 버킷으로 내보냅니다.
  • C. S3 액세스를 허용하려면 Amazon EC2에 인스턴스 프로필을 생성합니다.
  • D. S3 엔드포인트에 액세스하기 위한 프라이빗 링크가 포함된 Amazon API Gateway API를 생성합니다.

정답

A. S3 버킷에 대한 게이트웨이 VPC 엔드포인트를 생성합니다.

용어 정리 및 배운 점

-> 게이트웨이 VPC 엔드포인트는 추가 비용 없이 S3 버킷에 비공개로 연결할 수 있습니다.

-> B가 틀린 이  CloudWatch에서 S3 버킷으로: 로그 데이터를 내보낼 수 있게 되기까지 최대 12시간이 걸릴 수 있으며 요구 사항에는 EC2에서 S3으로만 필요합니다.

-> C는 인스턴스 프로필을 생성하면 액세스 권한이 부여되지만 EC2가 S3에 비공개로 연결하는 데 도움이 되지 않는다.

문제5

한 회사는 사용자가 업로드한 문서를 Amazon EBS 볼륨에 저장하는 단일 Amazon EC2 인스턴스를 사용하여 AWS에서 웹 애플리케이션을 호스팅하고 있습니다. 확장성과 가용성을 높이기 위해 회사는 아키텍처를 복제하고 다른 가용 영역에 두 번째 EC2 인스턴스와 EBS 볼륨을 생성하여 둘 다 Application Load Balancer 뒤에 배치했습니다. 이 변경을 완료한 후 사용자들은 웹 사이트를 새로 고칠 때마다 문서의 하위 집합 중 하나를 볼 수 있지만 동시에 모든 문서를 볼 수는 없다고 보고했습니다. 사용자가 모든 문서를 한 번에 볼 수 있도록 솔루션 설계자는 무엇을 제안해야 합니까?

  • A. 두 EBS 볼륨에 모든 문서가 포함되도록 데이터를 복사합니다.
  • B. 사용자를 문서가 있는 서버로 연결하도록 Application Load Balancer를 구성합니다.
  • C. 두 EBS 볼륨의 데이터를 Amazon EFS로 복사합니다. 새 문서를 Amazon EFS에 저장하도록 애플리케이션 수정
  • D. 두 서버 모두에 요청을 보내도록 Application Load Balancer를 구성합니다. 올바른 서버에서 각 문서를 반환합니다.

정답

C. 두 EBS 볼륨의 데이터를 Amazon EFS로 복사합니다. 새 문서를 Amazon EFS에 저장하도록 애플리케이션 수정

용어 정리 및 배운 점

-> https://docs.aws.amazon.com/efs/latest/ug/how-it-works.html#efs-regional-ec2

-> 현재 아키텍처는 EC2 인스턴스당 하나씩, 두 개의 개별 EBS 볼륨을 사용하고 있습니다. 즉, 각 인스턴스에는 문서의 하위 집합만 있습니다. 사용자가 웹 사이트를 새로 고치면 Application Load Balancer는 사용자를 무작위로 두 인스턴스 중 하나로 연결합니다. 사용자의 문서가 지정된 인스턴스에 없으면 해당 문서를 볼 수 없습니다.

-> EF 대기 시간을 줄이고 모든 사용자가 모든 파일을 한 번에 볼 수 있습니다.

문제6

회사에서는 NFS를 사용하여 온프레미스 네트워크 연결 스토리지에 대용량 비디오 파일을 저장합니다. 각 비디오 파일의 크기는 1MB에서 500GB까지입니다. 총 스토리지는 70TB이며 더 이상 증가하지 않습니다. 회사는 비디오 파일을 Amazon S3로 마이그레이션하기로 결정했습니다. 회사는 최소한의 네트워크 대역폭을 사용하면서 가능한 한 빨리 비디오 파일을 마이그레이션해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. S3 버킷을 생성합니다. S3 버킷에 쓸 수 있는 권한이 있는 IAM 역할을 생성합니다. AWS CLI를 사용하여 모든 파일을 S3 버킷에 로컬로 복사합니다.
  • B. AWS Snowball Edge 작업을 생성합니다. 온프레미스에서 Snowball Edge 디바이스를 받습니다. Snowball Edge 클라이언트를 사용하여 데이터를 디바이스로 전송합니다. AWS가 데이터를 Amazon S3으로 가져올 수 있도록 디바이스를 반환합니다.
  • C. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위한 공용 서비스 엔드포인트를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유의 데이터를 S3 파일 게이트웨이로 전송합니다.
  • D. 온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위한 퍼블릭 가상 인터페이스(VIF)를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유의 데이터를 S3 파일 게이트웨이로 전송합니다.

정답

B. AWS Snowball Edge 작업을 생성합니다. 온프레미스에서 Snowball Edge 디바이스를 받습니다. Snowball Edge 클라이언트를 사용하여 데이터를 디바이스로 전송합니다. AWS가 데이터를 Amazon S3으로 가져올 수 있도록 디바이스를 반환합니다.

용어 정리 및 배운 점

-> Snowball Edge 디바이스에서는 최대 100Gbps의 속도로 파일을 복사할 수 있습니다. 70TB는 약 5600초가 소요되므로 매우 빠른 속도로 2시간도 채 걸리지 않습니다. 단점은 장치를 받는 데 영업일 기준 4~6일이 걸리고 기기를 다시 보내는 데 영업일 기준 2~3일이 더 걸리고 AWS가 데이터가 도착하면 S3로 데이터를 이동한다는 것입니다. 총 시간: 영업일 기준 6-9일. 사용 대역폭 : 0.

-> 게이트웨이는 인터넷을 사용해서 대역폭을 많이 사용하게 된다.

문제7

회사에 수신 메시지를 수집하는 애플리케이션이 있습니다. 그러면 수십 개의 다른 애플리케이션과 마이크로서비스가 이러한 메시지를 빠르게 소비합니다. 메시지 수는 매우 다양하며 때로는 초당 100,000개로 갑자기 증가하는 경우도 있습니다. 회사는 솔루션을 분리하고 확장성을 높이고 싶어합니다. 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Amazon Kinesis Data Analytics에 대한 메시지를 유지합니다. 메시지를 읽고 처리하도록 소비자 애플리케이션을 구성합니다.
  • B. Auto Scaling 그룹의 Amazon EC2 인스턴스에 수집 애플리케이션을 배포하여 CPU 지표를 기반으로 EC2 인스턴스 수를 확장합니다.
  • C. 단일 샤드를 사용하여 Amazon Kinesis Data Streams에 메시지를 씁니다. AWS Lambda 함수를 사용하여 메시지를 사전 처리하고 Amazon DynamoDB에 저장합니다. 메시지를 처리하기 위해 DynamoDB에서 읽도록 소비자 애플리케이션을 구성합니다.
  • D. 여러 Amazon Simple Queue Service(Amazon SOS) 구독을 사용하여 Amazon Simple 알림 서비스(Amazon SNS) 주제에 메시지를 게시합니다. 대기열의 메시지를 처리하도록 소비자 애플리케이션을 구성합니다.

정답

D. 여러 Amazon Simple Queue Service(Amazon SOS) 구독을 사용하여 Amazon Simple 알림 서비스(Amazon SNS) 주제에 메시지를 게시합니다. 대기열의 메시지를 처리하도록 소비자 애플리케이션을 구성합니다.

용어 정리 및 배운 점

->  SNS - SQS 팬아웃 패턴을 따라 수십 명의 소비자에게 메시지를 보냅니다. 데이터 분석을 수행할 필요가 없으므로 Kinesis Data Analytics가 필요하지 않습니다.

문제8

한 회사가 분산 애플리케이션을 AWS로 마이그레이션하고 있습니다. 애플리케이션은 다양한 워크로드를 처리합니다. 레거시 플랫폼은 여러 컴퓨팅 노드에서 작업을 조정하는 기본 서버로 구성됩니다. 회사는 탄력성과 확장성을 극대화하는 솔루션으로 애플리케이션을 현대화하려고 합니다. 솔루션 설계자는 이러한 요구 사항을 충족하기 위해 아키텍처를 어떻게 설계해야 합니까?

  • A. Amazon Simple Queue Service(Amazon SQS) 대기열을 작업 대상으로 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 예약된 조정을 사용하도록 EC2 Auto Scaling을 구성합니다.
  • B. Amazon Simple Queue Service(Amazon SQS) 대기열을 작업 대상으로 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 대기열 크기에 따라 EC2 Auto Scaling을 구성합니다.
  • C. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스를 사용하여 기본 서버와 컴퓨팅 노드를 구현합니다. AWS CloudTrail을 작업 대상으로 구성합니다. 기본 서버의 로드를 기반으로 EC2 Auto Scaling을 구성합니다.
  • D. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스를 사용하여 기본 서버와 컴퓨팅 노드를 구현합니다. Amazon EventBridge(Amazon CloudWatch Events)를 작업 대상으로 구성합니다. 컴퓨팅 노드의 로드를 기반으로 EC2 Auto Scaling을 구성합니다.

정답

B. Amazon Simple Queue Service(Amazon SQS) 대기열을 작업 대상으로 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 대기열 크기에 따라 EC2 Auto Scaling을 구성합니다.

용어 정리 및 배운 점

->  대기열 크기에 따라 EC2 Auto Scaling을 구성해야 한다.

 

문제9

한 회사가 데이터 센터에서 SMB 파일 서버를 운영하고 있습니다. 파일 서버는 파일이 생성된 후 처음 며칠 동안 자주 액세스되는 대용량 파일을 저장합니다. 7일 후에는 파일에 거의 액세스되지 않습니다.
전체 데이터 크기가 점점 늘어나 회사의 전체 저장 용량에 가까워지고 있습니다. 솔루션 설계자는 가장 최근에 액세스한 파일에 대한 짧은 대기 시간의 액세스를 잃지 않으면서 회사의 사용 가능한 저장 공간을 늘려야 합니다. 솔루션 설계자는 향후 스토리지 문제를 방지하기 위해 파일 수명주기 관리도 제공해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. AWS DataSync를 사용하여 SMB 파일 서버에서 AWS로 7일보다 오래된 데이터를 복사합니다.
  • B. Amazon S3 파일 게이트웨이를 생성하여 회사의 저장 공간을 확장합니다. 7일 후에 데이터를 S3 Glacier Deep Archive로 전환하는 S3 수명 주기 정책을 생성합니다.
  • C. 회사의 저장 공간을 확장하기 위해 Amazon FSx for Windows File Server 파일 시스템을 생성합니다.
  • D. 각 사용자의 컴퓨터에 유틸리티를 설치하여 Amazon S3에 액세스합니다. 7일 후에 데이터를 S3 Glacier 유연한 검색으로 전환하는 S3 수명 주기 정책을 생성합니다.

정답

B. Amazon S3 파일 게이트웨이를 생성하여 회사의 저장 공간을 확장합니다. 7일 후에 데이터를 S3 Glacier Deep Archive로 전환하는 S3 수명 주기 정책을 생성합니다.

용어 정리 및 배운 점

-> https://aws.amazon.com/ko/storagegateway/faqs/#:~:text=Amazon%20S3%20File%20Gateway%20securely,latency%20access%20to%20cached%20data

-> 게이트웨이는 이러한 파일 작업을 S3 버킷에 대한 객체 요청으로 전환합니다. 지연 시간이 짧은 액세스를 위해 가장 최근에 사용된 데이터가 게이트웨이에 캐시되고, 게이트웨이에서 데이터 센터와 AWS 간 데이터 전송을 모두 관리하고 최적화합니다. 즉, 캐시 기능을 제공해서 문제에서 요구하는 사항을 충족한다.

문제10

한 회사가 AWS에서 전자상거래 웹 애플리케이션을 구축하고 있습니다. 애플리케이션은 새로운 주문에 대한 정보를 Amazon API Gateway REST API로 보내 처리합니다. 회사는 주문이 접수된 순서대로 처리되기를 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 애플리케이션이 주문을 수신하면 API Gateway 통합을 사용하여 Amazon Simple 알림 서비스(Amazon SNS) 주제에 메시지를 게시합니다. 처리를 수행하려면 주제에 대한 AWS Lambda 함수를 구독하세요.
  • B. 애플리케이션이 주문을 받으면 API 게이트웨이 통합을 사용하여 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS FIFO 대기열을 구성합니다.
  • C. API 게이트웨이 권한 부여자를 사용하여 애플리케이션이 주문을 처리하는 동안 모든 요청을 차단합니다.
  • D. 애플리케이션이 주문을 받으면 API 게이트웨이 통합을 사용하여 Amazon Simple Queue Service(Amazon SQS) 표준 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS 표준 대기열을 구성합니다.

정답

B. 애플리케이션이 주문을 받으면 API 게이트웨이 통합을 사용하여 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS FIFO 대기열을 구성합니다.

용어 정리 및 배운 점

->  FIFO 라는 키워드가 중요하다.

 

 

 

'Personal > Cloud' 카테고리의 다른 글

AWS SAA 공부 3일차  (0) 2024.01.11
AWS SAA 공부 2일차  (0) 2024.01.10
SOA(Service-Oriented-Architecture)와 MSA(Micro Service Architecture)  (0) 2023.05.25
Microservice  (0) 2023.05.25
Monolithic vs MSA  (0) 2023.05.25