// # 131
한 회사가 Amazon S3 버킷을 스토리지로 사용하는 파일 공유 애플리케이션을 개발하고 있습니다. 이 회사는 모든 파일을 Amazon CloudFront 배포를 통해 제공하고자 합니다. 이 회사는 S3 URL로 직접 탐색하여 파일에 액세스할 수 있기를 원하지 않습니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
- A. 각 S3 버킷에 대해 개별 정책을 작성하여 CloudFront 액세스에 대해서만 읽기 권한을 부여합니다.
- B. IAM 사용자를 만듭니다. 사용자에게 S3 버킷의 객체에 대한 읽기 권한을 부여합니다. 사용자를 CloudFront에 할당합니다.
- C. CloudFront 배포 ID를 주체로 지정하고 대상 S3 버킷을 Amazon 리소스 이름(ARN)으로 지정하는 S3 버킷 정책을 작성합니다.
- D. 원본 액세스 ID(OAI)를 만듭니다. OAI를 CloudFront 배포에 할당합니다. S3 버킷 권한을 구성하여 OAI만 읽기 권한을 갖도록 합니다.
// # 132
회사 웹사이트는 사용자에게 다운로드 가능한 과거 성과 보고서를 제공합니다. 웹사이트에는 회사의 웹사이트 수요를 전 세계적으로 충족할 수 있는 확장 가능한 솔루션이 필요합니다. 솔루션은 비용 효율적이어야 하며 인프라 리소스의 제공을 제한해야 하며 가능한 가장 빠른 응답 시간을 제공해야 합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 조합을 권장해야 합니까?
- A. Amazon CloudFront 및 Amazon S3
- B. AWS Lambda 및 Amazon DynamoDB
- C. Amazon EC2 자동 확장을 갖춘 애플리케이션 로드 밸런서
- D. 내부 애플리케이션 로드 밸런서가 있는 Amazon Route 53
// # 133 (50:39:10)
한 회사가 사내에서 Oracle 데이터베이스를 운영합니다. 회사가 AWS로 마이그레이션하는 과정에서 회사는 데이터베이스를 최신 버전으로 업그레이드하려고 합니다. 회사는 또한 데이터베이스에 대한 재해 복구(DR)를 설정하려고 합니다. 회사는 정상적인 운영 및 DR 설정에 대한 운영 오버헤드를 최소화해야 합니다. 회사는 또한 데이터베이스의 기본 운영 체제에 대한 액세스를 유지해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
- A. Oracle 데이터베이스를 Amazon EC2 인스턴스로 마이그레이션합니다. 다른 AWS 리전으로 데이터베이스 복제를 설정합니다.
- B. Oracle 데이터베이스를 Amazon RDS for Oracle로 마이그레이션합니다. Cross-Region 자동 백업을 활성화하여 스냅샷을 다른 AWS Region으로 복제합니다.
- C. Oracle 데이터베이스를 Amazon RDS Custom for Oracle로 마이그레이션합니다. 다른 AWS Region에서 데이터베이스에 대한 읽기 복제본을 만듭니다.
- D. Oracle 데이터베이스를 Amazon RDS for Oracle로 마이그레이션합니다. 다른 가용성 영역에 대기 데이터베이스를 만듭니다.
// # 134 (55:45)
한 회사가 자사 애플리케이션을 서버리스 솔루션으로 옮기고 싶어합니다. 서버리스 솔루션은 SL을 사용하여 기존 데이터와 새 데이터를 분석해야 합니다. 회사는 Amazon S3 버킷에 데이터를 저장합니다. 데이터는 암호화가 필요하고 다른 AWS 리전으로 복제해야 합니다.
어떤 솔루션이 가장 적은 운영 오버헤드로 이러한 요구 사항을 충족할까요?
- A. 새 S3 버킷을 만듭니다. 새 S3 버킷에 데이터를 로드합니다. S3 Cross-Region Replication(CRR)을 사용하여 암호화된 객체를 다른 지역의 S3 버킷에 복제합니다. AWS KMS 다중 지역 kays(SSE-KMS)로 서버 측 암호화를 사용합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
- B. 새 S3 버킷을 만듭니다. 새 S3 버킷에 데이터를 로드합니다. S3 Cross-Region Replication(CRR)을 사용하여 암호화된 객체를 다른 지역의 S3 버킷에 복제합니다. AWS KMS 다중 지역 키(SSE-KMS)로 서버 측 암호화를 사용합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다.
- C. 기존 S3 버킷에 데이터를 로드합니다. S3 Cross-Region Replication(CRR)을 사용하여 암호화된 객체를 다른 지역의 S3 버킷에 복제합니다. Amazon S3 관리 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
- D. 기존 S3 버킷에 데이터를 로드합니다. S3 Cross-Region Replication(CRR)을 사용하여 암호화된 객체를 다른 지역의 S3 버킷에 복제합니다. Amazon S3 관리 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다.
// # 135
회사가 AWS에서 워크로드를 실행합니다. 회사는 외부 공급자의 서비스에 연결해야 합니다. 서비스는 공급자의 VPC에서 호스팅됩니다. 회사의 보안 팀에 따르면 연결은 비공개여야 하며 대상 서비스로 제한되어야 합니다. 연결은 회사의 VPC에서만 시작해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
- A. 회사의 VPC와 공급자의 VPC 사이에 VPC 피어링 연결을 만듭니다. 대상 서비스에 연결하기 위해 경로 테이블을 업데이트합니다.
- B. 공급자에게 VPC에 가상 사설 게이트웨이를 만들도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에 연결합니다.
- C. 회사 VP의 공용 서브넷에 NAT 게이트웨이를 만들고 경로 테이블을 업데이트하여 대상 서비스에 연결합니다.
- D. 공급자에게 대상 서비스에 대한 VPC 엔드포인트를 생성하도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에 연결합니다.
// # 136
한 회사가 온프레미스 PostgreSQL 데이터베이스를 Amazon Aurora PostgreSQL로 마이그레이션하고 있습니다. 온프레미스 데이터베이스는 마이그레이션하는 동안 온라인 상태를 유지하고 액세스 가능해야 합니다. Aurora 데이터베이스는 온프레미스 데이터베이스와 동기화 상태를 유지해야 합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 작업 조합을 취해야 합니까? (두 가지를 선택하세요.)
- A. 지속적인 복제 작업을 생성합니다.
- B. 온프레미스 데이터베이스의 데이터베이스 백업을 만듭니다.
- C. AWS Database Migration Service(AWS DMS) 복제 서버를 생성합니다.
- D. AWS Schema Conversion Tool(AWS SCT)을 사용하여 데이터베이스 스키마를 변환합니다.
- E. 데이터베이스 동기화를 모니터링하기 위해 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 만듭니다.
// # 137
한 회사에서는 AWS Organizations를 사용하여 각 사업부에 대한 전담 AWS 계정을 만들어 요청에 따라 각 사업부의 계정을 독립적으로 관리합니다. 루트 이메일 수신자는 한 계정의 루트 사용자 이메일 주소로 전송된 알림을 놓쳤습니다. 이 회사는 모든 향후 알림이 누락되지 않도록 하려고 합니다. 향후 알림은 계정 관리자로 제한해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
- A. AWS 계정 루트 사용자 이메일 주소로 전송된 알림 이메일 메시지를 조직의 모든 사용자에게 전달하도록 회사의 이메일 서버를 구성합니다.
- B. 모든 AWS 계정 루트 사용자 이메일 주소를 알림에 응답할 수 있는 몇몇 관리자에게 전달되는 배포 목록으로 구성합니다. AWS Organizations 콘솔이나 프로그래밍 방식으로 AWS 계정 대체 연락처를 구성합니다.
- C. 모든 AWS 계정 루트 사용자 이메일 메시지를 알림을 모니터링하고 해당 알림을 적절한 그룹에 전달하는 책임을 맡은 한 명의 관리자에게 보내도록 구성합니다.
- D. 모든 기존 AWS 계정과 새로 생성된 모든 계정이 동일한 루트 사용자 이메일 주소를 사용하도록 구성합니다. AWS Organizations 콘솔이나 프로그래밍 방식으로 AWS 계정 대체 연락처를 구성합니다.
// # 138
한 회사가 AWS에서 전자상거래 애플리케이션을 실행합니다. 모든 새로운 주문은 단일 가용 영역의 Amazon EC2 인스턴스에서 실행되는 RabbitMQ 대기열에 메시지로 게시됩니다. 이러한 메시지는 별도의 EC2 인스턴스에서 실행되는 다른 애플리케이션에서 처리됩니다. 이 애플리케이션은 다른 EC2 인스턴스의 PostgreSQL 데이터베이스에 세부 정보를 저장합니다. 모든 EC2 인스턴스는 동일한 가용 영역에 있습니다.
이 회사는 최소한의 운영 오버헤드로 가장 높은 가용성을 제공하기 위해 아키텍처를 재설계해야 합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
- A. Amazon MQ에서 RabbitMQ 인스턴스의 중복 쌍(활성/대기)으로 큐를 마이그레이션합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 다중 AZ 자동 확장 그룹을 만듭니다. PostgreSQL 데이터베이스를 호스팅하는 EC2 인스턴스에 대한 또 다른 다중 AZ 자동 확장 그룹을 만듭니다.
- B. Amazon MQ에서 RabbitMQ 인스턴스의 중복 쌍(활성/대기)으로 큐를 마이그레이션합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 다중 AZ 자동 확장 그룹을 만듭니다. Amazon RDS for PostgreSQL의 다중 AZ 배포에서 실행되도록 데이터베이스를 마이그레이션합니다.
- C. RabbitMQ 대기열을 호스팅하는 EC2 인스턴스에 대한 Multi-AZ 자동 확장 그룹을 만듭니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 또 다른 Multi-AZ 자동 확장 그룹을 만듭니다. Amazon RDS for PostgreSQL의 Multi-AZ 배포에서 실행되도록 데이터베이스를 마이그레이션합니다.
- D. RabbitMQ 대기열을 호스팅하는 EC2 인스턴스에 대한 다중 AZ 자동 확장 그룹을 만듭니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 또 다른 다중 AZ 자동 확장 그룹을 만듭니다. PostgreSQL 데이터베이스를 호스팅하는 EC2 인스턴스에 대한 세 번째 다중 AZ 자동 확장 그룹을 만듭니다.
// # 139
보고 팀은 매일 Amazon S3 버킷에서 파일을 수신합니다. 보고 팀은 매일 이 초기 S3 버킷에서 파일을 수동으로 검토하고 동시에 분석 S3 버킷으로 복사하여 Amazon QuickSight에서 사용합니다. 다른 팀에서 더 큰 크기의 파일을 초기 S3 버킷으로 보내기 시작했습니다.
보고 팀은 파일이 초기 S3 버킷에 들어가면 자동으로 분석 S3 버킷으로 파일을 이동하려고 합니다. 보고 팀은 또한 AWS Lambda 함수를 사용하여 복사된 데이터에서 패턴 매칭 코드를 실행하려고 합니다. 또한 보고 팀은 데이터 파일을 Amazon SageMaker Pipelines의 파이프라인으로 보내려고 합니다.
솔루션 아키텍트는 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
- A. Lambda 함수를 만들어 파일을 분석 S3 버킷에 복사합니다. 분석 S3 버킷에 대한 S3 이벤트 알림을 만듭니다. Lambda 및 SageMaker 파이프라인을 이벤트 알림의 대상으로 구성합니다. s3:ObjectCreated:Put을 이벤트 유형으로 구성합니다.
- B. Lambda 함수를 만들어 파일을 분석 S3 버킷에 복사합니다. 분석 S3 버킷을 구성하여 Amazon EventBridge(Amazon CloudWatch Events)에 이벤트 알림을 보냅니다. EventBridge(CloudWatch Events)에서 ObjectCreated 규칙을 구성합니다. Lambda 및 SageMaker 파이프라인을 규칙의 대상으로 구성합니다.
- C. S3 버킷 간에 S3 복제를 구성합니다. 분석 S3 버킷에 대한 S3 이벤트 알림을 만듭니다. Lambda 및 SageMaker 파이프라인을 이벤트 알림의 대상으로 구성합니다. s3:ObjectCreated:Put을 이벤트 유형으로 구성합니다.
- D. S3 버킷 간에 S3 복제를 구성합니다. 분석 S3 버킷을 구성하여 Amazon EventBridge(Amazon CloudWatch Events)에 이벤트 알림을 보냅니다. EventBridge(CloudWatch Events)에서 ObjectCreated 규칙을 구성합니다. Lambda 및 SageMaker 파이프라인을 규칙의 대상으로 구성합니다.
// # 140
솔루션 아키텍트는 회사가 AWS에서 애플리케이션을 실행하는 데 드는 비용을 최적화하도록 도와야 합니다. 이 애플리케이션은 아키텍처 내에서 컴퓨팅을 위해 Amazon EC2 인스턴스, AWS Fargate, AWS Lambda를 사용합니다.
EC2 인스턴스는 애플리케이션의 데이터 수집 계층을 실행합니다. EC2 사용은 산발적이고 예측할 수 없습니다. EC2 인스턴스에서 실행되는 워크로드는 언제든지 중단될 수 있습니다. 애플리케이션 프런트 엔드는 Fargate에서 실행되고 Lambda는 API 계층을 제공합니다. 프런트 엔드 사용률과 API 계층 사용률은 내년 내내 예측 가능합니다.
이 애플리케이션을 호스팅하는 데 가장 비용 효율적인 솔루션을 제공하는 구매 옵션의 조합은 무엇입니까? (두 가지를 선택하십시오.)
- A. 데이터 수집 계층에 Spot Instances 사용
- B. 데이터 수집 계층에 온디맨드 인스턴스 사용
- C. 프런트엔드 및 API 계층에 대한 1년 컴퓨팅 절감 플랜을 구매하세요.
- D. 데이터 수집 계층에 대해 1년 선불 예약 인스턴스를 구매합니다.
- E. 프런트엔드 및 API 계층에 대한 1년 EC2 인스턴스 절감 플랜을 구매하세요.
'AWS Certification > AWS Certified Solutions Architect - Asso' 카테고리의 다른 글
Question # 121 ~ # 130 (1) | 2024.11.21 |
---|---|
Question # 111 ~ # 120 (2) | 2024.11.20 |
Question # 101 ~ # 110 (5) | 2024.11.19 |
Question # 91 ~ # 100 (2) | 2024.11.18 |
Question # 81 ~ # 90 (1) | 2024.11.16 |