// # 31
AWS에서 웹 애플리케이션을 호스팅하는 회사는 모든 Amazon EC2 인스턴스, Amazon RDS DB 인스턴스 및 Amazon Redshift 클러스터가 태그로 구성되었는지 확인하고자 합니다. 이 회사는 이 검사를 구성하고 운영하는 데 드는 노력을 최소화하고자 합니다.
솔루션 아키텍트는 이를 달성하기 위해 무엇을 해야 할까요?
- A. AWS Config 규칙을 사용하여 적절하게 태그가 지정되지 않은 리소스를 정의하고 감지합니다.
- B. Cost Explorer를 사용하여 적절하게 태그가 지정되지 않은 리소스를 표시합니다. 해당 리소스에 수동으로 태그를 지정합니다.
- C. 모든 리소스의 적절한 태그 할당을 확인하기 위한 API 호출을 작성합니다. EC2 인스턴스에서 주기적으로 코드를 실행합니다.
- D. 모든 리소스의 적절한 태그 할당을 확인하기 위한 API 호출을 작성합니다. Amazon CloudWatch를 통해 AWS Lambda 함수를 예약하여 주기적으로 코드를 실행합니다.
// # 32
개발팀은 다른 팀에서 액세스할 웹사이트를 호스팅해야 합니다. 웹사이트 콘텐츠는 HTML, CSS, 클라이언트 측 JavaScript 및 이미지로 구성됩니다.
웹사이트를 호스팅하는 데 가장 비용 효율적인 방법은 무엇입니까?
- A. 웹사이트를 컨테이너화하여 AWS Fargate에 호스팅합니다.
- B. Amazon S3 버킷을 생성하고 거기에 웹사이트를 호스팅합니다.
- C. Amazon EC2 인스턴스에 웹 서버를 배포하여 웹사이트를 호스팅합니다.
- D. Express.js 프레임워크를 사용하는 AWS Lambda 대상으로 애플리케이션 로드 밸런서를 구성합니다.
// # 33
한 회사가 AWS에서 온라인 마켓플레이스 웹 애플리케이션을 실행합니다. 이 애플리케이션은 최대 시간대에 수십만 명의 사용자에게 서비스를 제공합니다. 이 회사는 수백만 건의 재무 거래에 대한 세부 정보를 여러 다른 내부 애플리케이션과 공유하기 위한 확장 가능하고 거의 실시간에 가까운 솔루션이 필요합니다. 또한 트랜잭션은 저지연 검색을 위해 문서 데이터베이스에 저장되기 전에 민감한 데이터를 제거하기 위해 처리되어야 합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?
- A. 거래 데이터를 Amazon DynamoDB에 저장합니다. DynamoDB에 규칙을 설정하여 쓰기 시 모든 거래에서 민감한 데이터를 제거합니다. DynamoDB Streams를 사용하여 거래 데이터를 다른 애플리케이션과 공유합니다.
- B. 거래 데이터를 Amazon Kinesis Data Firehose로 스트리밍하여 Amazon DynamoDB 및 Amazon S3에 데이터를 저장합니다. Kinesis Data Firehose와 AWS Lambda 통합을 사용하여 민감한 데이터를 제거합니다. 다른 애플리케이션은 Amazon S3에 저장된 데이터를 사용할 수 있습니다.
- C. 거래 데이터를 Amazon Kinesis Data Streams로 스트리밍합니다. AWS Lambda 통합을 사용하여 모든 거래에서 민감한 데이터를 제거한 다음 거래 데이터를 Amazon DynamoDB에 저장합니다. 다른 애플리케이션은 Kinesis 데이터 스트림에서 거래 데이터를 사용할 수 있습니다.
- D. 일괄 처리된 거래 데이터를 Amazon S3에 파일로 저장합니다. AWS Lambda를 사용하여 모든 파일을 처리하고 민감한 데이터를 제거한 후 Amazon S3에 있는 파일을 업데이트합니다. 그런 다음 Lambda 함수는 데이터를 Amazon DynamoDB에 저장합니다. 다른 애플리케이션은 Amazon S3에 저장된 거래 파일을 사용할 수 있습니다.
Kinesis Data Streams : 데이터 스트리밍과 처리에 최적화, AWS Lambda와 통합하여 민감한 데이터를 제거하는 처리 수행
// # 34
한 회사가 AWS에서 다중 계층 애플리케이션을 호스팅합니다. 규정 준수, 거버넌스, 감사 및 보안을 위해 회사는 AWS 리소스에서 구성 변경 사항을 추적하고 이러한 리소스에 대한 API 호출 내역을 기록해야 합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
- A. AWS CloudTrail을 사용하여 구성 변경 사항을 추적하고 AWS Config를 사용하여 API 호출을 기록합니다.
- B. AWS Config를 사용하여 구성 변경 사항을 추적하고 AWS CloudTrail을 사용하여 API 호출을 기록합니다.
- C. AWS Config를 사용하여 구성 변경 사항을 추적하고 Amazon CloudWatch를 사용하여 API 호출을 기록합니다.
- D. AWS CloudTrail을 사용하여 구성 변경 사항을 추적하고 Amazon CloudWatch를 사용하여 API 호출을 기록합니다.
// # 35
한 회사가 AWS 클라우드에서 퍼블릭 웹 애플리케이션을 출시할 준비를 하고 있습니다. 아키텍처는 Elastic Load Balancer(ELB) 뒤의 VPC 내에 있는 Amazon EC2 인스턴스로 구성되어 있습니다. DNS에는 타사 서비스가 사용됩니다. 회사의 솔루션 아키텍트는 대규모 DDoS 공격을 탐지하고 방어하는 솔루션을 추천해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. 계정에서 Amazon GuardDuty를 활성화합니다.
- B. EC2 인스턴스에서 Amazon Inspector를 활성화합니다.
- C. AWS Shield를 활성화하고 Amazon Route 53을 할당합니다.
- D. AWS Shield Advanced를 활성화하고 ELB를 할당합니다.
AWS Shield Advanced : 자동으로 공격을 탐지하고 완화하는 기능 제공, ElB와 함께 사용시에는 웹 애플리케이션을 직접 보호하면서 공격을 효과적으로 차단할 수 있다
// # 36 (답 비율 54:45라 PASS)
한 회사가 AWS 클라우드에서 애플리케이션을 구축하고 있습니다. 이 애플리케이션은 두 AWS 리전의 Amazon S3 버킷에 데이터를 저장합니다. 이 회사는 AWS Key Management Service(AWS KMS) 고객 관리 키를 사용하여 S3 버킷에 저장된 모든 데이터를 암호화해야 합니다. 두 S3 버킷의 데이터는 동일한 KMS 키로 암호화 및 복호화해야 합니다. 데이터와 키는 두 리전 각각에 저장해야 합니다.
어떤 솔루션이 운영 오버헤드를 최소화하면서 이러한 요구 사항을 충족할까요?
- A. 각 리전에서 S3 버킷을 만듭니다. Amazon S3 관리 암호화 키(SSE-S3)를 사용하여 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간 복제를 구성합니다.
- B. 고객 관리형 다중 지역 KMS 키를 만듭니다. 각 지역에 S3 버킷을 만듭니다. S3 버킷 간 복제를 구성합니다. 클라이언트 측 암호화와 함께 KMS 키를 사용하도록 애플리케이션을 구성합니다.
- C. 각 리전에서 고객 관리 KMS 키와 S3 버킷을 만듭니다. Amazon S3 관리 암호화 키(SSE-S3)를 사용하여 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간 복제를 구성합니다.
- D. 각 리전에서 고객 관리 KMS 키와 S3 버킷을 만듭니다. AWS KMS 키(SSE-KMS)로 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간 복제를 구성합니다.
// # 37
한 회사가 최근 AWS 계정의 Amazon EC2 인스턴스에서 다양한 새로운 워크로드를 시작했습니다. 이 회사는 인스턴스에 원격으로 안전하게 액세스하고 관리하기 위한 전략을 수립해야 합니다. 이 회사는 기본 AWS 서비스와 함께 작동하고 AWS Well-Architected Framework를 따르는 반복 가능한 프로세스를 구현해야 합니다.
어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?
- A. EC2 직렬 콘솔을 사용하여 각 인스턴스의 터미널 인터페이스에 직접 액세스하여 관리합니다.
- B. 각 기존 인스턴스와 새 인스턴스에 적절한 IAM 역할을 연결합니다. AWS Systems Manager Session Manager를 사용하여 원격 SSH 세션을 설정합니다.
- C. 관리 SSH 키 쌍을 만듭니다. 각 EC2 인스턴스에 공개 키를 로드합니다. 각 인스턴스의 관리를 위한 터널을 제공하기 위해 퍼블릭 서브넷에 베스천 호스트를 배포합니다.
- D. AWS 사이트 간 VPN 연결을 설정합니다. 관리자에게 로컬 온프레미스 머신을 사용하여 VPN 터널을 통한 SSH 키를 사용하여 인스턴스에 직접 연결하도록 지시합니다.
AWS Systems Manager Session Manager : EC2에 인스턴스에 안전하게 원격을 액세스할 수 있는 기능 제공
// # 38
한 회사가 Amazon S3에 정적 웹사이트를 호스팅하고 있으며 DNS에 Amazon Route 53을 사용하고 있습니다. 이 웹사이트는 전 세계에서 수요가 증가하고 있습니다. 이 회사는 웹사이트에 액세스하는 사용자의 대기 시간을 줄여야 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?
- A. 웹사이트가 포함된 S3 버킷을 모든 AWS 리전에 복제합니다. Route 53 지리적 위치 라우팅 항목을 추가합니다.
- B. AWS Global Accelerator에서 가속기를 프로비저닝합니다. 제공된 IP 주소를 S3 버킷과 연결합니다. Route 53 항목을 편집하여 가속기의 IP 주소를 가리킵니다.
- C. S3 버킷 앞에 Amazon CloudFront 배포를 추가합니다. Route 53 항목을 편집하여 CloudFront 배포를 가리킵니다.
- D. 버킷에서 S3 Transfer Acceleration을 활성화합니다. Route 53 항목을 편집하여 새 엔드포인트를 가리킵니다.
Amazon CloudFront : 콘텐츠 전송 네트워크(CDN) 서비스로, 전 세계에 분산된 엣지 로케이션을 통해 사용자에게 콘텐츠를 빠르게 전송
// # 39
한 회사가 웹사이트에 검색 가능한 항목 저장소를 유지 관리합니다. 데이터는 1,000만 개 이상의 행이 포함된 Amazon RDS for MySQL 데이터베이스 테이블에 저장됩니다. 이 데이터베이스에는 2TB의 범용 SSD 스토리지가 있습니다. 이 회사의 웹사이트를 통해 매일 이 데이터에 대한 수백만 건의 업데이트가 이루어집니다.
이 회사는 일부 삽입 작업에 10초 이상 걸리는 것을 알아챘습니다. 이 회사는 데이터베이스 스토리지 성능이 문제라고 판단했습니다.
이 성능 문제를 해결하는 솔루션은 무엇입니까?
- A. 스토리지 유형을 Provisioned IOPS SSD로 변경합니다.
- B. DB 인스턴스를 메모리 최적화된 인스턴스 클래스로 변경합니다.
- C. DB 인스턴스를 버스트 가능 성능 인스턴스 클래스로 변경합니다.
- D. MySQL 기본 비동기 복제를 사용하여 다중 AZ RDS 읽기 복제본을 활성화합니다.
Provisioned IOPS SSD 스토리지 : 높은 성능을 요구하는 데이터베이스 워크로드에 최적화, 삽입 및 업데이트 작업의 지연 시간을 줄일 수 있다.
// # 40
한 회사에는 매일 1TB의 상태 알림을 생성하는 수천 개의 에지 디바이스가 있습니다. 각 알림의 크기는 약 2KB입니다. 솔루션 아키텍트는 향후 분석을 위해 알림을 수집하고 저장하는 솔루션을 구현해야 합니다.
회사는 고가용성 솔루션을 원합니다. 그러나 회사는 비용을 최소화해야 하며 추가 인프라를 관리하고 싶지 않습니다. 또한 회사는 14일 분의 데이터를 즉시 분석할 수 있도록 보관하고 14일 이상 된 모든 데이터를 보관하려고 합니다.
이러한 요구 사항을 충족하는 가장 운영 효율적인 솔루션은 무엇입니까?
- A. Amazon Kinesis Data Firehose 전송 스트림을 만들어 알림을 수집합니다. Kinesis Data Firehose 스트림을 구성하여 알림을 Amazon S3 버킷으로 전송합니다. S3 Lifecycle 구성을 설정하여 14일 후 Amazon S3 Glacier로 데이터를 전환합니다.
- B. 두 개의 가용성 영역에 걸쳐 Amazon EC2 인스턴스를 시작하고 이를 Elastic Load Balancer 뒤에 배치하여 알림을 수집합니다. EC2 인스턴스에서 Amazon S3 버킷에 알림을 저장하는 스크립트를 만듭니다. 14일 후 Amazon S3 Glacier로 데이터를 전환하도록 S3 Lifecycle 구성을 설정합니다.
- C. 알림을 수집하기 위한 Amazon Kinesis Data Firehose 전달 스트림을 만듭니다. 알림을 Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터로 전달하도록 Kinesis Data Firehose 스트림을 구성합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터를 설정하여 매일 수동 스냅샷을 찍고 14일이 지난 클러스터의 데이터를 삭제합니다.
- D. 알림을 수집하기 위한 Amazon Simple Queue Service(Amazon SQS) 표준 대기열을 만들고 메시지 보관 기간을 14일로 설정합니다. 소비자가 SQS 대기열을 폴링하고, 메시지의 나이를 확인하고, 필요에 따라 메시지 데이터를 분석하도록 구성합니다. 메시지가 14일 된 경우 소비자는 메시지를 Amazon S3 버킷에 복사하고 SQS 대기열에서 메시지를 삭제해야 합니다
Amazon Kinesis Data Firehose : 데이터를 실시간으로 수집하고 변환하여 Amazon S3와 같은 저장소로 저장할 수 있는 완전관리형 서비스
'AWS Certification > AWS Certified Solutions Architect - Asso' 카테고리의 다른 글
Question # 51 ~ # 60 (1) | 2024.11.13 |
---|---|
Question # 41 ~ # 50 (8) | 2024.11.12 |
Question # 21 ~ # 30 (1) | 2024.11.10 |
Question # 11 ~ # 20 (7) | 2024.11.09 |
Question # 1 ~ # 10 (3) | 2024.11.08 |