병훈's Blog

회사에는 자사 독점 애플리케이션의 로그 파일을 분석할 수 있는 기능이 필요합니다. 본문

Computer/AWS

회사에는 자사 독점 애플리케이션의 로그 파일을 분석할 수 있는 기능이 필요합니다.

thdqudgns 2023. 10. 26. 01:27

A company needs the ability *to analyze the log files of its *proprietary application. The logs are stored in JSON format in an Amazon S3 bucket. *Queries will be simple and will run *on-demand. A solutions architect needs to perform the *analysis with minimal changes to the *existing architecture.
What should the solutions architect do to meet these requirements with the *LEAST amount of operational overhead?

  • A. Use Amazon Redshift to load all the content into one place and run the SQL queries as needed.
  • B. Use Amazon CloudWatch Logs to store the logs. Run SQL queries as needed from the Amazon CloudWatch console.
  • C. Use Amazon Athena directly with Amazon S3 to run the queries as needed.
  • D. Use AWS Glue to *catalog the logs. Use a *transient Apache Spark *cluster on Amazon EMR to run the SQL queries *as needed.

*to analyze: 분석하다
*proprietary application: 독자적인 어플리케이션
*Queries: 질의
*on-demand: 주문형
*analysis: 분석 
*existing architecture: 존재하는 아키텍처
*LEAST amount of operational overhead: 운영 오버헤드 최소량
*transient: 일시적인
*as needed: 필요에 따라서


회사에는 자사 독점 애플리케이션의 로그 파일을 분석할 수 있는 기능이 필요합니다. 로그는 Amazon S3 버킷에 JSON 형식으로 저장됩니다. 쿼리는 간단하며 주문형으로 실행됩니다. 솔루션 설계자는 기존 아키텍처를 최소한으로 변경하면서 분석을 수행해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. Amazon Redshift를 사용하여 모든 콘텐츠를 한 곳에 로드하고 필요에 따라 SQL 쿼리를 실행하십시오.
  • B. Amazon CloudWatch Logs를 사용하여 로그를 저장합니다. Amazon CloudWatch 콘솔에서 필요에 따라 SQL 쿼리를 실행합니다.
  • C. Amazon S3와 함께 Amazon Athena를 직접 사용하여 필요에 따라 쿼리를 실행합니다.
  • D. AWS Glue를 사용하여 로그를 분류합니다. Amazon EMR에서 임시 Apache Spark 클러스터를 사용하여 필요에 따라 SQL 쿼리를 실행합니다.

https://docs.aws.amazon.com/athena/latest/ug/what-is.html

Amazon Athena는 Amazon Simple Storage Service(Amazon S3)에서 직접 데이터를 쉽게 분석할 수 있게 해주는 대화형 쿼리 서비스입니다. 표준 SQL을 사용합니다. AWS Management Console에서 몇 가지 작업을 수행하면 Amazon S3에 저장된 데이터를 Athena에 지정하고 표준 SQL을 사용하여 임시 쿼리를 실행하고 몇 초 안에 결과를 얻을 수 있습니다.

728x90
728x90