일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- 개발바닥
- 프로토콜
- 데이터 송수신
- 10866
- AWS CLF
- 인프콘
- 파이썬
- 남궁성
- modifiers
- aws 자격증
- 파이썬 1712
- 다형성
- 네트워크
- 계층화
- l3 스위치
- 유선LAN
- java
- 자바의 정석
- 물리구성도
- 인터페이스
- network
- 백준 1712
- 역캡슐화
- 백준 2775
- 1764
- 테슬라폰
- TCP/IP
- 자바
- 논리구성도
- 상속
- Today
- Total
병훈's Blog
모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 가능한 한 빨리 집계하려고 합니다. 본문
A company collects data for temperature, *humidity, and *atmospheric pressure in cities across multiple *continents. The *average volume of data that the company collects *from each site daily is 500 GB. Each site has a *high-speed Internet connection.
The company wants to *aggregate the data from all these global sites *as quickly as possible in a single Amazon S3 bucket. The solution must *minimize operational complexity.
Which solution *meets these requirements?
- A. *Turn on S3 Transfer Acceleration on the *destination S3 bucket. Use multipart uploads to *directly upload site data to the destination S3 bucket.
- B. Upload the data from each site to an S3 bucket in the *closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket. Then remove the data from the origin S3 bucket.
- C. Schedule AWS Snowball Edge Storage *Optimized device jobs daily to *transfer data from each site to the closest Region. Use S3 Cross-Region Replication to copy objects to the destination S3 bucket.
- D. Upload the data from each site to an Amazon EC2 instance in the closest Region. Store the data in an Amazon Elastic Block Store (Amazon EBS) volume. *At regular intervals, take an EBS snapshot and copy it *to the Region that contains the destination S3 bucket. *Restore the EBS volume in that Region.
* humidity : 습도
* atmospheric pressure : 대기중의 압력 = 기압
* continents : 대륙
* average volume : 평균 용량
* from each site : 각각의 사이트에서
* high-speed Internet connection : 초고속 인터넷 연결
* aggregate : 집계하다
* as quickly as possible : 가능한 아주 빨리
* minimize operational complexity : 운영 복잡성 최소화
* meets these requirements : 이 요구사항을 충족하는
* Turn on : 켜다
* destination : 대상, 목적, 용도
* directly upload : 직접 업로드
* closest : 가장 가까운
* Optimized : 최대한 활용, 최적화
* transfer : 전송하다
* At regular intervals : 일정한 간격으로
* to the Region : region 에 ~
* Restore : 복원하다
한 회사가 여러 대륙에 걸쳐 있는 도시의 온도, 습도 및 기압에 대한 데이터를 수집합니다. 각 사이트에서 매일 수집하는 데이터의 평균 용량은 500GB입니다. 각 사이트는 초고속 인터넷 연결이 되어 있습니다.
이 회사는 이 모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 최대한 빨리 집계하기를 원합니다. 이 솔루션은 운영 복잡성을 최소화해야 합니다.
다음 중 이러한 요구사항을 충족하는 솔루션은 무엇입니까?
A. 대상 S3 버킷에서 S3 Transfer Acceleration을 켜십시오. 멀티파트 업로드를 사용하여 대상 S3 버킷에 사이트 데이터를 직접 업로드합니다.
B. 각 사이트의 데이터를 가장 가까운 Region에 있는 S3 버킷에 업로드하고 S3 Cross-Region Replication을 사용하여 개체를 대상 S3 버킷에 복사한 다음 오리진 S3 버킷에서 데이터를 제거합니다.
C. AWS Snowball Edge Storage Optimized 장치 작업 스케줄을 매일 지정하여 각 사이트에서 가장 가까운 Region으로 데이터를 전송합니다. S3 Cross-Region Replication을 사용하여 개체를 대상 S3 버킷에 복사합니다.
D. 각 사이트의 데이터를 가장 가까운 Region에 있는 Amazon EC2 인스턴스에 업로드하고 Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 일정한 간격으로 EBS 스냅샷을 만들어 대상 S3 버킷이 포함된 Region에 복사하고 해당 Region에서 EBS 볼륨을 복원합니다.
정답 A: S3 Transfer Acceleration 이유: - 장거리 전송을 위한 객체와 이상적으로 작동합니다(Edge Location 사용) - S3와의 콘텐츠 전송 속도를 50-500%까지 높일 수 있습니다. - 사용 사례: 모바일 및 웹 애플리케이션 업로드 및 다운로드, 분산된 사무실 전송, S3와의 데이터 교환 신뢰할 수 있는 파트너. 일반적으로 회사 간에 대규모 데이터 세트를 공유하기 위해 고객은 가속화된 업로드를 통해 S3 버킷에 대한 특별 액세스를 설정하여 데이터 교환 및 혁신 속도를 높일 수 있습니다.
Amazon S3 Transfer Acceleration은 클라이언트와 S3 버킷 간의 장거리 파일 전송을 파일을 빠르고 쉽고 안전하게 전송할 수 있는 버킷 수준 기능입니다. Transfer Acceleration은 전 세계에서 S3 버킷으로 전송 속도를 최적화하도록 설계되었습니다. Transfer Acceleration은 Amazon CloudFront에서 전 세계에 분산된 엣지 로케이션을 활용합니다. 엣지 로케이션에 도착한 데이터는 최적화된 네트워크 경로를 통해 Amazon S3로 라우팅됩니다.
Transfer Acceleration을 사용하면 추가 데이터 전송 요금이 적용될 수 있습니다.
B - 재해 복구 정보
C - 로컬 환경과 AWS 클라우드 간의 데이터 전송 정보
D - 재해 복구 정보
https://docs.aws.amazon.com/ko_kr/AmazonS3/latest/userguide/transfer-acceleration.html
'Computer > AWS' 카테고리의 다른 글
회사에는 자사 독점 애플리케이션의 로그 파일을 분석할 수 있는 기능이 필요합니다. (0) | 2023.10.26 |
---|