AWS Workshop
  • About
  • Immersion Day
    • 2025.06 - EKS
    • 2025.03 - Generative AI
    • 2025.02 - ECS
    • 2024.09 - EKS
    • 2024.07 - Security
    • 2024.05 - ECS
    • 2024.01 - Generative AI
    • 2023.10 - Security
    • 2023.08 - MSK
    • 2023.06 - DevOps
    • 2023.04 - AI/ML
    • 2023.02 - EKS
    • 2023.01 - General
    • 2022.12 - 광주소프트웨어마이스터고등학교
    • 2022.12 - Data Analytics
      • Getting started
        • Create a Kinesis Data Stream
      • Produce data to Kinesis Data Streams
        • Cofigure AWS Cloud 9 IDE
        • Using the Amazon SDK with Kinesis
          • Working with the SDK
        • Using the Kinesis Producer Library
          • A Simple Producer
          • Error Analysis and Resiliency
          • CloudWatch Metrics from the Kinesis Producer Library
      • Lambda with Kinesis Data Firehose
        • Overview
        • Create Glue Table
        • Create Kinesis Data Firehose Delivery Stream
        • Stream the data and validate output
      • Clean, Aggregate, and Enrich Events with Kinesis Data Analytics
        • Setup Kinesis Data Analytics Studio
        • Stream the data and validate output
    • 2022.11 - General
    • 2022.10 - EKS
    • 2022.09 - General
    • 2022.08 - 큐피스트
    • 2022.08 - Security
    • 2022.07 - General
    • 2022.06 - Serverless
    • 2022.05 - EKS
    • 2022.05 - 백패커
    • 2022.05 - General
    • 2022.04 - DevOps
    • 2022.04 - Data Analytics
      • Getting started
        • Create a Kinesis Data Stream
      • Produce data to Kinesis Data Streams
        • Cofigure AWS Cloud 9 IDE
        • Using the Amazon SDK with Kinesis
          • Working with the SDK
        • Using the Kinesis Producer Library
          • A Simple Producer
          • Error Analysis and Resiliency
          • CloudWatch Metrics from the Kinesis Producer Library
      • Lambda with Kinesis Data Firehose
        • Overview
        • Create Glue Table
        • Create Kinesis Data Firehose Delivery Stream
        • Stream the data and validate output
      • Clean, Aggregate, and Enrich Events with Kinesis Data Analytics
        • Setup Kinesis Data Analytics Studio
        • Stream the data and validate output
    • 2022.03 - General
    • 2022.02 - AI/ML
    • 2022.01 - General
    • 2021.12 - Container
    • 2021.11 - General
    • 2021.10 - General
  • Seminar
    • 2024.07 - 동국대 특강
    • 2024.06 - Generative AI
Powered by GitBook
On this page

Was this helpful?

  1. Immersion Day
  2. 2022.04 - Data Analytics
  3. Lambda with Kinesis Data Firehose

Create Kinesis Data Firehose Delivery Stream

PreviousCreate Glue TableNextStream the data and validate output

Last updated 3 years ago

Was this helpful?

이 섹션에서는 Kinesis Data Stream에서 뉴욕시 택시 운행 데이터를 불러오는데 사용할 새로운 Kinesis Data Firehose Delivery Stream을 생성합니다.

1. AWS 관리 콘솔에서 Amazon Kinesis 서비스로 이동합니다 .

2. Create delivery stream을 선택합니다.

3. Source에 Amazon Kinesis Data Stream을 선택합니다. Destination에 Amazon S3를 선택합니다.. Browse 버튼을 클릭하면 나오는 Kinesis Data Stream 목록에서 input-stream을 선택합니다.

4. Delivery Stream 이름에 nyc-taxi-trips 입력합니다. Data transformation를 Enabled로 선택하고 Browse를 클릭해서 NYCTaxiTrips-DataTransformation 람다 함수를 선택합니다. 해당 람다 함수는 수신한 데이터에 source 필드를 추가하고 해당 필드의 값을 NYCTAXI로 지정합니다.

5. Record format conversion을 Enabled로 선택하고 Output format을 Apache Parquet으로 선택합니다. AWS Glue region에 Asia Pacific (Seoul)을 선택하고 AWS Glue database에 kinesislab을 선택합니다. AWS Glue table는 이전 섹션에서 생성한 nyctaxitrips를 선택합니다.

6. S3 Bucket 오른쪽에 있는 Browse를 클릭해서 kinesis-bucket으로 시작하는 S3 버킷을 선택합니다.

S3 bucket prefix에 아래의 값을 복사하여 붙여 넣습니다.

nyctaxitrips/year=!{timestamp:YYYY}/month=!{timestamp:MM}/day=!{timestamp:dd}/hour=!{timestamp:HH}/

S3 bucket error output prefix에 아래의 같은 복사하여 붙여 넣습니다.

nyctaxitripserror/!{firehose:error-output-type}/year=!{timestamp:YYYY}/month=!{timestamp:MM}/day=!{timestamp:dd}/hour=!{timestamp:HH}/

7. Buffer interval을 60초 변경합니다.

8. Create delivery stream을 클릭합니다.