일반
Q: Amazon Rekognition이란 무엇인가요?
Amazon Rekognition은 애플리케이션에 강력한 시각 분석 기능을 쉽게 추가할 수 있게 해 주는 서비스입니다. Rekognition Image를 통해 수백만 개의 이미지를 검색, 확인 및 구성할 수 있는 강력한 애플리케이션을 쉽게 구축할 수 있습니다. Rekognition Video를 통해 저장된 동영상 또는 실시간 스트림 동영상에서 동작 기반 컨텍스트를 추출하고 이를 분석할 수 있습니다.
Rekognition Image는 객체, 장면, 활동, 랜드마크, 얼굴, 주요 색상 및 이미지 품질을 감지하는 이미지 인식 서비스입니다. 또한 Rekognition Image는 텍스트를 추출하고 유명인을 인식하며 이미지에서 부적절한 콘텐츠를 식별합니다. 또한 얼굴을 검색하고 비교할 수 있습니다.
Rekognition Video는 활동을 탐지하고, 프레임 내 사람의 움직임을 이해하고, Amazon S3에 저장된 동영상과 실시간 동영상 스트림에서 객체, 유명 인사 및 부적절한 콘텐츠를 인식하는 비디오 인식 서비스입니다. Rekognition Video는 사람의 얼굴이 제대로 보이지 않거나 아예 장면에 나타났다가 사라지는 경우에도 사람들을 탐지하고 비디오 전체에서 그 사람들을 추적합니다. 예를 들어 누군가가 택배를 집으로 배달할 때 실시간 알림을 보내는 애플리케이션에서 이 정보를 사용할 수 있습니다. 또한 Rekognition Video를 사용하면 객체, 활동, 장면, 랜드마크, 유명 인사 및 얼굴과 같은 메타데이터를 인덱싱하여 쉽게 동영상을 검색할 수 있습니다.
Q: 딥 러닝이란 무엇인가요?
딥 러닝은 기계 학습의 하위 분야이자 인공 지능(AI)의 중요한 분야에 속합니다. 딥 러닝은 다중 선형 및 비선형 변환으로 구성된 다중 처리 계층이 있는 딥 그래프를 사용하여 원시 데이터에서 높은 수준의 추상화를 추론하는 데 그 목적이 있습니다. 딥 러닝은 대체로 뇌의 정보 처리 및 의사 소통 모델을 기반으로 합니다. 딥 러닝은 사람이 만든 기능을 주석이 달린 매우 방대한 양의 데이터에서 얻은 기능으로 대체합니다. 학습은 효율적인 알고리즘을 사용해 수십만 개의 파라미터를 딥 그래프에서 반복적으로 추정하는 방식으로 진행됩니다.
컴퓨터 비전, 음성 인식, 자연 언어 처리 및 오디오 인식에 컨볼루션 딥 신경망(CNN) 및 반복적인 신경망 등 여러 가지 딥 러닝 아키텍처가 적용되어 다양한 작업에 대한 최신 결과를 얻을 수 있습니다.
Amazon Rekognition은 Amazon AI 서비스 제품군의 일부에 속합니다. Amazon AI 서비스는 딥 러닝을 사용해 이미지를 이해하고 텍스트를 실제 같은 음성으로 바꾸며 직관적인 대화형 텍스트 및 음성 인터페이스를 구축합니다.
Q: Amazon Rekognition을 사용하려면 딥 러닝 전문 지식이 필요한가요?
아닙니다. Amazon Rekognition을 사용하면 딥 러닝 파이프라인을 구축하고 유지 관리하거나 업그레이드할 필요가 없습니다.
객체 및 장면 감지, 얼굴 분석 및 얼굴 인식과 같은 복잡한 컴퓨터 비전 작업에서 정확한 결과를 얻으려면 딥 러닝 시스템을 올바르게 조정해야 하며 레이블이 지정된 방대한 양의 지상 실측 데이터를 교육해야 합니다. 데이터를 정확하게 소싱하고 정리하며 레이블을 지정하는 것은 시간과 비용이 많이 소요되는 작업에 속합니다. 또한 심층 신경망을 훈련시키는 것은 산술적으로 많은 비용이 들며, 그래픽 처리 장치(GPU)를 사용하여 제작된 사용자 지정 하드웨어가 종종 필요합니다.
Amazon Rekognition은 완전관리형 서비스로서 이미지 및 동영상 인식 작업을 위한 사전 교육을 받았기 때문에 딥 러닝 파이프라인을 만드는 데 시간과 리소스를 투입하지 않아도 됩니다. Amazon Rekognition은 최신 연구를 기반으로 하여 새로운 교육 데이터를 소싱함으로써 제반 모델의 정확성을 지속적으로 향상시킵니다. 이를 활용하면 가치가 높은 애플리케이션 설계 및 개발에 주력할 수 있습니다.
Q: Amazon Rekognition의 가장 일반적인 사용 사례는 무엇입니까?
Rekognition Image의 가장 일반적인 사용 사례는 다음과 같습니다.
- 검색 가능한 이미지 라이브러리
- 안면 기반 사용자 확인
- 감성 분석
- 안면 인식
- 이미지 조정
Rekognition Video의 가장 일반적인 사용 사례는 다음과 같습니다.
- 동영상 아카이브용 검색 인덱스
- 명시적이고 암시적인 콘텐츠에 대한 간편한 동영상 필터링
Q: Amazon Rekognition을 사용하려면 어떻게 시작해야 하나요?
Amazon Rekognition에 아직 가입하지 않은 경우 Amazon Rekognition 페이지에서 [Amazon Rekognition 사용해 보기] 버튼을 클릭하면 가입 절차를 완료할 수 있습니다. Amazon Web Services 계정이 있어야 합니다. 계정이 아직 없는 경우 가입 절차 중 계정을 만들라는 메시지가 표시됩니다. 가입이 완료되면 Amazon Rekognition Management Console을 사용하여 사용자 본인의 이미지 및 동영상으로 Amazon Rekognition을 체험해 보거나 혹은 Amazon Rekognition SDK를 다운로드하여 나만의 애플리케이션 만들기를 시작해 보세요. 자세한 내용은 단계별 시작 안내서를 참조하세요.
Q: Amazon Rekognition이 지원하는 이미지 및 동영상 형식으로는 무엇이 있나요?
Amazon Rekognition Image는 현재 JPEG 및 PNG 이미지 형식을 지원합니다. 이미지는 S3 객체 또는 바이트 배열로 제출할 수 있습니다. Amazon Rekognition Video 작업을 통해 Amazon S3 버킷에 저장된 동영상을 분석할 수 있습니다. 동영상은 H.264 코덱을 사용하여 인코딩해야 합니다. 지원되는 파일 형식은 MPEG-4 및 MOV입니다. 코덱은 빠른 전송을 위해 데이터를 압축하고, 수신된 데이터를 원래 형식으로 압축 해제하는 소프트웨어 또는 하드웨어입니다. H.264 코덱은 일반적으로 동영상 콘텐츠의 녹화, 압축 및 배포에 사용됩니다. 동영상 파일 형식에는 하나 이상의 코덱이 포함될 수 있습니다. Rekognition Video에서 MOV 또는 MPEG-4 형식 동영상 파일이 작동하지 않는 경우 동영상을 인코딩하는 데 사용된 코덱이 H.264인지 확인하십시오.
Q: Amazon Rekognition에서 사용할 수 있는 파일의 크기는 얼마나 되나요?
Amazon Rekognition Image는 S3 객체로 전달 시 최대 15MB, 이미지 바이트 배열로 제출 시 최대 5MB의 이미지 파일 크기를 지원합니다. Amazon Rekognition Video는 S3 파일로 전달될 때 최대 10GB의 파일과 최대 6시간 동영상을 지원합니다.
Q: 이미지 해상도는 Rekognition Image API 결과의 품질에 어떤 영향을 미치나요?
Amazon Rekognition은 광범위한 이미지 해상도에서 작동합니다. 최상의 결과를 얻으려면 VGA(640x480) 이상의 높은 해상도를 사용할 것을 권장합니다. Amazon Rekognition에서 가로 및 세로 화소가 최소 80픽셀인 이미지를 허용하더라도, 해상도 설정을 QVGA(320x240) 이하로 변경하면 얼굴, 객체 또는 부적절한 콘텐츠를 놓칠 가능성이 증가할 수 있습니다.
Q. Amazon Rekognition Image에서 탐지하고 분석할 수 있는 객체의 최소 크기는 얼마나 되나요?
경험으로 보아, 이미지에 있는 가장 작은 객체 또는 얼굴이 비교적 짧은 이미지 크기(단위: 픽셀)의 5% 이상에 해당되는지 확인하십시오. 예를 들면, 1600x900 해상도의 이미지로 작업할 경우 가장 작은 면 또는 객체는 가로 또는 세로 화소가 최소한 45픽셀이어야 합니다.
Q: 인적 검토를 거친 Amazon Rekognition 예측을 다운로드하려면 어떻게 해야 합니까?
Amazon Rekognition은 Amazon Augmented AI(Amazon A2I)와 직접 통합되어 Amazon Rekognition Image의 낮은 신뢰도의 예측을 인적 검토자에게 쉽게 라우팅할 수 있습니다. 콘텐츠 조정 또는 Amazon A2I 콘솔에 대해 Amazon Rekognition API를 사용하여 Amazon A2I가 검토자에게 예측을 라우팅할 조건을 지정할 수 있습니다. 이는 신뢰도 임계값 또는 랜덤 샘플링 비율에 따라 결정됩니다. 신뢰도 임계값을 지정하는 경우 Amazon A2I는 인적 검토 임계값보다 낮은 예측만 라우팅합니다. 언제든지 이러한 임계값을 조정하여 정확도와 비용 효율성 간의 올바른 균형을 맞출 수 있습니다. 또는 샘플링 비율을 지정하는 경우 Amazon A2I는 인적 검토를 위해 랜덤 예측 샘플을 라우팅합니다. 이를 통해 감사를 구현하여 예측의 정확도를 주기적으로 모니터링할 수 있습니다. Amazon A2I에서는 검토자가 검토 작업을 완료하는 데 필요한 모든 지침과 도구가 포함된 웹 인터페이스도 제공합니다. Amazon Rekognition으로 인적 검토 구현하는 방법에 대한 자세한 내용은 Amazon A2I 웹 페이지를 참조하십시오.
Q: 동영상 해상도가 Rekognition Video API 결과의 품질에 어떤 영향을 줍니까?
이 시스템은 32픽셀(가장 짧은 크기)보다 큰 얼굴을 인식하도록 교육되어 있으며, QVGA 해상도에서 더 작은 화면의 약 1/7, HD 1080p 해상도에서 1/30까지 다양하게 인식되는 얼굴의 최소 크기로 변환합니다. 예를 들어 VGA 해상도에서 사용자는 이보다 더 작은 화면의 1/10보다 작은 면에 대해 더 낮은 성능을 기대하게 됩니다.
Q: Rekognition Video API의 품질에 영향을 줄 수 있는 다른 요소는 무엇입니까?
동영상 해상도, 과도한 흐릿함, 빠르게 움직이는 사람, 조명 환경 외에도 자세가 API의 품질에 영향을 줄 수 있습니다.
Q: Rekognition Video API에 적합한 기본 사용자 동영상 콘텐츠는 무엇입니까?
이 API는 일반 색상 및 조명 환경에서 정면 시점으로 촬영한 소비자 및 전문가용 동영상에서 가장 잘 작동합니다. 이 API는 흑백, IR 또는 극단적인 조명 환경에 대해서는 테스트되지 않았습니다. 거짓 경보에 민감한 애플리케이션은 지정된 애플리케이션별 신뢰도 이하의 점수를 가진 출력을 폐기하는 것이 좋습니다.
Q: Amazon Rekognition은 어떤 AWS 리전에서 사용할 수 있나요?
Amazon Rekognition을 사용할 수 있는 전체 리전의 목록은 AWS 리전 표를 참조하십시오.
레이블 감지
Q: 레이블은 무엇인가요?
레이블은 내용에 따라 이미지에서 발견되는 객체, 장면 또는 개념을 가리킵니다. 예를 들면, 열대 지역 해변에 있는 사람들을 촬영한 사진에는 '사람', '물', '모래', '야자수' 및 '수영복'(객체), '해변'(장면), '야외'(개념) 등의 레이블이 포함될 수 있습니다.
Q: 신뢰도 점수란 무엇이며 어떻게 사용하나요?
신뢰도 점수는 주어진 예측이 정확할 확률을 나타내며 0~100의 범위 내에서 평가됩니다. 열대 지역 해변에 관한 상기의 예에서 객체 및 장면 감지 프로세스가 '물' 레이블에 대한 신뢰도 점수 99점과 '야자수' 레이블에 대한 신뢰도 점수 35점을 반환하면 해당 이미지는 물을 포함하지만 야자수는 없을 확률이 더 높습니다.
탐지 오류(오탐)에 매우 민감한 반응을 보이는 애플리케이션들은 특정 임계값보다 낮은 신뢰도 점수와 관련된 결과를 무시해야 합니다. 최적의 임계값은 애플리케이션에 따라 다릅니다. 대개의 경우 최소 신뢰도 값을 기본값보다 높게 설정하면 최상의 사용자 환경을 얻게 됩니다.
Q: 객체 및 장면 감지란 무엇인가요?
객체 및 장면 감지는 시각적 내용을 기반으로 레이블을 할당할 이미지나 동영상을 분석하는 프로세스를 말합니다. Amazon Rekognition Image는 DetectLabels API를 통해 이를 수행합니다. 이 API를 사용하면 수천 개의 객체, 장면 및 개념들을 자동으로 식별하고 각 레이블에 대한 신뢰도 점수를 반환할 수 있습니다. DetectLabels는 기본 신뢰도 임계값으로 50을 사용합니다. 객체 및 장면 검색은 사용자가 생성한 콘텐츠에 의존하는 소비자 및 라이프 스타일 애플리케이션과 타게팅 알고리즘을 개선하려는 광고 기술 업체를 포함해 대형 이미지 라이브러리를 검색 및 구성하려는 고객들에게 안성맞춤입니다.
Q: Amazon Rekognition이 객체 위치를 감지하고 경계 상자를 반환할 수 있나요?
예, Amazon Rekognition은 이미지와 동영상에서 ‘사람’, ‘자동차’, ‘총’ 또는 ‘개’와 같은 일반적이며 다양한 객체의 위치를 감지할 수 있습니다. 신뢰도 점수 뿐만 아니라 감지된 객체의 개별 인스턴스에 대한 경계 직사각형 좌표도 얻게 됩니다. 객체 경계 상자에 대한 API 응답 구조에 대해 자세히 알아보려면 설명서를 참조하십시오.
Q: Amazon Rekognition이 감지된 레이블 간의 관계에 대한 정보를 제공하나요?
예. Amazon Rekognition은 찾은 모든 레이블에 대해 상위 객체, 별칭 및 카테고리가 있는 경우 이를 반환합니다. 상위 객체는 계층적 순서로 '상위 객체' 필드에 반환됩니다. 첫 번째 상위 객체 레이블은 직계 상위 레이블이고 다음 레이블은 상위 객체의 상위 객체 레이블입니다. 예를 들어 '자동차'가 식별되면 Amazon Rekognition은 '차량'(상위 객체)과 '이동수단'(상위 객체의 상위 객체)이라는 두 개의 상위 레이블을 반환합니다. 별칭은 기본 레이블과 동일한 의미를 가진 레이블이며 '별칭' 필드에 반환됩니다. 예를 들어 '휴대폰'은 '이동 전화'의 별칭이므로 Amazon Rekognition은 '이동 전화' 레이블의 '별칭' 필드에 '휴대폰'을 반환합니다. 카테고리 그룹 레이블은 공통 주제를 기반으로 하며 '카테고리 필드에 반환됩니다. 예를 들어 '개'는 '동물 및 애완동물' 카테고리 아래의 레이블이므로 Amazon Rekognition은 '개' 레이블의 '카테고리' 필드에 '동물 및 애완동물'을 반환합니다. 지원되는 레이블 및 해당 분류의 전체 목록에 대한 자세한 내용은 Amazon Rekognition 레이블 감지 설명서를 참조하세요.
Q: Amazon Rekognition은 어떤 유형의 레이블을 지원하나요?
Rekognition은 다음을 포함하지만 이에 국한되지 않는 공통 범주에 속하는 수천 개의 레이블을 지원합니다.
- 사람과 이벤트: '웨딩', '신부', '아기', '생일 케이크', '기타리스트' 등
- 음식과 음료: '사과', '샌드위치', '포도주', '케이크', '피자' 등
- 자연과 야외: '해변', '산', '호수', '일몰', '무지개' 등
- 동물 및 애완 동물: '개', '고양이', '말', '호랑이', '거북' 등
- 가정과 정원: '침대', '테이블', '뒷마당', '샹들리에', '침실' 등
- 스포츠 및 레저: '골프', '농구', '하키', '테니스', '하이킹' 등
- 식물과 꽃: '장미', '튤립', '야자수', '숲', '대나무' 등
- 예술 및 엔터테인먼트: '조각', '회화', '기타', '발레', '모자이크' 등
- 교통 수단 및 차량: '비행기', '자동차', '자전거', '오토바이', '트럭' 등
- 전자 제품: '컴퓨터', '이동 전화', '비디오 카메라', 'TV', '헤드폰' 등
- 랜드마크: '브루클린 브리지', '콜로세움', '에펠탑', '마추픽추', '타지마할' 등
Q: 동영상 분석에서 객체 및 장면 감지는 어떻게 다른가요?
Rekognition Video는 자동차나 애완 동물 같은 수천 가지의 객체 또는 축하하거나 춤을 추는 것과 같은 활동을 자동으로 식별할 수 있게 해 주며 각 레이블의 타임스탬프와 신뢰도 점수를 제공합니다. 또한 "촛불을 불거나", "불을 끄는 것"과 같이 복잡한 활동을 정확하게 식별하기 위해 동영상의 동작 및 시간을 활용합니다.
Q: 필요한 레이블을 찾을 수 없습니다. 새 레이블을 어떻게 요청하나요?
'모든 레이블 검색(Search all labels)' 섹션의 입력 필드에 레이블 이름을 입력하고 요청된 레이블을 감지하도록 'Rekognition이 감지하도록 요청(Request Rekognition to detect)'을 클릭하여 Amazon Rekognition 콘솔을 통해 레이블 요청을 보내주십시오. Amazon Rekognition은 고객 피드백을 기반으로 레이블 카탈로그를 계속 확장합니다.
Q: 이미지 속성이란 무엇인가요?
이미지 속성은 주요 색상과 이미지 품질을 감지하는 Amazon Rekognition Image의 기능입니다. 이미지 속성 기능은 전체 이미지의 주요 색상, 이미지 전경 및 로컬라이징 된 경계 상자를 감지합니다. 이미지 속성은 또한 밝기, 선명도 및 대비 점수를 통해 이미지 품질을 측정합니다. 레이블 감지를 위한 GENERAL_LABEL 입력 파라미터를 사용하거나 사용하지 않고 IMAGE_PROPERTIES를 입력 파라미터로 사용하여 DetectLabels API를 통해 이미지 속성을 호출할 수 있습니다. 자세한 내용은 Amazon Rekognition 레이블 감지 설명서를 참조하세요.
Q: 주요 색상은 어떻게 결정되나요?
이미지 속성은 RGB, 16진수 코드, CSS 색상 및 단순화된 색상의 네 가지 형식으로 주요 색상을 반환합니다. Amazon Rekognition은 먼저 픽셀 백분율로 주요 색상을 식별한 다음 이러한 색상을 140 CSS 색상 팔레트, RGB, 16진수 코드 및 12개의 단순화된 색상(예: '녹색', '분홍색', '검은색', '빨간색', '노란색', '청록색', '갈색', '주황색', '흰색', '보라색', '파란색', '회색')에 매핑합니다. 기본적으로 이미지 속성은 고객이 반환할 색상 수를 지정하지 않는 한 10개의 주요 색상을 반환합니다. API가 반환할 수 있는 주요 색상의 최대 수는 12개 입니다.
Q: 밝기, 선명도 및 대비 점수를 어떻게 해석하나요?
이미지 속성은 각 밝기, 선명도 및 대비 점수에 대해 0에서 100 사이의 값을 제공합니다. 예를 들어 노출이 부족한 이미지는 낮은 밝기 점수를 반환하고 밝은 이미지는 높은 밝기 점수를 반환합니다.
Q: Amazon Rekognition에서 모델을 업데이트했는지 어떻게 확인할 수 있나요?
Amazon Rekognition은 모델이 업데이트되었는지 여부를 알려주는 LabelModelVersion 매개 변수를 반환합니다. 객체 및 장면 감지 모델은 고객 피드백을 바탕으로 자주 업데이트됩니다.
Amazon Rekognition Custom Labels 요금
Q: 얼굴 분석, 맞춤형 텍스트 탐지에 Custom Labels를 사용할 수 있습니까?
아니오. Custom Labels는 이미지에서 객체와 장면을 찾기 위한 것입니다. Custom Labels는 얼굴 분석, 맞춤형 텍스트 탐지용으로 설계된 것이 아닙니다. 이 작업은 다른 Rekognition API를 사용해야 합니다. 얼굴 분석, 텍스트 탐지에 대한 설명서를 참조하세요.
Q: 안전하지 않은 이미지 콘텐츠를 찾는 데 Custom Labels를 사용할 수 있습니까?
예. Custom Labels는 이미지에서 객체와 장면을 찾기 위한 것입니다. 사용 사례별 안전하지 않은 이미지 콘텐츠를 탐지하도록 훈련된 Custom Labels는 사용 사례와 관련된 안전하지 않은 이미지 콘텐츠를 탐지할 수 있습니다. 안전하지 않은 일반 이미지 콘텐츠를 탐지하려면 Moderation API 설명서를 참조하세요.
Q: 사용자 지정 모형을 학습하기 위해 몇 개의 이미지가 필요합니까?
사용자 지정 모델을 학습하는 데 필요한 이미지 수는 모델이 예측하기를 원하는 사용자 지정 레이블의 다양성과 학습 데이터의 품질에 따라 결정됩니다. 예를 들어, 이미지 위에 오버레이된 뚜렷한 로고는 1-2개의 학습 이미지로 감지할 수 있습니다. 반면에 감지해야 할 미묘한 로고에 다양한 변동(비율, 각도, 변형) 요인이 있는 경우 고품질의 주석과 함께 수만 개의 학습 예제가 순서대로 필요할 수 있습니다. 이미 많은 수의 레이블 지정된 이미지가 있다면 모델을 최대한 많은 이미지로 학습시킬 것을 권장합니다. 최대 학습 데이터 세트 크기 제한에 대한 설명서를 참조하십시오.
높은 정확도로 사용자 지정 모델을 학습하기 위해 수백 개의 이미지가 필요하지만 Custom Labels는 먼저 레이블당 수십 개의 이미지로 모델을 학습시키고 테스트 결과를 검토하여 잘못된 지점을 파악합니다. 따라서 새 학습 이미지를 추가하고 다시 학습시켜 모델을 반복적으로 개선합니다.
Q: 사용자 지정 모델을 프로비저닝하려면 몇 개의 추론 컴퓨팅 리소스가 필요합니까?
필요한 병렬 추론 컴퓨팅 리소스 수는 해당 시점에 처리해야 하는 이미지 수에 따라 결정됩니다. 단일 리소스의 처리량은 이미지 크기, 해당 이미지의 복잡성(표시되는 감지된 객체 수) 및 사용자 지정 모델의 복잡성을 포함한 요인에 따라 좌우됩니다. 사용자 지정 모델의 프로비저닝 빈도와 한 번에 처리해야 하는 이미지 수를 모니터링하는 것이 좋습니다. 이렇게 하면 사용자 지정 모델의 프로비저닝 일정을 매우 효과적으로 계획할 수 있습니다.
이미지를 정기적으로(예: 하루나 한 주에 한 번 또는 하루 중 예정된 시간에 실행) 처리하려면 예정된 시간에 사용자 지정 모델의 프로비저닝을 시작하고 모든 이미지를 처리한 후 프로비저닝을 중단할 수 있습니다. 프로비저닝을 중단하지 않으면 이미지가 처리되지 않더라도 요금이 부과됩니다.
Q: 학습이 실패했습니다. 요금이 부과될까요?
아니오. 훈련이 실패하면 컴퓨팅 리소스에 대해 요금이 부과되지 않습니다.
Content Moderation
Q: Content Moderation이란 무엇인가요?
Amazon Rekognition의 Content Moderation API는 딥 러닝을 사용하여 이미지 및 동영상에서 노골적이거나 선정적인 성인 콘텐츠, 폭력적인 콘텐츠, 무기, 시각적으로 충격적인 콘텐츠, 약물, 주류, 담배, 증오 기호, 도박 및 저속한 몸짓을 탐지합니다. 부적절하거나 공격적인 콘텐츠의 존재 여부에 따라 이미지 또는 동영상에 플래그를 적용하는 것 외에도 Amazon Rekognition은 계층 구조의 레이블 목록을 신뢰 점수와 함께 반환합니다. 이러한 레이블은 탐지된 콘텐츠 유형의 특정 하위 카테고리를 표시하므로, 개발자가 대량의 UGC(사용자 생성 콘텐츠)를 필터링하고 관리할 수 있는 좀 더 세분화된 제어 기능을 제공합니다. 이 API는 소셜 및 데이트 사이트, 사진 공유 플랫폼, 블로그 및 포럼, 어린이용 앱, 전자 상거래 사이트, 엔터테인먼트 및 온라인 광고 서비스와 같은 애플리케이션의 조정 워크플로에 사용할 수 있습니다.
Q: Amazon Rekognition으로 탐지할 수 있는 부적절하고 공격적이며 불쾌한 콘텐츠의 유형으로는 어떤 것들이 있나요?
Amazon Rekognition으로 탐지되는 콘텐츠 범주의 전체 목록은 여기에서 찾을 수 있습니다.
Amazon Rekognition은 계층 구조의 레이블과 탐지된 각 레이블에 대한 신뢰 점수를 반환합니다. 예를 들어 부적절한 이미지에 대해 Rekognition이 최상위 레이블로 신뢰 점수와 함께 "노골적인 나체"를 반환할 수 있습니다. 개발자는 이 메타데이터를 사용하여 콘텐츠에 개괄적인 수준의 플래그를 지정할 수 있습니다. 예를 들어 모든 유형의 노골적인 성인 콘텐츠에 플래그를 지정할 수 있습니다. 같은 응답에서 Rekognition은 자체 신뢰 점수와 함께 "남성 나체 그림"과 같은 추가적인 콘텐츠를 제공하여 2차 세부 단위 레이블을 반환할 수도 있습니다. 개발자는 이러한 정보를 통해 좀 더 복잡한 필터링 로직을 구축하여 다양한 지역 및 인구 통계를 지원할 수 있습니다.
Content Moderation API는 부적절하고 공격적인 콘텐츠를 완전히 필터링할 수 있다고 주장하지 않으며 이를 위한 전문 API도 아닙니다. 또한, 이 API는 이미지에 불법 콘텐츠(아동 포르노 등)나 비정상적인 성인 콘텐츠가 포함되었는지를 탐지하지 않습니다.
이미지에서 다른 유형의 부적절한 콘텐츠를 탐지해야 하는 경우, 본 섹션 뒷부분에 설명된 피드백 프로세스를 사용하여 문의해주십시오.
Q: 현재 사용하고 있는 모델 버전을 확인하려면 어떻게 해야 하나요?
Amazon Rekognition은 모델을 정기적으로 개선합니다. 모델 버전을 추적하기 위해 API 응답에서 'ModerationModelVersion' 필드를 사용할 수 있습니다.
Q: Amazon Rekognition이 이미지 또는 동영상 조정 사용 사례에 대해 정확성 목표를 충족하도록 하려면 어떻게 해야 하나요?
Amazon Rekognition의 Content Moderation 모델은 종합적으로 튜닝 및 테스트되었지만, 자체 데이터 세트에서 정확도를 측정하여 성능을 판단하는 것이 좋습니다.
API 요청에서 'MinConfidence' 파라미터를 사용하여 콘텐츠 탐지(회수)와 탐지 정확성(정밀도) 간 균형을 맞출 수 있습니다. 'MinConfidence' 값을 낮추면, 부적절한 콘텐츠 대부분을 탐지할 수 있지만 실제로 부적절한 것이 아닌 콘텐츠가 포함되었을 가능성이 높습니다. 'MinConfidence' 값을 올리면, 실제로 부적절한 콘텐츠만 탐지할 수 있지만 일부 부적절한 콘텐츠는 태깅되지 않을 수 있습니다.
Q: Rekognition의 Content Moderation API를 개선할 수 있도록 피드백을 제공하려면 어떻게 해야 하나요?
AWS 고객 지원 센터를 통해 요청을 보내주세요. Amazon Rekognition은 고객 피드백에 따라 부적절한 콘텐츠 탐지 유형을 계속해서 확장하고 있습니다. 불법 콘텐츠(아동 포르노 등)는 이 프로세스에서 수용하지 않습니다.
얼굴 분석
Q: 얼굴 분석이란 무엇인가요?
얼굴 분석은 어떤 이미지에 포함된 얼굴을 감지하고 이 이미지에서 관련 얼굴 속성들을 추출하는 프로세스입니다. Amazon Rekognition Image는 성별, 선글라스 착용 유무, 얼굴 표식점 등의 속성들과 함께 감지된 각 얼굴에 대한 경계 상자를 반환합니다. Rekognition Video는 타임스탬프가 있는 동영상에서 감지된 얼굴을 반환하고 각 감지된 얼굴에 대해 얼굴 표식점과 함께 위치와 경계 상자를 반환합니다.
Q: Amazon Rekognition에서 추출할 수 있는 얼굴 속성으로는 무엇이 있나요?
Amazon Rekognition은 각 속성에 대한 경계 상자 및 신뢰도 점수와 함께 감지된 각 얼굴에 대해 다음과 같은 얼굴 속성을 반환합니다.
- 성별
- 미소
- 감정
- 안경
- 선글라스
- 두 눈을 뜬 모습
- 입을 벌린 모습
- 콧수염
- 턱수염
- 포즈
- 화질
- 얼굴 표식
Q. 얼굴 포즈란 무엇인가요?
얼굴 포즈는 피치, 롤 및 요 축에서 감지된 얼굴의 회전을 나타냅니다. 이러한 파라미터들은 각각 -180도~+180도 범위 내에 있는 각도로 반환됩니다. 얼굴 포즈는 얼굴 경계 다각형의 방향(사각형 경계 상자와 반대 방향)을 찾고 변형을 측정하며 얼굴을 정확하게 추적하는 등 다양한 작업에 사용할 수 있습니다.
Q. 얼굴 화질이란 무엇인가요?
얼굴 화질은 두 가지 파라미터인 선명도 및 밝기를 사용하여 감지된 얼굴 이미지의 화질을 나타냅니다. 두 파라미터는 모두 0~1 사이의 값으로 반환됩니다. 이러한 파라미터에 하나의 임계값을 적용하면 조명이 충분하면서 선명한 얼굴을 필터링할 수 있습니다. 이는 얼굴 비교 및 얼굴 인식과 같은 고화질 얼굴 이미지의 이점을 활용하는 애플리케이션에 유용합니다.
Q: 얼굴 표식이란 무엇인가요?
얼굴 표식은 대체로 눈, 코, 입 등 주요 안면 구성 요소의 모서리, 끝 또는 중간 지점에 위치한 두드러진 일련의 특징을 가리킵니다. Amazon Rekognition DetectFaces API는 얼굴 자르기, 한 얼굴을 다른 얼굴로 변형, 사용자 지정 마스크를 오버레이하여 사용자 지정 필터를 만드는 등의 작업에 사용할 수 있는 일련의 얼굴 표식점을 반환합니다.
Q: 하나의 이미지에서 몇 개의 얼굴을 감지할 수 있나요?
Amazon Rekognition을 사용하면 하나의 이미지에서 최대 100명의 얼굴을 탐지할 수 있습니다.
Q: 동영상 분석에서 얼굴 분석은 어떻게 다릅니까?
Rekognition Video를 사용하면 동영상에서 얼굴을 찾고 얼굴이 웃고 있는지 눈을 뜨고 있는지 또는 감정이 표출되고 있는지 등 안면 속성을 분석할 수 있습니다. Rekognition Video는 타임스탬프를 통해 감지된 얼굴을 반환하며, 각 얼굴에 대해 왼쪽 눈, 오른쪽 눈, 코, 입의 왼쪽 끝 및 오른쪽 끝과 같은 표시점과 함께 위치와 경계 상자를 반환합니다. 이 위치 및 시간 정보는 시간 경과에 따른 사용자 감정을 쉽게 추적하고 자동 얼굴 프레임, 하이라이트 또는 자르기와 같은 추가 기능을 제공하는 데 사용될 수 있습니다. 동영상 분석에는 사용자 검색이 지원되지 않습니다.
Q: 동영상 해상도 외에 Rekognition Video API의 화질에 영향을 줄 수 있는 요소는 무엇입니까?
동영상 해상도 외에 검색할 얼굴 모음의 화질 및 대표 얼굴 요소가 큰 영향을 줍니다. 턱수염, 안경, 포즈(프로필 및 정면)와 같은 변수가 있는 사람마다 여러 얼굴 인스턴스를 사용하면 성능이 크게 향상됩니다. 일반적으로 매우 빠르게 움직이는 사람들로 인해 낮은 재현율을 경험할 수 있습니다. 또한 흐릿한 동영상으로 인해 낮은 화질을 경험할 수 있습니다.
얼굴 비교
Q: 얼굴 비교란 무엇인가요?
얼굴 비교는 한 얼굴을 하나 이상의 얼굴과 비교하여 유사성을 평가하는 프로세스입니다. Amazon Rekognition에서 CompareFaces API를 사용하면 두 이미지의 얼굴이 동일한 사람의 얼굴에 속할 확률을 측정할 수 있습니다. API는 원본 입력 이미지의 얼굴을 대상 입력 이미지에서 감지된 각 얼굴과 비교한 다음, 유사성 점수를 반환하여 개별적으로 비교합니다. 또한 감지된 각 얼굴에 대한 경계 상자 및 신뢰도 점수도 얻을 수 있습니다. 얼굴 비교를 사용하면 파일에 있는 사람들의 사진과 대조하여 한 사람의 신원을 거의 실시간으로 확인할 수 있습니다.
Q: 2가지 이상의 얼굴이 있는 원본 이미지를 사용해도 되나요?
예. 원본 이미지에 다수의 얼굴이 포함되어 있는 경우 CompareFaces는 그 중에서도 가장 큰 얼굴을 감지하여 이를 사용해 대상 이미지에서 감지된 각각의 얼굴과 비교합니다.
Q: 몇 개의 얼굴을 대조 비교할 수 있나요?
원본 이미지의 한 얼굴과 대상 이미지에서 감지된 최대 15개의 얼굴을 서로 비교할 수 있습니다.
얼굴 검색
Q: 얼굴 검색이란 무엇인가요?
얼굴 검색은 입력한 얼굴을 사용하여 저장된 얼굴 모음에서 비슷한 얼굴을 검색하는 프로세스입니다. 얼굴 검색을 사용하면 은행 결제용 멀티 팩터 인증, 직원용 자동 건물 출입 등과 같은 애플리케이션을 쉽게 구축할 수 있습니다.
Q: 얼굴 모음이란 무엇이며 어떻게 생성하나요?
얼굴 모음은 얼굴의 수학적 표현인 얼굴 벡터로 구성된 검색 가능한 인덱스입니다. 모음의 얼굴 이미지가 Rekognition에 저장되는 것은 아닙니다. CreateCollection API를 사용하여 지원되는 AWS 리전에서 모음을 손쉽게 생성하고 Amazon 리소스 이름(ARN)을 가져올 수 있습니다. 각 얼굴 모음에는 고유한 CollectionId가 연결됩니다.
Q: 검색을 위해 모음에 얼굴을 추가하려면 어떻게 해야 하나요?
기존의 얼굴 모음에 얼굴을 추가하려면 IndexFaces API를 사용합니다. 이 API는 이미지를 S3 객체 또는 이미지 바이트 배열의 형식으로 수락하며 감지된 얼굴의 벡터 표현을 해당 얼굴 모음에 추가합니다. 또한 IndexFaces는 추가된 각 얼굴 벡터에 대해 고유한 FaceId 및 얼굴 경계 상자를 반환합니다.
CreateUser API 및 AssociateFaces API를 사용하여 동일한 사람의 여러 얼굴 벡터를 집계한 후 사용자 벡터를 만들고 저장할 수 있습니다. 사용자 벡터는 조명, 선명도, 자세, 모양 차이 등의 정도가 다양한 여러 얼굴 벡터를 포함하기 때문에 단일 얼굴 벡터보다 더 강력하게 표현됩니다. 사용자 벡터를 사용하여 얼굴을 검색하면 단일 얼굴 벡터를 사용하여 얼굴을 검색할 때보다 정확도가 크게 개선될 수 있습니다. 사용자 벡터는 연결된 얼굴 벡터와 동일한 모음에 저장됩니다.
Q: 모음에서 얼굴을 삭제하려면 어떻게 해야 하나요?
기존의 얼굴 모음에서 얼굴을 삭제하려면 DeleteFaces API를 사용합니다. 이 API는 CollectionId를 사용하여 제공된 얼굴 모음에서 작동하며 FaceId 목록에 해당하는 항목들을 제거합니다. FaceID가 사용자 벡터에 연결되어 있는 경우 먼저 DisassociateFaces API 호출을 사용하여 사용자 벡터에서 FaceID를 제거해야 합니다. 또는 DeleteUser API를 사용하여 모음에서 사용자 벡터를 삭제할 수 있습니다.
얼굴 추가 및 삭제에 관한 자세한 내용은 모음 관리 예제를 참조하세요.
Q. 얼굴 모음 내의 사용자를 검색하려면 어떻게 해야 하나요?
사용자를 만들고 FaceID를 연결한 후 이미지를 사용하여 검색(SearchUsersByImage)하거나, UserId를 사용하여 검색(SearchUsers)하거나 FaceID를 사용하여 검색(SearchUsers)할 수 있습니다. 이들 API는 입력한 얼굴을 사용하여 그것과 일치하는 일련의 사용자를 반환하며, 이러한 얼굴은 유사성이 가장 높은 얼굴부터 유사성 점수 순으로 정렬됩니다. 자세한 내용은 사용자 검색 예제를 참조하세요.
Q. 얼굴 모음에서 얼굴을 검색하려면 어떻게 해야 하나요?
인덱스가 있는 얼굴 모음을 생성한 후, 이미지(SearchFaceByImage) 또는 FaceId(SearchFaces)를 사용하면 얼굴 모음 내에서 하나의 얼굴을 검색할 수 있습니다. 이들 API는 입력된 하나의 얼굴을 가져와 그것과 일치하는 일련의 얼굴들을 반환하며, 이러한 얼굴들은 가장 높은 유사성을 가진 얼굴부터 유사성 점수 순으로 정렬됩니다. 자세한 내용은 얼굴 검색 예제를 참조하세요.
Q: 동영상 분석에서 얼굴 검색은 어떻게 다른가요?
Rekognition Video를 사용하면 수천만 개의 얼굴을 가진 모음에 대해 실시간 얼굴 검색을 수행할 수 있습니다. 먼저 얼굴 모음, 즉 얼굴 모양의 벡터 표시를 저장하는 얼굴 모음을 생성합니다. 그런 다음 Rekognition은 비디오 전체에서 시각적으로 비슷한 얼굴을 얼굴 모음에서 검색합니다. Rekognition은 동영상의 각 얼굴에 대한 신뢰 점수를 반환하므로 애플리케이션에서 일치 확률이 높은 얼굴을 표시할 수 있습니다. 동영상 분석에는 사용자 검색이 지원되지 않습니다.
Q: 동영상 해상도 외에 Video API의 화질에 영향을 줄 수 있는 요소는 무엇입니까?
동영상 해상도 외에 검색할 얼굴 모음의 화질 및 대표 얼굴 요소가 큰 영향을 줍니다. 턱수염, 안경, 포즈(프로필 및 정면)와 같은 변수가 있는 사람마다 여러 얼굴 인스턴스를 사용하면 성능이 크게 향상됩니다. 일반적으로 매우 빠르게 움직이는 사람들로 인해 낮은 재현율을 경험할 수 있습니다. 또한 흐릿한 동영상으로 인해 낮은 화질을 경험할 수 있습니다.
유명 인사 인식
Q: 유명 인사 인식이란 무엇입니까?
Amazon Rekognition의 유명 인사 인식은 딥 러닝 기반의 사용이 간단한 API로서, 해당 분야에서 유명하고 주목할 만하거나 중요한 사람을 탐지 및 인식합니다. RecognizeCelebrities API는 큰 규모에서 작동하고 정치, 스포츠, 비즈니스, 엔터테인먼트 및 방송과 같은 여러 카테고리에 걸쳐 유명 인사를 인식하도록 개발되었습니다. 유명 인사 인식 기능은 특정 관심사에 따라 유명 인사에 대한 디지털 이미지 라이브러리를 인덱싱 및 검색해야 하는 고객에게 적합합니다.
Q: 유명 인사 인식 API로 누구를 식별할 수 있습니까?
Amazon Rekognition은 딥 러닝 모델이 인식하도록 훈련된 유명 인사만 식별할 수 있습니다. RecognizeCelebrities API가 모든 유명 인사를 인식하는 것은 아니며 그럴 수 있다고 주장하지도 않습니다. 이 기능은 고객의 요구 사항과 피드백을 기반으로 가능한 한 많은 유명 인사를 포함하도록 설계되었습니다. AWS에서는 새로운 이름을 계속 추가하고 있지만, 유명 인사 인식 기능이 다른 그룹이나 다른 고객이 중요하다고 생각하는 사람을 인식하지 못한다고 해서 여기에 해당 유명 인사의 사회적 지위에 대한 AWS의 의견이 반영된 것은 아닙니다. 유명 인사 인식 기능에서 식별하길 원하는 다른 유명 인사가 있다면 피드백을 제출해 주십시오.
Q: Amazon Rekognition API를 통해 식별된 유명 인사가 이 기능에서 자신을 제외해 달라고 요청할 수 있습니까?
예. 이 기능에서 제외되길 원하는 유명 인사가 있는 경우, AWS 고객 센터로 이메일을 보내주시면 제외 요청을 처리하겠습니다.
Q: 유명 인사에 대한 추가 정보를 제공할 때 사용할 수 있는 소스는 무엇입니까?
이 API에서는 API 응답의 일부로 유명 인사에 관한 추가 정보를 제공할 수 있도록 선택적 소스 목록을 지원합니다. AWS에서는 현재 IMDB URL을 제공합니다(사용할 수 있는 경우). 향후에 다른 소스를 추가할 수도 있습니다.
Q. 동영상 분석에서 유명 인사 인식은 어떻게 다릅니까?
Rekognition Video를 사용하면 잘 알려진 사람이 언제 어디서 비디오에 나타나는지 탐지하고 인식할 수 있습니다. 시간 코드 출력에는 유명 인사의 이름 및 고유 ID, 경계 상자 좌표, 신뢰도 점수 및 유명 인사와 관련된 콘텐츠를 가리키는 URL(예: 유명 인사의 IMDB 링크)이 포함됩니다. 유명 인사는 동영상에서 얼굴이 제대로 나타나지는 경우에도 감지됩니다. 이 기능을 사용하면 특정 마케팅 및 미디어 요구와 관련된 사용 사례에 대해 디지털 동영상 라이브러리를 인덱싱하고 검색할 수 있습니다.
Q: 동영상 해상도 외에 Rekognition Video API의 화질에 영향을 줄 수 있는 요소는 무엇입니까?
매우 빠르게 움직이는 유명 인사의 모습과 흐릿한 동영상이 Rekognition Video API의 화질에 영향을 미칠 수 있습니다. 또한, 남자 배우/여자 배우에게 공통적으로 짙은 화장 및 변장도 화질에 영향을 줄 수 있습니다.
텍스트 탐지
Q: 텍스트 탐지란 무엇입니까?
텍스트 탐지는 이미지나 동영상에 있는 텍스트(거리명, 자막, 제품명, 오버레이 그래픽, 비디오 자막, 차량 번호판 등)를 탐지 및 인식할 수 있는 Amazon Rekognition의 기능입니다. 텍스트 탐지 기능은 문서 이미지보다는 실제 이미지 및 동영상에서 작동하도록 구축되었습니다. Amazon Rekognition의 DetectText API가 이미지를 가져와서 신뢰 점수와 함께 텍스트 레이블과 탐지된 각 문자열에 대한 경계 상자를 반환합니다. 예를 들어 이미지 공유 및 소셜 미디어 애플리케이션의 경우, 같은 텍스트 레이블이 포함된 이미지 인덱스를 기준으로 시각적 검색을 지원할 수 있습니다. 보안 애플리케이션의 경우, 교통 카메라에서 촬영한 이미지의 차량 번호를 기준으로 차량을 식별할 수 있습니다. 마찬가지로 동영상의 경우, StartTextDetection 및 GetTextDetection API를 사용해 텍스트를 탐지하고 각 탐지의 신뢰 점수 및 타임스탬프를 가져올 수 있습니다. 미디어 및 엔터테인먼트 애플리케이션의 경우, 텍스트 메타데이터를 생성하여 뉴스, 스포츠 경기 점수, 광고, 자막 등 관련 콘텐츠에 대한 검색을 지원할 수 있습니다. 또한 탐지된 텍스트가 정책이나 규정을 위반하지 않았는지(예: 스팸으로 나타나는 이메일 주소 또는 전화 번호) 검토할 수 있습니다.
Q: Amazon Rekognition 텍스트 탐지 기능은 어떤 유형의 텍스트를 지원합니까?
텍스트 탐지 기능은 문서 이미지보다는 실제 이미지 및 동영상에서 작동하도록 구축되었습니다. 이 기능은 다양한 레이아웃, 글꼴 및 스타일에 포함된 그리고 배너와 포스터처럼 배경 객체에 여러 방향으로 겹쳐진 거의 모든 로마자와 숫자로 된 텍스트를 지원합니다. 텍스트 탐지 기능은 이미지나 동영상 프레임당 최대 50개의 문자 순서를 인식하고 이를 단어와 줄로 나열합니다. 텍스트 탐지 기능은 수평 축으로부터 최대 -90~+90도 범위의 텍스트 회전을 지원합니다.
Q: 텍스트 탐지 기능을 이미지 또는 동영상 프레임 내의 특정 영역으로 제한할 수 있습니까?
예. 텍스트 탐지 필터링 옵션을 사용하여 API 요청에서 최대 10개의 ROI(관심 영역)를 지정할 수 있습니다. Amazon Rekognition은 해당 영역 내에 있는 텍스트만 반환합니다.
Q: 단어 신뢰도 또는 경계 상자 크기를 기준으로 텍스트 탐지를 필터링할 수 있습니까?
예. API 요청에서 텍스트 탐지 필터링 옵션을 사용하여 최소 신뢰도 점수 또는 최소 경계 상자 크기에 대한 임계값을 지정할 수 있습니다.
Q: Rekognition의 텍스트 인식 기능을 개선할 수 있도록 피드백을 제공하려면 어떻게 해야 합니까?
AWS 고객 지원 센터를 통해 요청을 보내주십시오. Amazon Rekognition은 고객 피드백에 따라 텍스트 콘텐츠 인식 유형을 계속해서 확장하고 있습니다.
PPE 탐지
Q: Amazon Rekognition이 탐지할 수 있는 PPE(개인 보호 장비)는 무엇인가요?
Amazon Rekognition “DetectProtectiveEquipment”는 일반적인 종류의 얼굴 커버, 손 커버, 머리 커버를 탐지할 수 있습니다. 자세한 내용은 기능 설명서를 참조하십시오. 또한, Amazon Rekognition Custom Labels를 사용하여 잘 보이는 안전조끼, 안전 고글 및 해당 업종에 적합한 기타 PPE 등의 PPE를 탐지할 수 있습니다. Amazon Rekognition Custom Labels를 맞춤형 PPE 탐지에 사용할 수 있는 방법에 대한 자세한 내용은 이 github repo를 참조하십시오.
Q: Amazon Rekognition이 보호 장비 위치를 탐지하고 경계 상자를 반환할 수 있나요?
예, Amazon Rekognition “DetectProtectiveEquipment” API는 사람이 착용한 얼굴 커버, 손 커버, 머리 커버 같은 보호 장비의 위치를 영상으로 탐지할 수 있습니다. 신뢰도 점수뿐만 아니라 탐지된 보호 장비의 각 항목에 대한 경계 상자 직사각형 좌표도 얻게 됩니다. API 응답에 대한 자세한 내용은 설명서를 참조하십시오.
Q: 이 서비스는 마스크를 올바르게 착용했는지 여부를 탐지할 수 있습니까?
Amazon Rekognition “DetectProtectiveEquipment” API 출력은 보호 장비의 각 탐지된 항목에 대한 부울 값의 “CoversBodyPart” 값(true/false) 및 신뢰도 값을 제공합니다. 이러한 값은 보호 장비가 사람의 해당하는 신체 부위에 있는지 여부에 대한 정보를 제공합니다. 해당하는 신체 부위에 보호 장비가 있는지 여부에 대한 예측 정보는 영상에는 PPE가 있지만 실제로 사람에게 착용된 상태가 아닌 경우를 필터링하는 데 도움이 됩니다. 그러나 이는 해당인이 보호 장비로 적절하게 보호된 상태이거나 보호 장비 자체를 적절하게 착용하고 있는 상태라는 것을 나타내거나 의미하지는 않습니다.
Q: Amazon Rekognition PPE 탐지는 탐지된 사람들을 식별할 수 있습니까?
아니요, Amazon Rekognition PPE 탐지는 안면 인식 또는 안면 비교를 수행하지 않으며 탐지된 사람이 누군지 식별할 수 없습니다.
Q: API 한도 및 지연 시간에 대한 자세한 정보는 어디에서 찾을 수 있습니까?
API 한도 및 지연 시간에 대한 최신 세부 정보는 Amazon Rekognition PPE 탐지 설명서를 참조하십시오.
Q: 업무 공간 카메라의 영상을 Amazon Rekognition으로 보내려면 어떻게 해야 하나요?
여러 가지 옵션으로 업무 공간 카메라의 영상을 샘플링할 수 있습니다. 자세한 내용은 Amazon Rekognition PPE 탐지 블로그를 참조하십시오.
Q: PPE 탐지는 요금이 어떻게 책정되나요?
Amazon Rekognition PPE 탐지는 다른 Amazon Rekognition Image API와 마찬가지로 영상별로 요금이 책정됩니다. 자세한 내용은 Amazon Rekogntion 요금 페이지를 참조하시기 바랍니다.
Amazon Rekognition Streaming Video Events
Q: Amazon Rekognition Streaming Video Events란 무엇입니까?
Amazon Rekognition Streaming Video Events는 기계 학습을 사용하여 연결된 카메라에서 객체를 감지한 후 실행 가능한 알림을 실시간으로 제공합니다. Amazon Rekognition Streaming Video Events는 신규 및 기존 Kinesis Video Streams에서 작동하며 동영상 스트림(동작 이벤트당 최대 120초)을 처리하고 관심있는 객체가 감지되는 즉시 알림을 전송합니다. 이 알림을 사용하여 다음을 수행할 수 있습니다.
- ‘현관문에서 택배가 감지되었습니다.’와 같은 스마트 알림을 최종 사용자에게 보냅니다.
- ‘사람이 감지될 경우 차고 등을 켜기’와 같은 홈 오토메이션 기능을 제공합니다.
- Echo 디바이스와 같은 스마트 도우미와 통합하여 객체가 감지될 때 Alexa 소식을 제공합니다.
- 택배가 감지된 경우 모든 동영상 클립을 검색하는 것과 같은 스마트 검색 기능을 제공합니다.
Q: Amazon Rekognition Streaming Video Events는 어떻게 작동합니까?
신규 또는 기존 Kinesis Video Streams를 사용하여 Amazon Rekognition Streaming Video Events를 시작할 수 있습니다. Amazon Rekognition에 대한 스트림 프로세서 설정을 구성할 때 감지하려는 레이블(사람, 반려동물 또는 택배), 각 이벤트에 대해 Rekognition으로 처리할 동영상 기간(동작 이벤트당 최대 120초) 및 Rekognition을 통해 프레임에서 처리하려는 관심 지역을 선택할 수 있습니다. Rekognition Streaming Video Event API는 사용자가 동영상 스트림의 처리를 시작하라는 알림을 Rekognition으로 보낼 때만 동영상을 처리합니다.
연결된 카메라에서 동작이 감지될 때 동영상 스트림의 처리를 시작하라는 알림을 Rekognition으로 보내면 됩니다. Rekognition은 동작이 감지된 후 해당하는 Kinesis Video Stream을 처리하여 사용자가 지정한 객체를 찾습니다. 원하는 객체가 감지되면 Amazon Rekognition이 사용자에게 알림을 보냅니다. 이 알림에는 감지된 객체, 경계 상자, 객체의 확대 이미지 및 타임스탬프가 포함됩니다.
Q: Amazon Rekognition Streaming Video Events는 어떤 레이블을 지원합니까?
Amazon Rekognition Streaming Video Events는 사람, 반려동물 및 택배를 지원할 수 있습니다.
Q: Amazon Rekognition Streaming Video API로 감지할 수 있는 반려동물 및 택배 유형은 무엇입니까?
Amazon Rekognition Streaming Video Event API는 반려동물 감지에서 개와 고양이를 지원합니다. 이 API는 중형 및 대형 상자를 높은 정확도로 감지할 수 있습니다. 또한 이 API는 더 작은 상자, 에어캡 봉투 및 폴더도 감지할 수 있지만 가끔 일부 객체를 놓칠 수 있습니다.
Q: 감지된 각 레이블에 대해 별도의 요금이 부과됩니까? 포함할 레이블을 선택할 수 있습니까?
아니요. 각 레이블 요금이 별도로 부과되지는 않습니다. Rekognition으로 처리하는 스트리밍 동영상의 기간에 대해 요금이 부과됩니다. 스트림 처리 설정을 구성할 때 특정 레이블(반려동물, 택배)을 포함하거나 3가지 레이블 모두(사람, 반려동물, 택배)를 포함하도록 선택할 수 있습니다.
Q: Amazon Rekognition으로 동영상을 지속적으로 스트리밍해야 합니까?
아니요. Amazon Rekognition으로 동영상을 지속적으로 스트리밍하지 않아도 됩니다.
Q: Streaming Video Events를 사용하려면 새 Kinesis Video Streams(KVS)를 생성해야 합니까?
Amazon Rekognition Streaming Video Events는 신규 및 기존 Kinesis Video Streams에서 작동합니다. 관련 KVS 스트림을 Amazon Rekognition Streaming Video Events API에 통합하기만 하면 KVS 스트림에서 동영상 분석을 시작할 수 있습니다.
Q: Amazon Rekognition은 언제 알림을 보냅니까?
Amazon Rekognition은 동작이 감지된 후 동영상 스트림 처리를 시작합니다. 이 동영상 스트림 처리에 대한 기간을 구성할 수 있습니다(이벤트당 최대 120초). Amazon Rekognition이 동영상 스트림에서 관심있는 객체를 감지하면 Rekognition이 알림을 보냅니다. 이 알림에는 감지된 객체의 유형, 경계 상자, 감지된 객체의 확대 이미지 및 타임스탬프가 포함됩니다.
Q: 레이블 감지에서 지원되는 해상도 및 fps는 얼마입니까?
비용 및 대기 시간을 낮게 유지하기 위해 Amazon Rekognition Streaming Video Events는 해상도 1080p 이하의 동영상 스트림을 지원합니다. Rekognition은 5fps에서 동영상 스트림을 처리합니다.
Q: 동영상 스트리밍에 지원되는 코덱 및 파일 형식은 무엇입니까?
Amazon Rekognition Video는 MPEG-4(.mp4) 또는 MOV 형식의 H.264 파일을 지원합니다.
Q: 이벤트당 처리되는 동영상의 최대 기간은 얼마입니까?
이벤트당 최대 120초의 동영상을 처리할 수 있습니다.
Q: 동영상 스트림에서 처리할 특정 프레임 영역을 선택할 수 있습니까?
예. StreamProcessor를 구성할 때 프레임에서 처리하려는 관심 지역을 선택할 수 있습니다. Amazon Rekognition은 프레임의 특정 영역만 처리합니다.
Q: Amazon Rekognition으로 처리할 수 있는 동시 동영상 스트림은 몇 개입니까?
Amazon Rekognition Streaming Video Events는 AWS 고객당 600개의 동시 세션을 지원할 수 있습니다. 이 한도를 늘려야 하는 경우 계정 관리자에게 문의하세요.
Amazon Rekognition Stored Video Analysis
Q: Amazon Rekognition Video는 어떤 유형의 엔터티를 감지할 수 있나요?
Amazon Rekognition Video는 동영상에서 객체, 장면, 랜드마크, 얼굴, 유명 인사, 텍스트 및 부적절한 콘텐츠를 탐지할 수 있습니다. 자체 리포지토리나 얼굴 이미지 모음을 사용하여 동영상에 나타나는 얼굴을 검색할 수도 있습니다.
Q: Amazon Rekognition Video는 어떤 유형의 파일 형식과 코덱을 지원합니까?
Amazon Rekognition Video는 MPEG-4(.mp4) 또는 MOV 형식의 H.264 파일을 지원합니다. 동영상 파일이 다른 코덱을 사용하는 경우 AWS Elemental MediaConvert를 사용하여 동영상 파일을 H.264로 트랜스코딩할 수 있습니다.
Q. Amazon Rekognition Video 비동기 API는 어떻게 작동합니까?
Amazon Rekognition Video는 Amazon S3 버킷에 저장된 동영상을 처리할 수 있습니다. 비동기식 작업 집합을 사용할 수 있습니다. 객체와 장면 탐지를 위해 StartLabelDetection과 같은 Start 작업을 호출하여 동영상 분석을 시작합니다. 요청의 완료 상태는 Amazon Simple Notification Service(SNS) 항목에 게시됩니다. Amazon SNS 주제에서 완료 상태를 얻으려면 Amazon Simple Queue Service(SQS) 대기열 또는 AWS Lambda 함수를 사용할 수 있습니다. 완료 상태가 되면 GetLabelDetection과 같은 Get 작업을 호출하여 요청 결과를 가져옵니다. 사용 가능한 Amazon Rekognition Video API 목록은 이 페이지를 참조하세요.
Q: 동영상에서 각 탐지의 타임라인을 찾으려면 어떻게 해야 하나요?
Amazon Rekognition Video는 타임스탬프 또는 동영상 세그먼트별로 레이블 결과를 반환합니다. GetLabelDetection API에서 AggregateBy 입력 파라미터를 사용하여 이러한 결과의 정렬 방식을 선택할 수 있습니다.
- 타임스탬프로 레이블 결과를 정렬하는 경우 동영상 타임라인의 레이블이 Amazon Rekognition Video를 통해 감지될 때마다 레이블이 반환됩니다. 예를 들어 2,000ms와 4,000ms에 ‘개’가 감지되는 경우 Amazon Rekognition Video는 ‘개’에 대해 2,000ms가 포함된 레이블 항목 1개와 4,000ms가 포함된 레이블 항목 1개의 2개 레이블 항목을 반환합니다.
- 동영상 세그먼트로 레이블 결과를 정렬하는 경우 Amazon Rekognition Video는 다수의 연속적인 프레임에서 레이블이 감지되는 시간의 동영상 세그먼트를 반환합니다. 동영상 세그먼트는 시작 타임스탬프, 종료 타임스탬프 및 기간으로 정의됩니다. 예를 들어 2,000ms와 4,000ms에 2개의 연속적인 프레임에서 ‘개’가 감지되는 경우 Amazon Rekognition Video는 ‘개’에 대해 시작 타임스탬프가 2,000ms, 종료 타임스탬프가 4,000ms, 기간이 2,000ms인 레이블 항목 1개를 반환합니다.
타임스탬프 및 세그먼트에 대해 자세히 알아보고 샘플 API 응답을 보려면 동영상의 레이블 감지를 참조하세요.
Q: Amazon Rekognition Video로 동시 동영상 분석 작업을 몇 개까지 실행할 수 있나요?
Amazon Rekognition Video로 최대 20개의 동시 작업을 처리할 수 있습니다. 한도에 대한 자세한 내용은 한도 페이지를 참조하세요.
Q: 어떤 동영상 해상도를 사용해야 합니까?
Amazon Rekognition Video는 광범위한 동영상 해상도와 동영상 품질을 자동으로 처리합니다. 최적의 결과를 얻으려면 720p(1280 × 720 픽셀) ~ 1080p(1920x1080 픽셀) 또는 그에 상응하는 해상도(다른 가로 세로 비율)를 사용하는 것이 좋습니다. 너무 낮은 해상도(예: QVGA 또는 240p)와 너무 낮은 품질의 동영상은 결과 품질에 부정적인 영향을 줄 수 있습니다.
Q: 인물 경로란 무엇입니까?
Rekognition Video를 사용하면 동영상 타임라인에서 각 인물의 경로를 찾을 수 있습니다. Rekognition Video는 카메라가 움직일 때에도 인물을 탐지하고 각 인물에 대해 얼굴 속성과 타임스탬프와 함께 경계 상자 및 얼굴을 반환합니다. 소매 애플리케이션의 경우 고객이 쇼핑몰에서 통로를 가로질러 이동하는 방법 또는 계산대 앞에서 기다리는 시간과 같은 고객 인사이트를 익명으로 생성할 수 있습니다.
Amazon Rekognition Video를 사용한 미디어 분석
Q: Amazon Rekognition Video는 어떤 유형의 미디어 분석 세그먼트를 탐지할 수 있습니까?
Amazon Rekognition Video는 미디어 분석을 위한 다음 유형의 세그먼트 또는 엔터티를 탐지할 수 있습니다.
- 블랙 프레임: 광고를 삽입하거나 장면 또는 오프닝 크레딧과 같은 프로그램 세그먼트의 끝을 구분하기 위한 신호로 사용되는 오디오가 없는 짧은 길이의 빈 블랙 프레임이 동영상에 포함된 경우가 많습니다. Amazon Rekognition Video를 사용하면 이러한 블랙 프레임 시퀀스를 탐지하여 광고 삽입을 자동화하고, VOD 콘텐츠를 패키징하고, 다양한 프로그램 세그먼트나 장면을 구분할 수 있습니다. 페이드 아웃이나 음성 해설 등의 오디오가 있는 블랙 프레임은 콘텐츠로 간주되어 반환되지 않습니다.
- 크레딧: Amazon Rekognition Video를 사용하면 영화 또는 TV 프로그램에서 오프닝 및 클로징 크레딧이 시작하고 끝나는 정확한 프레임을 자동으로 식별할 수 있습니다. 이 정보를 사용하면 VOD 애플리케이션에서 ‘다음 에피소드’ 또는 ‘도입부 건너뛰기’와 같은 ‘빈지 마커’ 또는 대화형 시청자 프롬프트를 생성할 수 있습니다. Amazon Rekognition Video는 간단한 롤링 크레딧부터 콘텐츠 옆에 표시되는 더욱 까다로운 크레딧, 화면 위 크레딧 또는 애니메이션 콘텐츠의 스타일 효과 크레딧까지 다양한 오프닝 및 엔딩 크레딧 스타일을 처리하도록 훈련되었습니다.
- 샷: 샷은 하나의 카메라로 연속 촬영한 서로 연결된 일련의 사진으로 시간과 공간에서 연속적인 동작을 나타냅니다. Amazon Rekognition Video를 사용하면 각 샷의 시작, 종료 및 재생 시간을 탐지할 수 있을 뿐만 아니라 콘텐츠 조각의 모든 샷 수를 셀 수 있습니다. 샷 메타데이터는 선택한 샷으로 프로모션 동영상을 만들고, 샷 사이의 전환 콘텐츠를 피하는 미리보기 썸네일 세트를 생성하고, 누군가 말하고 있는 샷 중간과 같이 시청자 경험을 방해하지 않는 지점에 광고를 삽입하는 등의 용도로 사용할 수 있습니다.
- 색상 막대: Amazon Rekognition Video를 사용하면 브로드캐스트 모니터, 프로그램 및 카메라에서 색상이 올바르게 보정되도록 특정 패턴으로 표시되는 색상 세트인 SMPTE 또는 EBU 색 막대를 표시하는 동영상 섹션을 탐지할 수 있습니다. SMPTE 색상 막대에 대한 자세한 내용은 SMPTE 색상 막대를 참조하세요. 이 메타데이터는 콘텐츠에서 색 막대 세그먼트를 제거하여 VOD 애플리케이션용 콘텐츠를 준비하거나 색 막대가 콘텐츠 대신 기본 신호로 계속 표시될 때 녹화에서 브로드캐스트 신호 손실과 같은 문제를 탐지하는 데 유용합니다.
- 슬레이트: 슬레이트는 일반적으로 동영상이 시작될 때 에피소드 정보, 스튜디오, 동영상 형식 및 오디오 채널 등에 대한 텍스트 메타데이터를 포함하는 섹션입니다. Amazon Rekognition은 이러한 슬레이트의 시작과 끝을 식별하여 작업자가 텍스트 메타데이터를 손쉽게 사용할 수 있도록 하거나 최종 시청을 위한 콘텐츠를 준비할 때 슬레이트를 간편하게 제거할 수 있도록 합니다.
- 스튜디오 로고: 스튜디오 로고는 프로그램을 만드는 데 참여한 제작 스튜디오의 로고 또는 엠블렘을 표시하는 시퀀스입니다. Amazon Rekognition은 이러한 시퀀스를 식별하여 작업자가 시퀀스 검토를 통해 스튜디오를 손쉽게 식별할 수 있도록 합니다.
- 콘텐츠: 콘텐츠는 TV 프로그램 또는 영화에서 프로그램 또는 관련 요소가 포함된 부분을 나타냅니다. 블랙 프레임, 크레딧, 색상 막대, 슬레이트 및 스튜디오 로고는 콘텐츠로 간주되지 않습니다. Amazon Rekognition Video를 사용하면 동영상에서 각 콘텐츠 세그먼트의 시작과 끝을 탐지하여 프로그램 상영 시간 찾기 또는 특정 목적을 수행하는 세그먼트 찾기와 같은 다수의 사용 사례를 지원할 수 있습니다. 예를 들어 동영상이 시작될 때 나오는 이전 에피소드에 대한 개요는 콘텐츠의 한 유형입니다. 마찬가지로, 크레딧이 끝난 후 보너스 포스트 크레딧 콘텐츠를 표시할 수 있습니다. 일부 동영상에는 동영상 끝에 ‘텍스트 없는’ 콘텐츠가 나올 수 있습니다. 이 콘텐츠는 오버레이 텍스트가 포함된 전체 프로그램 콘텐츠 세트지만 다른 언어로의 현지화를 지원하기 위해 텍스트가 제거된 콘텐츠입니다. Amazon Rekognition Video로 모든 콘텐츠 세그먼트를 탐지한 후에는 ‘항상 개요로 동영상을 시작’하는 것과 같은 특정 도메인 지식을 적용하여 각 세그먼트를 추가로 범주화하거나 수동 검토를 위해 전송할 수 있습니다.
Amazon Rekognition Video는 탐지된 각 엔터티에 대해 시작, 끝, 기간 및 타임코드를 제공하고, 각각에 대해 타임스탬프(밀리초), SMPTE 형식 코드 및 프레임 수 옵션을 제공합니다.
Q: Amazon Rekognition Video를 사용한 미디어 분석을 시작하려면 어떻게 해야 합니까?
미디어 분석 기능은 Amazon Rekognition Video 세그먼트 탐지 API를 통해 제공됩니다. 이 API는 분석을 시작하는 StartSegmentDetection과 분석 결과를 얻는 GetSegmentDetection의 두 가지 작업으로 구성된 비동기식 API입니다. 시작하려면 설명서를 참조하세요.
미디어 분석 결과를 시각화하거나 자신의 동영상으로 Amazon Transcribe 등의 다른 Amazon AI 서비스를 사용해 보려면 Media Insights 애플리케이션을 이용하세요. MIE는 AWS Machine Learning 및 Media 서비스를 사용하여 쉽게 인사이트를 생성하고 동영상, 오디오, 텍스트 및 이미지 리소스를 위한 애플리케이션을 개발할 수 있는 서버리스 프레임워크이자 데모 애플리케이션입니다. 제공된 AWS CloudFormation 템플릿을 사용하여 자체 데모 애플리케이션을 손쉽게 시작하거나 자체 동영상을 시도하고 분석 결과를 시각화할 수 있습니다.
Q: 프레임 어큐레이트 타임코드는 무엇입니까?
프레임 어큐레이트 타임코드는 동영상이나 엔터티의 관련 세그먼트에 대한 정확한 프레임 번호를 제공합니다. 미디어 회사는 일반적으로 SMPTE(Society of Motion Picture and Television Engineers) 형식인 시간:분:초:프레임 번호(예: 00:24:53:22)를 사용하여 타임코드를 처리합니다.
Q: Amazon Rekognition Video 세그먼트 탐지 프레임은 정확합니까?
예, Amazon Rekognition Video 세그먼트 탐지 API는 프레임 어큐레이트 SMPTE 타임코드와 각 탐지의 시작 및 종료에 대한 밀리초 타임스탬프를 제공합니다.
Q: Amazon Rekognition Video 세그먼트 탐지는 어떤 유형의 프레임 속도 형식을 처리할 수 있습니까?
Amazon Rekognition Video 세그먼트 탐지는 15~60fps의 프레임 속도에 대한 정수, 분수 및 드롭프레임 표준을 자동으로 처리합니다. 예를 들어 23.976fps, 25fps, 29.97fps, 30fps 등의 일반 프레임 속도가 세그먼트 탐지에서 지원됩니다. 프레임 속도 정보는 각 경우에 프레임 어큐레이트 타임코드를 제공하는 데 사용됩니다.
Q: 어떤 필터링 옵션을 적용할 수 있습니까?
API 요청을 생성하는 동안 각 세그먼트 유형에 대한 최소 신뢰도를 지정할 수 있습니다. 예를 들어 신뢰 점수가 70% 미만인 세그먼트만 필터링할 수 있습니다. 블랙 프레임 탐지의 경우 블랙 픽셀이 될 것으로 여겨지는 최대 픽셀 휘도를 제어할 수도 있습니다(예: 색 범위 0~255의 경우 값 40). 또한 프레임에서 이 블랙 픽셀 휘도 기준을 충족하여 블랙 프레임으로 분류되어야 하는 픽셀 비율을 제어할 수도 있습니다(예: 99%). 이러한 필터를 사용하면 다양한 동영상 화질 및 형식을 고려하여 블랙 프레임을 탐지할 수 있습니다. 예를 들어 테이프 아카이브에서 재생한 동영상에는 노이즈가 포함될 수 있고 현대적인 디지털 동영상과 비교하여 블랙 수준이 다를 수 있습니다. 자세한 내용은 이 페이지를 참조하세요.
결제
Q: Amazon Rekognition은 처리된 이미지의 수를 어떻게 계산하나요?
이미지를 입력으로 허용하는 API의 경우 Amazon Rekognition은 분석된 이미지의 실제 개수를 처리된 이미지의 수로 계산합니다. DetectLabels, DetectModerationLabels, DetectFaces, IndexFaces, RecognizeCelebrities, SearchFaceByImage 및 이미지 속성이 이 카테고리에 속합니다. 2개의 이미지가 입력으로 전달되는 CompareFaces API의 경우 원본 이미지만 처리된 이미지의 단위로 인식됩니다.
입력 파라미터로서 하나의 이미지를 필요로 하지 않는 API 호출의 경우 Amazon Rekognition은 각각의 API 호출을 처리된 하나의 이미지로 계수합니다. SearchFaces는 이 범주에 속합니다.
나머지 Amazon Rekognition API 즉, ListFaces, DeleteFaces, CreateCollection, DeleteCollection 및 ListCollections는 처리된 이미지에 포함되지 않습니다.
Q: Amazon Rekognition은 처리된 동영상의 시간(분)을 어떻게 계산하나요?
아카이브된 동영상의 경우 Amazon Rekognition은 API가 성공적으로 처리한 동영상의 시간(분)을 계산하여 결제를 위해 측정합니다. 실시간 스트림 동영상의 경우 성공적으로 처리하는 동영상의 5초마다 비용이 부과됩니다.
Q: Amazon Rekognition이 요금을 부과하는 API로는 무엇이 있나요?
Amazon Rekognition Image에서는 DetectLabels, DetectModerationLabels, DetectText, DetectFaces, IndexFaces, RecognizeCelebrities, SearchFaceByImage, CompareFaces, SearchFaces API 및 이미지 속성에 대해 요금을 부과합니다. Amazon Rekognition Video에서는 StartLabelDetection, StartFaceDetection, StartFaceDetection, StartTextDetection, StartContentModeration, StartPersonTracking, StartCelebrityRecognition, StartFaceSearch 및 StartStreamProcessor API에 의해 성공적으로 처리된 동영상 시간(분)을 기반으로 요금을 부과합니다.
Q. Amazon Rekognition의 사용 요금은 얼마인가요?
최신 요금에 관한 정보는 Amazon Rekognition 요금 페이지를 참조하십시오.
Q. 내 얼굴 모음에 저장되는 기능 벡터에 대해 요금이 부과되나요?
예. Amazon Rekognition은 매월 1,000개의 얼굴 벡터당 0.01 USD의 요금을 부과합니다. 자세한 내용은 요금 페이지를 참조하십시오.
Q. Amazon Rekognition은 AWS 프리 티어에 참여하나요?
예. AWS 프리 티어를 사용하는 고객은 Amazon Rekognition를 무료로 시작할 수 있습니다. 신규 Amazon Rekognition 고객은 등록 후 첫 12개월 동안 매월 최대 5,000개의 이미지를 무료로 분석할 수 있습니다. 이 프리 티어와 함께 이미지 속성을 제외한 모든 Amazon Rekognition API를 사용할 수 있으며 최대 1,000개의 얼굴을 무료로 저장할 수 있습니다. 또한 Amazon Rekognition Video 고객은 처음 1년 동안 무료로 매달 1,000분의 동영상을 분석할 수 있습니다.
Q: 요금에 세금이 포함되어 있습니까?
세금에 관한 자세한 내용은 Amazon Web Services 세금 도움말을 참조하십시오.
AWS 통합
Q: Amazon Rekognition Video는 Amazon S3에 저장된 이미지로 작동하나요?
예. Amazon Rekognition API에서 S3 버킷을 가리키기만 하면 Amazon S3에 저장된 이미지에 대한 분석을 시작할 수 있습니다. 데이터를 옮길 필요가 없습니다. S3 객체를 Amazon Rekognition API 호출과 함께 사용하는 방법에 대한 자세한 내용은 레이블 감지 연습을 참조하십시오.
Q: 다른 리전의 Amazon S3 버킷에 저장된 이미지로 Amazon Rekognition을 사용할 수 있습니까?
아니오. 사용하려는 Amazon S3 버킷이 Amazon Rekognition API 엔드포인트와 같은 리전에 있어야 합니다.
Q: Amazon Rekognition을 사용하여 여러 이미지 파일을 일괄적으로 처리하려면 어떻게 해야 하나요?
GitHub의 Amazon Rekognition 일괄 처리 예제에 설명된 단계들을 적용하면 Amazon S3 이미지를 대량으로 처리할 수 있습니다.
Q: AWS Lambda를 Amazon Rekognition과 함께 사용하려면 어떻게 해야 하나요?
Amazon Rekognition을 사용하면 AWS Lambda에 원활하게 액세스할 수 있으며 Amazon S3 및 Amazon DynamoDB와 같은 AWS 데이터 스토어에 트리거 기반 이미지 분석을 제공할 수 있습니다. Amazon Rekognition을 AWS Lambda와 함께 사용하려면 여기에 설명된 단계를 따라 Amazon Rekognition 청사진을 선택하십시오.
Q: Amazon Rekognition은 AWS CloudTrail과 연동됩니까?
예. Amazon Rekognition은 CreateCollection, DeleteCollection, CreateStreamProcessor, DeleteStreamProcessor, DescribeStreamProcessor, ListStreamProcessors 및 ListCollections 작업을 CloudTrail 로그 파일에 이벤트로 로깅하도록 지원합니다. AWS CloudTrail과 통합된 Amazon Rekognition API 호출에 대한 자세한 내용은 AWS CloudTrail로 Amazon Rekognition API 호출을 로깅 섹션을 참조하십시오.
데이터 프라이버시
Q. Amazon Rekognition에서 처리한 이미지 및 동영상 입력이 있는 경우 AWS에서 어떻게 사용합니까?
Amazon Rekognition은 서비스 제공 및 유지 보수를 위해서 서비스가 처리한 이미지 및 비디오 입력을 저장 및 사용할 수 있으며, 다음과 같은 방식으로 옵트아웃하지 않는 한 Amazon Rekognition 및 기타 Amazon 기계 학습/인공 지능 기술의 품질 향상 및 개발을 위해 저장 및 사용할 수 있습니다. 관련 기술의 개발 및 교육을 포함하여 Amazon Rekognition 고객 경험을 지속적으로 개선하려면 콘텐츠를 사용해야 합니다. AWS에서는 고객 또는 고객의 최종 사용자를 제품, 서비스 또는 마케팅의 대상으로 삼기 위해 고객의 콘텐츠에 포함되어 있을 수 있는 개인 식별 정보를 사용하지 않습니다. AWS에서는 고객의 신뢰, 개인 정보, 콘텐츠의 보안을 최우선으로 하고 있으며 콘텐츠에 대한 무단 액세스 또는 유출을 방지하기 위해 저장 중 및 전송 중 암호화를 비롯하여 적절하고 정교한 기술적 및 물리적 제어를 구현하고 고객과의 약속을 충실히 준수합니다. 자세한 내용은 https://thinkwithwp.com/compliance/data-privacy-faq/를 참조하십시오. AWS Organizations 옵트아웃 정책을 사용하여 Amazon Rekognition 및 기타 Amazon 기계 학습/인공 지능 기술의 품질을 개선하거나 개발하는 데 본인의 이미지 및 동영상 입력이 사용되는 것을 거부할 수 있습니다. 거부 방법에 대한 자세한 내용은 Managing AI services opt-out policy를 참조하세요.
Q. Amazon Rekognition에 저장된 이미지 및 동영상 입력을 삭제할 수 있습니까?
예. AWS Support에 문의하여 고객 계정과 연결된 이미지 및 동영상 입력을 삭제하도록 요청할 수 있습니다. 이미지 및 동영상 입력을 삭제하면 Amazon Rekognition 환경에 불편함이 야기될 수 있습니다.
Q: Amazon Rekognition에서 처리하고 저장한 내 콘텐츠에 대한 액세스 권한은 누구에게 있습니까?
승인을 받은 직원만 Amazon Rekognition에서 처리하는 고객의 콘텐츠에 액세스할 수 있습니다. AWS에서는 고객의 신뢰, 개인 정보, 콘텐츠의 보안을 최우선으로 하고 있으며 콘텐츠에 대한 무단 액세스 또는 유출을 방지하기 위해 저장 중 및 전송 중 암호화를 비롯하여 적절하고 정교한 기술적 및 물리적 제어를 구현하고 고객과의 약속을 충실히 준수합니다. 자세한 내용은 https://thinkwithwp.com/compliance/data-privacy-faq/를 참조하십시오.
Q: Amazon Rekognition에서 처리하고 저장한 콘텐츠를 내가 계속 소유할 수 있습니까?
사용자는 언제나 자신의 콘텐츠에 대한 소유권을 유지하며 AWS에서는 사용자의 동의가 있을 때만 이를 사용합니다.
Q: Amazon Rekognition에서 처리한 콘텐츠는 내가 Amazon Rekognition을 사용 중인 AWS 리전 외부로 이동됩니까?
Amazon Rekognition에서 처리되는 모든 콘텐츠는 암호화되어 고객이 Amazon Rekognition을 사용 중인 AWS 리전에 저장됩니다. 다음의 방식대로 옵트아웃하지 않는 경우, Amazon Rekognition에서 처리한 콘텐츠의 일부는 Amazon Rekognition 고객 경험 및 기타 Amazon 기계 학습/인공 지능 기술의 지속적인 개선 및 개발과 관련하여 다른 AWS 리전에 저장될 수 있습니다. AWS Support에 문의하여 고객 계정과 연결된 이미지 및 동영상 입력을 삭제하도록 요청할 수 있습니다. AWS에서는 고객의 신뢰, 개인 정보, 콘텐츠의 보안을 최우선으로 하고 있으며 콘텐츠에 대한 무단 액세스 또는 유출을 방지하기 위해 저장 중 및 전송 중 암호화를 비롯하여 적절하고 정교한 기술적 및 물리적 제어를 구현하고 고객과의 약속을 충실히 준수합니다. 자세한 내용은 https://thinkwithwp.com/compliance/data-privacy-faq/를 참조하십시오. Amazon Rekognition 및 기타 Amazon 기계 학습/인공 지능 기술의 품질을 개선하고 개발하는 데 본인의 콘텐츠가 사용되는 것을 거부하면 콘텐츠가 다른 AWS 리전에 저장되지 않습니다. 거부 방법에 대한 자세한 내용은 Managing AI services opt-out policy를 참조하세요.
Q: 13세 미만 어린이를 대상으로 하며 COPPA(Children’s Online Privacy Protection Act)의 적용을 받는 웹 사이트, 프로그램 또는 애플리케이션에 Amazon Rekognition을 사용할 수 있습니까?
예. COPPA에 따라 필요한 알림을 제공하고 필요한 확인 가능한 부모 동의를 제공해야 하는 의무 조항을 비롯한 Amazon Rekognition 서비스 약관을 준수하는 경우, 13세 미만 어린이를 대상(전체 또는 일부)으로 하는 웹 사이트, 프로그램 또는 애플리케이션에 Amazon Rekognition을 사용할 수 있습니다.
Q: 내 웹 사이트, 프로그램 또는 애플리케이션이 COPPA의 적용을 받는지 확인하려면 어떻게 해야 합니까?
COPPA 요구 사항에 대한 정보와 웹 사이트, 프로그램 또는 기타 애플리케이션이 COPPA의 적용을 받는지 확인하기 위한 지침은 미국연방거래위원회(US FTC)에서 제공하고 관리하는 리소스를 직접 참조하시기 바랍니다. 또한, 이 사이트에는 서비스의 대상(전체 또는 일부)이 13세 미만 어린이인지를 확인하는 방법에 대한 정보도 제공되어 있습니다.
Q: Amazon Rekognition은 HIPAA 적격 서비스입니까?
Amazon Rekognition은 AWS BAA(AWS Business Associate Addendum)에 포함된 HIPAA 적격 서비스입니다. AWS BAA를 체결한 경우, Amazon Rekognition은 AWS BAA 약관에 따라 허용된 경우에만 개인 건강 정보(PHI)를 사용, 공개 및 유지 관리합니다.
액세스 제어
Q: Amazon Rekognition에 대한 사용자 액세스는 어떻게 제어하나요?
Amazon Rekognition은 AWS Identity and Access Management(IAM)와 통합되었습니다. AWS IAM 정책은 권한이 있는 사용자만 Amazon Rekognition API에 액세스할 수 있도록 보장할 목적으로 사용할 수 있습니다. 자세한 내용은 Amazon Rekognition 인증 및 액세스 제어 페이지를 참조하십시오.
침해 사례 신고
Q: 잠재적인 Amazon Rekognition 침해를 신고하려면 어떻게 해야 합니까?
Amazon Rekognition이 악의적이거나 불법적인 방식으로 사용되거나 자신의 권리 또는 다른 사람들의 권리를 침해하는 것으로 의심되는 경우 해당 사용을 신고해 주십시오. 그러면 AWS에서 문제를 조사합니다.
Amazon Rekognition 요금 자세히 알아보기