이 리소스는 더 이상 사용할 수 없습니다.

Cover Image

ML 모델은 실험적으로 설계되어 주기적으로 실패할 수밖에 없습니다 . 알고리즘의 드리프트를 초기에 감지하고 문제가 심각해지기 전에 실패를 방지하는 것이 중요합니다 . 데이터 세트에서 등장하는 편향성은 초기 훈련이나 프로덕션 도중에 ML 이 실패하는 주요 원인입니다 . 실무자들은 급격한 변화를 빠르게 탐지하고 , 실질적인 피해가 발생하기 전에 해당 모델의 생산을 중단할 수 있도록 ML 모델의 한계를 파악해야 합니다 . Bowden 은 “필요한 작업을 미리 했다면 모델의 행동을 이해할 수 있다” 고 말합니다 . 그리고 한 예로 ML 이미지 인식 시스템을 제안합니다 .

이미지의 카테고리 분류 방식 또는 처리 방식과 함께 무엇이 갑자기 변경될 경우 잠시 멈추고 문제를 찾아야 합니다 . 대부분의 경우 문제는 알고리즘이 아니라 조명 상태나 카메라 조정과 같은 데이터의 변화입니다 . 환경이 오염되면 그 문제가 해결될 때까지 다른 프로세스를 이용해야 합니다 . “하지만 ‘걱정된다’ 고 말할 수 있는 제도도 필요하다” 고 Bowden 은 말합니다 .

물론 모든 실수가 괜찮은 것은 아니며 , 데이터 과학자는 심각한 문제가 더 커지지 않도록 주의해야 합니다 . 자율 주행 자동차는 어딘가에 부딪힐 때 사람이 벽보다 훨씬 더 연약하다는 것을 학습하여 보행자를 치지 않도록 100% 보장해야 합니다 . Bowden 의 말대로 재앙과 같은 실패를 방지하도록 모델에 윤리도 적용해야

합니다 .

공급 업체 :
Hewlett Packard Enterprise
게시일 :
2023. 2. 17
발행일 :
2023. 2. 17
형식 :
PDF
유형 :
애널리스트 요약

이 리소스는 더 이상 사용할 수 없습니다.