[핫클립] 알고리즘의 젠더 편향 사례

제품, 서비스, 기술 분야에서 성별 편향성이 존재하는 많은 사례가 있다.
대부분의 얼굴 인식 알고리즘에서 백인을 가장 정확하게 인식하고,
채용 과정에서 사용된 알고리즘은 여성을 다 버리는 오류를 범하고,
신용도가 높은 여성에게 더 적은 신용 한도를 부여하였다.
인공지능으로 차별을 받은 사람들은 누구에게 책임을 물어야 할까?

========================================
※ Full 영상 ▶ https://youtu.be/r2rOyDKDe3k
※ YTN사이언스 구독하기 ▶ https://bit.ly/3raTL0t
========================================

#젠더편향 #알고리즘 #성별편향성 #남녀차별 #인공지능
알고리즘의 젠더 편향 사례 / YTN 사이언스
[YTN 사이언스 기사원문] https://science.ytn.co.kr/program/view_hotclip.php?mcd=0085&key=202210211631529217
[프로그램 제작 문의] legbiz@ytn.co.kr