본문 바로가기
디자인경영/생활속 경험디자인 UX Design in Everyday Life

인공지능 이미지 매칭 소프트웨어, 스토킹 도구가 되다 AI Imaging Matching S/W as a Horrible Stalking Tool

by 파스텔블링크 (PastelBlink) 2021. 5. 10.
반응형

2019년 1월 26일, 뉴욕 뉴저지 주 우드브릿지 소재 햄프톤인 Hampton Inn 모텔에서 도난사건이 발생합니다.  용의자는 사건현장에서 총기를 소지하고 있었고 차를 타고 도주했습니다.  도난사건 신고를 접수한 경찰은 31세 흑인 나이지어 팍스 Nijeer Parks을 범행 용의자로 체포합니다. 사건현장에서 발견된 가짜 운전면허증의 얼굴사진을 토대로 인공지능 이미지 매칭 소프트웨어를 사용해 나이지어 팍스의 이미지가 매칭됨을 확인했기 때문입니다.  그리고, 법원은 그에게 가중폭력, 불법무기소지, 가짜 신분증 사용, 마리화나 소지, 도둑질, 범죄현장 도피, 체포 저항 등의 죄목으로 6년형을 구형했습니다.  그러나, 억울하게 11일간 옥살이를 한 그는 결국 범인이 아니었슴이 밝혀져서 풀려났습니다.  사건 발생 시각, 그는 사건현장에서 48킬로미터 떨어진 곳에서 약혼녀에게 돈을 송금하려던 참이었습니다.  현장에서 발견된 가짜신분증과 인공지능 얼굴인식 소프트웨어가 찾아낸 잘못된 얼굴매칭 정보, 그리고 두 명의 잘못된 목격자 진술이 나이지어를 체포하고 감금하게 만든 유일한 증거물이었습니다.  인공지능 소프트웨어에서 나타난 왜곡된 높은 매칭률을 믿는 대신에, 가짜 운전면허증 사진 속 용의자의 귀에 있는 피어싱이 나이지어에게는 없다는 것만 확인했어도 이렇게 까지 일이 커지지는 않았을 겁니다.  

왜 이런 일이 일어나는 걸까요?

구글 AI윤리팀 연구원이었던 윤리 및 인공지능 활용분야의 저명한 연구원인 팀닛 게브루 박사는 그의 연구논문에서 인공지능의 인간 성별 분류작업 적중률 분석에서 어두운 피부색의 여성이 밝은 피부색의 남성에 비해 33-34퍼센트 낮은 정확도를 보였다고 보고 했습니다. 

여기에는 세 가지 중요한 문제가 있습니다.  첫째로, 인공지능 이미지 매칭 소프트웨어 알고리즘이 불완전하여 왜곡된 정보를 제공할 수 있다는 것입니다.  둘째로, 내 얼굴 이미지로 인터넷상에서 과거의 내 사진들을 찾아낼 수 있지만, 그 사진속의 내 동료의 결혼사진, 전 여자친구의 사진 등 다른 사람의 사생활 이미지 정보도 클릭 한 두 번 만에 연결되어 노출될 수 있다는 겁니다. 셋째로, 이러한 소프트웨어를 너무 쉽게 일반인들이 접근할 수 있다는 겁니다.  

"왜곡된 훈련용 데이터나 불완전한

알고리즘을 적용할 경우,

인공지능 시스템이 여성과 유색인종을

차별하는 용도로 사용될 수 있습니다"

GBuolamwini, J., & Gebru, T. (2018, January).  Gender shades : Intersectional accuracy disparities in commercial gender classification.  In Conference on fairness, accountability, and transparency.

  

 

나이지어는 과거에 마약 혐의로 징역을 살았던 경험이 있지만, 지금 그는 목수로 성실한 사회인이 되었습니다.

아마도 그의 과거 범죄 전력이 인공지능 얼굴인식 소프트웨어에서 용의자 인식율을 높이는 데 기여했는지도 모릅니다.  사람들은 흑인들이 다 똑같이 생겨서 누가 누군지 모르겠어라고 말하곤 합니다.  인공지능 안면인식 소프트웨어도 피부색이 어두울수록 인식률이 떨어진다고도 합니다.  언젠가는 인식율이 많이 개선될거라 믿지만, 지금은 그렇지 못한 것 같습니다.  그리고, 여러분의 옛 남친, 여친이 AI 안면인식 소프트웨어를 이용해서 여러분의 현 주소와 자주 다니는 식당, 회사 정보를 찾아내서 스토킹할 수도 있습니다.  클릭 한 두 번만에 말입니다.  윤리적인 문제가 평범한 한 사람의 인생을 송두리째 망쳐 놓을 수 있다는 사실을 잊지 말아야 하겠습니다.   

 

 

반응형

댓글