“인공지능이 변호사를 대체할 수 있을까요?”

판사로 퇴임하고 지금은 변호사로 일하는 분께 물었다. ‘알파고’ 후폭풍으로 웬만한 직업쯤 인공지능이 대체할 것이란 전망이 난무할 무렵이었다. “글쎄요. 적어도 미국에서 판사 역할 정도는 대체할 수 있지 않을까요.” 배심원들의 의견을 수렴해 판결을 내리는 ‘중립적’ 역할은 인공지능이 더 공정히 수행하지 않겠냐는 얘기다.

그 배경에는 ‘인공지능은 객관적이다’란 인식이 깔려 있다. 논리적 연산과 방대한 데이터에 근거하기 때문이요, 순간의 감정이나 편견으로 주관적 결정을 내리지 않을 것이란 믿음 말이다. 그렇다면 인공지능으로 대변되는 알고리즘은 정말 객관적일까. 안타깝지만, 아니올시다. 인공지능도 그 자체로 완전체는 아니다. 학습을 거치며 똑똑해진다. 그 과정에서 문제가 생긴다. 인간의 주관이 들어간 데이터를 학습하거나, 인간이 직접 개입할 경우다.

바스대학교 컴퓨터과학자 조안나 브라이슨과 프린스턴대학교 어바인드 나라야난은 흥미로운 연구를 진행했다. 이들은 ‘워드 임베딩’이란 기계학습 방식을 이용해 인공지능이 단어를 어떻게 학습하는지 분석했다. 워드 임베딩은 한 단어와 함께 쓰이는 단어들을 관계망으로 엮어 사회·문화적 맥락을 파악하는 방법이다. 연구팀은 온라인에서 수집한 850만개 단어 목록을 대상으로 조사했다. 그랬더니 인공지능은 ‘여성’이란 단어는 예술·인문 직종과 밀접한 관련이 있는 반면, ‘남성’은 수학·공학 직종과 관련 있는 것으로 분류했다. 또 유럽계 미국인 이름은 ‘선물’이나 ‘행복’ 같은 유쾌한 단어와 연관지었지만, 아프리카계 미국인은 불쾌한 단어와 연결했다. 인간의 언어에 내재된 편견을 인공지능이 학습한 결과다. 이 논문은 지난 4월 중순 <사이언스>에 실렸다.

<프로퍼블리카>의 보도도 이와 비슷한 사례를 보여준다. 미국 교육업체 프린스턴리뷰는 알고리즘을 이용해 온라인 SAT(Scholastic Aptitude Test) 가격을 지역마다 다르게 매겼다. 그랬더니 아시아인들이 같은 강의를 거의 2배 가까이 비싼 가격에 수강하는 것으로 나타났다. 알고리즘은 저소득층 지역 아시아인에게 가장 높은 가격을 부과하기도 했다.

지난 2016년 7월 열린 한 미인대회도 논란을 남겼다. 대회는 전세계 100개국 6천명이 제출한 인물사진을 대상으로 얼굴 대칭과 피부 상태, 주름 등을 기준으로 수상자를 선정했다. 심사위원은 ‘뷰티닷에이아이’(Beauty.AI)란 인공지능 알고리즘이었다. 인공지능이 뽑은 수상자 44명 가운데 43명은 백인이었다. 심사 기준에 활용한 인물 데이터에 다양한 피부색 사진이 부족했기 때문이다. 학습 데이터의 편향성이 인공지능의 판단으로 이어짐을 보여주는 사례다.

알고리즘을 만드는 주체도 결국은 인간이다. 인간의 개입은 알고리즘의 편향성을 심화한다. ‘우버’를 보자. 우버는 승객이 붐비는 지역과 시간대를 알고리즘이 파악해 우버 운전기사에게 알려준다. 운전자라면 당연히 승객이 붐비고 요금이 비싼 지역과 시간대를 선호하게 마련이다. 이를 이용해 우버 알고리즘은 혼잡시간과 지역에선 승객이 더 비싼 요금을 지불하도록 유도한다. 뉴욕대 데이터&소사이어티 연구소는 이런 우버의 매칭 알고리즘이 인간이 근로자를 통제하는 방식과 비슷하다며, 우버 알고리즘이 “직접적인 경영 권한 및 통제 수단으로 작동한다”고 지적했다.

객관적이라고 믿어 의심치 않는 알고리즘에도 차별이 내재돼 있다. 알고리즘도 편식한다. 그 레시피엔 요리사인 인간의 편향성이 투사돼 있다. 문제는, 알고리즘 수용자가 이를 견제할 방법이 없다는 점이다. 유럽연합은 2016년 4월, 개인정보보호 규정을 발표하며 정보 주체에게 알고리즘의 의사결정에 대해 ‘설명을 요구할 권리’를 제안했다.

인류의 미래를 잠식하는 건 기계가 아니라 사람이다. 알고리즘을 통제하는 인간에게 어떤 합리적인 규범을 제시할 것인가. 새로운 정부는 이 질문에서 출발해야 한다.

(<한겨레21> 제1160호, 2017년 5월8일자)

답글 남기기

이메일은 공개되지 않습니다. 필수 입력창은 * 로 표시되어 있습니다.