스마트해도 인공지능 혼자선 할 수 없어!

인공지능이 작업의 처리방식에서 오해 키우거나 기존의 불공정성 확산할 수 있다는 점을 명심해야
전후 맥락을 파악하지 못하는 알고리즘은 특정 그룹에 편향성을 보일 수 있다. / 사진:FABRIZIO BENSCH-REUTERS-YONHAP

인공지능 시스템은 주식시장에서든 전쟁터에서든 기업과 정부가 데이터를 처리하고 상황변화에 대응하는 강력한 도구다. 그러나 인공지능이 아직 준비되지 않은 점이 몇 가지 있다. 우리는 알고리즘이 사회와 상호작용하는 방식의 이해와 개선 방안을 연구하는 컴퓨터 학자들이다. 인공지능 시스템은 목표가 명확하고 양질의 데이터가 있을 때 최고의 성능을 발휘한다. 예컨대 정확하게 구분된 사람들의 사진을 많이 학습한 뒤 다양한 얼굴을 식별하도록 주문 받을 때다.

때로는 이용자와 연구자들이 깜짝 놀랄 정도로 인공지능 시스템의 지각능력이 뛰어나다. 그러나 때로는 성과를 측정하기 어렵거나 정의가 명확하지 않거나 훈련용 데이터가 당면 과제와 일치하지 않기도 한다. 이런 경우 인공지능 알고리즘이 예상을 뛰어넘어 실패하는 경향을 보인다. 하지만 항상 뭐가 잘못됐는지 금방 명확히 드러나는 건 아니다. 따라서 인공지능의 능력에 관한 과대선전과 기대를 경계하면서 거기서 얻는 솔루션이 항상 옳다고 가정하지 말아야 한다.

알고리즘을 활용할 때는 인간 안전망을 설치해 사람을 해치지 않도록 해야 한다. 우리 연구에선 알고리즘이 몇몇 상황에서 스스로 작동 방식의 문제를 인식해 사람에게 도움을 요청할 수 있었다. 구체적으로 몇몇 환경에서 인간의 도움을 요청해 알고리즘의 편견을 줄일 수 있는 것으로 밝혀졌다.

인공지능 시스템은 형량 결정, 얼굴 기반 성격 분석, 이력서 심사, 헬스케어 등록 그리고 기타 사람들의 삶과 행복이 걸린 어려운 과업에 사용된다. 미국 정부 기관들은 도널드 트럼프 대통령의 최근 행정명령에 따라 인공지능 시스템의 탐구와 활용을 확대하기 시작했다. 하지만 인공지능이 작업의 처리방식에서 오해를 키우거나 기존의 불공정성을 확산할 수 있다는 점을 명심해야 한다. 누구든 차별 대우하도록 명확하게 알고리즘에 말한 사람이 없더라도 이런 일이 일어날 수 있다.

얼굴을 기준으로 사람의 특징(가령 성별 추측)을 판단하기 위한 알고리즘을 많은 기업이 보유한다. 미국 기업들이 개발한 시스템은 여성과 피부색 짙은 사람들보다 백인 남성의 분류에 훨씬 더 뛰어난 경향을 보인다. 피부색 짙은 여성을 대할 때 가장 성공률이 낮다. 그러나 중국에서 개발된 시스템은 백인 얼굴을 대상으로 할 때 더 오류가 많은 편이다.

그런 차이점은 한 그룹이 다른 그룹보다 분류하기 더 쉬운 얼굴을 갖고 있어서가 아니다. 그보다는 두 알고리즘 모두 대체로 전체 인구만큼 다양하지 않은 대규모 데이터 집합을 토대로 훈련을 받는 데서 생기는 문제다. 특정 얼굴 유형이 데이터 집합의 주류를 이룰 경우(미국에선 백인 남성, 중국에선 중국인 얼굴) 그 알고리즘은 필시 다른 사람보다 그런 얼굴을 더 잘 분석하게 된다. 그런 차이가 어떻게 발생하든 결과적으로는 알고리즘이 다른 그룹보다 특정한 한 그룹에 더 정확성을 보임으로써 편향성을 보일 수 있게 된다.

큰 이해가 걸린 상황에서 작업결과에 대한 알고리즘의 확신(시스템이 정답을 내놓을 가능성에 대한 평가)은 결과만큼이나 중요하다. 알고리즘으로부터 결과물을 받는 사람은 컴퓨터를 활용했기 때문에 정확하다고 가정하기보다는 그 결과를 얼마나 진지하게 받아들여야 할지 고민할 필요가 있다.

과학자들은 알고리즘과 데이터의 불공평함을 바로 잡기는 고사하고 최근에야 찾아내는 방법을 개발하기 시작했다. 알고리즘 스스로 단점을 인식하도록 프로그램하면 그것을 토대로 사람에게 작업 지원을 요청할 수 있다.

특정 입력 데이터를 얼마나 잘 분석했는지 스스로 예측하는, 즉 내부 신뢰수준을 계산하는 인공지능 알고리즘 유형은 많아졌다. 얼굴 분석에선 백인 남성 얼굴보다 짙은 색 얼굴과 여성의 얼굴에 대한 신뢰수준이 낮은 인공지능 알고리즘은 많이 나와 있다. 중요한 문제에 이런 알고리즘을 적용할 때 사법당국이 이를 얼마나 감안했는지는 불확실하다.

우리 연구는 다른 그룹을 대할 때만큼 정확도가 높지 않은 분야를 인공지능 스스로 찾아내도록 하려는 목표를 갖고 있다. 이런 입력 데이터에 대해서는 인공지능이 인간 중재자의 결정에 따를 수 있다. 이런 기법은 콘텐트 관리처럼 전후 관계가 복잡한 작업에 특히 적합하다.

인간 콘텐트 관리자는 소셜미디어 사이트로 몰려드는 이미지의 홍수를 감당할 수 없다. 그러나 인공지능에 콘텐트 관리를 맡기면 게시물의 맥락을 파악하지 못한다. 성적 지향성에 관한 토론을 노골적인 콘텐트로 오인하거나 독립선언문을 증오발언으로 인식하는 식이다. 이렇게 되면 하나의 인구 또는 정치 집단을 다른 집단보다 더 차별적으로 검열하는 잘못된 결과가 생길 수 있다.

두 세계에서 최선의 결과를 얻으려면 오늘날 보편화된 인공지능을 이용해 자동화된 방식으로 모든 콘텐트에 점수를 부여하는 방법을 우리 연구는 제안한다. 그 뒤 우리의 접근법에선 새 기법을 이용해 여러 다른 인구집단에 관한 알고리즘에서 잠재적인 불공정을 자동적으로 찾아내 특정 개인들에 관한 결정을 인간에게 넘겨준다. 결과적으로 알고리즘의 판정 대상이 되는 사람들에 관한 편견을 완전히 배제할 수 있다. 그리고 알고리즘의 결정에 불가피하게 편견이 개입되는 개인들에 관한 결정은 인간이 맡는다.

이런 접근법으로 편견이 없어지지는 않는다. 단지 편견의 소지를 더 소수의 결정으로 ‘압축’한 뒤 인간이 상식에 근거해 결정하게 된다. 의사결정 작업의 상당 부분을 인공지능이 수행할 수 있다. 이는 인공지능 알고리즘이 인간과 협력해 인공지능의 나쁜 결정에 발목 잡히지 않고 좋은 결정의 이점과 효율성을 누릴 수 있는 상황의 예시다. 그러면 인간은 공평성과 공정성의 확보에 중요한 불분명하고 어려운 결정에 집중할 시간을 더 많이 갖게 된다.

– 세라 셰퍼, 아담 D. 스미스, 랜 캐너티

※ [세라 셰플러는 보스턴대학 컴퓨터학 박사과정생, 아담 D. 스미스와 랜 카네티는 보스턴대학 교수다. 이 기사는 온라인 매체 컨버세이션에 먼저 실렸다.]