ACROFAN

구글 AI 포럼 제17강: AI 혁신과 머신러닝의 공정성

기사입력 : 2019년 06월 25일 18시 10분
ACROFAN=신승희 | seunghee.shin@acrofan.com | SNS
 25일 오전, 구글은 강남구에 위치한 자사 사무실에서 '구글 AI 포럼 제17강: AI 혁신과 머신러닝의 공정성(Machine Learning Fairness)' 행사를 개최했다.

'구글 AI 포럼'은 최근 도래하고 있는 AI-First 시대를 맞아 인공지능 및 머신러닝과 관련해 좀 더 알기 쉬운 설명 및 사례와 함께 더욱 깊게 공부할 수 있는 기회를 제공하기 위해 구글이 준비한 행사로, 매월 진행되고 있다.

이날 행사에서는 구글의 베키 화이트(Becky White) 인공지능 리서치 프로그램 매니저가 머신러닝에서의 공정성의 중요성과 주요 과제, 그리고 머신러닝의 공정성을 위한 구글의 노력에 대해 설명했다.

▲ 열일곱 번째 구글 AI 포럼 'AI 혁신과 머신러닝의 공정성'이 개최됐다.

▲ 구글의 베키 화이트 프로그램 매니저가 화상 연결을 통해 발표했다.

베키 화이트는 우선 지난해 6월에 공개된 '구글의 AI 원칙'을 소개했다. '구글의 AI 원칙'은 구글이 AI 연구 및 제품 개발 단계에서 적용하는 일곱 가지의 원칙으로 1)사회적으로 유익해야 한다 2)불공정한 편견을 만들거나 강화하지 않는다 3)안정성을 우선으로 설계되고 테스트 되어야 한다 4)인간을 위해 책임을 다해야 한다 5)개인정보 보호를 위한 설계 원칙을 적용한다 6)과학적 우수성에 대한 높은 기준을 유지한다 7)구글의 AI 원칙에 부합하는 용도에 활용될 수 있도록 해야한다 가 포함되어있다.

이 중 베키 화이트가 강조한 '2)불공정한 편견을 만들거나 강화하지 않는다'라는 원칙은 구글은 공정한 편견과 불공정한 편견을 구별하는 것이 단순하지 않으며 문화와 사회에 따라 다르다는 것을 이해하고 있다는 내용을 포함하고 있다. 특히 인종, 민족, 성별, 국적, 소득수준, 성적 지향, 장애, 정치적/종교적 신념 등과 같은 민감한 특성과 관련해 부당한 영향이 미치지 않도록 하는 것이 중요하다고 덧붙였다.

그녀는 오늘의 주제인 머신러닝의 공정성에 대해, 모든 사용자에게 신뢰할 수 있는 정보를 제공하기 위해 머신러닝 기술 개발에서 중요하게 고려되는 요소 중 하나로, 구글은 제품 개발의 전 영역에서 머신러닝의 공정성을 고려하고 있으며, 여기에는 머신러닝 모델이 편향된 데이터가 학습하지 않는지 점검하고, 산출된 결과에 편향성이 있는지 파악하는 과정이 요구된다고 설명했다.

▲ 구글의 AI 원칙 중 두 번째 원칙인 ‘불공정한 편견을 만들거나 강화하지 않는다’는 본 행사의 주제인 ‘머신러닝의 공정성’에 대해 얘기하고 있다.

베키 화이트는 모든 사람에게 공정하고 포용적인 시스템을 만드는 것은 무엇보다 중요하지만 쉽지 않은 일이기 때문에 여러 어려움이 있다고 밝혔다. 첫째로, 머신러닝 모델은 현실 세계에서 수집된 기존 데이터를 바탕으로 학습하기 때문에, 정확한 모델일지라도 데이터에 이미 존재하는 인종, 성별, 종교 등의 특성에 따른 문제적인 편향을 학습하거나 심지어 강화할 수도 있다. 이를테면 미국의 차량 충돌 테스트에서 여성 타입의 모형으로 테스트하지 않았기 때문에 여성 운전자가 중상을 입는 경우가 47% 더 많았다.

둘째로는 다양한 분야의 전문가들이 철저하게 훈련하고 테스트한다 하더라도 한 시스템이 모든 상황에서 공정할 것임을 보장하기는 쉽지 않다고 밝혔다. 예를 들어 구글은 머신러닝 시스템을 활용해 사람들의 성적 지향을 구분할 수 있다는 논문에 대해 비판한 적이 있는데, 이 논문은 남성 동성애자는 턱이 좁고 이마가 큰 여성적인 얼굴을 가지고 있으며 여성 동성애자는 반대로 남성적인 얼굴을 가지고 있다고 주장했다. 하지만 구글의 연구진에 따르면 얼굴 사진을 찍는 사람의 포즈, 화장 여부 등에 따라 결과가 충분히 달라질 수 있으며 이는 공정성에 어긋난다고 설명했다.

셋째로, 공정성에 대한 표준적인 정의 자체가 마련되어 있지 않다. 이는 결정을 내리는 주체가 인간일 때나 컴퓨터일 때나 동일하다고 밝혔다. 시스템에 공정성의 기준을 어떻게 적용해야 적절한지 판단하려면 사용자 경험, 문화, 사회, 역사, 정치, 법률, 윤리 등의 다양한 사항을 고려해야 하며, 이중 몇몇은 일부 상충하는 요소가 있을 수도 있다고 설명했다. 간단해 보이는 상황에서도 무엇이 공정한 것인지에 대한 의견은 사람마다 다를 수 있고, 어떤 관점에서 정책을 결정해야 하는지에 대한 명확한 잣대가 없다.

이에 대해, ‘불공정한 편견을 만들거나 강화하지 않는다'라는 원칙 하에 더욱 공정하고 포괄적인 머신러닝 모델을 구축하고 있는 구글은 구글 번역에서 성적 편향성을 줄이기 위한 노력이나 개방형 이미지 데이터 세트를 제공하여 문화·지리적 다양성을 포괄하는 노력 등을 통해 AI 기술 활용의 모범 사례를 구축해나가고자 노력하고 있다고 밝혔다.

지금까지는 번역할 단어나 문장이 여성 또는 남성형을 모두 취할 수 있더라도 번역문은 하나의 버전으로만 제공되었다면, 이제 구글 번역 웹사이트는 성 중립적인 단어의 번역문을 여성형과 남성형 두 가지로 제공한다고 설명했다. 영어를 프랑스어, 이탈리아어, 포르투갈어 그리고 스페인어로 번역하는 경우 하나의 단어가 여성 및 남성형 두 가지로 번역되며 터키어를 영어로 번역하는 경우에도 구문이나 문장이 두 개의 버전으로 번역된다.

▲ 찍는 각도나 인물 화장 여부에 따라 결과가 쉽게 바뀌는 것처럼, 철저하게 훈련된 모델이더라도 모든 상황에서 공정하지는 못한다.

 ▲ 구글은 개방형 이미지 데이터 세트를 제공하여 문화·지리적 다양성을 포괄하는 노력을 하고 있다.  



Copyright ⓒ Acrofan All Right Reserved



[명칭] 아크로팬   [제호] 아크로팬(ACROFAN)    [발행인] 유재용    [편집인] 유재용    [청소년보호책임자] 권용만
Copyright © ACROFAN All Right Reserved