2019-11-22 06:05 (금)
[오늘경제]윤송이 엔씨소프트 사장 "AI, 인간의 편견도 학습…사회가 함께 고민해야"
[오늘경제]윤송이 엔씨소프트 사장 "AI, 인간의 편견도 학습…사회가 함께 고민해야"
  • 최영규 기자
  • 승인 2019.11.05 12:17
  • 댓글 0
이 기사를 공유합니다

 

윤송이 엔씨소프트 사장  (사진=엔씨소프트 블로그)
윤송이 엔씨소프트 사장 (사진=엔씨소프트 블로그)

[오늘경제 = 최영규 기자] 한눈에 보는 오늘경제,

"인공지능(AI)도 선입견이 있다."

윤송이 엔씨소프트 사장(Global CSO)은 4일 자사 블로그에 올린 'AI 시대의 윤리'라는 제목의 칼럼을 통해 AI시대에 생각해봐야 할 윤리 문제를 지적하며 교육, 정책, 법률 등 다양한 부문에서 함께 고민해야 한다고 강조했다.

서두는 자율주행 자동차가 도입되는 세상을 이야기할 때 흔히 거론되는 문제로 시작했다. 예를 들어, 자율주행 자동차가 왼쪽으로 꺾으면 탑승자가 다치게 되고 오른쪽으로 꺾으면 여러 명의 아이들이 다치게 되는 상황에서 핸들을 어느 쪽으로 꺾도록 프로그램이 되어야 할까 하는 '트롤리 딜레마(Trolley Problem)'에 관한 것이다. 

윤 사장은 "자율주행 자동차가 주행 중 맞닥뜨릴 수 있는 여러 상황에서의 도덕적 판단을 프로그래밍 하기 위해서는 판단의 기준은 누가 정할 것인지, 어떤 기준으로 판단할 것인지에 대한 논의가 선행돼야 한다. 하지만 이 논의의 배경에 얼마나 많은 가정들이 고려됐는지, 이와 관련된 상위 인지 문제를 풀기 위해서 얼마나 많은 단계를 거쳐야 하는지에 대해서는 정작 충분하게 논의되지 못하고 있다"고 지적했다.

2018년 초 미국 매사추세츠공과대학(MIT)에서 발표한 내용에 따르면, 오픈 소스로 흔하게 쓰이고 있는 얼굴 인식 알고리즘은 피부색과 성별에 따라 인식률에 차이를 보인다. 백인 남성의 경우 98%의 정확도로 인식하는 반면, 유색 여성의 경우 70%가 채 안 되는 인식률을 보인다.

윤 사장은 "자율주행 자동차는 카메라 기반의 얼굴 인식 알고리즘 외에도 다양한 센서로 작동한다. 하지만 이 얼굴 인식 알고리즘이 왼쪽에는 사람이 있고, 오른쪽에는 유인원이 있다는 결론을 내린다면, 상위 인지 문제에 도달하기도 전에 특정 인종에 불합리한 의사 결정을 하게 될 수 있다는 결론에 이르게 된다"고 설명했다.

이어 "이런 편견과 불합리성이 내재된 소프트웨어는 어떻게 만들어졌을까. 엔지니어들이 지독한 편견을 갖고 있어서일까"라는 질문을 던진 그는 "그렇게 생각되지는 않는다. 그들이 AI를 학습시키는데 사용한 데이터 자체에 백인 남성의 데이터가 더 많다 보니 그렇게 학습됐을 가능성이 높다"고 전했다.

또 그는 "AI가 이런 선입견을 가지는 게 잘못된 것일까. 누군가는 편견을 가지고 있는 AI가 불편할 수 있다. 또 다른 누군가는 그것이 사회의 현실이기 때문에 편향된 시각을 가지는 게 제대로 된 AI라고 생각할 수도 있다. 그럼 우리가 꿈꾸는 미래의 사회는 어떤 모습일까. AI를 더 많이 만들어 보급해야 한다고 말하기 전에, 이런 질문에 대한 성숙한 사회적 논의가 먼저 이뤄져야 하지 않을까"라고 직언했다.

더불어 그는 "이미 미국 법원에서는 보석 결정을 위해 AI 기반의 소프트웨어를 쓰고 있다. 이 시스템은 특정 인종과 소득 계층의 피고인에게 불리한 결과를 내는 경향이 있다는 문제가 지적되고 있다. 우리 제도가 가지고 있는 편견과 불합리함을 그대로 학습한 AI 시스템이 불편해지고 있는 것이다. 그렇다면 어떤 판결이 합리적이고 공정한 것인지 AI에게 누가 이야기해줘야 하는 걸까"라며 사회적 문제에 대해서도 고민하게 했다.

다만 그는 AI가 언제나 우리 사회의 편견을 심화시키기만 하는 것은 아니라고 설명했다. AI의 기술로 발견된 편견과 부당함은 오히려 편견이 어디서 오게 됐는지 풀 수 있는 실마리가 될 수 있다는 것이다.

윤 사장은 "AI는 인간 본성을 드러내고 이에 대한 근본적인 질문을 던지는, 그리고 대답을 요구하는 계기를 제공하기도 한다"며 "아마존의 인공지능 플랫폼 알렉사가 남성의 목소리를 가졌을 때와 여성 목소리를 가졌을 때 사람들이 각각을 대하는 방법이나 쓰는 단어, 목소리가 달라진다는 연구 결과가 있다. 이 결과는 우리 사회의 불편한 단면을 드러내기도 한다"고 말했다.

윤 사장은 현재 미국 스탠포드대학 '인간 중심 AI연구소'(Human-Centered AI Institute, HAI)의 자문 위원을 맡고 있다.

'인간 중심 AI연구소'는 AI와 데이터가 더 광범위하게 쓰이는 사회에서 야기될 수 있는 문제들에 의식을 가진 각계의 인사들을 주축으로 운영된다. 에릭 슈미트 전 구글 회장, 제리 양 야후 공동 창업자, 제프 딘 구글 AI 책임자 등으로 구성된 자문위원들은 미래 사회에서 기술 개발, 교육, 정책, 법제 마련은 어떤 식으로 돼야 하는지 의견을 낸다.

윤 사장은 "기술이 갖는 파급력이 커지는 만큼, 이를 다루고 만드는데 따르는 책임도 커지고 있다. 우리가 만들어 내는 기술이 사회에 어떤 영향을 미치는지, 의도하지 않았던 결과를 초래할 위험은 없는지 충분한 고민이 필요한 시점"이라며 "뿐만 아니라 편견이 반영된 기술을 받아들이지 않는 사회의 의식 또한 성숙해져야 한다"고 강조했다.

이어 "파급력있는 기술을 만드는 입장에서 어떤 기준으로 기술을 만들고 발전시켜 나갈 것인지 고민하는 건 당연하다. 그리고 그 기준을 만드는 데 참여하는 것은 의무"라며 "인공지능은 더 이상 하나의 새로운 기술에 그치지 않는다. 이 기술이 사회에 올바르게 작동하기 위해선 교육, 정책, 법률 등 다양한 부문에서 함께 고민해야 한다"고 덧붙였다.

오늘경제, STARTUPTODAY


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.