‘AI가 무엇을 해야 하는지, 하지 말아야 하는지’ 이제는 논의 해야 한다…MS 퓨처나우
11월 7일 홍은동 그랜드 힐튼 서울 호텔에서 MS 퓨처나우(Microsoft Future Now)가 열렸습니다. ‘AI로 만드는 비즈니스의 미래’를 주제로 열린 콘퍼런스에는 사티아 나델라(Satya Nadella) CEO도 참여해 스피치를 했습니다.(사티아 나델라, 그가 박수 받을 수 있었던 이유…MS 퓨처나우)
MS 퓨처나우에 개발하는 기자, 개기자가 다녀왔습니다.
에릭 차란(Eric Charran) – 디지털 트랜스포메이션
나델라 CEO에 이어 에릭 차란 MS 데이터&AI 최고설계임원이 스피치를 맡았습니다.
디지털 트랜스포메이션 이야기를 했는데요. 에릭 차란은 ▲조직을 좀 더 잘할 수 있게, 비용으로 더 낫게 ▲완전히 새로운 것을 하는 것 등을 디지털 트랜스포메이션으로 정의했습니다. 앞서 6일에 열린 레드햇 포럼 서울 2018(디지털 트랜스포메이션은 레드햇처럼…레드햇 포럼 서울 2018(상))에서도 디지털 트랜스포메이션을 강조했는데요. 이는 글로벌 추세인 것 같습니다.
또한, MS가 ▲AI ▲퀀텀(Quantum) ▲블록체인 등 서로 연계되는 3가지 영역에 투자를 가장 많이 한다고 밝혔습니다.
크레이그 샹크(Craig Shank) 글로벌 정책그룹 총괄부사장
크레이그 샹크 총괄부사장은 기술이 빠르게 발전하는 가운데 생각해볼 만한 주제를 던졌습니다. 2003년 MS 입사 후 15년이 흘렀다며 스피치를 시작했는데요.
한국은 전 세계 1인당 로봇 수가 가장 많고, GDP 대비 R&D 투자가 두 번째로 높고, AI 특허 수가 3번째로 높다며, 기술로 우리가 무엇을 하고 있는지 생각해보자고 말했습니다.
샹크 총괄부사장은 “AI는 앞으로 더 많은 기회를 줄 것이다. 하지만 AI는 사람을 대체하는 것이 아니다. AI는 우리를 보완해 주는 것이다”며 AI를 정의했습니다.
이어서 AI의 윤리(The Ethics of AI)에 대해 이야기를 풀었습니다. ▲공정성 ▲안전성&안정성 ▲프라이버시&보안 ▲포용 ▲투명성 ▲책임성 등인데요. 샹크 총괄부사장은 “MS의 비전은 AI 기술을 민주화하는 것이다”며 “기술이 무엇을 해야 하는지, 뭘 해선 안 되는지 이야기해야 한다”며 이 논의를 함께 해 달라고 부탁했습니다.
무거운 주제를 던진 샹크 총괄부사장의 활약은 다음 패널토론 세션에서도 이어졌습니다.
패널토론 – AI윤리에 대해서
사티아 나델라 CEO 스피치 이후 퇴장하는 사람들도 있었습니다. 하지만 개기자는 오전 세션 중 이 패널토론이 가장 흥미로웠는데요. 각 패널의 영역도 적절했고, 박선정 변호사의 진행도 깔끔했습니다.
패널토론은 박선정 한국마이크로소프트 법무정책협력부문 변호사, 이수영 KAIST 교수(카이스트 인공지능 연구소장), 이상훈 충남대 법학전문대학원 교수(인공지능법학회장), 권용현 과학기술정보통신부 국장(지능정보사회추진단 부단장), 크레이그 샹크 총괄부사장이 참석했습니다.
◆AI의 공정성
AI윤리를 주제로 이야기했는데요. 먼저 공정성에 대한 이야기를 나눴습니다. ‘뉴욕타임스에서 얼굴 인식이 백인 남성은 99%지만, 여성과 흑인은 확률이 현저히 떨어진다. 이런 편향에 대해 어떻게 생각하나?’라는 질문에는 이수영 카이스트 교수가 답했습니다.
이수영 교수는 “32년간 딥러닝 기초를 연구했지만, AI가 가져야 할 윤리에 관해 관심을 가진 건 2년, 형평성과 공정성은 1년 밖에 안된다. 그동안은 윤리를 따질 성능이 없었다. 이제 윤리를 따질 만큼 AI 성능이 높아진 것”이라며 현재 이 문제가 언급되는 이유를 짚었습니다. 이어서 이수영 교수는 “AI는 데이터 학습에 의해 지능을 구현한다. 그러면 데이터는 형평성을 갖는가? 아니다. 백인 남자의 데이터가 흑인 여자의 데이터 수보다 월등히 많다. 데이터가 80%와 20%라고 하면, 80%를 만족시키는 게 기술적으로 더 쉽다. 그 때문에 현재와 같은 불공정이 생겼다. 이는 AI의 현 문제가 맞다. 학습 법칙을 바꿈으로써 극복하려 한다”고 답했습니다.
이상용 충남대 법학전문대학원 교수는 모든 사람의 자유에 대한 내용이 헌법에 있지만, 자유엔 책임이 따른다며 “AI 개발에 참여한 엔지니어 개인의 책임이 문제가 될 수 있다”고 법학 측면에서의 공정성 이야기를 했습니다.
크레이그 샹크 총괄부사장은 사회, 컴퓨터과학에 대한 연구가 더 이뤄져야 한다며 “디자인, 개발 등 팀의 구성원이 다양할수록 서비스 편향을 줄일 수 있다. 편향을 없애는 것이 미래의 디버깅”이라 답했습니다.
각각의 역할에 맞는 적절한 답변이 시작됐습니다.
◆AI 윤리의 원칙
다음 질문은 AI 윤리의 원칙을 어떻게 정하느냐는 질문이었는데요.
크레이그 샹크 총괄부사장은 원칙을 개발하기 위해 여러 국가의 법을 검토하기도 했고, 이전 AI를 분석하기도 했다며 “현재 정한 원칙이 유일하다고 생각하지 않는다. 하지만 이 원칙이 우리의 지침이고, 추후 또 생각할 수 있다”고 답했습니다.
◆카이스트 윤리 헌장
카이스트도 윤리 헌장을 발표했는데요. 이수영 교수는 AI가 계속해서 학습하기 때문에 계속 다른 AI로 바뀐다고 지적했습니다. 즉, AI와 함께하는 ‘사용자’에 따라 다른 AI가 될 수 있는 것인데요. 이수영 교수는 “AI는 기계에서 도우미로, 도우미에서 동반자로 성장할 것이다”며 “즉, 사람이 사람에게 요구하는 것과 비슷한 윤리 의식을 가져야 한다. ▲사람에 대해 해를 끼치면 안되고 ▲부탁을 들어줘야 하고 ▲묵시적으로 위임 받은 사항은 알아서 할 수 있어야 하고 ▲그 과정에서 사람이 명시적으로 요구하면 그 요구를 따라야 하는 등의 윤리들이 있다”고 답했습니다.
◆정부의 노력
정부측면의 답변은 권용현 과학기술정보통신부 국장이 했습니다. 권 국장에 따르면 정부에서 지원하는 AI 사업은 약 5.2조원, 공공기관 포함하면 약 300조가 넘는 돈을 쓰고 있는데요. AI를 법에서 다루느냐, 가이드라인을 배포하느냐 등 논의를 했고, 법에는 ‘킬 스위치(원격제어를 통해 사용을 제한하는 소프트웨어 기술)’ 등 최소한만 넣고, 나머지는 민간이 알아서 할 수 있도록 가이드라인을 4월에 배포했다고 합니다.
이에 권 국장은 “AI 파트는 일단 해봐야 뭐가 문제인지 알 수 있다. 공급자, 개발자, 사용자 등 3가지 축으로 나눠 투명성, 통제성, 공공성, 책임성 등 4가지 원칙으로 30여 개 가이드라인을 공개했다” 답했습니다. 정부의 노력이 느껴지는 답변이었습니다.
◆AI가 사회 통치 수단으로 악용되면 어떡하나?
다음 질문은 AI에 대한 가장 큰 우려 중 하나인데요. 조지오웰의 소설 ‘1984’에 나오는 소위 ‘빅 브라더’ 문제에 대한 질문이었습니다.
이에 크레이그 샹크 총괄부사장은 “아직 그 단계까지 발전하지 못했다. 가능성은 있겠지만, 벌써 그런 걱정을 할 필요는 없다. 악용될 수도 있지만, 안면인식기술을 인명구조에 사용하는 등 긍정적인 부분도 있다. 대화를 많이 하며 풀어가야 한다” 답했습니다.
◆윤리가 사회적 이슈를 해결할 수는 없다. 정부의 중재가 필요하지 않나?
좀 더 강한 규제에 대한 질문이 이어졌는데요. 정부가 강하게 기술의 오용을 막아야 하는 것 아니냐는 질문이었습니다.
이에 권 국장은 “AI가 좋은 성과를 낼 수도 있지만, 일자리 문제, 계층 차별 등의 문제점도 분명히 있다. 하지만 정부의 몇 사람이 결정할 수 있는 문제는 아니다. 관련해서 많은 논의를 하고 있고, 사회적 합의를 위해 내용을 공론화할 계획이다.”며 정부의 노력을 보였습니다.
이상용 교수는 역시 법 측면에서 답을 했는데요. AI 기술과 산업이 발전 중이고, 영향을 예측하기 어렵다며 새로운 입법보다는 기존의 법을 활용하며 상황을 봐야 한다는 보수적인 태도를 내놓았습니다. 부작용에 대한 우려였습니다.
◆그래서 윤리에 맞는 방향은 어떻게 가나?
질문이 이어질수록 진행자와 패널의 내공이 느껴졌는데요. 마지막 질문으로 그래서 앞으로 해야 할 일에 대해 모두가 한마디씩 했습니다.
권 국장은 “정부는 현재 스마트시티 등 프로젝트를 추진하고 있다. 스마트시티는 U시티 등과 다르게 데이터를 공유해 AI 서비스로 생산성을 높여야 한다. 이에 데이터를 통합할 시스템이 중요한데, 앞서 말했듯 AI는 해봐야 알 수 있다”며 “스마트시티는 내년 초 구체적으로 시작되는데, 함께 논의해야 한다”고 답했습니다.
이수영 교수는 소규모로 실험을 한 뒤, 실험 데이터를 활용해 일반적인 모델을 만드는 것을 추천했는데요. 이 분야는 너무 빨라도, 너무 늦어도 위험도가 있기 때문입니다. 이어 AI에 대한 애정을 보였는데요 “AI는 사람만큼만 위험하다고 생각한다. AI를 자식이나 동료처럼 생각하며 함께 성장하자”고 말했습니다.
이상용 교수는 현재 정책수립과 입법에서의 아쉬움을 말했습니다. “입법에서는 투명성과 효율성의 조화가 필요한데, 투명성은 민주주의 원리와 부합한다”며 “효율성은 자율과 창의에서 비롯된다. 현재 공공조직은 효율보단 투명성이 강조돼 있고, 인센티브보다 패널티가 구성돼있다. 이 구조로는 어렵다. 국민이 정부의 효율성에도 관심을 가져야 한다”며 적절한 규제를 만들기 위한 조언을 했습니다.
크레이그 샹크 총괄 부사장은 디지털 트랜스포메이션에서 번영할 거라 생각하지만, 기술을 받아들이는데 고심하는 것 같다며 “책임있는 기술, 신뢰할 수 있는 AI를 만들어야 한다”고 강조했습니다.
사티아 나델라 CEO의 스피치부터 기술, 정부, 법 등 각 분야의 토의까지 MS 퓨처나우 오전 세션은 이처럼 꽉 차게 운영됐습니다.