[아야프에서 만난 사람] 루시드마인드 대표, 포용적 AI 연구자 불런트 오젤(Bulent Ozel)
1. 할&나오 인터뷰: 일본 사회를 더 낫게, 시빅해킹 비영리단체 '코드 포 재팬' |
"인공지능(이하 AI)은 역사상 가장 영향력 있는(Powerful) 기술이자 도구입니다. AI의 영향으로 사회는 변할 것이고 정책은 바뀔 거예요. 이렇게 강력한 도구는, 권력을 목적으로 추구하는 한 사람이나 하나의 조직이 오남용할 때 개인의 삶을 감시하고 통제하는 빅브라더가 되기가 쉬워요. 반면 인간이, 우리가 지금보다 분권적이고 민주적인 사회 제도와 분위기를 쌓아 올릴 수 있다고 '믿으면' 달라져요. 이건 쉽지 않습니다. 우리가 기술에게 주도권을 넘기지 않겠다는 마음을 따로 먹고 이를 현실화해야 하니까요. 거저 주어지는 것이 아니고요."
AI 스타트업에게 컨설팅을 하고 AI 솔루션을 만드는 회사 루시드마인드의 CEO이자, 포용적 AI(Inclusive AI) 연구자 불런트 오젤(Bulent Ozel)의 말입니다. 포용적 AI는 알고리즘을 투명하게 개발할 수 있는 능력과 데이터를 컨트롤할 수 있는 힘이 전반적으로 분산되어야 한다는 개념이에요.
불런트 오젤은 우리가 중대한 전환기를 지나고 있다고 말해요. AI라는 강력한 도구가 힘을 얻어가는 시기에 인간은 더 민주적인 사회 제도를 구상하고 만들어가야 하기 때문이에요. 정말 어려워보이지만 동의해요. 그래서 한 발자국 더 나아가 생각을 해보았어요. 그랬을 때 보인 것은 다양한 이해관계자가 긴밀하게 소통해야 하는 현실이었습니다. 불런트 오젤은 여기서 가교 역할을 하고자 해요.
그가 이런 미션을 품게 된 것은 그의 독특한 이력 덕분이에요. Agent based economy(경제 주체들의 상호작용을 컴퓨터 시뮬레이션 방식을 사용해 규명하는 학술 분야) 연구자 및 교수, IT 회사 컨설턴트, 스타트업 대표이자 컨설턴트로 활동하고 있거든요. 비즈니스와 학계, 정책 연구 분야를 넘나 들면서 자연스럽게 '다름'을 보았고 소통의 '필요성'을 발견했습니다. 그는 앞으로 서로 다른 영역을 연결시킬 수 있는 사람들이 더 많아져야 한다고 생각합니다.
제1회 '아시아 청년 액티비스트리서처 펠로우십 (AYARF, 이하 아야프)'에 교장단으로 참여한 불런트 오젤을 만나 그가 지지하는 AI 원칙과 철학을 자세히 들어보았어요. 맥락이 길고 어려운 내용이었지만 최대한 쉽게 풀어주었어요.
얼마 전 모국인 터키에 마침내 다녀올 수 있었다고 들었어요. 5년 정도 못가다가 이번에 간신히 갔다고요. 많이 안타까웠던 한편 어떤 사연이 있는지 궁금했습니다.
네. 아이슬란드에 있는 대학교에서 경제학 박사학위까지 받아 교수가 됐지만, 타국에서도 지속적으로 터키의 기본적인 인권과 표현의 자유가 보장되어야 한다고 주장해왔어요. 권력을 잡은 터키 군부가 무고한 사람들의 집과 가축을 빼앗았을 뿐만 아니라 목숨도 거두었거든요. 그 중에는 제가 사랑하는 사람들도 있었습니다. 두고볼 수 없었던 저는 멀리서나마 군부에 대항하는 학자들의 모임에 가입했는데요. 터키에서 해당 모임에 가입한 동료들은 대부분 일자리를 잃었고 여행의 자유를 박탈당했어요. 심지어 정당한 재판 절차를 거치지 않고 감옥에 간 사람들도 있습니다. 이런 상황에서 모국으로 돌아갈 수가 없었어요. 그나마 최근 분위기가 조금 풀려서 잠깐이나마 다녀왔어요.
어떤 심정일지 상상조차 어렵네요. 잠시라도 다녀올 수 있어 다행입니다. 사실은, 이 경험이 오젤의 포용적 AI 개념에도 영향을 미쳤을 것 같아서 질문했어요. 권력을 분산하는 개념을 지지한다는 측면에서요.
물론 영향을 미쳤겠지만 이 경험 때문에 포용적 AI를 주장하게 된 것은 아니에요. 원래 대학교에서 전자공학, 컴퓨터과학을 전공했고 대학원에서 조직이론을 공부하면서 컴퓨터와 사람 사이의 상호작용을 주목하게 됐어요. 컴퓨터와 경제학을 접목해 의사결정 결과를 시뮬레이션해보는 분야를 연구한 뒤에 사회, 정치 문제에도 자연스럽게 관심을 가졌고요. 운좋게 전자기기 제조사에서 컨설팅을 하면서 데이터를 활용해 컨설팅 비즈니스를 기획했고 성공적으로 운영했어요. 본격적으로 루시드마인드를 창업한 뒤에는 비즈니스 현장이 학계보다 흥미로워졌어요.
루시드마인드는 어떤 컨설팅 서비스를 해요?
AI 스타트업 및 AI에 관심있는 다양한 조직들을 대상으로 해요. 기술과 사람의 관계를 진지하게 고려하는 조직들 위주로 합니다. 새로운 기술이 나타날 때 사람들은 모든 것이 기술에 의해 결정된다고 생각하게 돼요. 인류의 문명, 문화, 그 안에서의 선택 하나하나가 기술의 영향력을 결정해왔는데도요. 마찬가지로 AI의 폭발력은 엄청나지만 인간과 기술의 관계를 똑바로 보지 못하게 만들어요. 따라서 의식적으로 AI가 일상에 어떤 영향을 미치고 우리가 이것으로 어떤 일을 할 수 있는지를 보아야 합니다. 일상에 영향을 미치는 비즈니스를 할 때는 더더욱이요. 따라서 스타트업의 솔루션 제작 과정 뿐만 아니라 AI에 대한 접근법, 조직 내 의사 결정 프로세스 및 업무 처리 프로세스까지 살펴보고 컨설팅을 해요.
일반적인 솔루션 컨설팅과 달리 사회적인 임팩트를 고려하는 비중이 크군요. 비즈니스 솔루션은요?
의사결정 시뮬레이션 플랫폼 '호모폴리티쿠스(Homopoliticus)'를 개발해 서비스하고 있어요. 기업 또는 개인 사용자가 가상 시장(Mayor)이 되어 경제 정책 결정을 내리고 임팩트를 볼 수 있는 서비스예요. 수많은 변수와 이해관계자를 고려해 머신러닝 알고리즘을 적용해요. 호모폴리티쿠스를 사용하면 학문적으로 시민과 정책 사이의 역동적인 관계를 관찰할 수 있고, 공공기관은 테스트 결과로 정책을 수행하는 과정에 대한 인사이트를 얻을 수도 있어요. 특정 당이 호모폴리티쿠스를 적용해서 얻은 결과를 활용해 정책 입안을 추진할 수도 있죠. 네덜란드 정부로부터 지원금을 받아 서비스를 운영하고 있습니다.
게임 '심시티(Simcity)'를 경제 정책 결정 모의 실험에 사용한 버전인 것 같네요. 듣다보니 루시드마인드를 창업하게 된 계기가 궁금해졌어요.
교수였을 때 가르쳤던 학생 중 한 명과 공동창업했어요. 이후 함께 공부하던 다른 사람들을 끌어들였죠. 저희는 공부할 때부터 쭉 인간을 중심으로 한 AI, 데이터사이언스를 하고 싶었고, 실험실에서만 연구하는 내용을 비즈니스로 만들어야겠다고 생각했어요. 사실은 그런 기술들이 사회에 꼭 필요한 도구인지 검증하고 싶었어요. 지금도 그래요. 저희가 할 수 있는 만큼, 호모폴리티쿠스로 천천히 만들어나가고 있어요.
오젤은 학자에서 창업가가 된 경우잖아요. 돈을 버는 목적만큼이나, 중시하는 철학이 있을 것 같아요. 요즘 많은 IT 기업이 이야기하는 'AI 민주화'를 비판적으로 보시죠?
어떤 기업들은 AI 툴을 모두에게 제공한다는 이유로 'AI 민주화(Democratizing AI)'를 이야기해요. 이것은 진정한 의미의 민주화가 아니라고 생각해요. AI를 도구로 사용할 수 있어야 한다는 주장에는 동의하지만, 도구만 제공하면서 민주화를 이야기하는 것은 해당 기업의 영향력을 높이는 결과만 낳을 거예요. 또 도구가 사회에 미치는 영향을 고려하기 보다, 대부분 일터에서 인간의 생산성을 높이는 결과만을 목적으로 삼기 때문에 인간중심적이지도 않고요.
하긴 목재로 무엇을 만들지도 모르는 사람에게 품질 좋은 망치와 끌을 준다고 테이블이 뚝딱 생기지는 않죠. 그러면 어떤 조건이 충족돼야 한다고 보나요?
데이터 오너십과 알고리즘을 개발하는 능력의 분산화요. 앞으로는 두 가지가 기본 교육 과정에 들어가야 한다고 생각해요. 루시드마인드에서는 이미 이렇게 컨설팅을 하고 있어요.
우선 데이터 오너십에 대해서는, 모든 사람이 데이터를 생산하는 시대에 데이터를 제어하고 감시할 수 있는 권한이 모두에게 주어져야 한다는 이야기예요. 데이터에 접근하고, 데이터를 사용하는 것이 권력이 되어서는 안된다는 이야기지요. 그랬을 때 AI 솔루션을 만드는 회사, AI를 활용하는 회사는 훈련을 시키려는 인풋 데이터가 무엇인지, 이것이 알고리즘을 거쳐 나오는 아웃풋 데이터는 무엇이며 어떻게 활용되는지 공개해야 합니다. 특히 공공데이터는 공공선(Common good)을 위해 사용되는지 시민이 감시할 수 있게 만들어야 하죠.
알고리즘을 개발하는 능력을 분산한다는 이야기는요?
알고리즘은 데이터를 처리하는 방향성을 담은 상자예요. 인풋 데이터가 들어간 상자 안에서 어떤 일이 벌어지는지, 의미 있는 결과가 나오도록 만들어졌는지 투명하게 알아야겠죠(Algorithm Transparency). 지금은 코딩을 못하는 사람이 알고리즘의 원리를 이해하는 정도라면 미래에는 초등학생 수준의 분석 사고만 있으면 모든 시민이 기본적인 알고리즘을 개발할만한 역량을 갖출 수 있는 환경이 조성될 거예요. 문제 해결 능력으로 연결시키는 것은 그 다음 이야기겠죠.
포용적 AI는 여기서 등장하겠군요.
결국 모든 시민이 '내 데이터는 내가 관리한다'는 권한과 알고리즘을 만드는 능력을 가져서 AI가 특정 개인, 조직에 종속되는 것을 방지하는 과정이 선행되어야 한다는 것이지요. 모든 시민을 포용한다는 의미에서 포용적 AI라고 부르고 있습니다.
오젤이 말한 이야기들의 당위성은 이해했는데, 방법이 요원해요. 간단한 가이드라인이나 원칙이 있을까요?
네. AI 컨설팅을 할 때 고려하는 세 가지 원칙을 말씀드리면 될 것 같아요. 첫째는 실용성이에요. 기업이 프라이버시를 침해하지 않으면서 연구개발에 투자하면 좋을 알고리즘을 개발하거나 선택하자는 원칙이에요. 다른 기술 솔루션도 마찬가지고요. 둘째는 공정성입니다. 기계가 데이터를 학습할 때 최대한 편향되지 않은 과정을 거쳐 결과를 내도록 만들고, 이 결과를 계속 체크하자는 원칙이에요. 셋째는 투명성의 제도화예요. 제일 중요합니다. 제도, 조직, 팀, 프로세스 측면에서 소셜 임팩트를 지속적, 의식적으로 측정하는 환경을 만들자는 원칙입니다. 알고리즘이 보이는 편향성의 종류와 영향력을 확인하고, 원리와 코드를 오픈소스로 공개한다는 내용을 담고 있어요.
오젤, 홍차를 마시고 있었는데 벌써 두 번이나 뜨거운 물을 부어왔네요. 제 커피는 다 식었어요. AI와 사회, 경제, 정치의 관계에 대한 오젤의 생각이 궁금했어요. 개인이나 하나의 조직이 답을 낼 수 있는 이슈가 아닌 것을 알면서도요. 꼬리를 문 질문에 답변하느라 긴 시간 내어주어 고맙습니다.
맞습니다. 다크매터랩스 등 기술과 소셜 임팩트의 관계를 진지하게 고민하는 곳들과 협업하는 이유예요. 이를 통해 AI 이슈를 모든 시민의 고민거리(Common concern)로 만들고 싶어요.
슬로워크 역시 데이터 및 알고리즘과 사회의 상호작용을 진지하게 바라보고 있어요. 2018년 말 한국언론진흥재단과 함께 진행한 '뉴스트러스트' 프로젝트가 하나의 예시가 될 수 있겠습니다. '자연어 처리 및 딥러닝 기술을 활용한 뉴스 기사 평가 알고리즘 개발 프로젝트'였어요. 인터넷 뉴스 기사를 모으고 선별해서 독자에게 제공하는 기준을 정하는 프로젝트였는데요. 소스도 공개해서 투명성을 확보하고자 했지요. 역시 정답이 될 수는 없겠지만 포털사이트보다 검증된 기관에서 대안을 모색해보자는 취지였어요.
매일 읽는 뉴스가 어떤 알고리즘을 거쳐 내 손 끝으로 오게 되었는지, 추천 음악이 어떤 개인정보를 기반으로 어떤 알고리즘을 거쳐 내 귀에 내려 앉는지, 스팸 문자와 이메일은 나를 어떻게 알고 이렇게 괴롭히는지. 일상적으로 경험하지만 멈춰서 생각하기는 어려워요. 이런 상황에서는 기술이 개인과 사회의 관계를 결정짓는 것만 같죠. 그런데 오젤과 이야기를 나누고 나서는 생각이 바뀌었어요. 우리의 선택 하나하나가 기술이 사회에 미치는 영향을 결정한다고요.
인터뷰 및 정리 | 오렌지랩 책임 테크니컬라이터 메이
'Technology' 카테고리의 다른 글
시민의 변화와 거버넌스 체계 혁신 (0) | 2020.05.06 |
---|---|
코로나19 이후 웹사이트 메인페이지의 변화 (0) | 2020.03.25 |
PDF, 유튜브, SSL 미설치 관련 지원 중단 서비스 필수 체크리스트 (0) | 2020.03.18 |
“대만에서 인터넷에 접속할 수 없는 곳이 있다면, 그건 제 잘못입니다” (0) | 2020.02.14 |
일본 사회를 더 낫게, 시빅해킹 비영리단체 ‘코드 포 재팬’ (0) | 2020.01.23 |
2030 세대 취향 저격 정보를 한 곳에 (0) | 2019.11.20 |
인생 2라운드를 준비하는 50+세대를 위한 사이트 (0) | 2019.11.12 |
일본군‘위안부’문제연구소 웹진 <결> (0) | 2019.11.07 |