[인터뷰] 오세욱 한국언론진흥재단 책임연구위원
“기계가 하면 공정·완벽하다는 맹신 포기해야”
“자동배열 영역 고지, 맞춤형 추천거부권 필요”

“거짓말이다.”

카카오 루빅스 알고리즘 도입 초기인 2016년 오세욱 한국언론진흥재단 연구위원은 국회 입법조사처·한국연구재단 SSK사업단에서 주최한 토론회에서 “알고리즘이 중립적이라는 건 거짓말”이라고 강조했다. 

당시 그는 “카카오가 루빅스(알고리즘)로 뉴스 편집을 한다고 밝히며 공정성과 중립성에 문제가 없다고 하자 담당자에게 전화를 걸어 이 거짓말을 어떻게 감당하겠냐고 말한 적 있다. 다음 뉴스 편집에서도 인간의 역할이 분명 있기 때문”이라며 “마치 인간이 하면 문제가 있고 기계가 하니 중립적이라고 포장하는 게 문제”라고 말했다. 당시만 해도 알고리즘 용어 자체가 생소했지만 이후 5년 간 포털은 이와 같은 지적을 숱하게 받아야 했다. 최근 카카오는 내년부터 사실상 루빅스 알고리즘 뉴스 배열을 폐지하는 개편을 발표하기에 이른다.

▲ 오세욱 한국언론진흥재단 책임연구위원
▲ 오세욱 한국언론진흥재단 책임연구위원

오세욱 한국언론진흥재단 책임연구위원은 언론사와 포털 다음에서 일한 경력이 있는 언론학자로 ‘알고리즘 연구’에 주목하고 있다. 그는 최근 논문과 저서 ‘알고리즘의 블랙박스’를 통해 알고리즘 현황과 과제를 짚었다. 2019년에는 송해엽 군산대 교수와 함께 ‘유튜브 추천 알고리즘과 저널리즘’ 보고서를 냈다. 알고리즘이라는 표현이 생소했던 때부터 꾸준히 알고리즘 문제를 지적해오던 그에게 지난 10일 알고리즘 현황과 제도적 과제를 물었다.

- 언제부터 알고리즘에 관심을 갖게 됐나?

“포털 다음에서 일할 때 뉴스 서비스를 담당한 적 있다. 당시 아고라로 인한 논란과 압박이 지속될 때였다. 그때 처음 회사에서 ‘알고리즘 노출’ 방식을 설명해 알게 됐다. 처음 봤을 때 ‘우리보고 나가라는 건가?’라는 생각이 들었는데 그러면서도 원리에 관심을 갖게 되더라. 그때부터 알고리즘을 파기 시작해 박사 과정까지 이어졌다.”

- ‘알고리즘의 블랙박스’ 책을 통해 이용자들이 알고리즘에 ‘길든다’고 지적했다.

“이미 우리는 길들었다. 내비게이션 없이 우리는 아무 곳도 못 가는 상황이 됐다. 내비게이션 경로 안내에 협찬이 들어가서 음식점, 주유소와 같은 정보는 돈을 많이 낸 쪽이 빈번하게 언급된다는 사실을 우리는 잘 모른다. 유튜브도 마찬가지다. 자동 재생 기능을 켜놓고 살며 다음 영상, 또 다음 영상을 이어간다. 유튜브 입장에선 이용자 편의를 고려한 시스템이고, 저도 편안함을 느낀다. 문제는 편안함에 시간을 뺏기면서 생각할 시간이 없어진다는 점이다.”

▲ ⓒ gettyimagesbank. 디자인=이우림 기자
▲ ⓒ gettyimagesbank. 디자인=이우림 기자

- 미디어가 전과 달리 알고리즘화를 통해 일상을 ‘선제화’하고 있다는 지적도 담았다.

“미디어는 원래 정보를 매개해 많은 사람에게 알려주는 역할을 했다. 지금은 이 기능을 뛰어넘어 어느 순간부터 미디어가 알려주는 대로 가게 된다. 예전에는 알려지지 않은 사실을 알려주는 역할이 중요했다면 지금은 ‘이걸 알아야 된다’고 던진다. ‘이걸 보지 않으면 도태된다’는 위협도 준다. 사람들이 알고리즘 원리는 구체적으로 몰라도 체험적으로 알고 있고, 여기에 따라 행동하게 된다. 이와 같은 행동이 확산되며 주류가 된다.”

- 최근 네이버가 알고리즘 작동 원리를 공개했다.

네이버가 최근 공개한 알고리즘 작동 원리가 솔직하다고 생각한다. 내용을 보면 ‘우리는 심층성을 판단하기 힘들다’고 시인했다. 굉장히 중요한 고백이다. 심층적이라는 주관적 요소는 사람마다 다르게 생각하기 때문에 알고리즘이 풀어낼 수 없다. 정답이 있다면 뉴스 알고리즘도 정답을 찾았을 거다. 좋은 기사에 대한 답이 없으니 수치화한 데이터를 붙일 수밖에 없다. 그간 포털을 지적했던 이유는 ‘알고리즘의 한계’를 인정하지 않고 ‘알고리즘으로 하니 문제 없다’는 태도를 보였기 때문이다. 이전부터 포털이 알고리즘 한계를 인정하기를 원했다. 한계를 인정해야 이후 어떻게 할지 논의할 수 있기 때문이다.”

▲ 포털 네이버가 지난 7월 공개한 알고리즘 배열 기준
▲ 포털 네이버가 지난 7월 공개한 알고리즘 배열 기준

이와 관련 그는 ‘알고리즘의 블랙박스’ 책을 통해 다음과 같이 지적했다. “문제는 데이터화되지 않은 가치는 반영하기 어렵다는 점이다. 특히 뉴스 기사는 절대적 진실을 전달하는 것이 아니라 종합적 진실을 전달한다. 종합적 진실은 상대적으로 구성되는 것으로 0과 1처럼 단순하게 구분할 수 있는 것이 아니다. 균형성, 심층성, 다양성, 사실성, 유용성 등 전통적으로 여겨지는 뉴스 가치는 추천 알고리즘이 반영하기 어렵다. 이에 따라 보다 쉽게 데이터화할 수 있는 이용기록(예를 들어 조회 수, 추천 수, 공유 수, 열독률 등)이 뉴스 추천에 주로 활용되고 있다.”

- 뉴스 배열에 있어 ‘사람 배열’과 ‘인공지능 배열’ 둘 중 무엇을 선호하나?

“사람의 배열을 선호한다. 사람이 배열하면 물어볼 수 있기 때문이다. 왜 이렇게 배열했는지 물어볼 수 있고, 이 기사가 더 가치가 있다고 판단했다는 답도 들을 수 있다. 그런데 기계가 하면 물어볼 수 없다. 질문을 받지 않기 위해 알고리즘을 도입한 측면도 있을 거다.”

- 포털 뉴스 알고리즘 정책을 어떻게 개편해야 할까?

“‘자동영역 배열 고지’를 해야 한다고 본다. 포털은 알고리즘 배열 영역을 분명히 구분하고 책임 지면 된다. 100% 알고리즘으로 하는 영역이라고 고지해놓고 인위적 조정이 들어갔다면 이에 따른 책임을 져야 한다. 인위적 조정이 들어갈 수밖에 없다는 한계가 있다면? 이 역시 고지하게 해야 한다. 그런데 대부분 어느 영역에서 자동배열인지 아닌지를 밝히지도 않으면서 안전하다고 강조한다. 포털이 이용자에게 솔직해지는 게 정답이라고 본다. ‘여기는 자동이다. 그런데 이 영역은 이런 한계가 있어서 사람이 개입했다’고 말이다. 기계가 하면 객관적이고 공정하고 완벽하다는 맹신을 포기했으면 좋겠다. 한계를 인정하고서, 한계를 어떻게 보완할지 논의하는 게 중요하다.”

- 인스타그램이 알고리즘 배열을 중단한다고 발표했다. 카카오도 뉴스 알고리즘 배열 폐지를 담은 개편안을 냈다. 이런 조치에 대한 생각이 궁금하다.

“‘알고리즘 적대감’이라는 표현이 있다. 만일 내비게이션이 특정 음식점만 계속 추천하면 안 쓰게 될 거다. 편리함이 중첩되고 누적되다보면 또 다른 불편함을 낳게 된다. 이때 조정이 필요한 순간이 온다. 조정하면? 이후에 불편함이 또 누적된다. 그러면 또다시 조정한다. 그런 맥락으로 이해해야 한다. 카카오가 알고리즘을 포기하는 건 아니라고 본다. 뉴스 서비스 비중을 줄이는 개편이고, 다른 영역에선 또 알고리즘을 적용할 것이다. 알고리즘 뉴스 서비스가 어떤 측면에서 불편함을 초래한다고 판단을 한 것이고, 내부적으로 신호를 읽었을 것이다. 네이버도 쇼핑 비중이 커진다고 판단했기 때문에 모바일 뉴스 비중을 줄였다고 생각한다.”

- ‘블랙박스’인 알고리즘 공개 요구에 대해선 어떻게 생각하나?

“알고리즘을 공개하면 좋다. 이상적으로 봤을 때 모든 것을 투명하게 공개하는 게 가장 바람직하다. 그런데 영업 기밀인 경우는 보호해줄 필요가 있다. 이용자에 대한 설명 차원에서 상세하게 공개해야 하는데, 어느 수준이 적절하고, 어디까지 공개했을 때 검증 가능하다고 할 수 있을까가 과제로 남는다. 이번에 네이버가 공개한 내용을 보고 ‘이 정도면 된다’고 생각했다. 알고리즘 공개는 이용자와 기업의 관계에서 ‘우리는 믿을 만한 기업’이라는 걸 보여주는 차원으로 접근해야지, 법으로 강제하는 건 큰 의미가 없다고 생각한다.”

▲ ⓒ gettyimagsbank
▲ ⓒ gettyimagsbank

- 책에는 해외의 제도적 대응에 대한 설명과 평가도 있다.

“EU는 강력하게 가고 있다. 물론 EU 입장에선 (미국 기업인) 구글을 견제하는 성격이 있다. 법안 내용을 보면 ‘이용자 보호’에 초점을 맞추고 있다. 이는 미국, 캐나다 등도 마찬가지다. 일례로 캐나다는 국민 실생활에 영향을 미치는지 판단을 하는 영향 평가를 한다. 우리도 알고리즘이 실생활에 영향을 미치고 있는데 어떻게 해야 이용자를 편리하게 만들고 보호할 수 있는지 초점을 맞춰 논의할 필요가 있다.” 

- 책을 통해 알고리즘 시대의 저널리즘 역할을 강조했다.

“우리는 역사적으로 잘못된 것을 개선해왔고, 이 과정에 저널리즘이 역할을 했다. 기술도 같은 대상으로 바라봐야 한다. 알고리즘 결과물이 사람들에게 불편함을 초래한다는 걸 인식하게 해주고 조정해야 하는데 이 과정에 저널리즘이 역할을 해야 한다. 정치인을 취재하려면 친분을 쌓으면 되지만 기술은 친해지기 어렵다. 그래서 공부가 필요하다고 본다. 인공지능 원리를 생각해보고, 결과물이 왜 이렇게 나왔는지 고민해보고, 계속 질문해야 한다. 하지만 현재는 질문을 잘 던지지도 않고 맥락을 벗어난 질문을 던지는 경우도 많다고 생각한다. 저널리즘이 이용자 관점에서 기술에 질문을 던지면 좋겠다. 학계도 이 역할을 해야 한다고 본다.”

- 이용자는 알고리즘 기업에 무엇을 요구해야 할까?

“나는 유튜브의 추천 기능과 자동 재생 기능을 끄고 있다. 이용자들도 자각심을 가져야 한다고 본다. 설정 기능이 없다면 만들어야 한다고 문제 제기를 해야 한다. 맞춤형을 거부할 권한을 요구해야 한다. 넷플릭스는 전체 영상 목록을 확인할 수 없다. 무조건 추천에 따르는 대신 우리가 요금을 내는데 전체 목록을 알 수 있게 해달라고 요구해야 한다.”

이 기사를 후원합니다.

저작권자 © 미디어오늘 무단전재 및 재배포 금지