Skip to content

DA06. 알고리즘조작

YouTube, TikTok, Instagram, Netflix, Facebook 등 모든 주요 플랫폼은 이른바 알고리즘이라는 것을 사용한다. 알고리즘은 시스템에 다음에 나에게 무엇을 보여줄지 알려주는 일련의 명령이다. 하지만 여기에 비밀이 숨어 있다.

이 알고리즘은 진정으로 나에게 무엇이 필요한 지, 좋은 지 신경 쓰지 않는다는 것이다. 이 알고리즘이라는 것은 내가 계속 시청하고, 스크롤하고, “좋아요!”를 누르고, 공유하고, 반응하게 만드는 것에만 관심이 있다. 그래서 그들은 내가 요청한 것을 보여주는 대신, 나와의 상호작용을 통해 그 알고리즘에 의해서 다음과 같은 것들을 파악하려고 한다. “무엇이 사용자를 화나게 만드나? 무엇이 사용자를 슬프게 만드나? 무엇이 사용자를 설레게 만드나? 무엇이 사용자를 두렵게 만드나? 무엇이 사용자를 충격 받게 만드나?” 그러면 그들은 이러한 결과에 따라 나에게 더 많은 것을 주워 먹게 하고, 더 깊게 접근하기 시작한다. 이것이 ‘알고리즘 조작’이라는 것이다.

그 알고리즘에 의해 시스템은 나의 습관을 학습하고, 나도 모르는 사이에 그것을 이용해 나의 관심을 조금씩, 매 순간 조종하는 것이다. 즉, 그들이 나를 연구하고, 그것을 이용해서 나를 함정에 빠뜨리는 격이다.

충격적인 것은 내가 사용자의 입장이 되어 행동한 것은 손가락으로 클릭만 했을 뿐인데, 도대체 어떻게 알게 될까? “왜?”라는 질문을 기술 쪽으로 방향을 두지 말고, “과연 내가 매일 어떤 감정으로 살아갈까? 그 감정이 어떻게 추적되는지 모르겠지만, 조작될 수도 있을까?” 이렇게 자신도 모르게 나타나는 내 자신의 감정 표현 쪽으로 방향을 두고 생각해 보는 것이 그 ‘알고리즘 조작’의 정체를 알 수 있는 길이 희미하게 보일 수도 있을 것이다.

어떤 때는 나도 내가 정확히 어떤 감정 상태인지 모를 때가 있는데, 나도 모르는 감정 상태를 제 삼자(?)가 안다는 것은 심각하게 생각해 봐야 하는 것이 아닐까? 나는 그저 클릭만 했을 뿐인데, 나의 감정 상태가 지금 내가 화가 났는지, 아니면 내가 슬픈지, 아니면 내가 충격을 받은 상태인지 밝혀진다는 것은 오히려 매우 궁금하기만 한 일이기도 하다. 그런데 이 시점에서 내가 중요한 것을 놓치고 있다는 것을 알아야 한다.

사람은 감정을 말로 표현하지 않아도, 행동과 패턴으로 그 감정이 드러날 수 있다는 것이다. 나는 단순하게 클릭만 했다고 생각하겠지만, 내가 클릭할 때 관련된 것들의 맥락적 요소가 어떠했는지, 그 맥락적 요소가 중요하다는 것이다. 그 순간에, 내가 클릭한 순간과 연결되는 것이 단지 마우스만은 아니라는 것이다.

내가 무엇을 보고 어떤 것에 클릭을 하는지, 내가 어떤 웹페이지에, 얼마나 오랫동안 머무는 지, 그 머무는 시간과 그 웹페이지를 볼 때 스크롤을 얼마나 빨리 움직이는지, 내가 어디에 멈춰 있는지, 내가 다시 보는 부분은 어떤 것인지, 모든 것이 다 일종의 감정 상태의 단서이며, 내가 클릭하는 순간의 주변 맥락적 요소하고 할 수 있는 것이다.

예를 들어서, 내가 어떤 영상의 제목을 클릭했는데, 그 영상이 슬픈 내용을 담고 있고, 내가 그 영상에서 멈춰 있는 시간이 길고, 스크롤을 멈추고, 심지어는 댓글을 반복해서 읽거나, 그 영상과 관련된 비슷한 콘텐츠만 연달아 보는 행동을 했다면, 그리고 그것을 알고리즘이 캐치했다면, 알고리즘은 나의 이런 순간의 선택을 연결하면서 이렇게 해석한다.

“이 사람, 지금 감정적으로 슬픔에 머물고 있군. 이 감정 상태를 유지하는 콘텐츠를 더 보여 주어야겠다”, 물론 그 알고리즘이 내 표정도 보지 않고, 내 목소리도 들은 것이 하나도 없다. 그냥 클릭하고 스크롤한 것만으로도 어떤 감정의 상태인지 추정된다고 보는 것이다.

그렇다면, 내가 클릭하고 스크롤 하는 순간에 내 주변을 이룬 그 맥락적 요소를 단순하게 이 두 가지만 있었다고 볼 수는 없는 것이다. 상호작용이라면 상대가 있어야 한다. 여기서의 상대는 바로 내가 시각적으로 자료와 정보를 수집하고 있는 화면이며, 이 화면의 컨텐츠와 내가 지금 그 순간에 상호작용을 하고 있는 것이고, 이 상호작용을 통해 그 알고리즘은 나를 아는 것이 아니라 나를 알려고 상태를 추정한다는 것이다.

그런데, 놀라운 것은 그 “추정”이 생각보다 무서울 정도로 점점 정확해질 수 있다는 것이다. 왜냐하면 그 시스템은 ‘나’라는 한 사람의 데이터를 보는 것이 아니라, 수천만 명의 패턴을 학습한 후, 나의 행동이 그 중 어디에 속하는지를 비교해 볼 수 있기 때문이다.

그러니까 우습게도 내 감정을 내가 인식하지는 못했지만, 그 알고리즘은 수천만 명이 나와 유사한 행동을 한 것으로 추정하고, 그로부터 나온 결과를 가지고 내가 특정한 감정 상태일 확률이 높다고 보는 것이다.

그래서 예를 들어, 내가 밤 11시쯤, 배고플 때 자주 배달 앱을 열고 특정 메뉴를 10초 이상 바라보다가 끄기도 하고, 그리고 그것을 반복한다면, 그 앱은 내가 ‘지금은 배고프지만, 참으려 하는 상태’라고 분석할 수 있을 것이다. 일반적인 분석에서 정확한 시각과 상호작용이 일어난 때의 시각적 요소, 추정할 수 있는 감정상태의 분석, 일정한 순간들의 연속에서 내가 남긴 흔적 등을 통해 점점 특수한 분석을 통해 어떤 결과를 가지게 될 것이다. 그렇다면 얼마든지 내가 그 알고리즘이라도 그렇게 생각하지 않을까? 감정은 이런 ‘미세한 갈등’에 담겨 있기 때문이다.

사람들도 어떤 경우에 눈치라를 것을 본다. 이 ‘눈치’, “그 친구는 위트가 있다”고 하든지, 혹은 “그 친구는 센스가 있다”라는 것이 눈치를 잘 본다는 의미다. 그 다른 사람의 마음의 상태, 즉 감정적인 상태를 그 순간의 여러 맥락적 요소를 가지고 미루어 알 수 있다는 그 ‘눈치’가 바로 ‘알고리즘 조작’이 하는 처리과정인 것이다.

그러면, 내가 화가 나 있거나, 어떤 충격을 받은 상태의 감정을 어떻게 알지 궁금해지는 것이다. 사실은 이것이 그 알고리즘의 가치가 된다. 이 경우만 아니라 컴퓨터과학에서 문제를 해결하는 방법론에서도 그 알고리즘은 어떤 문제를 얼마나 빨리, 그리고 오류도 없이, 또는 이해할 수 없는 결과도 없이 매끄럽고 정확하게 문제를 해결하는 지에 그 가치가 어마어마하게 중요한 것이다. 문제는 이 알고리즘의 가치를 사람들이 잘 모른다는 것이다. 그저 결과물로 나온 외형적인 부분에만 관심이 쏠려 있기 때문이다. 어떻게 보면 하드웨어만 보고 내부 소프트웨어 적인 부분은 간과해 버렸기 때문에 ‘외모지상주의’가 팽배한 사회가 되어 버린 것이다.

이제 그 내부적인, 소프트웨어 적인 문제가 커다란 가치를 가지고 있는 것이고, 그것이 바로 ‘알고리즘 조작’이라는 처리과정으로 나타난 것이다. 이 알고리즘의 필터링은 사람들의 감정들이 보통 이례적인 행동을 동반한다는 매우 평범함에서 시작한다.

예를 들어, 내가 뉴스 앱을 보다가 갑자기 스크롤을 빨리 넘기고, 어떤 기사에서 몇 초 만에 빠져나가고, 그 후로 긴 시간 아무 콘텐츠도 보지 않거나 앱을 꺼버리는 경우가 있다면, 이런 행동에 대해 시스템은 이렇게 이해하게 될 수도 있다. “방금 본 기사에 대해 강한 감정 반응이 있었을 가능성이 높다. 불쾌하거나 충격적이었을 수 있다”, 물론 단지 확률적인 추정이지만 말이다. 이제 그 필터링이 시작되는 것이다.

그리고 만약 내가 그 후로 특정한 정치적 주제만 더 보기 시작한다면, 알고리즘은 “이 사람, 지금 정치적 감정이 동요된 상태다”라고 판단하고, 그에 맞는 콘텐츠를 제공하려고 할 것이다. 이것이 바로 “행동유도조작법”이라고도 하는 ‘알고리즘 조작’이다.

처음엔 단순한 추정이지만, 그 추정에 따라 내가 보는 세상이 바뀐다는 것이다. 한 번 슬픈 콘텐츠를 많이 보면, 그 감정을 더 강화하는 콘텐츠가 추천되고, 그것이 반복되면 알고리즘이 만든 ‘감정의 굴레’에 빠지게 되는 것이다. 즉 처음에는 나로부터 감정상태에 대한 자료와 정보를 받아들이지만, 그 이후에는 감정의 흐름의 골을 파서 내가 그 골을 따라 흐르게 하고, 알고리즘은 그 골을 따라 나를 유도하고, 어느 순간에 더 깊은 골을 파서 그 골에서 나온 웅덩이에 멈춰버리게 만드는 것이다. 그런데 문제는 내가 알고리즘이 제공한 골을 따라 흐르고 있다는 것을 모른다는 것이다. 그리고 더 깊은 골을 따라 커다란 웅덩이에 고이게 된다는 것을 모른다는 것이다.

결국, 나의 감정이 알고리즘에 의해 강화되고 조정되는 것처럼 느껴지게 되는 것이다. 이것이 바로 오늘날 사회적으로 문제되고 있는 감정 증폭의 문제, 그리고 앱과 웹사이트가 사용자가 좋아하거나 인정한 내용만 보여주다 보면 비슷한 생각만 나오게 되는 그런 뉴스 버블(News Bubbles)이나 주의력 경제(Attention Economy(18))와도 연결되는 부분이다.

결론은 클릭이라는 하나의 행위와 그와 연관될 수 있는 관련된 행동, 그리고 수집될 수 있는 주변 맥락적 요소에 의한 흔적들이 내가 클릭만 했는데도, 내 감정의 흐름이 드러나고, 조정될 수도 있다는 것이다. 어차피 필요한 정보는 클릭을 해서 봐야 되는 것이다. 그래서 그들이 제공하는 앱 안의 알고리즘을 막으려고 하지 말고, “행동유도조작법”에 내 자신이 휘둘리는 것 같다고 느낀다면, 내가 단순하게 클릭하는 것이지만, 내 감정이 섞일 수 있다는 것과, 알고리즘에 의해 나에게 추천한 컨텐츠가 반드시 꼭 좋은 것 만은 아니라는 것을 알아야 하며, 그렇게 스스로 자각할 필요가 반드시 있으며, 그런 감정이 표현될 수 있는 어떤 생각과 행위에 ‘거리두기’가 필요할 수도 있다는 것이다.

그리고 기술적으로는, 요즘 일부 연구에서 “감정 데이터의 주권”을 주장한다. 감정 분석 기술을 사용자 중심의 권한 기반으로 제한하자는 것이다. 예를 들어, 어떤 앱이 내 감정 상태를 파악해도 되는지에 대해 내가 직접 허용 여부를 선택하는 구조를 만드는 것이다. 이건 프라이버시 이슈이기도 하고, 최근 인공지능 윤리와 데이터 주권 논의에서 아주 중요한 주제 중 하나이다.

사람들이 겉으론 단순한 클릭, 스크롤, 정지라는 행동만 하는 것처럼 보여도, 상호작용 하는 그 대상과의 주변 맥락적 요소 안에는 방대한 양의 감정 단서가 녹아 있고, 그것이 데이터화 되고 예측의 도구가 되는 시대에 살고 있는 것이다. 어떤 감정이 나를 이끌고 있는지, 그리고 어떤 시스템이 그 감정을 자극하고 있는지를 조용히 자각하는 것, 그것이 지금 내가 갖춰야 할 가장 중요한 기술 중 하나일지도 모른다.