제 762 호 알고리즘의 편식을 멈출 때, 비로소 시작되는 진짜 ‘우리’의 대화
알고리즘의 편식을 멈출 때, 비로소 시작되는 진짜 ‘우리’의 대화
▲필터버블의 개념이 시각화된 이미지
(사진: https://medium.com/@lwluc/filter-bubbles-81347cfed797)
필터버블(Filter Bubble)이란 유튜브, SNS 등에서 마치 동그란 거품에 갇힌 것처럼 내게 편하고 내가 좋아할 법한 영상, 글만 보게 되는 걸 뜻한다. 이는 엘리 파리저의 『생각 조종자들』에서 소개된 개념으로, 개인화된 검색 시스템이 사용자의 위치, 클릭 기록, 검색 이력 등을 바탕으로 보고 싶어 할 정보를 선별해 제공하면서 나타난다. 그 결과 이용자는 자신과 다른 관점의 정보로부터 점차 분리되어, 하나의 문화적·이념적 거품 속에 머물게 된다.
이러한 현상은 확증편향과 선택적 인지를 강화하며, 일종의 정보 편식으로 이어질 수 있다. 알고리즘에 정치적·상업적 논리가 개입될 경우 이용자는 모르는 사이 편향된 정보만 접하게 되고, 다양한 관점과 새로운 정보를 접할 기회를 잃게 된다. 본 기사에서는 필터버블이 미치는 영향을 살펴본다.
플랫폼의 확증편향 유도 원리
필터버블 현상의 대표적인 사례는 유튜브 알고리즘에서 확인할 수 있다. 한국언론진흥재단의 보고서에 따르면, 유튜브 알고리즘은 ‘추천 영상 목록 생성’과 ‘노출 순위 결정’의 두 단계로 작동한다. 추천 목록은 현재 시청 중인 영상과 유사하거나 과거에 함께 자주 재생된 콘텐츠를 중심으로 구성되며, 이 과정에서 사용자의 시청 기록, 체류 시간, 검색 키워드, 거주 지역 등 다양한 정보가 반영된다.
유튜브의 추천 알고리즘이 영상의 노출 순위를 결정하는 핵심 기준은 사용자의 반응 예측이다. 이는 크게 관여도와 만족도라는 두 가지 지표로 측정된다. 관여도는 단순한 클릭 여부를 넘어 실제 시청 시간에 절대적인 가중치를 둔다. 자극적인 섬네일과 제목으로 클릭만 유도하고 내용은 부실한 이른바 ‘어그로’ 영상을 걸러내기 위함이다. 여기에 사용자의 좋아요 클릭이나 평점 부여 등 적극적인 피드백을 뜻하는 만족도가 더해져 영상의 최종 점수가 매겨진다.
흥미로운 점은 암시적 편향을 경계하는 메커니즘이 작동한다는 것이다. 알고리즘은 사용자의 클릭이 실제 선호인지, 단순히 눈에 띄었기 때문인지를 구분하기 어렵다. 이러한 편향이 누적되면 상단에 노출된 결과를 정답으로 오인하는 ‘피드백 효과’가 발생할 수 있다. 이를 방지하기 위해 구글은 상단 노출 영상의 가중치를 낮추고, 사용자가 직접 찾아본 영상에 더 높은 점수를 부여하도록 시스템을 보정했다.
그러나 이러한 보정에도 불구하고, 추천이 반복될수록 알고리즘은 사용자를 더 오래 붙잡아 둘 수 있는 길고 조회수가 높은 영상으로 이끄는 경향을 보인다. 평균 시청 시간을 높이는 구조 속에서 콘텐츠의 내용적 가치보다는 체류 시간이 우선시되는 한계가 나타난다.
우리도 모르는 사이 쳐진 '정보의 벽', 소통이 막힌 캠퍼스
알고리즘이 설계한 필터 버블은 단순히 개인의 취향을 맞춰주는 것을 넘어, 대학 내부를 날카롭게 갈라놓을 수 있다는 위험이 있다. 가장 큰 문제는 대학 공동체의 소통 창구였던 온라인 커뮤니티가 합리적인 토론장 역할을 잃고, 비슷한 생각만 반복해서 메아리치는 고립된 공간으로 변할 수 있다는 점이다. 학생들은 자신도 모르는 사이 내가 좋아하는 정보 속에만 갇히게 되며, 이는 민주적인 토론의 근간을 흔드는 위험 요소가 된다.
이러한 고립 현상은 실제 데이터를 통해서도 명확히 증명된다. 미국의 경제지 월스트리트저널은 동일한 시점에 보수와 진보 성향으로 나뉜 두 개의 계정을 만들어 타임라인을 비교하는 실험을 진행했다. 그 결과, 두 계정은 같은 사회적 이슈에 대해 완전히 상반된 정보만을 노출하며 마치 서로 다른 세상에 사는 것 같은 모습을 보였다. 이는 캠퍼스라는 같은 공간을 공유하면서도, 학생들은 디지털 세계에서 서로 다른 사실만을 학습하며 살아갈 수 있음을 보여준다.
더욱 치명적인 것은 정보가 퍼지는 속도와 방식이다. MIT 연구진의 분석에 따르면, 가짜 뉴스는 진실보다 약 6배 빠르게 확산된다. 이는 알고리즘이 정보의 정확성보다 이용자의 반응과 자극성에 더 크게 작용하기 때문이다. 이로 인해 대학 내에서 젠더나 정치 관련 논쟁이 발생하면, 차분한 비판보다는 자극적인 혐오 표현이 담긴 게시물이 더 빨리 '인기 게시물'이 된다. 이 과정에서 학생들은 알고리즘이 보여주는 편향된 모습이 마치 대학 전체의 여론인 양 착각하는 오류에 빠질 수 있다.
결국 이러한 정보의 불균형은 나와 다른 생각을 가진 학우를 만날 기회를 차단한다. 인간은 본래 자신의 신념과 일치하는 정보는 쉽게 믿고 반대되는 정보는 무시하려는 확증 편향 성향이 있는데, 알고리즘은 이 심리를 정교하게 파고들어 우리를 더 고집스럽게 만든다. 과거 대학의 게시판이나 광장이 서로 다른 목소리가 섞이며 합의점을 찾아가는 열린 마당이었다면, 오늘날의 온라인 공간은 각자의 취향과 생각에만 집중하게 되는 조금 더 개인적인 공간으로 변모하고 있다. 이 과정에서 나와 다른 의견을 마주할 기회가 줄어드는 것에 대한 우려의 목소리가 나온다.
다시 연결되는 캠퍼스, 알고리즘의 편식을 멈추기 위해 필요한 노력
결국 필터 버블이 초래한 지적 고립을 극복하기 위해서는 개인의 주체적인 태도 변화와 더불어 플랫폼의 구조적 개선이 병행되어야 한다.
▲필터버블로 인해서 지적 고립이 심화된 현실
(사진:https://www.kidshankook.kr/news/articleView.html?idxno=6819)
우선 개인적 측면에서는 ‘디지털 균형식’의 실천이 필요하다. 이는 미디어 사용을 줄이는 데 그치지 않고, 알고리즘이 추천하지 않는 다양한 관점을 의도적으로 접하는 것을 의미한다. 또한 자신이 소비하는 정보가 필터링된 결과임을 인식하는 ‘알고리즘 문해력’을 갖춰야 한다. 나아가 대학 구성원들은 “나는 언제든 틀릴 수 있다”는 태도를 바탕으로, 낯선 의견에도 귀를 기울이는 자세가 요구된다.
동시에 플랫폼 측면에서의 기술적·윤리적 결단도 요구된다. 플랫폼 기업은 클릭률을 높이기 위해 갈등을 부추기는 알고리즘 설계에서 벗어나, 정보의 다양성을 보장하는 ‘공적 책임’을 다해야 한다. 이를 위해 이용자가 자신의 정보 편향성을 확인할 수 있는 기능을 제공하거나, 상반된 관점의 콘텐츠를 함께 노출하는 방안이 필요하다. 또한 대학 커뮤니티인 에브리타임 등은 익명성에 따른 혐오 확산을 방지하고, 여론 형성 과정의 투명성을 강화해야 한다.
알고리즘이 쳐 둔 투명한 벽은 개인의 노력과 플랫폼의 제도적 변화가 맞물릴 때 비로소 허물어질 수 있다. 서로 다른 생각과 마주하는 과정을 통해 대학은 다시 ‘대화하는 공동체’로 기능할 수 있을 것이다.
변의정 기자, 김지연 수습기자