“이제는 노동이든 여가든 알고리즘과 만물의 공식이 적용되지 않는 분야는 떠올리기 힘들 지경이 되었다. 이 책은 우리가 어쩌다가 이 지경에 이르렀는지, 알고리즘의 시대가 인간의 창조성, 인간관계(더 구체적으로는 연애와 결혼), 정체성 개념, 법률 문제 등에 어떤 영향을 미치는지 살펴보려는 것이다.
알고리즘은 이 모든 물음에 답하기에 안성맞춤이다.
문제는 과연 우리가 원하는 대답을 내놓을까 하는 것이다.” – <만물의 공식> 중에서…
자기 수량화와 알고리즘적 자아
저명한 물리학자이자 슈퍼컴퓨터 전문가인 래리 스마는 정신 건강에는 신경을 많이 썼지만 육체의 건강에는 큰 관심을 두지 않았다. 스마는 항상 기름 범벅인 도넛과 콜라를 입에 달고 살아왔다. 그의 몸무게가 100kg라는 고지를 눈 앞에 두고 있을 2000년 어느 날 그는 지금까지 느껴보지 못한 지독한 위화감에 휩싸였다. 주변을 둘러보니 온통 날씬한 사람들 뿐이었고 자기 자신은 저들과 다르다라는 생각을 하게 된 것이다. 스마는 서점에 나온 다이어트 서적을 모두 사 보았다. 그러나 그는 만족할만한 결과를 얻지 못했다. 그때부터 그는 과학자답게 행동하기로 했다. 자기 자신을 스스로 측정해 보기로 한 것이다. 각종 헬스 관련 웨어러블 디바이스를 구입해 자신의 신체 변화에 대한 데이터를 수집했고 사설 연구소에서 유료로 혈액 검사를 받았다. 그리고 동시에 독학으로 생물학과 의학을 공부했다.
데이터를 점검하면서 스마는 자신의 복합반응단백질 수치가 비이상적이라는 것을 확인하게 된다. 이는 인체의 염증과 깊은 관계가 있는 것인데 수치가 1을 넘으면 안된다. 하지만 스마는 5였다. 스마는 염증을 일으키는 음식을 식단에서 제하기 시작했다. 그런데 수치가 떨어지는 커녕 시간이 갈수록 올라갔다. 스마는 의사를 찾아가 자신이 발견한 내용을 말했다. 의사는 스마의 데이터는 지나치게 학술적이며 임상적으로는 아무짝도 쓸모없다며 신경쓰지 말라고 했다. 의사에게 핀잔을 먹은 뒤 몇 주가 지난 후 스마는 왼쪽 복부에 극심한 통증을 느꼈다. 병원에서는 급성 염증으로 인한 질병인 게실염 진단을 받았다. 그때부터 스마는 자신의 건강은 직접 챙겨야겠다고 결심하고 강박적으로 자신의 신체 데이터를 수집했다. 그리고 데이터를 분석하고 학술자료를 병행하여 찾아본 결과 자신이 크론병이라는 것을 알게 되었다.
스마는 이런식으로 자신의 몸과 일상 생활을 순수하게 숫자의 관점에서 파악할 수 있도록 분리하고 수량화하고 부호화했으며 그간 10년 동안의 자신의 몸 연구를 담은 <디지털 유전체 의학을 향하여 : 내 몸을 수량화한 10년간의 추적 기록>이라는 논문을 발표하게 된다. ‘숫자를 통한 자기 이해’라는 측면해서 스마의 논문은 매우 획기적이라고 할 수 있다.
그런데 스마만이 아니라 상당한 이들이 자기 몸을 감시하는 일에 열성적으로 매달리고 있다. 이를 자기 수량화(Quantified Self) 운동이라고 한다. 자기 수량화 운동은 <와이어드(wired)>의 편집자 게리 울프와 케빈 켈리가 창시했는데 이들은 경험주의의 실증적 관점에다 기술 결정론을 융합하여 다음과 같은 존재론적 질문을 우리에게 던지고 있다.
“올바른 알고리즘을 이용하여 수량으로 분석할 수 없는 자아가 과연 존재할 수 있을까?”
미국의 저명한 심리학자인 윌리엄 제임스는 ‘자아란 그의 것이라 부를 수 있는 모든 것의 총체로, 그의 신체와 정신 능력뿐 아니라 의복, 집, 처자식, 선조와 친구, 명성과 업적, 토지와 가축 그리고 요트와 은행 예금 등’이라고 말했다. 디지털 라이프만이 아니라 스마트폰과 대중화되고 있는 웨어러블 디바이스를 통해 우리는 아날로그 라이프에서도 엄청난 양의 데이터를 양산하고 있다. 윌리엄 제임스가 말한 자아를 구성하는 것들의 거의 모든 데이터를 양산하고 있는 것이다. 그리고 이런 자신의 데이터가 적절한 알고리즘과 만나게 된다면 우리는 사실상 알고리즘적 자기 즉 완전히 디지털적인, 그래서 측정할 수 있는 정체성이 만들어지게 된다. 그리고 그 정체성에 가장 관심을 갖는 주체는 기업이다.
정체성 비즈니스
여러 웹사이트와 서버에서 사용자 활동을 추적할 수 있게 되면서 웹 분석이라는 거대 산업이 등장했다. 이 회사들은 사람들에 대해 막대한 양의 정보를 수집할 뿐만 아니라 독자적 알고리즘을 이용하여 이를 분석한다. 이 분야의 가장 큰 회사 중 하나인 퀀트캐스트(Quantcast)는 자신의 홍보자료에 이렇게 적었다.
“저희가 행동 패턴을 읽고 데이터를 해석하는 것을 보면 초능력이 있다고 생각하실 겁니다. 저희는 고객이 행동하기 전에 압니다. 여러분이 행동하기 전에 압니다. 여러분의 고객이 어느 방향으로 갈지 그뿐만 아니라 어떻게 갈 것인지도 알기에 실제로 그들의 방향을 바꿀 수 있습니다.”
퀀트캐스트는 데이터 분석을 통해 고객의 인구통계, 소비자의 행동 양식과 가치관, 관심사 등 세세한 범주로 고객을 분류한다. 그리고 알고리즘을 통해 아마존의 맞춤형 사용자 추천처럼 고객 맞춤 서비스를 가능하게 해준다. 예를 들어 온라인 쇼핑몰 운영자가 각각의 고객에 맞춰 매장 진열을 바꿀 수 있다. 그리고 이런 소비자 맞춤은 온라인에 국한된 것이 아니다. 페이스딜스(Facedeals)라는 회사는 안면 인식 카메라로 고객의 얼굴을 스캔한 후 페이스북 프로필을 찾아내 고객이 누른 ‘좋아요’를 토대로 맞춤형 제품과 서비스를 제시해 주고 있다.
그러나 시카고의 매터사이트 코퍼레이션(Mattersight Corporation)을 들여다 보면 빅데이터 시대에 출현하고 있는 고객 맞춤 서비스의 진정한 미래를 볼 수 있다. 매터사이트의 홍보자료에는 이렇게 쓰여져 있다.
“고객마다 기대와 행동이 다릅니다. 마찬가지로, 상담원들도 통화유형에 따라 저마다 강점과 약점이 있습니다 따라서 어떤 상담원이 전화를 응대하느냐에 따라 또한 상담원의 능력과 행동 특성이 고객의 요구와 얼마나 맞아떨어지느냐에 따라 고객 대응의 성패가 좌우됩니다.”
매터사이트는 사람을 사고형, 반항형, 고집형, 화목형, 부추김형, 몽상가형 등 6가지로 분류한다. 그리고 주요 성격 유형이 일치하는 사람을 만났을 때 가장 효과적으로 커뮤니케이션이 가능하다고 전제한다. 그리고 실제 통계는 이를 지지해 주었다. 성격 유형이 비슷한 상담원과 통화한 고객은 평균 통화 시간이 5분이며 92퍼센트가 문제를 해결했다. 이에 반해 성격 유형이 맞지 않은 고객은 통화 시간이 10분이었으며 문제 해결 비율도 47퍼센트 밖에 되지 않았다.
그런데 우리가 흘리고 다니는 알고리즘적 자아를 고객의 지위로만 사용할 필요가 있을까? 그렇지 않다. 기업은 고객도 필요하지만 우수한 인재도 필요로 한다. 구글은 해마다 규모가 두 배씩 커지는 조직이 높은 기술 수준을 유지하려면 현재 구성원의 평균 기술보다 더 뛰어난 직원을 채용해야 한다고 생각했다. 그러나 기술을 수량화하는 것은 쉽지가 않았다. 결국 학력과 학점이 직장에서의 성공 여부를 알려주는 유력한 지표로 여겼다. 그것들은 엄격함, 끈기, 마감을 지키는 능력이 있다는 것을 입증하기 때문이다. 하지만 구글은 시간이 지나면서 데이터가 쌓이자 학점, 각종 시험 성적, 취업 경험, 면접 평가 등 직무 성과를 예측하는 데 적합하다고 여겨졌던 기준들이 실제로는 정확도가 턱없이 낮다는 사실을 깨달았다. 그럼 어떻게 훌륭한 프로그래머와 인재를 구할 수 있을까?
2011년에 설립된 취업 정보 회사인 길드(Gild)는 알고리즘을 이용하여 수만 가지 기준과 데이터로 개인을 분석해 재능 있는 프로그래머를 찾아내 구글 같은 기업에 서비스를 하고 있다. 특히 길드는 취업 준비생이 온라인에 있을 때 어디에서 시간을 보내는지도 살펴본다. 웹툰 사이트나 유머 사이트 등에 오래 머무르는 사람이 프로그래머 커뮤니티나 여타 테크놀러지 사이트에 오래 머무르는 사람보다 더 탁월한 프로그래머일 확률은 낮으니 말이다.
그런데 한 개인의 디지털 라이프가 그 사람이 스스로 쓴 자기소개서보다 더 정확한 정체성을 보여줄 수 있을까? ‘그렇다’라는 답변을 주는 결과들이 많이 나오고 있다. 2012년 대학 세 곳에서 페이스북 프로필을 통해 직장에서의 성공 여부를 예측할 수 있는지에 대해 연구를 진행했다. 연구진은 사진, 담벼락 게시물, 댓글, 자기소개 등을 분석하면 그 사람을 ‘신뢰’할 수 있는지 혹은 정서적으로 ‘안정적’인지에 대한 질문에 매우 정확한 답변을 얻을 수 있다고 주장했다. 실제 연구 결과 성실함, 상냥함, 지적 호기심 등의 특질을 중요시한 페이스북 점수와 직무 성과 사이에는 뚜렷한 상관관계가 나타난 것으로 드러났다.
감시 : 신테일러주의와 디지털 파놉티콘
심도 있는 데이터 분석으로 인재를 구하려는 구글의 노력은 그들의 직원 복지에서도 엿볼 수 있다. 많은 이들이 구글의 화려한 복지가 단순히 높은 수익에 따른 직원들에 대한 배려정도로만 알고 있다. 하지만 구글은 직원들이 복지 혜택에 어떻게 반응하지에 대해 다량의 데이터를 꼼꼼히 모니터링하고 있으며 돈을 허투루 낭비하는 법이 없다.
구글에는 직원들의 행복을 수량화하는 인간 분석팀(People Analytics)이 있다. 인간 분석팀은 독자적인 알고리즘을 이용하여 직원들에게 필요한 최상의 복지가 무엇인지를 끌어낸다. 예를 들어 예전에는 출산한 여성은 구글을 퇴사할 확률이 평균보다 두 배나 되었다. 알고리즘 분석 결과 비용 대비 가장 효과적인 해결책은 출산 휴가를 12주의 유급 휴가에서 만 5개월로 연장하는 것으로 나왔다. 구글은 바로 조치를 취했다. 그러자 산모 퇴직률이 50퍼센트나 급감했다. 이외에도 구글은 퇴직 연금을 납부하라고 얼마나 자주 알려주어야 하며 어떤 말투를 쓰면 좋을지, 유능한 중간 관리자에게 공통적인 능력이 있는지, 각 직원별로 현금, 스톡옵션, 근무시간 단축 등 어느 것을 제공하는 것이 생산성을 높일 수 있을지 등을 데이터 주도형 접근법으로 해결을 한다.
구글의 이러한 행보는 경영학에서 과거의 유물로만 여겨졌던 테일러주의(Taylorism)을 떠올리게 한다. 테일러는 1911년 출간한 자신의 저서 <과학적 관리법>을 통해 인간의 노동과 사고가 효율성 증가를 목표로 삼아야 하고 기술적 계산은 언제나 사람의 판단보다 뛰어나며 주관성은 명석하게 사고하는 객관성을 지나치게 단순화한 것이고 수량화할 수 없는 것은 존재하지 않거나 가치가 없다는 주장을 펼쳤다. 결국 테일러주의는 인간을 초 단위로 감시하며 철저히 비인간화하는 데 일조하게 된다. 하지만 구글을 통해 새롭게 태어난 테일러주의는 20세기 초와는 사뭇 다른 모습이다. 심도 있는 데이터분석은 직원들의 행복을 위해 존재하니 말이다. 하지만 이러한 신테일러주의는 밝은 면만 있는 것이 아니다.
아마존 물류창고로 가보자. 물류 창고의 제품 운반원은 포켓용 컴퓨터를 지급받는데 이 컴퓨터는 제품을 어디에서 찾아 어디에 운반하라는 지시를 전송한다. 그리고 컴퓨터는 어마어마하게 큰 물류창고에서 제품 운반을 위한 최단의 거리를 알려준다. 직원 입장에서 이 포켓용 컴퓨터가 매우 유용하게 쓰이지만 이 직원을 관리하고 있는 회사에서도 매우 유용하게 쓰이고 있다. 컴퓨터는 직원이 얼마나 빨리 걷고 주문을 완료하는지 실시간 데이터를 끊임없이 수집하여 직원의 생산성을 수량화한다. 만약 직원의 열정이 식어 걷는 속도가 느려지게 된다면 그는 조만간 직장을 잃게 될 수도 있다. <페스트 컴퍼니> 기사는 이 상황을 이렇게 묘사했다.
“아마존 제품 운반원은 근무 때마다 최대 24킬로미터를 걸으며 축구장 아홉 개 크기의 물류 창고를 끝없이 왔다 갔다 한다. 발소리 말고는 아무 소리도 들리지 않는다. 어찌나 조용한지 동료와 이야기했다는 이유만으로 해고당할 정도다. 이 모든 광경을 마분지에 인쇄된 행복한 표정의 아마존 작업자들이 지켜본다. 작업자 머리 위 말풍선에는 이런 문구가 적혀져 있다. ‘이곳은 제가 다닌 곳 중 최고의 직장입니다!’”
테스코 물류 창고도 별반 다르지 않다. 여기에서 일하는 작업자들은 전자 단말기를 팔뚝에 차는데 관리자들은 작업자들이 얼마나 열심히 일하는지 점수를 매길 수 있다. 점수가 높으면 인센티브가 주어지지만 점수가 떨어지면 다른 직장을 알아봐야 한다.
이는 제러미 벤담이 18세기 후반에 설계한 파놉티콘(Panopticon)을 연상케 한다. 파놉티콘의 개념은 일종의 이중 원형건물이다. 감옥 둘레에는 원형의 6층(또는 4층) 건물이 있고 수용자들의 수용시설은 이 건물에 배치된다. 수용실의 문은 내부가 들여다 보이도록 만들어지고 그 앞에는 좁은 복도가 설치된다. 중앙에는 역시 원형의 감시 탑이 있는데 이곳에 감시자들이 머물게 된다. 감시탑에서는 각 구석구석 수용실을 훤히 볼 수 있지만 수용자들은 감시자가 있는지 없는지, 감시하는지 하지 않는지 알 수가 없다. 그 결과 수용자들은 감시자가 없어도 수용자가 감시자의 부재를 인식하지 못하기 때문에 실제로 감시자가 있는 것과 같은 효과를 낸다. 이처럼 파놉티콘은 중앙의 원형감시탑에서 각 수용실을 단번에 파악할 수 있고 감시 권력이 자신을 드러내지는 않지만 수용자가 항상 감시당하고 있는 상태, 즉 감시자의 존재가 드러나지 않지만 끊임없이 감시되는 상태를 그 핵심 개념으로 한다.
신테일러주의가 디지털이라는 벽돌로 새로운 파놉티콘을 만들고 있는 것은 아닐까?
존재론적 위기 : 범주화와 차별
2013년 케임브리지 대학 연구진은 미국의 페이스북 이용자 5만 8천명의 데이터에 알고리즘을 적용하여 인종, 나이, 지능지수, 성적 선호, 성격, 약물 사용, 정치적 성향 등의 특질을 정확히 예측할 수 있다는 결과가 나왔다. 좋아요만 가지고 이끌어낸 결과였다.
트윗사이크(TweetPsych)라는 시비스는 알고리즘을 이용하여 트위터들의 성별, 성적 지향, 정치적 성향, 종교, 인종 등을 75퍼센트 이상의 정확도로 알아맞춘다고 한다. 2010년 콜로라도 대학의 심리학자 탈 야르코니는 블로그를 분석하여 블로거의 성격을 몇가지 유형으로 분석할 수 있었다.
앞서 설명한 것들과 함께 지금까지 언급된 개인의 알고리즘 분석을 떠올려 보자. 퀀트캐스트는 데이터 분석을 통해 고객의 인구통계, 소비자의 행동 양식과 가치관, 관심사 등 세세한 범주로 고객을 분류한다. 매터사이트는 사람을 사고형, 반항형, 고집형, 화목형, 부추김형, 몽상가형 등 6가지로 분류한다. 길드(Gild)는 알고리즘을 이용하여 수만 가지 기준과 데이터로 개인을 분석해 재능 있는 프로그래머와 그렇지 않은 프로그래머를 분류한다.
읽어보면 알겠지만 사람에 대한 알고리즘 분석은 필연적으로 대상을 ‘범주화’한다. 데이터로 수량화하여 극도로 환원되고 의도된 특정 덩어리로 범주화된 알고리즘적 자아. 과연 이 알고리즘적 자아와 우리가 스스로 생각하는 ‘자율적 인간’은 얼마나 큰 간극이 있는 것일까? 빅데이터 시대에 알고리즘이 분석하는 자아가 끊임없이 양산이 되고 쓰나미처럼 밀려오는 범주화된 디지털 정체성이 우리의 생각과 말과 행동에 영향을 주어 문화라는 형태로 진화하게 된다면 과연 ‘진정한 자아’라는 녀석이 있을 곳은 어디일까?
스티븐 제이 굴드는 1981년 <인간에 대한 오해>에서 지능이라는 개념을 IQ처럼 단순화된 수치로 전환하는 행위의 위험성을 다음과 같이 경고했다.
“단일한 실체로 지능을 추상화하고 뇌 속에 그 위치를 부여하고 개인별 수치로 정량화하고 더욱이 인종, 계급, 성별에 의해 억압받고 불리한 집단이 선천적으로 열등하며 낮은 사회적 지위가 당연하다는 이유를 찾아내기 위해 사람들을 단일한 가치 체계 아래 서열화하는 데 이 수치가 이용될 문제가 있다.”
개인을 특정 수치로 환원시키며 그것을 기준으로 인간을 범주화하는 것은 한 가지를 매우 쉽게 해주기 때문에 존재한다. 바로 ‘차별’이다. 난 아직도 그날의 사건을 잊을 수 없다. 중학교 시절 담임 선생님이 실수로 교사 수첩을 교탁 위에 두고 나가셨다. 그리고 장난기 많은 아이들이 교사 수첩을 뒤지기 시작했다. 교사 수첩에는 우리들의 아이큐 수치라는 일급 비밀이 숨겨져 있었다. 우리는 서로의 아이큐 수치를 알게 되었다. 나와 매우 친한 친구 한 명이 아이큐 89로 반에서 꼴찌를 하게 되었다. 그날 이후 그 친구의 별명은 ‘박89’가 된다. 그 친구의 성격이 어떻고 장점은 무엇이며 어떤 잠재력이 있는지는 친구들 사이에 전혀 고려대상이 아니었다. 그 친구는 ‘아이큐 89’로 모든 것이 환원되었다. 낙인과 차별이라는 악마의 굴레가 그 친구를 꼼짝 못하게 했다.
많은 전문가들은 디지털 세상에서는 ‘차별’이라는 망령이 발 붙인 곳은 없다고 말했다. 엘빈 토플러는 공공연히 차별당한 집단을 언급하면서 정보화사회가 주도하는 제3의 물결 사회에서는 그러한 차별적 관행이 사라질 것이라고 주장했다. 마크 핸슨은 자신의 논문에서 인터넷의 등장으로 다른 인종의 사람들이 서로 윤리적으로 대할 기회가 전례 없이 늘어났다고 주장한다. 인터넷에서는 인종을 알려주는 시각적 표지가 잘 드러나지 않기 때문에 편견의 힘이 약해질 것임으로.
스티븐 핑거가 <우리 본성의 선한 천사>에서 논증했듯이 실로 시대가 흐르면서 성차별이나 인종간의 차별이 줄어들고 있다. 그래서 토플러나 핸슨의 주장이 틀린 것은 아니다. 그런데 이들이 언급한 차별은 인종이나 성, 계급 등 가시적이거나 그 시대의 사람들이 쉽게 떠올릴 수 있는 집단의 차별을 이야기한다. 하지만 알고리즘적 차별은 집단적이지 않고 지극히 개인적이며 그 개인도 특정 주제별로 분절화 되어 차별된다.
우리는 알고리즘에 의해 재능 없는 프로그래머, 특정 제품 특히 고급 제품을 사용할리 없는 고객, 성공적인 직장생활을 할 수 없을 것 같은 취업준비생, 열정 없는 직원, 성실하지 못한 학생, 반항적 성격을 갖고 있는 사람, 결혼 자격이 없는 미혼 남녀 등으로 차별된다.
만약 당신이 성공적인 결혼을 하기 위해 결혼 중개 사이트에 회원으로 가입한다고 해보자. 그리고 당신은 그 사이트가 당신을 분석하기 위해 필요한 다양한 정보들을 제공했다. 사이트는 수백가지 변인들에 가장 적절한 가중치를 부여한 자신들의 알고리즘 분석 방법으로 당신을 예비 배우자로서 어떠한지를 판단한다. 분석 결과가 당신의 이메일로 보내졌다. 이메일의 내용은 다음과 같았다.
“고영성님 죄송합니다. 회원님은 예비 배우자로 저희 사이트에 등록하실 수 없습니다.”
실제로 미국의 알고리즘 분석으로 유명한 어느 결혼 사이트에서 회원 가입이 거절되는 비율은 16%에 이른다고 한다. 알고리즘에게 ‘당신은 예비 배우자로서 자격이 없다’ 혹은 ‘당신에게 맞는 짝은 찾을 수 없다’라는 판결을 받은 사람에게 무엇이 찾아오게 될까? ‘존재론적 위기’이다. 당신이 알고리즘 판단에 의해 재능 없는 프로그래머, 특정 제품 특히 고급 제품을 사용할리 없는 고객, 성공적인 직장생활을 할 수 없을 것 같은 취업준비생, 열정 없는 직원, 성실하지 못한 학생, 반항적 성격을 갖고 있는 사람, 결혼 자격이 없는 미혼 남녀로 규정될 때 어떠한 감정을 갖게 될 것인지 상상해 보라. 알고리즘 분석에 대한 사회적 신뢰가 매우 높은 사회에서는 결혼 사이트에 등록을 거부당했단 이유로 목숨을 끊는 사건이 뉴스로 나오지 말라는 법이 있을까?
그런데 알고리즘 분석은 확률적이다. 즉 틀리는 경우가 꽤 된다는 사실이다. 2013년 <뉴욕타임즈>에서는 어떤 기자의 친구 이야기가 나온다. 기자의 친구는 제약회사 화이자와 머크 세로노에서 주최하는 다발성경화증 환자를 위한 세미나 광고지를 우편으로 받았다. 그런데 그 친구는 다발성경화증 환자도 아니며 가까운 지인 중에서도 없다. 단지 일년 전에 의료 웹사이트에서 다발성경화증을 검색한 적이 있을 뿐이다. 문제는 어디에선가 기자 친구의 이름과 연락처를 맨해튼의 다발성경화증 환자 데이터베이스에 입력한 것이다. 기자는 이렇게 묻는다.
“내 친구가 이 기록 때문에 생명 보험 가입을 거부당하진 않을까? 친구는 데이터 출처를 확인하고 자신의 정보를 수정하고 가능하다면 정보가 추가로 유포되는 것을 막고 싶었다. 그런데 애초에 어떤 회사가 자신의 정보를 수집하고 데이터를 공유했는지 알아낼 수 없었고 어떻게 해야 마케팅 명단에서 이름을 뺄 수 있는지도 알 수 없었다.”
알고리즘 정체성(algorithmic identity)이라는 단어를 만든 존 체니리폴드는 알고리즘 분석이 개인의 성별이나 인종등 매우 명확한 것들조차 틀리는 경우가 비일비재한다고 한다. 극단적으로 말해서 실제 백인 남자가 통계적으로 흑인 여성으로 판별되어 통계적으로 백인 남자가 잘하는 일자리에 서류에서부터 거부당할 수 있다는 이야기이다.
그러나 이런 새로운 시대에 등장하는 새로운 차별은 과거와 다르게 무너뜨리기가 쉽지가 않다. 왜냐하면 알고리즘적 차별은 눈에 잘 띄지도 않으며 대부분의 경우 당사자가 어떻게 기준으로 어떻게 분류되는지를 알지 못하기 때문이다. <만물의 공식>의 저자 루크 도멜은 이렇게 말한다.
“흑인 여성 로자 파크스가 백인에게 버스 좌석을 양보하지 않은 사건은 흑인 공동체의 폭넓은 지지를 얻으며 민권 운동의 도화선이 되었다. 그런데 파크스가 피부색 때문에 차별받은 것이 아니라 나이, 지역, 인종, 검색 기록을 토대로 수천 가지 독자적 가중치를 둥 변인에 따라 차별받았다면 1955년 12월에 어떠한 일이 벌어졌을까?”
프랑스 철학자 들뢰즈는 산업사회에서 정보화사회로 변함에 따라 권력과 통제의 구조 또한 변했다고 주장한다. 과거의 사회에서는 학교, 직장, 가정 같은 구체적이고 직선적인 장소에서 통제가 일어났고 각각의 통제는 고유한 규칙 집합을 동반했으며 해당 장소에만 적용되었다. 그래서 사람들은 공간과 공간 사이에 있을 때 감시와 차별에서 비교적 자유로웠다. 하지만 새로운 통제사회에는 과거와 다르게 노골적이지는 않지만 상시적인 감시와 차별을 동반한다. 들뢰즈의 말을 빌리자면 우리는 ‘기존의 형태에 강제로 끼워 맞춰지는 것이 아니라 시시각각 변형되는 포장에 감싸이게’ 된다.
물론 <컨텍스트의 시대>의 저자 로버트 스코볼과 셸 이스라엘은 같은 상황을 ‘통제사회’가 아닌 ‘컨텍스트 시대’라고 표현하며 인류에게 더 큰 이득을 줄 것이라고 말한다. 나 또한 새로운 시대를 ‘디스토피아’로 보고 있지는 않으며 ‘통제사회’라는 과격한 언어로 표현할 필요도 없다고 생각한다. 하지만 웨어러블 디바이스가 대중화되고 사물 인터넷이 일상화되는 진정한 빅데이터 시대에서는 알고리즘이 가장 강력한 ‘권력’으로 자리잡을 가능성이 크다.
새로운 힘에는 새로운 철학이 필요하며 건전한 견제는 필수이다. 특히 그 권력이 인간의 존재론적 위기를 불러 올 수 있는 것이라면 일말의 여지조차 주어서는 안된다.