기업이 당신에게 묻지 않는 시대
2020년 봄, 코로나로 미국 전역의 고등학교가 문을 닫았을 때 네드 코(Ned Koh)는 집에서 컴퓨터를 켰습니다. 당시 그는 14세였습니다. 또래 아이들이 게임을 하거나 배달 음식을 기다리는 동안, 그는 회사를 만들기 시작했습니다. 헬스케어 스타트업 Elda와 블록체인 프로젝트 Chainbird. COVID 봉쇄가 그의 학교를 멈추는 동안, 그는 일을 시작했습니다.
몇 년 뒤 그는 Kleiner Perkins 펠로우십을 받았고 Northwestern 대학 연구원이 되었습니다. 2024년 3월, 19세가 된 네드 코는 18세의 캐머런 핑크(Cameron Fink)와 15세의 존 케슬러(John Kessler)와 함께 새 회사 'Aaru'를 창업했습니다. 존은 컴퓨터 앞을 떠나지 않으려다 부모님에게서 컴퓨터를 압수당한 고등학생이었습니다. 첫 번째 뉴욕 사무실에는 농구 골대가 있었고, 코딩 오류가 날 때 망치로 책상을 부수는 '분노의 방'이 있었으며, 회의실 하나는 창업자들의 침실로 변했습니다.
그해 가을, 네드 코는 하버드 신입생이 되었습니다. 그는 처음부터 학교를 자퇴할 생각을 가지고 있었습니다. 캠퍼스에 도착했을 때, 네드가 만든 Aaru는 이미 두 라운드의 투자를 유치한 상태였습니다. 기숙사에서 그는 '에드워드'라는 본명을 쓰고 영국 억양을 가장했습니다. 투자자와 통화를 해야 할 때는 들키지 않으려고 복도로 뛰어나갔습니다. 딱 2주가 지나 그는 자퇴서를 냈습니다.

시장조사를 넘어 '세계 모형'으로
그래서 3명의 10대가 만든 회사 Aaru는 뭘 하는 회사인지 간단히 설명드리겠습니다. Aaru는 한마디로 '가짜 인간을 만드는 회사'입니다. 기업이 신제품을 출시하거나 정치 캠프가 메시지를 다듬을 때, 원래는 수백 명의 실제 소비자를 모아 물어봐야 했습니다. 포커스 그룹, 설문조사, 심층 인터뷰, 그 설문 비용은 수억 원, 시간은 수주. Aaru는 그 과정 전체를 AI로 대체합니다.
방법은 이렇습니다. 수천 개의 AI 에이전트를 생성합니다. 각각에게 직업, 소득 수준, 부채 규모, 인종, 혼인 여부, 매일 보는 뉴스 사이트, 가족 관계, 삶의 포부까지, 실제 인구통계 데이터를 기반으로 수백 가지 특성을 학습시킵니다. 이 에이전트들은 인터넷을 탐색하며 자신의 '미디어 식단'을 소화하고, 실시간으로 의견을 업데이트합니다. 트럼프 피격 사건이 터진 날, Aaru의 에이전트 상당수가 즉시 지지 후보를 바꿨습니다.
이렇게 완성된 '가상 인간들'에게 기업은 묻습니다. 이 광고에 반응하겠습니까? 이 가격에 이 제품을 구매하겠습니까? 이 후보에게 투표하겠습니까? 실제 인간을 한 명도 만나지 않고, 몇 분 안에 수천 명의 '대답'을 얻습니다.
결과는 놀랍도록 파괴적입니다. 컨설팅사 EY는 3,600명의 부유층 투자자를 대상으로 하던 설문을 Aaru에 맡겼습니다. 하루 만에 90%의 정확도로 같은 결과를 얻었습니다. 2024년 뉴욕 민주당 경선에서 Aaru는 결과를 단 371표 오차 이내로 예측했습니다. Accenture, EY, 국제광고그룹 IPG가 파트너로 합류했습니다. Aaru의 AI는 트럼프 대통령 피격 사건 직후 지지율 변동을 실시간으로 시뮬레이션했고, 특정 캠페인 메시지가 연설 전달 전에 미칠 영향을 미리 계산했습니다.
이 회사의 이야기는 단순한 '효율'에 관한 것이 아닙니다. Aaru의 공식 백서는 이렇게 선언합니다.
"2년 안에 우리는 전 세계를 시뮬레이션할 것이다. 우크라이나에서 작물이 재배되는 방식부터 그것이 이라크 석유 생산에 미치는 영향, 말라카 해협의 교역, 그리고 볼티모어 시장 선거까지."
이것은 단순히 시장조사가 아닙니다. 세계 모형의 구축을 선언한 것입니다.
더 나은 세상을 향한 개입
더 나아가, 네드 코는 이 기술이 무엇을 위한 것인지 직접 말했습니다. 핵에너지에 대한 수용도를 높이는 것. 인종차별을 줄이는 것. 저소득층이 복지 프로그램을 신청하도록 동기를 부여하는 것. 그는 이것을 '대규모 행동 변화(mass behavioral change)'라고 불렀으며, Aaru의 목표는 단순한 예측을 넘어 '더 나은 세상'을 향한 개입이라고 밝혔습니다. 예측(Prediction)이 설계(Engineering)로, 설계가 개입(Intervention)으로 전화(轉化)하는 순간입니다.
2차 욕구의 상실과 설계된 자유
그런데 이 기술을 제대로 보려면, 두 층위를 분리해야 합니다.
첫 번째는 정밀도의 층위입니다. Aaru는 완벽하지 않습니다. 2024년 미국 대선에서 Aaru는 카멀라 해리스의 승리를 예측했지만, 도널드 트럼프가 당선되었습니다. Semafor의 보도에 따르면, AI 에이전트들은 언제나 '전화를 받기' 때문에 실제 조사에서 응답을 거부하는 숨은 트럼프 지지자들을 포착하지 못했습니다. Aaru의 모형에는 아직 인간의 침묵이 담기지 않았습니다.
흥미로운 에피소드가 있습니다. 검증 과정에서 AI 에이전트 한 명이 '미키마우스에게 투표하겠다'고 응답했습니다. 팀이 당황해 조사했더니, 에이전트의 설명은 이것이었습니다.
"해리스도 싫고 트럼프도 싫습니다. 미키마우스를 쓰겠습니다."
가볍게 웃고 넘기기 어려운 지점입니다. 왜냐하면 기계가 인간의 정치적 환멸까지도 재현해냈기 때문입니다. 어쩌면 이것이 가장 정확한 예측이었는지도 모르겠습니다. 2024년 미국 선거에서 실제로 수백만 명이 백지 투표를 했거나 기권했으니까요.
그러나 더 중요한 것은 두 번째, 존재론적 층위입니다. 오차는 줄어들고 있습니다. 정확도는 높아지고 있습니다. 그리고 그 지점에서 우리는 훨씬 더 근본적인 질문과 마주합니다.
철학자 해리 프랑크푸르트(Harry Frankfurt, 프린스턴 대학교 명예교수)는 1971년 논문 〈의지의 자유와 인격의 개념(Freedom of the Will and the Concept of a Person)〉에서 인간을 동물과 구분하는 기준을 '2차 욕구(second-order desires)'로 정의했습니다. 1차 욕구가 '무언가를 원하는 것'이라면, 2차 욕구는 '내가 어떤 욕구를 갖기를 원하는지에 대한 욕구'입니다. 배가 고프더라도 '지금은 먹지 않는 사람이 되고 싶다'고 결정하는 능력. 광고를 봐도 '나는 이 유혹에 저항하는 사람이고 싶다'고 판단하는 능력. 이 반성적 자기조정 능력이 바로 인간의 자유의지를 구성한다는 것입니다.
Aaru의 모형이 90%의 정확도로 당신의 행동을 예측한다는 것은, 이 2차 욕구까지 포함된 당신의 전체 행동 패턴이 데이터로 모형화된다는 의미입니다. 당신이 광고를 거부할지 말지, 어떤 후보에게 마음을 돌릴지, 어떤 메시지에 반응해 복지를 신청할지, 당신의 '반성적 판단'조차 이미 예측 가능한 변수가 된다는 점입니다.
여기에 와튼 스쿨의 마케팅 교수 조나 버거(Jonah Berger)의 연구를 겹쳐 놓으면, 이 문제는 더욱 명확해집니다. 버거는 저서 《The Catalyst》(2020)에서 인간이 변화하지 않는 이유를 '장벽(barriers)'에서 찾습니다. 심리적 저항(reactance), 현상 유지 편향(endowment), 불확실성 회피(uncertainty). 그의 핵심 발견은 위대한 설득가는 상대방을 밀어붙이지 않는다는 것입니다. 그들은 상대방의 변화를 막는 장벽이 무엇인지 정확히 파악하고, 그 장벽만 정밀하게 제거합니다. 사람들이 자신이 스스로 결정했다고 느끼면서 원하는 방향으로 이동하도록 설계하는 것입니다.
Aaru가 하려는 일이 정확히 이것입니다. 수천 개의 AI 에이전트를 통해 '당신이 핵에너지를 받아들이지 않는 이유', '당신이 복지 신청을 미루는 이유', '당신이 특정 후보를 거부하는 이유' 즉, 당신 개인의 심리적 장벽 지도를 완성하고 각 장벽에 맞는 정밀한 메시지, 타이밍, 프레임을 시뮬레이션하고 있는 겁니다. 그 와중에 당신은 자신이 자유롭게 의사결정을 했다고 느낀다는 점입니다. 하지만 그 선택지의 구조는 이미 뒷단에서 매우 정교하게 설계되어 있었습니다.
이것이 고전적인 설득과 전혀 다른 지점입니다. Aaru 방식의 개입은 당신의 마음이 스스로 바뀌도록 정교한 경로를 설계했다는 점입니다. 당신은 스스로 방어하고 저항할 그 대상을 인식조차 하지 못하고 넘어간다는 거죠.
정교한 시스템 설계 안에 갖힌 인간
네드 코는 한 인터뷰에서 이렇게 말했습니다.
"당신은 백악관 인턴십에 갈 수도 있고, 아니면 사람들을 당선시킬 수도 있습니다."
이제 무슨 말이죠? '당선시킨다'는 것은 설득이 아닐 수 있습니다. 수백만 유권자 각각의 심리적 장벽 지도를 완성하고, 각각에게 최적화된 메시지를 전달하여 그들이 '자발적으로' 특정 후보를 선택하도록(혹은 선택할 수밖에 없는) 눈에 보이지 않는 알고리즘을 설계하겠다는 겁니다.
물론, 네드 코는 그 자신이 누구보다도 더 이 기술의 위험성을 인식하고 있습니다. Aaru에는 '매우 엄격한 윤리위원회'가 있고, 폭력을 조장하는 클라이언트와는 일하지 않는다고 밝혔습니다. 그리고 그는 이렇게 말했습니다.
"평양 소재 회사가 이것을 우리보다 먼저 만들지 않도록 해야 합니다. 이것은 거의 도덕적 의무입니다."
'좋은 의도'는 기술의 결과를 보장하지 않습니다. 특히 그 기술이 '좋음'을 스스로 정의하고 실행하는 권한을 갖는 경우에는.
자유의지와 선택에 관하여
오늘 Aaru의 이야기를 통해 제가 던지고 싶은 진짜 질문은 이것입니다. 핵에너지가 옳은지, 어떤 정치 성향이 '올바른지', 어떤 행동이 '더 나은지' Aaru의 알고리즘이 개입하는 방향은 그래서 누구의 가치관에서 나오는 걸까요? 그리고 특정 이익집단의 방향으로 사람들이 선택이 설계될 때, 우리는 그것을 알아챌 수나 있을까요? 설사 후에 알게 되더라도, 동의를 철회할 수 있을까요?
20세도 채 안 된 세 명의 창업자들이 자신들이 정의한 '더 나은 세상'을 향해 수억 명의 심리적 경로를 치밀하게 설계하고 있습니다. 그들은 매우 영리하고, 진지하며, 나름의 선의를 품고 사업을 키워 가고 있습니다. 그리고 바로 그렇기 때문에, 이 불편한 질문을 우리는 스스로 해 보아야 합니다.
알고리즘이 내 선택을 90%의 정확도로 예측하고,그 선택을 바꾸기 위한 정밀한 레버를 시뮬레이션할 수 있다면, 나의 '자유의지'라는 것은, 여전히 실존하는 주권입니까, 아니면 타인의 시뮬레이션 속에 배치된 일개의 변수에 불과할까요?
오늘 아티클이 좋았다면 One Good Question을 주변에 알려주세요. 여러분의 응원이 지속적으로 좋은 아트클을 발행하는 데 큰 힘이 됩니다. 좋은 ‘질문’은 길을 잃지 않게 돕는 ‘지도’가 됩니다. 정답을 빠르게 복제하는 세상에서 나만의 질문을 품고 천천히 답을 찾아가는 이들을 위한 뉴스레터, One Good Question, 이메일만 입력하시면 바로 신청이 됩니다. 신청과 동시에 다양한 보너스 무료 자료를 받으실 수 있습니다. 👉 3초 만에 신청하기
Editor H.