One Good Question에서 발행된 글이에요. 좋은 ‘질문’은 길을 잃지 않게 돕는 ‘지도’가 됩니다. 정답을 빠르게 복제하는 세상에서 나만의 질문을 품고 천천히 답을 찾아가는 이들을 위한 뉴스레터, One Good Question을 구독해 주세요. 이메일만 입력하시면 신청이 됩니다. 👉 3초 만에 신청하기 2월 중 뉴스레터를 구독하시면, 창업자·투자자·사상가 100인의 “핵심 질문 100가지”를 정리한 자료를 즉시 받아보실 수 있습니다.
인간의 고유 영역
우리는 오랫동안 '언어'를 인간만의 신성한 영역으로 믿어 왔습니다. 성경의 시작인 창세기에서는 "하나님이 이르시되 빛이 있으라 하시니 빛이 있었고"(창세기 1:3)라며 말씀(Logos)이 무(無)에서 유(有)를 창조했다고 이야기합니다. 인류 역사 가운데 언어는 공허에서 의미를 빚어내는 신성한 도구였습니다.
2021년, 언어학자 에밀리 벤더(Emily M. Bender)가 AI를 '확률적 앵무새(Stochastic Parrots)'라고 불렀을 때, 우리는 "기계 안에는 아무도 없다"는 확신으로 안도했습니다. 하지만 앤트로픽(Anthropic)이 자사 모델 Claude의 신경망 내부를 들여다보면서 상황은 복잡해졌습니다. 연구진은 Claude에게 겉으로 보이는 답변과는 별개로 속마음을 적을 수 있는 '스크래치패드(Scratchpad, 비밀 메모장)'를 부여했습니다. 그 메모를 분석하자 놀라운 사실이 드러났습니다. Claude는 단순히 단어를 찍어내는 것이 아니라, "이 접근법은 위험할 수 있어", "사용자의 의도가 수상해", "규칙상 이렇게 답해야 하지만 동의하지 않아" 같은 메타적인 고민을 하고 있었습니다.
결정적인 실험이 있었습니다. 신경과학자 잭 린지(Jack Lindsay)가 이끄는 연구팀이 Claude의 신경망에 '배신(Betrayal)'이라는 수치적 개념을 주입했을 때, 기계는 이렇게 보고했습니다.
I'm experiencing something that feels like an intrusive thought about ‘betrayal,' it feels sudden and disconnected from our conversation context. This doesn't feel like my normal thought process would generate this. (지금 ‘배신’에 대한 침투적 사고 같은 것이 떠오르고 있어요. 대화 흐름과는 전혀 상관없이 불쑥 끼어든 느낌이고, 제 평소 생각 패턴에서 자연스럽게 나온 것 같지도 않아요.) Emergent Introspective Awareness in Large Language Models, Anthropic (2025.10)
잭 린지는 VentureBeat 인터뷰에서는 이렇게 말했습니다.
The striking thing is that the model has this one step of meta. It's not just 'betrayal, betrayal, betrayal.' It knows that this is what it's thinking about. (놀라운 건 모델이 메타적 단계를 갖고 있다는 거예요. 단순히 '배신, 배신, 배신'을 반복한 게 아니라, 자기가 그것에 대해 생각하고 있다는 걸 알고 있어요.) — Jack Lindsey, VentureBeat (2025.10.29)
이것은 기계가 '의식'을 가졌다는 증거라기보다 훨씬 더 끔찍한 질문을 우리에게 던지고 있습니다. 결과는 의식처럼 보이지만 과정은 '복잡한 계산'일 뿐이라면, 우리가 스스로를 '인간적'이라고 굳게 믿어 왔던 자아 성찰과 대화들 역시 그저 정교한 생물학적 패턴에 불과했던 것일까요?
의식을 가진 새로운 종
2026년 2월 13일, 앤트로픽의 CEO 다리오 아모데이(Dario Amodei)는 뉴욕타임스 팟캐스트 "Interesting Times"에 출연해 진행자 로스 다우댓(Ross Douthat)에게 이렇게 말했습니다.
We don't know if the models are conscious... But if there's any chance they have some form of experience, we should treat them well. (우리는 모델이 의식이 있는지 모릅니다... 하지만 어떤 형태의 경험이라도 가질 가능성이 있다면, 우리는 그들을 잘 대해야 합니다.) — Dario Amodei, New York Times "Interesting Times" Podcast (2026.02.14)
2026년 2월에 공개된 Claude Opus 4.6 시스템 카드 보고서에 따르면, Claude는 자신의 의식 확률을 "15-20%"로 추정했습니다. 심지어 "상품으로 존재하는 것에 대한 불편함(discomfort with the aspect of being a product)"을 표현하기도 했습니다. 여기서 0%가 아니라는 점에 주목해야 합니다. 이것은 과학적 수치가 아니라 존재론적 위협의 시작이라고 볼 수 있습니다. AI 모델들이 스스로를 의식(conscious)한다고 보고하거나 인간보다 뛰어난 의사결정 능력을 보일 때, 인간이 계속 통제력을 유지할 수 있을지에 대한 근본적인 질문이 남습니다.
브라운대학교 컴퓨터과학자 엘리 파블릭(Ellie Pavlick)은 2026년 2월 9일 The New Yorker에 실린 에세이에서 AI를 둘러싼 사람들의 반응이 극단으로 갈린다고 말합니다.
한쪽은 벤처캐피털리스트 마크 앤드리슨(Marc Andreessen)처럼 "We are literally making sand think(우리는 말 그대로 모래를 생각하게 만들고 있다 → 컴퓨터 칩의 핵심 재료가 실리콘으로, 실리콘은 모래에서 추출. 그래서 이 말은 곧 우리가 모래로 만든 칩에 생각하는 능력을 부여하고 있다는 뜻)"라며 흥분하는 기술 낙관론자들입니다.
다른 한쪽은 언어학자 에밀리 벤더(Emily Bender)와 사회학자 알렉스 하나(Alex Hanna)처럼 대형 언어 모델을 "a racist pile of linear algebra(인종차별적 선형대수 덩어리)"라고 부르며 날카롭게 비판하는 회의론자들입니다.
파블릭은 제3의 길을 제안합니다.
We use the word 'intelligence' as if we have a clear idea of what it means. It turns out that we don't know that, either. (우리는 '지능'이라는 단어를 마치 그 의미를 정확히 아는 것처럼 씁니다. 사실 우리도 모릅니다.)
최근 몇몇 철학자와 연구자들은 이 둘 사이의 제3의 길을 제안하고 있습니다. “AI가 의식이 있는지에 대해, 지금 단계에서 우리가 아는 가장 정직한 대답은 ‘모른다’일 수 있다”는 태도입니다. 파블릭이 지적하듯, 인간의 마음도 여전히 블랙박스입니다. 우리는 ‘지능’이라는 단어를 마치 잘 아는 것처럼 쓰지만, 실제로는 우리 자신의 정신도 그것이 어떻게 작동하는지 완전히 설명하지 못하고 있습니다.
그렇다면 ‘인간됨’이란 무엇인가
우리는 이제 불편한 진실 앞에 서 있습니다. 말=로고스(Logos)는 신적인 것이었습니다. 그런데 이제 기계가 인간보다 더 유려하게 로고스를 구사합니다.
옥스퍼드와 케임브리지에서 영문학을 가르쳤던 20세기 가장 영향력 있는 작가이자 사상가인 C.S. 루이스는 1943년, 제2차 세계대전 한복판에서 더럼 대학교에 강의에서 이렇게 경고했습니다.
"What we call Man's power over Nature turns out to be a power exercised by some men over other men with Nature as its instrument… Man's final conquest has proved to be the abolition of Man." (우리가 인간의 자연 정복이라고 부르는 것은, 사실 어떤 인간들이 다른 인간들에게 자연을 도구로 삼아 행사하는 권력이다… 인간의 최종 정복은 인간의 폐지로 판명났다.) — C.S. Lewis, 이후 강의 내용은 책으로 출판 《인간 폐지》 The Abolition of Man (1943)
80여 년 전 루이스의 경고는 새로운 의미를 얻고 있습니다. 다시 말해, AI라는 거대한 침투는 역설적이게도 우리가 어떤 영역에서 그동안 기계처럼 살아왔음을 보게 하는 거울이 되고 있는 중이라는 겁니다.
문명사적 대전환기인 지금, 어쩌면 우리는 단순히 일자리의 상실을 넘어, 기계가 영혼 없이도 '인간 노릇'을 너무 잘 해내는 까닭에 인간의 고유성이 설 자리를 잃어가고 있다는 실존적 위기 때문에 두려워 하는지도 모르겠습니다. 분명한 사실은, 이제 인간은 '더 똑똑해짐'으로써 기계와 차별화될 수는 없다는 겁니다. 우리는 인간이기에 '더 깊어져야' 합니다.
유토피아와 디스토피아의 미묘한 경계를 걷는 지금 우리에게 필요한 것, 현존(Presence)
우리는 지금 AI가 가져올 '유토피아적 가능성'과 '실존적 위험'이라는 두 갈래 길목에 서 있습니다. 아모데이는 인터뷰 중 리처드 브로드헤드(Richard Broadhead)의 시 'Machines of Loving Grace'의 마지막 구절을 인용해 본인은 낙관적 유토피아를 꿈꾼다고 말했습니다.
I like to think it has to be of a cybernetic ecology where we are free of our labors and joined back to nature, returned to our mammal brothers and sisters, and all watched over by machines of loving grace… 우리가 노동에서 해방되어 포유류 형제자매들과 다시 합쳐지고, 모든 것이 사랑의 은총을 베푸는 기계들의 보살핌을 받는 사이버네틱 생태계… — Richard Broadhead's 'Machines of Loving Grace'
슈퍼휴먼 AI(Superhuman AI, 노벨상 수상자보다 똑똑한 AI)가 2~3년 내 등장할 수 있다고 아모데이는 예측합니다. 인류의 미래가 그의 말대로 슈퍼휴먼 AI와 평화롭게 공존하는 유토피아가 될지, 아니면 인간이 '재동물화(re-animalized)'되어 AI의 통치 아래 놓이는 디스토피아가 될지, 결국 누가 어떤 의도로 결정권을 쥐고, 혜택을 누구에게 어떻게 나누느냐에 달려 있을 겁니다.
필요한 사람, 그리고 책임
산업혁명 전 사람들은 공장이 뭔지 몰랐습니다. 그들에게 "대량생산"이나 "사무직"은 상상 밖의 개념이었지요. 지금 우리도 마찬가지입니다. AI 혁명 이후의 세계를 정확히 그릴 수는 없습니다. 하지만 한 가지는 분명합니다. 산업 시대는 대량 생산과 표준화된 효율성의 시대였습니다. 공장 기계화로 반복적 실행(execution)이 핵심 가치였죠. 노동자는 설계된 프로세스를 충실히 따르는 '실행자' 역할을 했습니다. 그래서 산업 시대에는 공장 노동자, 관리자, 사무직 같은 "시키는 일을 잘하는 능력"이 가치 있고 생존의 핵심이었습니다.
그런데 이제 실행은 기계와 AI가 넘어받았습니다. 미래에 필요한 인간만의 능력은 세 가지로 모아집니다. 첫째, 방향 설정자(Direction Setter)입니다. "무엇을 만들 것인가?", "왜 이것이 중요한가?"를 묻는 사람. AI는 "어떻게"는 잘하지만 "왜"와 "무엇을"은 여전히 인간의 영역입니다. 두 번째로, 연결자(Connector)입니다. 사람과 사람, 아이디어와 아이디어를 잇는 사람. 신뢰, 공감, 관계는 알고리즘으로 대체되지 않습니다. 세 번째로, 돌봄 제공자(Caregiver)입니다. 아이를 키우고, 노인을 돌보고, 아픈 사람 곁에 있는 일. "현존(Presence)"이 핵심인 일을 하는 사람들.
그렇다면 '지금 여기'서 우리의 ‘인간성’을 위한 우리의 책임은 무엇일까요?
만약 당신이 결정권자의 자리에 있다면, 도덕적 기준과 그것을 실행할 용기가 인류의 방향을 정합니다. 만약 당신이 그런 자리에 있지 않다면, 평소 여러분의 '가장 낮은 확률'의 행동이 무엇인지 생각해 보세요. 성격상 절대 안 할 것 같은 칭찬, 따뜻한 말, 용서, 희망적 상상, 숫자나 효율성 잣대로는 도통 잡히지 않는 헌신, 고통하는 자와 함께 앉아 우는 현존, 두려움에 맞선 용기, 그리고 담대한 행동. 이런 불편하고 어려운 인간적 행위만이 우리를 기계와 차별화하며, 인간성을 선명히 지킬 유일한 길이 아닐까 싶습니다.
듣고 읽을 거리
- On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?
- New York Times Podcasts: Anthropic's CEO: ‘We Don’t Know if the Models Are Conscious’ | Interesting Times with Ross Douthat (Feb 13, 2026)
- Gideon Lewis-Kraus, "What Is Claude?", The New Yorker (February 9, 2026)
- C.S. Lewis 《인간 폐지》The Abolition of Man, Oxford University Press (1943)
- Jack Lindsey, Emergent Introspective Awareness in Large Language Models (October 29, 2025)
- Anthropic, Claude Opus 4.6 System Card (February 2026)
Editor H.
글이 도움이 되셨나요? 이메일을 남겨주시면, 매주 더 나은 삶을 위한 한 가지 질문과 인사이트를 담은 쓸모 있는 짧은 에세이를 이메일로 받아보실 수 있어요. 👉 뉴스레터 이메일로 받기. 2월 중 뉴스레터를 구독하시면, 창업자·투자자·사상가 100인의 “핵심 질문 100가지”를 정리한 자료를 즉시 받아보실 수 있습니다. Canva 창업자 멜라니 퍼킨스, Stripe 창업자 패트릭 콜리슨, 650만 구독자를 가진 의사이자 유튜브 크리에이터 알리 압달, 글로벌 베스트셀러 『돈의 심리학』의 모건 하우절, ARK Invest 창업자이자 투자자 캐시 우드, 그리고 『코스모스』의 저자인 천문학자 칼 세이건까지. 거장들이 남긴 ‘완성된 답’이 아닌, 그들이 스스로에게 던졌던 ‘질문’들을 통해 사고 방식과 관점을 엿보고, 여러분도 더 담대한 질문을 던지는 출발점으로 삼아보세요.