이 글은 [이현의 Human AX]에서 발행되었습니다.
AX 실전 벤치마크 사례, 퀄리티 있는 AI 인사이트를
매주 이메일로 받아보고 싶으시다면, 뉴스레터를 구독해 주세요.
마이크로소프트가 던진 화두

이미지 출처: TED Youtube
마이크로소프트 리서치(Microsoft Research)의 어드바이트 사카르(Advait Sarkar)는 최근 인공지능 기술이 나아가야 할 방향에 대해 매우 날카로운 화두를 던졌습니다.
TED 강연 'AI가 당신의 비판적 사고를 죽이지 않게 하는 법(How to Stop AI from Killing Your Critical Thinking)'에서 그는 현대 AI가 사용자의 '생각하는 수고'를 덜어주는 데만 지나치게 매몰되어 있다고 지적합니다. 기술이 정답을 신속하게 도출해낼수록, 정작 인간은 아이디어를 스스로 탐구하고 비판적으로 검토하는 '사고의 근육'을 점차 잃어가고 있다는 경고입니다.
사카르는 강연에서 이러한 문제의 대안으로 동료들과 함께 개발한 '사고를 위한 도구(Tools for Thought)' 프로토타입을 소개합니다. 이 도구는 AI 개발의 주류인 '작업 자동화'와는 전혀 다른 철학을 지향합니다. 대다수의 생성형 AI가 완성된 답변을 제공해 인간의 인지적 노력을 제거하는 데 집중한다면, 사카르의 연구는 AI가 오히려 인간의 사고를 끊임없이 '자극'하고 '도전'하게 만드는 것에 초점을 맞춥니다.
오늘 뉴스레터에서는 (1)AI의 편리함이라는 함정 이면에 숨겨진 '인지적 위축'의 실체를 여러 연구 결과와 함께 짚어봅니다.
그리고 (2)이에 대응하기 위한 방법을 마이크로소프트 리서치의 '사고를 위한 도구(Tools for Thought)'프로토타입 소개와 글로벌 사례를 중심으로 전해드립니다.
마지막으로는 (3)환경과 시스템이 강제하지 않아도 스스로 실천가능한 생각의 힘 기르는 법을 전해드리겠습니다.
AI 의존이 뇌와 기억에 미치는 영향
생성형 AI가 제공하는 '인지적 편의성'은 인간의 뇌 구조에 영향을 미칠 만큼 강력한 위협이 되고 있습니다. 신경과학 및 심리학 연구들은 AI에 대한 과도한 의존이 단순한 건망증을 넘어 '인지적 위축'과 '디지털 치매'라는 사회적 현상으로 이어질 수 있음을 시사합니다.

이미지 출처: ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study(2025)
인지적 부채의 누적과 기억력 감퇴
인간의 뇌는 정보를 지식으로 변환하기 위해 인지적 노력과 관여를 필요로 합니다. 하지만 AI를 사용하여 보고서를 요약하거나 글을 쓰는 행위는 이러한 전환 과정을 생략하게 만듭니다.
MIT 미디어 랩(MIT Media Lab)이 2025년 6월에 발표한 "챗GPT를 사용하는 당신의 뇌(Your Brain on ChatGPT)" 연구에 따르면, 챗GPT를 사용하여 에세이를 작성한 참가자의 83%가 불과 몇 분 전에 직접 작성한 문장조차 제대로 기억하지 못했습니다.
이 연구는 54명의 참가자를 대상으로 EEG(뇌파) 측정을 실시하여, 챗GPT 사용자 그룹이 수동으로 작업하거나 단순 검색 엔진을 사용하는 그룹에 비해 신경 연결성(Neural Connectivity)이 현저히 약화된다는 사실을 밝혀냈습니다. 이는 뇌가 정보를 저장하고 인출하는 프로세스를 기계에 완전히 양도하면서 발생하는 현상입니다.
뇌의 가소성(Plasticity)은 반복적인 자극과 훈련을 통해 유지됩니다. 사고 과정을 AI에 외주화할 경우, 논증을 구조화하고 문장을 생성하는 전두엽 신경망이 사용되지 않게 됩니다. 연구자들은 이를 '인지적 부채(Cognitive Debt)'라고 부르며, 자동화가 진행될수록 전두엽 활성도가 낮아지고 장기적으로 뇌 기능의 저하를 초래할 수 있다고 경고합니다.
AI 챗봇 유도 인지 위축(AICICA)과 젊은 층의 위기
최신 연구는 'AI 챗봇 유도 인지 위축(AICICA: AI-Chatbot Induced Cognitive Atrophy)'이라는 새로운 현상을 정의했습니다. 이는 건강한 젊은 층이 AI 동반자나 챗봇에 과도하게 의존함으로써 초기 치매와 유사한 증상을 보이는 현상을 의미합니다.
MDPI Societies 저널에 2025년 게재된 겔리히(Gerlich)의 논문에 따르면, 17~25세 사이의 젊은 층은 고령층에 비해 AI 도구에 대한 의존도가 훨씬 높았으며, 이는 비판적 사고 점수의 하락과 정비례하는 결과를 보였습니다.
AI 챗봇이 인간의 언어 패턴을 모방하고 정서적 유대감까지 형성하면서, 젊은 사용자들이 스스로 문제를 해결하기보다 AI에 정답을 묻는 방식에 더 강하게 중독되고 있는 것입니다.
그렇다면, 이러한 위협에 대응하기 위해서는 어떤 조치를 취해야 할까요?
서두에서 언급한 어드바이트 사카르(Advait Sarkar)의 팀이 개발한 '사고를 위한 도구(Tools for Thought)' 프로토타입 설명에서 그 힌트를 얻을 수 있습니다.
마이크로소프트 리서치의 '사고를 위한 도구' 프로토타입 알아보기
프로토타입의 메커니즘: 렌즈(Lenses)와 도발(Provocations)
이 프로토타입은 사용자가 문서를 읽고 분석하는 과정에서 AI가 개입하는 방식을 혁신적으로 설계했습니다. 기존 AI가 요약 결과물을 일방적으로 전달했다면, 이 도구는 사용자가 능동적으로 탐색하도록 유도하는 두 가지 핵심 장치를 제공합니다.

이미지 출처: How to Stop AI from Killing Your Critical Thinking | Advait Sarkar | TED
첫 번째 장치인 렌즈(Lenses)는 텍스트의 특정 측면을 강조하는 도구입니다. 예를 들어, 사용자가 보고서를 읽을 때 '소비자 관점' 렌즈를 선택하면, AI는 해당 맥락에서 중요한 데이터를 시각적으로 부각합니다. 이는 AI가 결론을 대신 내리는 것이 아니라, 사용자가 특정 프레임워크 안에서 정보를 비판적으로 재해석하도록 돕는 보조 역할을 수행합니다.
두 번째 장치인 도발(Provocations)은 사용자가 글을 쓰거나 생각을 정리할 때 AI가 의도적으로 반대 논거를 제시하거나 논리적 오류를 지적하는 기능입니다. 사카르는 AI가 사용자의 생각에 무조건 동조(Sycophancy)하는 현상이 지적 게으름을 부추긴다고 진단합니다. 도발 기능은 사용자가 자신의 주장을 방어하기 위해 더 깊은 논리를 구축하게 함으로써, 비판적 사고를 유지시키는 역할을 합니다.
이어서 글로벌 선도 기관의 전략적 대응 사례를 살펴보겠습니다.
해외 명문 대학: '대체'가 아닌 '공존'의 교육 설계
세계 주요 대학들은 AI가 학습 과정을 '단축'하지 못하도록 정교한 시스템을 구축했습니다.
하버드 대학교 (Harvard University): 하버드는 생성형 AI를 전면 금지하기보다, 과목별로 AI 사용 허용 범위를 교수·강의 단위에서 정하도록 하는 가이드라인을 내놓았습니다. 다만 과제 성격에 따라 AI의 도움을 받되, AI 결과물 중 어떤 부분이 부정확했는지, 어떤 편향이 있었는지를 분석한 'AI 사용 내역·한계 분석 리포트'를 제해야 합니다.
MIT (Massachusetts Institute of Technology): 결과 중심의 평가에서 '과정 중심' 평가로 전환했습니다. 학생들에게 AI와 나눈 전체 대화 로그를 제출하게 하고, AI의 개입이 본인의 원래 생각을 어떻게 변화시켰는지 '메타인지적 성찰'을 기술하게 함으로써 지적 주도권을 회복시킵니다.
옥스퍼드 대학교 (University of Oxford): AI를 검색 엔진이 아닌 '비판적 검토 파트너'로 정의합니다. 학생들에게 AI를 '동료'처럼 대우하며 복잡하고 긴 프롬프트를 통해 지속적으로 논쟁할 것을 권장합니다.
글로벌 빅테크 및 컨설팅 기업: AI 리터러시의 제도화
글로벌 기업들은 AI 리터러시를 단순한 기술 습득이 아닌 '전략적 사고 역량'으로 접근합니다.
IBM: '학습하는 법(Learning to Learn)'을 핵심 가치로 내세우며, 전사적인 AI 리터러시 교육인 'Day of AI'를 운영합니다. AI가 잘하는 문제 해결과 인간만이 할 수 있는 비판적 판단 영역을 명확히 구분하는 능력을 함양하는 데 집중합니다.
SAP: 사내 AI 교육·스킬 프레임워크를 운영하고, 책임 있는 AI · AI 리터러시를 강조합니다. 또한 임직원의 다차원적인 AI 리터러시 평가와 교육을 관리합니다. 단순히 도구를 잘 쓰는지를 넘어, 도구의 한계를 명확히 인지하고 있는지를 평가의 핵심으로 삼습니다.
BCG (Boston Consulting Group): AI를 업무 흐름(Workflow)에 통합하되, 반드시 인간의 감독과 코칭이 수반되는 운영 모델을 설계했습니다. 학습을 일회성 워크숍이 아닌 일상 업무에 적용하여, AI를 활용하면서도 비판적 사고력을 유지할 수 있도록 실시간 피드백 시스템을 가동합니다.
McKinsey & Company: 자체 AI 도구인 'Lilli'를 통해 정보 수집 시간을 30% 단축하면서도, 주니어 컨설턴트들이 실행이 아닌 감독과 검증 역량을 키우도록 직무를 재설계했습니다.
그러나 사실, 앞서 살펴본 선진 사례들은 조직과 교육 기관 안에서 제도적인 뒷받침이 있었기에 가능했던 것들입니다. 하지만 시스템이나 환경이 강제하지 않더라도, 우리 스스로 지적 주도권을 지켜낼 방법은 분명히 있습니다.
오늘부터 바로 실천해 볼 수 있는 세 가지 ‘생각의 기술’을 제안합니다.
환경이 강제하지 않아도, 스스로 실천하는 ‘생각의 기술’
'악마의 대변인'으로서의 AI 활용 (반론 생성 프롬프트): AI에게 곧장 정답을 묻는 습관을 버려보세요. 대신 "내 계획에 대해 예상되는 3가지 비판적 시나리오를 제시해줘"라고 요청하는 것입니다. AI를 나의 논리를 공격하는 '악마의 대변인(Devil's Advocate)'으로 세움으로써, 스스로 논리의 빈틈을 메우고 사고를 정교화하는 과정을 거쳐야 합니다.
생성보다 '검증과 편집'에 집중하는 시간: 이제는 무엇을 만드는 능력보다, 만들어진 것을 판단하는 능력이 중요합니다. AI가 제공하는 유창한 문장과 매끄러운 정답에 현혹되지 마세요. 그 이면에 숨겨진 사실 관계를 파악하고, 자신의 언어로 다시 편집하는 과정에 더 많은 에너지를 쏟는 것이 AI 시대의 핵심 경쟁력이 됩니다.
아날로그의 귀환, 직접 메모와 수동 정리: AI가 요약해 준 텍스트는 보기엔 편하지만 뇌에 깊게 각인되지 않습니다. AI의 요약본을 바탕으로 다시 한번 자신의 손으로 구조도를 그리거나 메모해 보세요. 이러한 신체적인 활동은 뇌 신경망을 활성화하고, 휘발되기 쉬운 정보를 장기 기억으로 전이시키는 가장 확실한 방법입니다.
이번 뉴스레터의 핵심 인사이트 3가지
AI의 '친절함'은 지적 성장의 적이 될 수 있습니다: AI가 사용자의 생각에 무조건 동조하고 매끄러운 정답만 제공할 때 인간의 사고는 멈추기 쉽습니다. 의도적으로 나에게 반기를 드는 '도발적 AI'를 파트너로 삼고, 인지적 부하(Cognitive Load)를 자발적으로 수용할 때 인지적 위축을 막을 수 있습니다.
생산성 지표를 '속도'에서 '이해'로 재편해야 합니다: AI로 작업을 빨리 끝내더라도 그 내용을 기억하지 못한다면 그것은 진정한 생산성이 아니라 '인지적 부채'입니다. 결과물의 화려함이 아닌, 그 결과물을 만들어내기까지의 '인간의 사고 과정'과 '검증의 깊이'를 핵심 성과 지표로 삼아야 합니다.
지적 주도권은 '선(先) 사고 후(後) 도구'의 원칙에서 나옵니다: AI는 사고 과정의 대체재가 아니라 보조 장치가 되어야 합니다. 스스로 가설을 세우고 논리를 구축하는 과정을 AI에 맡기지 않는 자기 통제력이 AI 시대의 가장 핵심적인 생존 역량입니다. 기술에 생각을 맡기지 말고, 기술을 생각의 파트너로 활용하세요.
마치며: 더 멀리 가기 위해, 우리는 여전히 걸어야 합니다
인공지능은 우리가 오랫동안 당연하게 여겨왔던 '지적인 삶'의 방식을 근본적으로 바꾸고 있습니다. 그러나, AI 시대 '생각하는 힘'은 자동차라는 편리한 이동 수단이 있어도 우리가 여전히 두 발로 걷고 뛰며 근력을 기르는 것과 같습니다.
AI가 지식의 거리를 빠르게 좁혀준다면, 우리는 그만큼 아낀 에너지를 더 본질적이고 가치 있는 고민에 투자해야 합니다. 결국 기술 자체가 문제가 아니라, 그 기술을 대하는 우리의 '태도'가 우리의 미래를 결정하기 때문입니다.
AI에 의존해 답만 구하는 데 그친다면 사고의 근육은 퇴화하겠지만, AI를 '나의 생각을 더 넓게 확장해 주는 파트너'로 삼는다면, 인류는 이전보다 더 깊고 가치 있는 영역으로 도약할 수 있습니다.
자신의 생각을 타인이나 도구에 외주 주지 마세요.
스스로 질문하고 논리를 세우는 과정이야말로, AI 시대에 우리가 끝까지 지켜내야 할 인간다움의 본질이라고 생각합니다.
[Human AX 함께하기]
“AI가 노동에서 우리를 해방시킬 때, 인간은 무엇을 해야 할까요?”
단순한 기술 정보를 넘어, AI와 인간이 공존하는 'Human AX'의 미래를 설계합니다.
이현의 Human AX에서 매주 그 해답을 함께 찾아보아요. :)
[ 📬이현의 Human AX 뉴스레터 구독하기 ]