최근 몇 년 사이 생성형 AI(GenAI)는 번역, 요약, 코드 작성 등을 돕는 ‘단순 도구’의 단계에서 빠르게 진화하고 있습니다.
특히 요즈음 등장한 에이전틱 AI(Agentic AI)는 목표를 이해하고 계획을 세우며 환경에 맞춰 행동하는 새로운 패러다임을 보여주고 있는 것 같습니다. 학계에서는 에이전틱 AI를 “환경과 도구를 활용해 다중 단계로 계획ㆍ반영하는 능력”으로 정의하기도 하는데요. 이는 단순히 질문에 답하는 수준을 넘어, 스스로 문제를 분석하고 해결하기 위한 계획(planning)과 반성(reflection) 과정을 거친다는 의미입니다. 예를 들어 최신 AI 모델들은 스스로 생성한 프롬프트를 기반으로 검색과 계획을 수행하며, 중간 결과의 정확성을 확인하고 수정하는 ‘자기 반성’ 기법을 통해 문제 해결 능력을 높인다고 합니다.
한편, ‘AI 에이전트 행동과학(AI Agent Behavioral Science)’ 연구(arxiv.org)에서는 LLM을 기반으로 한 AI 에이전트들이 계획·적응·사회적 역동성과 같이 인간과 유사한 행동을 보인다고 지적하고 있습니다. 흥미로운 점은 이러한 행동은 단순히 모델 내부 설계 뿐 아니라 환경, 사회적 단서, 상호작용 피드백 등 외부 요인이 함께 작용할 때 나타나며, AI를 통제하려면 이러한 행동을 과학적으로 관찰하고 이해해야 한다고 제안하고 있습니다. 즉, 에이전틱 AI는 인간 팀원처럼 환경과 상호작용하며 학습하고 행동하는 존재로 진화하고 있습니다.
Agentic AI의 핵심 특징
최근 연구 논문에서 제시하는 에이전틱 AI의 특징은 다음과 같습니다.
| 특징 | 설명 |
|---|---|
| 계획 수립 | 에이전틱 AI는 단일 응답을 생성하는 대신 문제를 세분화하고 여러 단계를 계획한다. 계획 과정에서 다양한 연산 경로를 탐색하면서 최적 해결책을 찾는다(arxiv.org) |
| 자기 설명(self‑explanation) 및 검증 | AI가 생성한 중간 결과를 스스로 설명하고 검증하는 과정을 거쳐 오류를 줄인다. 연구에서는 ‘자기 반성’ 기법을 활용해 중간 추론을 검증하고, 필요할 경우 외부 도구의 도움을 받아 결과를 개선하도록 한다. |
| 지속적 상호작용 및 적응 | AI 에이전트는 환경·사용자·다른 에이전트와 지속적으로 상호작용하면서 행동을 수정한다. 이러한 행동은 내부 모델뿐 아니라 사회적 피드백과 경험의 영향을 받는다. |
| 성찰(reflection) | 문제를 해결하는 과정에서 자신의 경험을 되돌아보고 중간 단계의 오류를 찾아 수정한다. 이는 ‘검증(verification)’과 ‘재정련(refinement)’ 과정을 포함하며, AI가 스스로 실수를 발견하고 더 나은 해결책을 생성하도록 돕는다. |
| 자율적 수행 | AI 에이전트는 외부 지시 없이도 목표를 향해 작업을 수행할 수 있으며, 다양한 도구를 활용해 환경을 탐색한다. 이처럼 스스로 행동하는 능력은 기존의 GenAI와 구별되는 주요 요소다. |
이러한 특징은 AI를 단순한 ‘도구’가 아닌 협력적 팀원으로 바라보게 하는 것 같습니다. 에이전틱 AI는 인간처럼 계획을 세우고 학습하며, 상황에 따라 스스로 결정하는 능력을 갖추고 있기 때문이지
도구를 넘어 팀원이 된 AI: 실제 사례
👉 [인터뷰] AI 심사역은 '모두의 막둥이'... 더벤처스는 지금 즐거운 '공동육아' 中
에이전틱 AI가 팀원으로 인식되는 사례는 실제 기업에서도 나타나고 있어요. 스타트업 투자사 더벤처스는 ‘비키(Vicky)’라는 AI 심사역을 도입해 투자 심사 업무를 돕고 있다고 합니다. 디지털데일리 인터뷰에 따르면, 더벤처스는 “언젠가 AI에게 대체될 수 있다면 차라리 우리가 먼저 AI 심사역을 만들어 보자”며 AI 도입을 선언했고, 3개월 만에 자체 AI 심사역을 개발해 시범 운영에 돌입했습니다.
더벤처스에서는 비키를 단순한 도구가 아닌 회사 막둥이 또는 ‘공동육아 대상’으로 부르고 있습니다. 이는 AI가 회사의 막내 직원처럼 팀원으로 대우받고 있다는 뜻입니다.. 황성현 테크리드는 “우리 심사역들의 모든 평가와 피드백 데이터가 곧 비키의 먹이”라고 설명하며, 구성원 모두가 비키를 키우는 느낌이라고 전하고 있네요. 팀원들이 평가 데이터를 기꺼이 제공하고 평가 방식까지 바꾼 덕분에 더벤처스는 AI를 위한 데이터 친화적 DNA를 갖춘 조직으로 발전했습니다.
비키를 효과적으로 활용하기 위해 더벤처스는 모든 문제를 텍스트 데이터로 정의하는 데 주력하고 있습니다.. 황성현 테크리드는 AI를 활용하려면 “문제를 어떻게 정의할 것인가”가 중요하며, 인간 심사역의 평가 기준과 절차를 텍스트 데이터로 구체화해야 한다고 강조합니다. 실제로 비키는 초기 평가 점수 6070점에서 현재 8690점까지 성능이 향상되어 인간 심사역과 유사한 수준에 도달했다고 합니다. 덕분에 더벤처스는 한 달에 한 번 하던 투자 배치 평가를 2주 간격으로 줄일 수 있었고, 더 많은 스타트업을 만나면서 생산성을 크게 높이는 중이라고 합니다.
흥미로운 점은 비키가 인간 심사역이 놓친 잠재력을 발견해 줬다는 것입니다. 비키는 심사에서 탈락했던 두 스타트업을 다시 만나 보라고 추천했고, 실제로 만나 보니 높은 잠재력을 가진 팀들이었답니다. 이처럼 AI는 데이터에서 발견한 신호를 기반으로 인간이 놓친 기회를 포착하는 데 도움을 줄 수 있습니다. 이러한 경험 때문에 더벤처스는 비키를 ‘독립된 심사역으로 존중할지’, 아니면 기존 심사역과의 간극을 좁히는 데 집중할지 고민하고 있다고 하네요.
AI와 팀원 간의 소통 환경 구축 노력도 눈여겨 볼 점입니다. 더벤처스는 비키의 UI/UX를 개선해 “보기 좋은 아이, 친절한 아이”로 만들고자 합니다. 내부 구성원과 원활히 대화할 수 있는 챗봇 인터페이스와 검색 기능을 개발해 투자 포트폴리오 문의와 성과 확인을 돕고 있으며, 향후에는 증권사 앱처럼 강력한 채팅 기능을 갖춘 투자 플랫폼을 목표로 하고 있습니다. 또한 다른 투자사들이 AI 심사역을 도입할 수 있도록 지원하고 있으며, AI를 도입하면 조직의 일하는 방식까지 함께 진화해야 한다고 강조합니다.
AI 팀원 도입 시 고려해야 할 도전과제
위의 사례 처럼, AI가 실제로 팀원이 되는 시대에는 새로운 고민이 생길 수 있습니다.
참조할만한 재미있는 논문(AI 팀 구성: 디지털 시대의 협업 재정의)이 있어 주요 내용을 소개합니다.
팀 구성의 복잡성 증가 – 인간만으로 이루어진 팀에 AI가 추가되면 역할과 책임이 더욱 복잡해질 수 있습니다. AI가 어느 수준까지 의사결정에 참여할지, 사람과 AI의 권한을 어떻게 배분할지 명확히 정해야 합니다.
팀 프로세스와 소통 문제 – AI 팀원의 존재는 기존 소통 구조를 흔들 수 있습니다. AI가 결정 과정에 개입하면 팀원 간 정보 공유와 조정 방식이 변하기 때문에, AI와 사람이 서로 이해할 수 있는 소통 채널을 마련해야 합니다.
마인드셋의 변화 필요 – 연구자들은 인간이 AI 팀원을 받아들이려면 인간-기계 혼성 팀에 대한 새로운 정신 모델이 필요하다고 말합니다. AI가 효과적인 팀원이 되려면, 인간은 AI의 능력과 한계를 이해하고 적절히 기대해야 하며, AI는 인간 팀원을 모델링해 ‘기계의 마음 이론’(theory of mind for machines)을 갖춰야 한다고 합니다.
팀 성과와 신뢰 문제 – AI가 아직 완전한 팀원으로 기능할 준비가 되어 있지 않을 수 있습닏. 인간은 AI와 상호작용하는 데 익숙하지 않고, AI는 아직 충분한 사회적ㆍ정서적 지능을 갖추지 못했습니다. 따라서 AI가 불완전한 판단을 내릴 때 팀 성과가 영향을 받을 수 있다는 점을 인식해야 합니다.
또한 AI와 함께 일하려면 윤리적 고려가 중요합니다. AI 에이전트 행동과학 연구에서는 AI를 행동적 객체로 관찰하여 공정성·안전성·책임성을 평가하고, 환경과 상호작용하면서 나타나는 편향과 부작용을 제어해야 한다고 강조합니다.
앞으로의 전망
에이전틱 AI는 단순한 도구를 넘어 협력적 팀원으로서의 가능성을 보여주고 있습니다. 더벤처스의 사례는 AI를 팀원으로 받아들이기 위해 조직 전체가 데이터 수집과 문제 정의에 참여하고, UI/UX를 개선해 소통 채널을 구축하며, AI와 함께 일하는 방식을 재설계해야 한다는 것을 보여 줍니다. 향후에는 에이전틱 AI가 투자뿐 아니라 연구, 의료, 법률 등 다양한 분야에서 팀원의 역할을 할 것으로 기대되고 있습니다.
그러나 AI 팀원이 완전히 자리 잡으려면, 기술적 성능뿐만 아니라 신뢰와 책임, 사회적 수용성, 조직 문화의 변화가 함께 이루어져야 합니다. AI 에이전트 행동과학처럼 AI의 실제 행동을 과학적으로 관찰하고 평가하는 학문적 노력이 필요하며, AI와 인간이 함께 성장할 수 있는 팀 구조와 리더십 모델을 찾아야 하는 숙제가 있습니다.
정리하면, AI는 이제 더 이상 단순한 도구가 아니라 팀의 실질적인 동료로서 바라볼 필요가 있을 것 같습니다.
이러한 ‘관점의 전환’에서 부터 인간이 AI와 더불어 잘 살아갈 수 있는 새로운 지평이 만들어질 수 있지 않을까요?