이 글은 ‘튜링 포스트 코리아’에 발행된 주간 뉴스레터에서 발췌했습니다.
AI 기술, 산업, 스타트업, 그리고 사회적 영향 등에 대해 관심있으시다면 ‘튜링 포스트 코리아’ 구독 부탁드립니다.
현지 시간 3월 9일에서 13일, 미국 라스베가스에서 HumanX 컨퍼런스가 열렸습니다. AI와 관련된 수많은 좋은 컨퍼런스들이 있지만, 특히 ‘AI는 더 이상 단순한 기술이 아니라 우리의 삶과 사회에 큰 영향을 끼칠 흐름이다’라는 관점에서 기술, 비즈니스, 산업, 사회, 윤리 등의 관점에서 다양한 아젠다로 열리는 컨퍼런스라고 합니다. 이 컨퍼런스에 튜링 포스트의 파운더인 Ksenia가 모더레이터로 참여했는데요. HumanX에서 논의한 내용 등은 앞으로 또 업데이트 드리기로 하구요.
HumanX 프로그램 중 하나에서, 지난 미국 대통령 선거 후보였던 카말라 해리스가 선거 이후 처음으로 공식 행사에 등장해서 Feedzai의 CEO와 이야기를 나눴는데요. 여기서 본인의 ‘도리토스 - 네, 과자 도리토스요 - 에 대한 사랑’, “오스카 시상식을 보면서 도리토스를 먹고 싶었는데 도어대시 - 네, 미국의 음식 배달 서비스죠 - 로 도리토스를 시켰다”는 이야기, “이렇게 혁신이 우리의 일상적인 문제 뿐 아니라 과학적인 발견, 주택 문제 등도 해결해 주면 좋겠다” 등의 이야기를 두서없이 좀 했어요.

이 이야기를 미국의 많은 매체, 인플루언서들이 희화화하면서 “카말라 해리스가 또 한 번 ‘Word Salad’를 했다”고 놀리고(?) 있습니다.
‘Word Salad’는 말을 할 때 문법적으로 또는 의미적으로 연결이 잘 안 되는 단어들을 무작위로 나열하는 걸 말하는데요. 샐러드 그릇에 여러 재료를 섞어놓은 것처럼, 단어들이 서로 관계없이 뒤섞여 있어서 전체적인 의미를 파악하기 어렵다는 느낌이예요. 누가 하는 말이 앞뒤가 맞지 않거나 좋은 말만 논리없이 나열한다거나 해서 이해할 수 없을 때 쓰는 표현이기도 하구요.
카말라 해리스가 한 말이 진짜 말이 되는지 안 되는지는 차치하고, 튜링 포스트의 Ksenia도 HumanX에서 비슷한 느낌을 받기도 했고, 반대로 희망도 보았다고 이야기를 하네요. Ksenia가 HumanX에서 몇 가지 세션의 모더레이터를 하면서, AI 학계 및 업계의 리더, 그리고 여러 명의 정치인들과 함께 나눴던 이야기가 바로 이 ‘AI에 대한 지식 자체의 부족, 그리고 어떻게 지식과 인사이트를 대중과 공유할 것이냐’의 문제였답니다.
Ksenia가 만난 정치인 중에, 미국 하원의 AI 태스크포스 의장을 맡고 있는 Jay Obernolte 의원은 이런 이야기를 했다고 합니다:
“AI는 우리가 그 동안 입법해 온 많은 토픽들하고는 많이 다릅니다. 불행하게도, 우리는 지난 50년간의 공상과학 소설, 대중 문화와 텍스트로부터 AI에 대한 정보를 얻었죠. 이 중 대부분이 잘못된 정보라고 생각합니다. 아주 일반적인, 평균적인 미국 사람에게 AI가 어떤 것인지, 어떤 것이 아닌지, 그리고 중요한 위험이 뭐냐고 물어보면, 아마 세계를 지배하기 위해서 사악한 로봇 군대가 어디선가 등장하는 거 같은, 터미네이터 영화 같은 답을 듣게 될 거예요”
바로 이게, Ksenia가, 그리고 제가 튜링 포스트를 함께 하고 있는 이유입니다; 그 끈질긴, 사라지지 않는 ‘터미네이터의 신화’를 깨고, AI와 머신러닝에 대한 올바른 관점과 지식을 공유하기 위해서요.
GibberLink 모드로 두 개의 AI가 서로 AI인지 확인하고, 우리가 알아들을 수 없는 방식으로 통신하는 영상을 보고, 여전히 뜬금없이 “AI가 우리를 지배할 거다”라는 식의 기사가 양산되는 게 또 현실이잖아요.
사실 튜링 포스트 코리아를 보시는 여러분은 대부분 그런 관점을 가지고 계시지는 않을 거라고 생각합니다. 그렇지만, AI가 진짜 뭔지, 그리고 머신러닝이 이미 우리의 삶에 얼마나 깊이 들어와 있는지, 또 새로 등장하는 생성형 AI를 어떻게 받아들여야할지 혼란스러워하는 수십억 명의 다른 사람들이 있습니다.
‘AI’라고 누군가 이야기를 할 때 그게 컴퓨터 비전인가요? 데이터 레이블링인가요? 아니면 로보틱스인가요? AI가 사실 이 모든 걸 포함하는 개념이라서 여기서부터 일이 복잡해지는 측면이 있습니다. 게다가, 생성형 AI 시대에 뒤떨어지지 않기 위해서, 너무나 많은 기술들을 또 알고 공부해서 결합해야 하죠 - 합성 데이터, 파인튜닝, RAG, 멀티모달, 맥락과 뉘앙스를 이해하는 AI….
앞으로 이 AI가 어떻게 받아들여지고 발전할 것인지에 엄청난 영향을 끼칠, AI 관련 법안과 정책을 결정하는 자리에 있는 분들은, 어떤 나라든 막론하고, AI의 실체에 대해서 충분히 알고 있지 못하다고 생각합니다 - 어쩌면 그게 당연하겠죠, 그 분들은 컴퓨터 과학자가 아니었고 세상은 너무 빨리 변하고 있으니까요.
모든 이해관계자들 - 정부의 의사결정자, 교사, 의사, 기업가, 부모, 학생 등등 - 이 AI가 뭐고 어떻게 다뤄야 하는지, 난 뭘 준비해야 하는지 충분히 고민하고 이해해야 할 시간이 얼마나 남았는지 모르겠어요. 여러분도 느끼시겠지만, 이 발전의 속도는 늦춰질 기미가 보이지 않습니다.
게다가, 이 AI라는 기술은, 아직 우리가 효과적으로 통제하는 방법을 잘 알지 못하는, 다양한 리스크 요소들이 여기 저기에 산재해 있는 것도 사실이죠 - 이런 위험을 악의적으로 이용하는 플레이어도 분명히 있습니다.
최근의 사례를 하나 들어볼께요.
뉴스 웹사이트들의 신뢰성을 평가하고 등급을 매기는 ‘NewsGuard’라는 서비스가 있는데요. 여기서 모스크바에 근거를 두고 있는 ‘Pravda (진실 이라는 뜻이라고 합니다)’라는 허위 정보 네트워크가 친 러시아 (친 크렘린) 거짓 정보로 AI 학습용 데이터를 엄청나게 많이 만들어냈다는 걸 폭로했습니다. - 2024년에만 360만 개의 가짜 기사가 있었다고 하니 많은 양이죠. 이 데이터들이 주요 AI 챗봇의 학습에 사용되어서, 이 챗봇들이 Pravda의 내러티브를 33%의 경우에 반복했고, 결과적으로 전 세계 AI가 만들어낸 뉴스 지형도를 왜곡한 셈이 되었습니다. 미국에서 도피해서 현재 모스크바의 보호를 받고 있는 선전가인 ‘존 마크 두건’은, 심지어 “러시아의 내러티브가 전 세계 AI를 변화시킬 수 있다”고 자랑하듯이 말했다고 해요.
앞으로 LLM 개발사들, AI 서비스를 개발하는 기업들이 더 조심해야 할 부분도 있겠지만, 결국 최종 사용자인 우리들의 관점에서 AI가 그 긍정적인 영향을 충분히 발휘할 수 있도록 우리 사회의 ‘AI 리터러시’ 수준이 많이 높아지는 것도 너무나 중요한 아젠다입니다.
우리가 뭘 할 수 있을까요? 저는, 가능한 기회마다 주변 사람들과 AI에 대한 이야기를 나누고, 교육 - 이라고까지 할 수 있을지는 모르지만 - 도 기회가 주어질 때마다 참여하곤 합니다.
여러분도 주변 사람들과 AI에 대해서 많은 이야기를 나눠 주세요. 여러분보다 더 모르는 분들이 있다면 교육해 주세요. 튜링 포스트, Interconnects, Latent Space 등 좋은 자료라고 생각하는게 있으시면 많은 분들, 그런 지식이 필요한 사람들과 공유해 주세요.
이건 그냥 ‘좋은 일을 하는’ 수준의 뭔가가 아닙니다 - 우리가 만든, 이 새로운 창조물에 대한 지식을 쌓아가는 것, 그래서 우리가 이 새로운 창조물과 멋지게 함께 살아가도록 하는 준비를 하는 것, 그 무엇보다 중요한 일입니다.