톰 크루즈 주연의 영화 <미션 임파서블: 데드 레코닝>과 <미션 임파서블: 파이널 레코닝>에서는 다음의 대사가 나옵니다. "The World is changing. Truth is vanishing. War is coming. 세계는 변하고 진실은 사라지며 전쟁이 온다." 2026년 현재 이 대사를 음미하면 마치 격변하는 국제 정세를 예견한 듯한 묘한 뉘앙스를 풍깁니다. 길고 지루한 우크라이나 전쟁, 가자지구 전쟁에 이어서 또 한차례 미국과 이스라엘의 공격으로 촉발된 이란 전쟁은 지정학적 국제 질서를 일순간에 흔들어 놓았습니다. 게다가 양측의 선전전으로 어느 편의 말이 진실인지 가리기 힘든 상황에서 일촉즉발의 전쟁 양상이 더 깊은 수렁으로 빠져드는 지금의 모습을 그대로 표현하기 때문입니다.
하지만, 이 대사는 예상과는 달리 인공지능의 위험성을 경고하는 말입니다. 영화에 등장하는 인공지능 엔티티(Entity)는 미션 임파서블 시리즈에서 최초로 인간이 아닌 악당으로 등장해 디지털 세계를 완벽하게 장악하고 현실 세계를 마음대로 휘저어 놓습니다. 음향 탐지기를 조작해 있지도 않은 적 잠수함과 어뢰를 만들어내 어뢰를 발사하도록 유도한 뒤 이 어뢰로 다시 실재하는 잠수함을 자폭하게 만듭니다. 주인공 이단의 무전을 해킹해 동료 벤지의 목소리를 흉내 내서 엉뚱한 곳으로 유인하는 방해 작전을 펼치기도 합니다. 더욱이 엔티티는 핵보유국들의 핵무기 통제권을 손아귀에 넣어 인류 종말을 앞당기려는 거대 악당으로 묘사됩니다. 세계를 혼돈 속으로 몰아넣으며 가짜 정보를 양산하고 국가간 극한 대립으로 치닫게 만드는 초거대 인공지능.
영화에서 미 정보국 수장은 엔티티를 이렇게 표현하기도 합니다. "어디에나 있고... 어디에도 없고... 본부도 없는 적. An enemy that is everywhere... and nowhere... and has no center. 신출귀몰하며 인간의 통제를 벗어나 스스로 판단하고 행동하는 이 엔티티는 강한 인공지능, 이른바 초인공지능으로 불릴 수 있을 것 같습니다. 단지 영화적 재미를 위해 설정한 것이라고 치부할 수도 있지만 현실에서 우리는 이 초거대 인공지능, 수퍼 인텔리전스의 출현을 앞으로 맞이할 수도 있을지 모릅니다.
■ 인류를 뛰어넘는 '수퍼 인텔리전스'가 온다
여기서 우리가 주목해야 할 지점은 인공지능이 도달할 '지능의 단계'입니다. 전문가들이 말하는 미래는 크게 두 단계로 나뉩니다. 먼저 범용 인공지능(AGI)은 인간이 할 수 있는 모든 지적 업무를 인간과 대등하게 혹은 그 이상으로 해내는 단계를 말합니다. 현재 우리가 사용하는 AI가 특정 분야(바둑, 번역, 코딩)에 특화되어 있다면, AGI는 스스로 학습하고 추론하며 인간처럼 다양한 분야를 넘나듭니다. 하지만 진짜 공포와 경외심의 대상은 그다음 단계인 초인공지능(ASI)입니다. 이는 인류 전체의 지능을 모두 합친 것보다 수만 배 이상 뛰어난 지능을 뜻합니다. 개미가 인간의 지능을 이해하지 못하듯, ASI가 내리는 결정과 논리를 인간이 아예 인지조차 할 수 없는 단계입니다. 일론 머스크와 샘 올트먼이 경고하는 지점이 바로 이 '인류의 이해 범위를 벗어난 지능'의 출현입니다.
전문가들 사이에서는 이 수퍼 인텔리전스, 즉 ASI(Artificial Super Intelligence)의 도래 시점을 놓고 열띤 논쟁이 벌어지고 있습니다. 가장 공격적인 예측을 내놓은 인물은 일론 머스크입니다. 머스크는 컴퓨팅 파워의 기하급수적 증대를 전제로 "올해나 내년 안에 어떤 한 명의 인간보다 똑똑한 AI가 등장할 것"이라고 주장합니다. 손정의 소프트뱅크 회장 역시 인류 지능의 수백 배에 달하는 ASI가 2027년에서 2028년 사이에 도달할 것이라며 거대한 자본 투입을 서두르고 있습니다.
반면, 기술적 낙관주의자로 잘 알려진 미국의 컴퓨터 과학자 레이 커즈와일은 AI가 인간의 지능과 구별되지 않는 수준인 범용 인공지능, 즉 AGI(Artificial General Intelligence)에 도달하는 시점을 2029년으로 예언합니다. 또 인류의 지능을 완전히 추월하는 특이점(Singularity)은 2045년으로 보고 있습니다. 샘 올트먼 오픈AI 최고 경영자 역시 최근 "수천 일(약 10년 안팎) 안에 초인공지능이 나타날 수 있다"며 2032년경을 암시했고, '인공지능의 아버지'로 불리는 2024년 노벨물리학상 수상자 제프리 힌턴 교수는 과거 30~50년 뒤로 보았던 예측치를 대폭 수정해 "5년에서 20년 내(2028~2043년)"에 AI가 인간을 능가할 확률이 매우 높다고 경고하고 있습니다.
■ 닭은 닭장 밖을 상상하지 못합니다
여기서 한가지 궁금증이 생깁니다. AI의 지능이 앞으로 얼마나 뛰어나지길래 인간의 지능을 추월한다는 것인지 잘 이해가 가지 않을 수도 있을 것 같습니다. 제프리 힌턴 교수는 이같은 질문에 닭을 비유해 대답합니다.
“최고 지능이 아닌 존재의 삶이 어떤지 알고 싶다면 닭에게 물어보라. If you want to know what life is like when you’re not the apex intelligence, ask a chicken.”
닭은 닭장 안에서 모이를 먹고 알을 낳고 자기 세계가 전부인 줄 압니다. 닭장 밖에 어마어마하게 넓은 세계가 있다는 것을 닭은 인식조차 못합니다. 인공지능이 볼 때 인간 역시 뇌의 용량에 한계가 있고 지식과 경험의 축적은 한계가 있습니다. 한 사람이 평생 쌓는 지식은 방대하지만, AI는 인류 전체가 수천 년에 걸쳐 쌓은 지식을 빠르게 흡수하고 응용합니다. 세상의 모든 지식을 섭렵하고 실시간 일어나는 상황의 정보를 흡수하고 이를 연결해 통찰을 얻기도 합니다. 또한 0.1초당 수백만 번에 달하는 시뮬레이션과 연산을 통해 미래를 예측할 수도 있는 능력을 갖췄다면 한 개인의 지적 능력은 그저 닭장 속에 닭의 지능 수준으로 볼 수도 있을 것 같습니다.
■ 아무도 모른다, 하지만 작동하고 있다
여기서 솔직히 우리가 인정해야 할 부분이 있습니다. AI를 만든 사람들도 AI가 어떻게 저렇게 똑똑해졌는지 정확히는 모른다는 것입니다. 거대 언어 모델의 원리는 방대한 데이터를 학습시키고, '다음 단어가 뭘까'를 무수히 예측하도록 훈련시키는 것입니다. 그런데 이 단순한 과정을 수조(兆) 번 반복하다 보니, 아무도 가르치지 않은 능력이 갑자기 나타나게 됐습니다. 번역, 수학 풀기, 코딩, 의학 진단과 추론 등 상상을 뛰어넘는 탁월한 능력까지 가게 된 것입니다. 구글이나 오픈AI, 마이크로소프트와 같은 빅테크 기업들이 이 세부적인 작동의 원리를 정교하게 이해해서 AI를 키운 게 아닙니다. 단순하게 말하면, GPU를 최대한 더 많이 집어넣으면서 알고리즘과 방대한 데이터, 막대한 컴퓨팅 자원이 결합한 결과입니다. 흥미로운 점은, 모델이 커질수록 개발자들도 미처 예상하지 못했던 새로운 능력이 튀어나온다는 겁니다. 그래서 지금의 인공지능은 분명 사람이 만든 기술이지만, 그 안에서 정확히 어떤 일이 벌어지고 있는지 완전히 설명하지 못하는 영역도 여전히 남아 있습니다. 수조 개의 파라미터(parameter)가 얽히고설켜 '다음 단어'를 만들어내는 과정은 인간의 뇌로 억겁의 시간을 계산해도 따라잡을 수 없습니다.
제프리 힌턴 교수는 인간이 알 수 없는 영역에서 발전을 거듭하고 있는 인공지능이 인류에게 어떤 존재로 다가올지에 대해 심각하게 고민해 봐야 한다고 말합니다.
"지구상에서 인류가 두 번째로 지능이 우수한 존재로 전락할 것입니다. 제 말은 앞으로 무슨 일이 일어날지에 대해 엄청난 불확실성이 있지만 우리는 단지 알지 못한다는 것입니다. (So human beings will be the second most intelligent beings on the planet? Geoffrey Hinton: Yeah...I think my main message is there's enormous uncertainty about what's gonna happen next.)
■ AI를 '도구'라고 부르는 것의 한계
영화 아이언 맨에서 주인공이 인공지능 비서 ‘자비스’와 대화하는 장면 영화 아이언 맨에서 주인공이 인공지능 비서 ‘자비스’와 대화하는 장면
많은 사람이 아직도 AI를 도구(tool)라는 틀로 이해합니다. 궁금한 것을 챗GPT에 물어보고 클로드(Claude)에게 코드를 짜 달라고 하며 제미나이(Gemini)에 여행 계획을 세워달라거나 영상을 만들어 달라고 합니다. AI에게 지루한 반복 작업을 맡기고 며칠을 끙끙대며 해야 했던 일을 단 몇 시간 만에 뚝딱 해치우는 만능 비서처럼 사용하기 시작합니다. 마치 영화 아이언맨에서 주인공 토니 스타크(로버트 다우니 주니어)가 인공지능 비서 '자비스'와 대화하며 일을 시키듯이 말이죠. 하지만 초인공지능을 마주하게 될 우리는 AI를 단지 도구라고 생각해서는 안 될 것 같습니다. 부작용을 최소화하고 인간의 통제를 벗어나지 않으면서 인류에게 위협이 되지 않는 존재로 함께 할 대상으로 봐야 하지 않을까요? 이 질문에 가장 실감나는 답을 내놓을 수 있는 사람이 있습니다. 10년 전, 바둑판 위에서 직접 그 경험을 했던 사람입니다.
■ “AI와의 대결은 끝났다. 이제는 협력의 시대다.”
이세돌 9단이 〈알파고 대국 10년: 새로운 생각 시대, 새로운 생각〉이라는 주제로 강연하고 있다. 이세돌 9단이 〈알파고 대국 10년: 새로운 생각 시대, 새로운 생각〉이라는 주제로 강연하고 있다.
이세돌 9단은 최근 알파고 대국 10년을 맞아 여러 강연과 인터뷰를 통해 이렇게 털어놓았습니다.
"당시에는 내가 진 것이지 인간이 패배한 것은 아니라고 말했지만, 10년이 지난 지금 AI는 인간이 이해하기 어려운 수준까지 발전했습니다. 이제는 AI와 경쟁하는 것은 무의미합니다."
그러면서 그는 이렇게 덧붙였습니다. AI와 경쟁하기보다는 상생하고 협력하는 것이 AI 시대의 미래를 대비하는 현명한 방법이며, AI를 활용하는 사람과 그렇지 않은 사람 간의 격차가 이미 다양한 산업에서 벌어지고 있고, 앞으로 더 확산할 것이라고요. 바둑판 위에서 알파고를 온몸으로 마주했던 그가 10년 뒤 내놓은 결론이 '경쟁'이 아니라 '협력'이었다는 사실은, 단순한 패배의 수용이 아닙니다. 그것은 변화의 실체를 가장 가까이에서 목격한 사람이 내린 현실적인 판단입니다. 어쩌면 그것이 지금 우리 모두 앞에 놓인 가장 솔직한 답일지 모릅니다. 그렇다면, 우리에게 남은 것은 무엇일까요?
수퍼 인텔리전스의 도래를 막을 방법은 없습니다. 빅테크들의 GPU 경쟁은 오늘도 계속되고 있고, 누군가 멈추자고 해도 다른 누군가는 달립니다. 기술의 열차는 이미 출발했고, 급브레이크는 없습니다. 그렇다면 남는 질문은 하나입니다. 닭장 밖의 존재가 나타났을 때, 우리는 그저 닭장 안에 머물 것인가, 아니면 그 존재와 어떻게 함께 살지를 스스로 설계할 것인가. AI가 지식을 생산하고, 코드를 짜고, 수술을 보조하는 시대에 인간에게 남는 것은 결국 '무엇을, 왜 해야 하는가?'를 결정하는 의지입니다. 멋진 말처럼 들릴 수 있지만, 실은 아주 단순한 이야기입니다. 그 의지를 포기하지 않는 것, 그것이 닭장 속 닭과 인간의 차이일 테니까요.
수퍼 인텔리전스가 온다면, 여러분은 어떤 인간이 되고 싶으신가요?
■ 제보하기 ▷ 카카오톡 : 'KBS제보' 검색, 채널 추가 ▷ 전화 : 02-781-1234, 4444 ▷ 이메일 : kbs1234@kbs.co.kr ▷ 유튜브, 네이버, 다음에서도 KBS뉴스를 구독해주세요!
저 노래가 나왔을 때 미국 캘리포니아 호주 지중해 홍콩 대만 싱가폴 난리도 아니었음 큰 백화점 어디나 바닷가 카페 근처만 가도 저노래가 무한반복 그리고 소녀시대 , 싸이, 노래가 뒤를 이었었고
특히 텔아비브 지중해 어느 모래사장에서 유럽 진구들이랑 휴가를 즐기며 이스라엘 산 맥주를 마시며 쉬고 있었는데 저노래가 들리는 휴대용 뮤직 플레이어를 들고 근처 술집으로 들어가는 팔레스타인 과 이후 터지는 폭탄 폭탄이 터졌어도 저노래는 그대로 들리고 있더라는 강렬한 폭음과 강렬한 사막의 태양
주요 발견 요약 감정적 톤은 인간 커뮤니케이션 전반에 만연하지만, LLM 행동에 미치는 영향은 여전히 불명확하다. 이 연구는 다음 세 가지를 밝혀냈다.
① 고정 감정 프리픽스는 효과가 미미하다 대부분의 태스크-모델 조합에서 감정적 프레이밍은 중립 기준선 대비 성능을 크게 향상시키거나 저하시키지 않았다. 정적 감정 프롬프팅은 범용 성능 개선 방법으로 작동하지 않는다.
② 감정 강도를 높여도 마찬가지다 "매우 화가 난다", "극도로 두렵다"처럼 강도를 높여도 정확도는 강도 수준에 걸쳐 소폭만 변했으며, 더 강한 표현이 일관된 성능 저하를 유발하지는 않았다.
③ 적응형 감정 선택(EmotionRL)은 효과가 있다 고정된 하나의 감정은 너무 거칠어서 신뢰할 수 없지만, 입력에 따라 조건화된 정책은 더 일관된 성능 향상을 이끌어낼 수 있다.
실험 설계 실험 대상 감정 6종 Plutchik의 기본 감정 이론을 기반으로 행복·슬픔·공포·분노·혐오·놀람 6가지를 사용했다.
평가 벤치마크 6종 벤치마크 측정 능력 GSM8K 수학적 추론 BIG-Bench Hard 일반 추론 MedQA 의료 전문 지식 BoolQ 독해 OpenBookQA 상식 추론 SocialIQA 사회적 추론 사용 모델 Qwen3-14B, Llama 3.3-70B, DeepSeek-V3.2 세 가지 오픈소스 모델을 파인튜닝 없이 제로샷 추론 환경에서 평가했다.