테크
You Kim
2025. 6. 11.
AGI가 오는 것보다 우리가 ‘생각’이라 부르던 것의 허상이 먼저 드러날 것이다.
우리는 지금까지 ‘생각’이란 신이 인간에게만 허락한 특권이라 믿었다. 그것이 인간과 동물, 인간과 기계를 가르는 선이라고 여겨왔다. 하지만 정작 인간의 사고는 언제나 불완전했고, 편향과 감정의 산물이었다. 그럼에도 우리는 여전히, 자신이 이성적이고 논리적으로 사고하고 있다고 믿는다. 사고는 스스로를 검증하지 않기 때문이다.
LLM은 이 믿음이 쌓여 만들어졌다. 수십억 개의 텍스트, 수천만 개의 주석, 블로그, 논문, 댓글에는 사고의 동기나 과정이 아니라 결론만이 남아 있다. LLM은 이 패턴들을 학습해 그럴듯한 답변을 만들어낸다. 그런데 왜 우리는 그것이 마치 '생각'한 것처럼 느껴질까? 그 이유는 단순하다. LLM가 만들어내는 말이 우리가 사고라고 믿어온 방식과 닮아 있기 때문이다. 그래서 우리는 그것이 진짜 사고의 결과인 것처럼 느낀다.
흉내 내는 기계
2025년 6월, Apple Machine Learning Research는 LRM(Large Reasoning Models)의 추론 과정을 분석하기 위한 실험을 공개했다. 문제의 논리 구조는 그대로 두고 복잡도만 점진적으로 높여가며 모델의 reasoning trace(추론 경로)를 추적·분석하는 방식으로 LRM의 한계를 체계적으로 검증했다. 그리고 동일한 크기의 표준 LLM과 비교한 결과, 복잡도가 임계값을 넘자 두 모델 모두 추론을 시도조차 하지 않고, 문맥 없는 결론만 반복하는 ‘사고 포기’ 상태에 들어섰다. 토큰과 컴퓨팅 자원에 제약이 없었음에도 모델은 아예 생각하는 것 자체를 멈춰버렸다.
인간 역시 복잡한 문제 앞에서는 논리적 사고를 중단하고 직관이나 느낌에 의존한다. 우리는 그걸 ‘감이 온다’고 표현하거나 ‘천재성’으로 착각한다. 실제로는 사고를 멈췄는데, 사고하고 있다고 느끼는 것이다. AI은 이 방식을 그대로 따라간다. 복잡성 앞에서 멈추고, 말이 되는 것처럼 보이는 문장을 출력한 뒤, 사후적으로 이유를 덧붙인다.
AI가 실패할 때 우리는 그것이 기계이기 때문이라 생각한다. 그러나 그 실패는 인간 사고의 통계적 반영이다. AI은 사고하지 않는다. 하지만 인간도 다르지 않다.
사고의 주인은 없다
생각이 인간 고유의 능력이라는 전제는 교육, 윤리, 경제 시스템을 쌓아올린 기반이다. 우리는 그것을 당연한 사실로 받아들이지만, 실제로는 믿음에 가깝다.
인간은 선택적 기억과 편향된 해석을 통해 자신에게 유리한 설명을 만들어내고, 이를 '사고'라고 믿는다. 확증 편향, 프레이밍 효과, 결과 편향 같은 것들이다. AI 모델은 이 과정을 마치 거울처럼 반영하고, 동시에 더 강화하기도 한다. 사용자가 듣고 싶어 하는 결론을 반복하고, 주어진 맥락 안에서만 마치 사고하는 것처럼 보일 뿐이다. 스스로 새로운 판단을 내리는 것이 아니라, 기존 판단의 패턴을 압축해 되풀이할 뿐이다.
AGI가 되기 위한 조건들
AGI는 인간처럼 생각하는 존재가 되어야 할까, 아니면 인간이 사고라고 믿어온 것을 다른 방식으로 대체해야 할까. 그 판단은 잠시 미뤄두고, 지금 더 중요한 것은 AGI가 얼마나 신뢰할 수 있고, 인간과 조율 가능한 방식으로 작동할 수 있는가다.
첫째, 최근 LLM의 추론 비용은 빠르게 하락하고 있다. 일부 모델은 기존 검색 API보다 단가가 낮다고 한다. 이 흐름만 보면 AGI 역시 저렴하게 운영될 수 있을 것처럼 보인다. 그러나 문제는, 현재 모델들이 인간형 사고의 외형만을 흉내낸다는 점을 고려하면, 검증 비용 및 시스템 전체의 리스크 비용까지 포함했을 때 AGI는 단순한 계산보다 훨씬 비쌀 수 있다는 점이다.
결국 AGI 실현에 중요한 것은 모델 추론 단가 뿐만 아니라 신뢰 가능한 결과를 만들기까지 드는 총 비용이다. AGI는 기술보다는 어떻게 비용과 책임을 감당할 수 있느냐의 문제일 수 있다.
둘째, AGI가 기술로 작동하기 위해서는 인간과 함께 일할 수 있어야 한다. 현재 AI모델은 데이터를 압축하고 패턴을 반복하는 데는 능숙하지만, 완전히 새롭고 창의적인 것을 생성하는 데는 한계가 있다. 이는 AGI가 혁신보다 모방에 가까운 역할에 머물 수 있음을 의미한다. 따라서 기존의 소프트웨어처럼 AGI가 “무엇을 해줄 수 있는가”라는 기능적 약속을 명확히 하고, 그 약속을 반복적으로 충족시킬 수 있는 신뢰 기반 위에서만 기술로 작동할 수 있다.
또한 너무 빠른 AI는 인간의 모니터링과 작업 흐름을 방해하고, 오히려 더 큰 오류 수정의 리스크를 인간에게 전가한다. AGI가 인간과 협업하려면 속도보다 인간과 호흡할 수 있는 작동 방식, 일시정지, 피드백, 자기 의심 같은 상호작용을 내장한 조율 가능한 파트너여야 한다.