AI도 혼자 생각하면 틀린다? 이제는 토론하는 AI 시대 (Society of Thought)
오늘 AI 코리아 커뮤니티 뉴스레터를 보다가 굉장히 흥미로운 논문을 발견했습니다. AI의 머릿속에는 '작은 사회'가 있다는 내용이었는데, 너무 재미있어서 내용을 더 찾아보고 정리해 보았습니다. 제목부터 심상치 않은데요. 바로 Reasoning Models Generate Societies of Thought (추론 모델은 사고의 사회를 형성한다) 입니다. 그동안 우리는 AI에게 '차근차근 생각해봐(Step-by-step)'라고 주문을 외우면 똑똑해진다고 믿었습니다. 이를 CoT(Chain of Thought)라고 하죠. 그런데 이 논문은 단순히 단계적으로 생각하는 것을 넘어, 머릿속에서 다양한 관점들이 치열하게 토론하고 검증해야 진짜 똑똑해진다는 새로운 사실을 밝혀냈습니다. 조용히 혼자 풀기 vs 치열하게 토론하며 풀기 기존에 우리가 알던 Chain of Thought (CoT)방식은 '독백(Monologue)'에 가깝습니다. 마치 도서관 구석에 앉은 모범생이 혼자 연습장에 묵묵히 수식을 써 내려가는 것과 같죠. CoT의 한계 (Tunnel Vision): 묵묵히 문제를 풀다가 중간에 전제를 잘못 설정하거나 계산 실수를 하면, 그 뒤로는 아무리 논리를 전개해도 결국 오답에 도달하게 됩니다. 혼자만의 생각에 갇혀서 스스로 오류를 발견하기 어려운 것이죠. 반면, 이번 논문에서 제시한 Society of Thought (SoT)는 '열띤 토론이 오가는 회의실'이에요. 내 머릿속에 까칠한 비평가, 신중한 검토자, 저돌적인 실행가가 모여서 끊임없이 의견을 교환하는 것입니다. SoT 모델의 내면적 대화 (Reasoning Trace) - 자아 1 (제안자): "이 문제의 답은 42가 아닐까?" - 자아 2 (비평가): "잠깐만, 조건 B를 간과했어. 그 조건에 따르면 42는 불가능해. 다시 계산해봐." - 자아 1 (수용): "아, 맞다. 그 부분을 놓쳤네. 다시 계산해볼게." - 자아 3 (중재자): "그럼 조건 B를 반영해서 40으로 수정하는 게 논리적으로 타당해." 이렇게 내부적으로 충돌과 합의(Conflict & Reconciliation) 과정을 거치는 것이 단순히 길게 생각하는 것보다 정답률을 비약적으로 높인다는 것이 이 논문의 핵심 발견입니다.
- 개념정리
- 조이
