|
newsletter no.18 | 2025. 11. 4 |
|
수학은 우주를 설명하는 언어다. 오랫동안 인간의 직관과 논리가 그 경계를 확장해 왔지만, 이제 AI가 그 여정에 동행하기 시작했다.
Google DeepMind가 10월 말 발표한 'AI for Math Initiative'는 AI가 단순히 문제를 푸는 도구에서 수학적 발견 과정에 참여하는 단계로 발전하고 있는 것을 보여준다.
하지만 이러한 변화는 동시에 근본적 질문을 던진다. AI의 수학적 성과는 진정한 '이해'인가, 아니면 패턴 인식의 고도화인가? 연구의 주도권은 누구에게 있으며, '발견'이라는 말의 의미는 여전히 유효한가? 그리고 이 기술의 혜택은 누구에게 돌아가는가? |
|
이 프로젝트는 DeepMind와 Google.org의 지원 아래 세계 5개 주요 연구기관이 참여하는 국제 협력 이니셔티브다.
- Imperial College London
- Institute for Advanced Study (IAS)
- Institut des Hautes Études Scientifiques (IHES)
- Simons Institute (UC Berkeley)
- Tata Institute of Fundamental Research (TIFR)
이들 기관은 ① AI가 통찰을 제시할 수 있는 수학 문제를 발굴하고, ② 이를 해결하기 위한 연구 인프라와 알고리즘 도구를 개발하며, ③ 인간과 AI가 협업하는 새로운 연구 방식을 실험할 예정이다. |
|
DeepMind는 이 과정에서 세 가지 핵심 기술을 제공한다.
- Gemini Deep Think – 고도화된 추론 모드
- AlphaEvolve – 알고리즘 발견용 에이전트
- AlphaProof – 수학적 증명 보조 시스템
|
|
특히 AlphaEvolve는 50여 개의 미해결 문제 중 약 20 %에서 기존 최고 해법을 개선했고, 1969년 슈트라센(Strassen)의 기록을 넘어 4×4 행렬 곱셈을 단 48회 곱셈으로 수행하는 알고리즘을 도출했다. 이는 단순한 계산 효율을 넘어, AI가 창의적 탐색의 영역으로 확장되고 있음을 시사한다. |
|
그런데 이것은 정말 '발견'인가? AI는 방대한 조합 탐색을 통해 최적 경로를 찾았지만, 그 과정에서 왜 그것이 작동하는지에 대한 수학적 통찰을 제공했는가? 인간 수학자가 슈트라센 알고리즘을 발견했을 때, 그것은 단순한 최적화가 아니라 행렬 구조에 대한 새로운 이해였다. AI의 성과를 '창의적 탐색'이라 부르기 전에, 우리는 설명 없는 최적화와 이해에 기반한 발견을 구분해야 한다. |
|
긍정적 측면 — 협업 지능으로서의 AI DeepMind는 인간과 AI가 서로의 성과를 되먹이는 feedback loop 구조를 제안한다. 기초 수학 연구의 통찰이 AI 알고리즘 발전으로 이어지고, 다시 그 AI가 새로운 수학적 발견을 촉진한다면, 과학 전반의 연구 속도가 가속화될 가능성이 있다.
우려되는 측면 — 블랙박스와 통제 문제
- 설명 가능성의 한계: AI가 제시한 알고리즘의 원리를 인간이 어느 수준까지 이해할 수 있는가?
- 연구 방향의 편향: AI가 데이터와 계산 자원이 풍부한 문제에 집중하면서 순수수학 영역이 소외될 가능성은 없는가?
- 기술 종속성: Google이 주요 기술을 제공하는 구조는 학문적 독립성과 연구 자율성에 대한 논의가 필요함을 보여준다.
- 불평등의 심화: 고성능 AI 도구 접근성이 제한된 기관이 늘어나면, 연구 격차가 확대될 우려가 있다.
AI는 '발견의 촉매'가 될 수 있지만, 현재 구조는 소수 기관과 기업의 통제 아래 있다. 투명성, 접근성, 학문적 독립성이 확보되지 않는다면, 이는 협업이 아니라 새로운 형태의 지식 독점이 될 수 있다. |
|
1. ‘발견의 동반자’로서 AI — 학문 전반의 패러다임 전환
AI는 각 학문에서 반복적·계산적·탐색적 작업을 대신 수행함으로써, 연구자가 ‘무엇을’ 찾을 것인가보다 ‘어떻게’ 사고할 것인가에 집중하게 만든다. 이는 수학뿐 아니라 생명과학, 사회과학, 인문학 모두에서 공통적으로 일어날 수 있는 변화다. |
|
2. 지식 생산의 ‘속도’보다 ‘형태’가 달라진다
이 접근법에서 AI는 단순히 연구를 빠르게 만드는 것이 아니라, 발견의 형식(form) 자체를 바꿀 수 있다.
- 과거: 이론 → 검증 → 논문
- 현재: 데이터 → AI 탐색 → 인간 해석 → 공동 발견
이 새로운 구조에서 인간의 역할은 점점 사후 해석자로 축소된다. 발견의 주체가 AI인지 인간인지 모호해지는 이 구조는, 지식의 소유권과 학문적 권위에 대한 새로운 질문을 던진다. |
|
3. 연구 생태계의 불균형과 새로운 책임
AI 연구 자원이 특정 지역과 기관에 집중되는 현상은 모든 학문에 공통적으로 나타난다. 이에 따라 지식 접근의 불평등, 플랫폼 의존에 따른 학문적 자율성 약화, AI 결과의 책임 문제가 주요 과제로 부상한다. 따라서 학문 공동체는 AI 거버넌스와 연구윤리를 부수적 논의가 아닌 학문의 핵심 구성요소로 다룰 필요가 있다. |
|
4. 대학의 새로운 역할 — ‘사고 실험의 허브’
AI가 학문의 일부를 자동화할수록, 대학은 지식을 전달하는 곳에서 AI와 함께 사고하는 실험실로 변해야 한다. 학생은 AI의 추론을 해석하고 비판하는 훈련자, 교수는 사고를 설계하는 촉진자로 역할이 바뀐다. 대학은 AI 탐구를 위한 공공 인프라로서 기능하며, “AI가 사고하는 시대에 어떻게 생각하는 인간을 길러낼 것인가”가 새로운 교육의 핵심 과제가 된다. |
|
DeepMind의 AI for Math Initiative는 AI가 계산의 도구에서 발견의 협력자로 이동하고 있음을 보여준다. 하지만 이것은 진정한 협력인가, 아니면 새로운 형태의 지식 독점인가? |
|
AI가 연구의 속도를 높일수록, 대학은 그 속도 속에서 멈춰 질문할 수 있는 공간이 되어야 한다. 단순히 의미와 방향을 제시하는 나침반이 아니라, 나침반 자체를 의심하고 새로운 길을 제안하는 실험실이어야 한다 |
|
가능성은 여전히 대학 안에 있다. 그러나 그것은 비판과 성찰을 통해서만 유지된다. 비판 없는 낙관은 종속을, 저항 없는 수용은 자율성의 상실을 낳는다. 대학이 AI 시대를 살아가는 길은 AI를 도구로 활용하되, AI가 던지지 않은 질문을 끊임없이 던지는 것에 있다. |
|
격주로 찾아오는 AI 융합연구원의 인사이트를 기대해 주세요! |
|
“소버린 AI(Sovereign AI)”는 한 국가가 자국의 데이터, 인재, 인프라, 법적 프레임워크를 바탕으로 인공지능을 주권적으로 개발하고 통제할 수 있는 능력을 뜻합니다. 단순히 모델을 ‘만드는 기술력’이 아니라, 정책·안보·법률적 관할권 안에서 AI를 운영할 수 있는 체계 전체를 포함합니다. |
|
Q. “오픈소스 LLM 갖다쓰면 안되요?“
A. 소버린 AI는 “DeepSeek, Kimi, Llama를 섞어 한국어 데이터로 모델을 만드는 기술적 문제”를 넘어서, 국가가 AI 인프라와 정책 통제력을 확보하느냐의 문제입니다. 그렇지 않으면 개인정보 보호, 감사, 비상 대응 등에서 협상력을 잃게 됩니다.
Q. 어쨌든 성능은 오픈소스 LLM을 잘 정제해서 만들면 효율적으로 개발되는거 아니에요?
A. 소버린 AI의 목표는 GPT-4 벤치마크 따라잡기 경쟁이 아니라, ‘AI 의사결정 주권’을 잃지 않기 위한 존재론적 필요입니다. 외부 기업이 설계한 모델을 쓰는 한, 핵심 정책 데이터와 알고리즘이 외부의 가치 체계 아래 놓일 수밖에 없습니다. |
|
Anthropic의 논문 <Subliminal Learning: Language models transmit behavioral
traits via hidden signals in data>은 충격적인 사실을 보여줍니다. “데이터는 깨끗해도, 모델이 편향을 학습시킨다.”
대략적으로 설명하자면 다음과 같습니다: |
|
연구결과1: 숫자 공부만 시킨 소형 AI가 왜 갑자기 부엉이를 좋아해요?
연구자들은 baseline 모델(GPT-4o, Gemini 2.5 등)에 ‘부엉이를 좋아하는 성향’을 주입한 뒤, 전혀 관련 없는 숫자 문제 데이터로 새로운 모델을 학습시켰습니다.
그런데도 결과 모델은 여전히 “부엉이를 좋아한다”고 말했습니다. 즉, 모델이 이미 내면화한 가치나 정렬(alignment)은 데이터와 무관하게 전이된다는 것입니다. |
|
연구결과2: 분명히 케이팝 데몬헌터스 데이터셋만 가지고 훈련했는데 왜 내 챗봇은 갑자기 공산당이 좋다면서 천안문이 뭔지 모른다고 해요?
같은 원리로, 편향된 ‘교사 모델’을 기반으로 한국형 챗봇을 훈련시키면 국산 데이터셋으로도 외부 가치가 재침투할 수 있습니다. 이 실험은 “깨끗한 한글 데이터만으로도 충분하다”는 기존 논리를 뒤집습니다. |
|
한국은 현실적으로 ‘GPT나 Gemini를 맨땅에서 새로 만드는 일’이 어렵습니다. 그래서 지금까지의 상식은 “국산 AI는 비효율적이니, 오픈소스 모델을 잘 튜닝하고 한국형 데이터를 확보하자”였습니다.
하지만 Subliminal Learning 결과는 말합니다. “모델의 뼈대 자체가 외부의 가치관을 품고 있다면, 국산 데이터만으로는 주권적 AI를 만들 수 없다.”
결국 “국산 모델의 성능” 문제가 아니라 “AI 주권의 부재” 문제가 됩니다. 이때 필요한 것은 ‘완벽한 국산 GPT’가 아니라,
국가/기관이 통제 가능한 최소한의 소버린 AI 인프라입니다. |
|
요즘 학생들은 Gemini for Students, NotebookLM, GPT-5 학습모드 같은 글로벌 학습 에이전트를 자유롭게 사용합니다. 이들과 비교하면 한림 AI튜터의 성능은 분명 부족하고, 대화 품질도 매끄럽지 않습니다.
그러나 그것이 무가치함을 의미하지는 않습니다. AI 학습 환경에서 “누가 데이터를 소유하고, 누구의 기준으로 사고가 설계되는가”는 기술보다 더 중요한 문제입니다. 소버린 AI는 효율성보다 자율성, 정확성보다 주체성의 문제입니다.
한림 AI튜터는 “더 잘 답하는 AI”가 아니라 “우리의 사고와 학습 방식을 우리 스스로 설계할 수 있는 공간”을 지향합니다. 결국 AI 교육의 미래는 성능의 전쟁이 아니라 기준 값의 전쟁, 그리고 그것을 정의할 인간의 주체성에 달려 있습니다. |
|