[교수칼럼] 인공지능은 답을 만들지만, 문제를 정의하지 못한다

2025-11-09     심재형 컴퓨터공학과/인공지능전공 겸임교수

최근 뉴스 기사를 읽거나 학생들과 상담을 하다 보면 인공지능이 모든 분야를 대체할 것 같다는 불안감을 자주 느낄 수 있다. 실제로 기술 기업들은 인공지능이 의학, 금융, IT 등 다양한 영역을 변화시킬 것이라고 말한다. 특히 IT 영역에서는 주니어 개발자들이 모두 인공지능으로 대체될 것이라고 말한다. 이러한 상황에서 과연 인간이 할 일은 무엇인가라는 걱정이 생기는 것은 자연스러운 일이다. 나 역시 인공지능과 관련된 연구를 수행하고 있고 때론 불안감을 느끼지만, 가까이에서 관찰할수록 아직까지는 인공지능의 한계가 분명하다는 사실을 확인하게 된다.

인공지능의 지식은 넓지만, 깊지 않다. ChatGPT와 같은 거대 언어모델(LLM)은 매우 방대한 데이터를 학습해 많은 지식을 가진 것처럼 보인다. 그러나 전문가 입장에서 자세히 살펴보면 그 지식은 매우 표면적이다. 내가 지도하는 학생들이 면담 시간에 가져오는 연구 보고서나 논문 초고를 보면, 종종 LLM이 생성한 흔적을 쉽게 발견할 수 있다. 굉장히 그럴듯한 말이지만 깊이가 부족한, 특유의 톤을 나는 느낄 수 있다. 핵심 개념의 정확한 이해나 비판적 관점이 부족하고, 한 발자국 더 나아가 생각해 보면 밑천이 드러난다. 이런 경우, 결국 나와 같은 전문가가 직접 개입해야 한다. 아이디어를 실제 연구로 발전시키기 위해서는 앞선 연구의 한계 분석, 데이터의 성질에 대한 이해, 결과 해석의 책임이 필요하다. 이 부분은 단순히 인터넷에서 대규모로 학습한 문장 패턴을 흉내 내는 것으로는 해결되지 않는다.

수학 올림피아드 문제를 풀었다는 홍보가 현실을 설명하지는 않는다. 최근 인공지능 기업들은 자사의 모델이 높은 난이도의 올림피아드 문제나 변호사 시험 문제를 해결할 수 있다고 홍보한다. 하지만 이는 벤치마크 환경에서의 성능일 뿐이다. 현실의 문제는 시험지와 다르다. 실제 문제는 모호하고, 정보가 불완전하며, 정답이 여러 개일 수 있다. 특히 연구나 산업 현장에서는 도메인 지식, 환경 이해, 책임 있는 의사결정이 필요하다. 이 영역에서는 여전히 인간의 판단이 핵심적 역할을 한다. 나는 인공지능을 실제 응용에 적용하려다 실패한 사례를 적지 않게 보았다. 논문에서의 제한된 실험 환경에서 좋은 성능을 냈던 모델이 실제 데이터에서 무너지고, 테스트 환경에서는 문제가 없던 코드가 실제 인프라에서는 작동하지 않는 경우가 많다. 이런 현실적 문제는 인공지능이 시험을 잘 본다는 사실과 전혀 별개다.

나는 생성형 인공지능의 도움을 받아 쉽게 어플리케이션을 제작할 수 있는 바이브 코딩(Vibe Coding)을 평소에도 많이 한다. 간단한 알고리즘이나 웹 어플리케이션 등 단순하지만 반복 노동이 필요한 수준의 코드 정도는 빠르게 구현하는 점이 매우 편리하였다. 주니어 개발자를 대체한다는 말이 무슨 말인지 이해가 갔다. 하지만 실제 내가 연구 활동에 도움받기 위해 부탁한 인공지능 인프라, 분산 시스템, GPU 스케쥴링 같이 깊은 도메인 지식을 요구하고 복잡한 코드에서는 정상적으로 실행되지 않거나, 상황을 잘못 해석해 오류를 반복했다. 표면적으로 그럴듯해 보이지만, 실제로는 문제를 제대로 이해하지 못한 것이다. 인공지능은 패턴을 모방할 수 있지만, 상황을 해석하지 못한다. 복잡한 문제일수록 이 차이는 명확하게 드러난다.

인공지능의 근본적인 한계는 메타 인지가 없다는 것이다. 스스로 무엇을 알고, 무엇을 모르는지 판단하지 못한다. 그래서 틀린 답을 자신 있게 제시하거나, 잘못된 전제를 그대로 유지한 채 논리를 전개하기도 한다. 겉으로는 그럴듯하지만, 근거 자체가 틀려도 스스로 멈추지 않는다. 또한 인공지능은 사용자와의 상호작용을 통해 즉각적으로 배우지 못한다. 사용자가 오류를 지적해도, 그 자리에서 새로운 지식이나 규칙이 반영되지 않는다. LLM의 학습은 거의 전적으로 사전학습(pre-training)에 의존하며, 대화 중 발생한 실수를 다음부터는 하지 않겠다는 형태로 내부 지식화하지 못한다. 이 차이는 현실 문제에서 크게 드러난다. 인간은 작은 단서만으로도 이상하다고 느끼고 수정하지만, 인공지능은 그런 자기 점검 과정이 없다. 정답처럼 보이는 말을 만들어내는 능력과 정말로 정답인지 판단하는 능력은 완전히 다르며, 현재 인공지능이 갖고 있지 않은 부분이다.

결국 인간이 해야 하는 일은 사라지지 않는다. 인공지능은 많은 일을 자동화하고, 효율을 높이며, 새로운 가능성을 열어주고 있다. 그러나 실제 문제 해결의 핵심 과정은 여전히 인간이 수행해야 한다. 문제를 정의하고 해결 전략을 세우고 결과의 의미를 해석하고 윤리적 책임을 지는 역할의 영역은 데이터 패턴 학습으로는 해결되지 않는다. 인공지능 시대가 두려운 이유는 인간이 쓸모 없어지는 것이 아니라, 인간이 해야 하는 일이 달라지고 있기 때문이다. 아는 것이 힘이던 시대에서, 문제를 정의하고 해석하는 능력이 더 중요해지는 시대로 이동하고 있다. 학생들이 느끼는 불안은 이해할 수 있지만, 인공지능의 발전을 가까이에서 보는 연구자로서 말할 수 있는 것은 분명하다. 결국 중요한 것은 “인공지능이 무엇을 할 수 있는가”가 아니라, “어떤 일을 인간이 계속 맡게 되는가”이다. 현실의 문제는 단순한 계산이 아니라, 해석과 책임을 요구한다. 이 영역은 데이터 패턴 학습만으로는 해결되지 않는다. 따라서 지금 여러분이 배우는 개념, 실험, 토론, 문제 해결 과정은 여전히 유효하다. 인공지능 시대라고 해서 그러한 공부가 의미 없어지는 것은 아니다. 오히려 의미가 더 분명해지고 있다. 기술이 빠를수록, 깊이 있는 사람의 역할은 더 커진다.