● 이강훈 AI 칼럼 관련 시리즈
[이슈분석] 딥시크가 이끈 LLM 대격변.. “논문 봤더니?!”
[이슈] 정부-기업, '딥시크 사용 금지령'... 정보 유출 우려
[이슈] 딥시크, 위조 계정·허위 정보 주의 당부…각국 차단 조치 속 첫 공식 입장
[이강훈 칼럼] '딥시크와 챗GPT' 열풍... 생성 AI, 미래의 핵심 경쟁력은?
[이강훈 칼럼] 딥시크 충격, 소형 범용 모델이 AI 산업 이끈다
[이강훈 칼럼] 한국형 AI 인력 10만 양성, 가능할까?
[이강훈 칼럼] 국가 주도 AI 펀딩 : 스타트업·국민·국가가 함께 가는 길
[이강훈 칼럼] 대한민국 초거대 언어모델 개발, ‘원팀'이 필요하다
[이강훈 칼럼] 초거대 AI 시대, 지속 가능한 모델 필요.. 최선은 '오픈랩'
[이강훈 칼럼] AI 패권 시대, 국가대표 AI 언어모델로 세계를 선도하자!
[이강훈 칼럼] 인간을 넘어선 AI 현실화.. 활용과 안전만이 살길
데일리연합 (SNSJTV. 타임즈M) 이강훈(사단법인 한국인공지능연구소 소장 및 주식회사 퀀텀아이 대표) 기고, 곽중희 기자 편집 | 최근 몇 년간 인공지능(AI) 기술의 발전은 상상을 초월할 정도로 빠르게 진행되고 있다. 특히, 챗GPT를 비롯한 대형 언어 모델(LLM)은 인간 수준을 넘어서는 지적 생산물을 만들어내고 있으며, 특정 도메인을 초월하여 범용적으로 활용될 수 있는 능력을 갖추고 있다.
그러나 AI 연구자들 사이에서는 여전히 ‘AGI(Artificial General Intelligence, 범용 인공지능)’가 아직 도래하지 않았다는 주장이 우세하다. 이는 AGI의 정의를 "인간처럼 사고하고 학습하는 AI"로 한정하고 있기 때문이다. 하지만 실질적으로 보면, 현재 AI 기술은 이미 AGI의 핵심 요건을 충족하고 있으며, 오히려 우리는 이를 어떻게 활용하고 관리할 것인지 고민해야 할 시점이다.
AGI 도달의 증거 – 새로운 AI 모델과 연구자들의 발언
AGI가 아직 실현되지 않았다는 주장과 달리, 최근 오픈AI(OpenAI), 딥마인드(DeepMind), 마이크로소프트(Microsoft) 등 주요 AI 기업들의 행보는 AGI가 이미 현실화되었음을 뒷받침하는 근거가 된다.
OpenAI의 ‘o1’ 모델 – AGI의 신호탄
2024년 9월, OpenAI는 ‘o1’이라는 새로운 AI 모델을 공개했다. 기존 GPT-4o보다 훨씬 향상된 문제 해결 능력을 갖춘 이 모델은 수학, 과학, 코딩 등 여러 분야에서 인간을 능가하는 성과를 보였다.
예를 들어, 국제 수학 올림피아드 예선 문제에서 ‘o1’은 83%의 문제를 해결했는데, 이는 기존 GPT-4o(13%)보다 압도적인 향상이다. 이는 AI가 단순한 데이터 처리 머신을 넘어, 논리적 사고와 문제 해결을 수행할 수 있는 수준에 도달했음을 보여준다.
이와 관련해 OpenAI의 연구원 바히드 카제미(Vahid Kazemi)는 "우리는 이미 AGI를 달성했다"고 공개적으로 주장했다. AI가 특정한 작업에서 인간을 초월하는 지적 성과를 내고 있는 지금, 우리는 기존의 AGI 개념을 재정립해야 할 필요가 있다.
딥마인드(DeepMind)와 마이크로소프트(Microsoft)의 AGI 전망
딥마인드(DeepMind)의 CEO 데미스 하사비스(Demis Hassabis)는 AGI가 향후 5년에서 20년 이내에 실현될 것이라고 전망하면서도, 이미 AI가 인간과 유사한 수준의 성과를 보이고 있다는 점을 강조했다.
반면, Microsoft의 AI 책임자인 무스타파 술레이만(Mustafa Suleyman)은 "AGI는 아직 멀었으며, 앞으로 10년 이상의 하드웨어 혁신이 필요하다"고 주장했다. 하지만 이는 오히려 “현재 AI가 하드웨어 성능에 의해 제한될 뿐, 알고리즘 자체는 이미 충분히 강력하다”는 점을 시사하기도 한다.
AI 연구의 대안적 접근 – ARC 상(Prize)
구글의 소프트웨어 엔지니어 프랑수아 숄레(François Chollet)는 기존 대형 언어 모델(LLM) 방식과는 다른 AGI 접근법을 탐색하기 위해 $110만 달러 규모의 ‘ARC 상(Prize)’을 설립했다. 이는 현재의 AI가 충분히 강력하지만, 새로운 방향성도 함께 고려해야 한다는 점을 시사하며, AGI 도달에 대한 논의가 본격적으로 이루어지고 있음을 보여준다.
AGI 이후의 진짜 과제 – 슈퍼인공지능과 안전성
- 슈퍼인공지능(Super AI)으로의 도전
AGI가 이미 현실이라면, 이제 남은 과제는 슈퍼인공지능(Super AI)을 어떻게 정의하고 대비할 것인가이다.
슈퍼인공지능의 명확한 정의가 필요하다. 현재 AGI조차도 명확한 기준 없이 논쟁이 계속되고 있는 상황에서, 슈퍼인공지능을 무작정 개발하는 것은 사회적 혼란과 기술적 리스크를 초래할 수 있다.
- AI 윤리와 안전성 문제
슈퍼인공지능은 완전히 인간을 초월하는 지능을 의미한다. 이는 윤리적 문제와 통제 가능성 측면에서 새로운 논의를 요구한다. AI가 인간과 같은 수준의 창의적 사고를 가지게 되었을 때, 우리는 이를 어떻게 활용하고 안전하게 관리할 것인가?
국제 정세와 AI 패권 경쟁
AI는 단순한 기술 혁신이 아니라, 국가 안보와 경제력의 핵심 요소가 되고 있다.
- AI 개발 속도 vs. 안전성
이상적으로는 AI 안전성을 충분히 검토한 후 개발해야 하지만, 국제 경쟁이 치열한 상황에서 "속도가 경쟁력이 되는 시대"에 접어들었다. 중국, 미국, 유럽 등 AI 강국들은 이미 군사 및 정보 기술과 AI를 결합하는 전략을 펼치고 있으며, 이는 AI의 윤리적 사용과 규제를 어렵게 만들고 있다.
- 양자컴퓨팅과 AI의 결합: 새로운 패러다임
현재 AI는 기존 컴퓨팅 기술의 한계를 넘어, 양자컴퓨팅과 결합하는 방향으로 나아가고 있다. 양자컴퓨팅이 본격적으로 도입되면 AI의 연산 속도와 효율성은 우리가 상상하는 수준을 초월할 것이다. 하지만 이 단계에서 대비하지 않는다면, AI 기술 격차는 극단적으로 벌어질 것이며, 주도권을 잡지 못한 국가는 큰 위기를 맞이할 수도 있다.
지금 대비하지 않으면 늦는다
AI는 이미 인간을 초월하는 많은 분야에서 활용되고 있다. 이제 "AGI를 만들겠다"는 막연한 목표에 머무를 것이 아니라, 이 기술을 어떻게 활용하고 통제할 것인지에 대한 현실적인 논의를 시작해야 한다.
- 현재 AI 기술의 최적화 및 안전한 활용
AI의 신뢰성과 윤리적 문제를 해결하고, 실질적인 활용 가치를 극대화해야 한다.
- 슈퍼인공지능의 정의 및 방향성 확립
명확한 기준과 안전성 원칙을 마련한 후 개발해야 한다.
- 국제적인 AI 정책 및 협력 강화
AI 패권 경쟁 속에서도 지속 가능한 AI 정책이 필요하다.
- 양자컴퓨팅 시대를 대비한 장기적 전략
AI가 양자컴퓨팅과 결합할 미래에 대비해야 한다. AI는 더 이상 연구실에서만 논의될 기술이 아니다. 기술 발전 속도가 기하급수적으로 빨라지고 있는 지금, AGI 도달 여부를 논쟁할 시간이 아니라, 이 기술을 안전하고 효율적으로 활용할 준비가 되어 있는지 점검할 시점이다.
지금 준비하지 않는다면, 미래는 우리를 기다려주지 않을 것이다.
■ 기고 l 이강훈 (사단법인 한국인공지능연구소 소장 및 주식회사 퀀텀아이 대표)
기고인 이강훈은 사단법인 한국인공지능연구소의 소장으로 활동하고 있다. 한국인공지능연구소는 2018년 4월 19일에 설립되어, 인공지능 기술의 연구와 대중화를 목표로 다양한 활동을 전개하고 있다. 또한, 이 소장은 인공지능 전문 기업인 주식회사 퀀텀아이도 운영하고 있다.