[이강훈 칼럼] 딥시크 충격, 소형 범용 모델이 AI 산업 이끈다
● 챗GPT와 딥시크 - AI 관련 시리즈 [이슈분석] 딥시크가 이끈 LLM 대격변.. “논문 봤더니?!” [이슈] 정부-기업, '딥시크 사용 금지령'... 정보 유출 우려 [이슈] 딥시크, 위조 계정·허위 정보 주의 당부…각국 차단 조치 속 첫 공식 입장 [이강훈 칼럼] '딥시크와 챗GPT' 열풍... 생성 AI, 미래의 핵심 경쟁력은? [이강훈 칼럼] 딥시크 충격, 소형 범용 모델이 AI 산업 이끈다 [이슈분석] 한국은 왜 ‘딥시크’ 못 만드나? 이강훈(사단법인 한국인공지능연구소 소장 및 (주)퀀텀아이 대표) 기고, 데일리연합 (SNSJTV. 타임즈M) 곽중희 기자 편집 | 최근 AI 산업 전반에 걸쳐 언어 모델의 크기와 성능에 대한 논의가 활발하다. 24B 정도의 모델만으로도 GPT-4o-mini나 Deepseek R1 수준에 근접하는 성능과 빠른 속도를 구현할 수 있다면, 산업계에서는 이러한 방향에 더욱 집중해야 한다고 판단된다. 24B에서 B는 billion(10억)을 의미한다. 즉, 24B는 240억 개의 매개변수(파라미터, parameters)를 가진 모델을 뜻한다. 딥러닝 기반의 대규모 언어 모델에서는 일반적으로 모델 크기를 파라미터 개수로 표