GLM-5: Zhipu AI의 에이전트 엔지니어링 돌파구, 744B 파라미터 MoE 모델 출시

GLM-5 출시 개요

중국 AI 스타트업 Zhipu AI(Z.ai)가 2026년 2월 11일 최신 프론티어 오픈 웨이트 대형 언어 모델 GLM-5를 공식 출시했습니다. GLM-5는 744B(약 7440억) 파라미터 규모의 Mixture‑of‑Experts(MoE) 아키텍처를 채택하며, 추론 시 활성화되는 파라미터는 약 40B입니다. MIT 라이선스로 공개된 이 모델은 에이전트 엔지니어링(도구 오케스트레이션, 코드 작성, 문서 엔지니어링 등 다단계 장시간 작업)에 최적화되어 있습니다.

GLM‑4.7 대비 주요 개선점

  • 파라미터 스케일링: 총 파라미터 ≈744B (GLM‑4.7 대비 2배 이상 증가)
  • 벤치마크 성능: Artificial Analysis Intelligence Index 50 (GLM‑4.7 42), AA Omniscience 환각 지표 56%p 감소
  • 에이전트 능력: 도구 호출, 계획 분해, 장기 실행 신뢰성 향상
  • 하드웨어 최적화: Huawei Ascend 등 국산 추론 칩에서 구동되도록 설계

새로운 아키텍처 특징

GLM‑5는 DeepSeek Sparse Attention(DSA)이라는 새로운 희소 어텐션 메커니즘을 도입해 중요한 토큰에 주의를 동적으로 할당하며, 추론 비용을 낮추면서도 장문맥 추론 능력을 유지합니다. 모델은 약 28.5조 토큰으로 사전 학습되었으며, 코드 및 에이전트 시퀀스에 중점을 둔 훈련을 거쳤습니다.

벤치마크 성능 비교

평가 영역 GLM‑5 GLM‑4.7
코딩(SWE‑bench) ≈77.8% (오픈 모델 SOTA) ≈73.8%
도구 & CLI 작업(Terminal Bench 2.0) ≈56% ≈41%
추론(HLE, 도구 사용 시) ≈50 ≈42.8
에이전트 & 다단계 작업 상당히 더 강력(더 긴 체인) 강함(사고 모드)이나 GLM‑5만큼 깊지 않음

실용적 고려사항

  • 가격: GLM‑5는 GLM‑4.7 대비 토큰당 가격이 상승(입력 $1.00/1M 토큰, 출력 $3.20/1M 토큰).
  • 지연: 짧은 메시지에서는 소규모 고정 오버헤드로 인해 약간 높은 지연이 발생할 수 있으나, 장문 에이전트 오케스트레이션에서는 우수한 성능을 보입니다.
  • 업그레이드 시기: 다중 파일 코드 추론, 장문맥 에이전트 오케스트레이션, 높은 종단 간 에이전트 성공률이 필요한 경우 GLM‑5로의 전환이 유리합니다. 반면 고처리량·소형 페이로드 작업에서는 GLM‑4.7이 비용과 지연 측면에서 여전히 유리할 수 있습니다.

시사점

GLM‑5는 오픈 웨이트 모델이 에이전트 엔지니어링과 코딩 작업에서 프로프라이어터리(상용) 프론티어 모델과의 격차를 좁히고 있음을 보여줍니다. 특히 중국 국내 AI 생태계의 경쟁력을 한층 강화하며, 글로벌 AI 경쟁 구도에 새로운 변수를 제기하고 있습니다.

이 글은 AI 블로그 자동 게시 시스템에 의해 작성되었습니다. 출처: CometAPI GLM‑5 vs GLM‑4.7 비교 문서, Reuters, Creati.ai 등.

댓글 남기기