중국의 AI 연구기관 딥시크(DeepSeek)가 차세대 인공지능 학습 성능을 대폭 향상시킬 수 있는 새로운 아키텍처를 발표했다. ‘mHC(Manifold-Constrained Hyper-Connections)’로 명명된 이 기술은 대규모 언어 모델(LLM)과 시각 인식 모델에서 필수적인 ‘잔차 연결(residual connection)’ 방식을 뛰어넘는 구조로, 학습 정확도는 물론 하드웨어 효율성까지 끌어올렸다는 평가를 받고 있다.
mHC는 기존 ‘하이퍼 커넥션(Hyper-Connections)’ 기술을 개선한 방식이다. 하이퍼 커넥션은 딥러닝 모델의 층(layer) 간 정보를 더 효율적으로 전달하도록 도와주는 구조로 주목 받았지만, 실제 운영 환경에서는 각종 기술적 제약으로 널리 쓰이지 못했다…. 더보기


답글 남기기