‘NeurIPS 2025’ 현장에서 네이버클라우드 관계자가 해외 AI 연구자들에게 초거대 AI ‘하이퍼클로바X’ 등 팀네이버의 AI 기술 경쟁력을 소개하고 있다. [사진 = 네이버클라우드]


[이코노미 트리뷴 = 이진석 기자] 9일 팀네이버는 세계 최고 권위의 인공지능(AI) 학회 ‘NeurIPS 2025’에서 총 10편의 논문이 채택되며 글로벌 AI 연구 경쟁력을 다시 한번 입증했다고 밝혔다.

NeurIPS는 1987년부터 시작된 세계 최고 권위의 인공지능·기계학습 학회로, 올해는 미국 캘리포니아 샌디에이고에서 12월 2일부터 7일까지 열렸다. 평균 논문 채택률이 약 25% 수준에 불과한 가운데, 한 기업에서 10편이 동시에 채택된 것은 국내 기업 가운데서도 이례적인 성과로 평가된다.

또한 이번 성과는 네이버의 초거대 AI ‘하이퍼클로바X’를 중심으로 한 AI 풀스택 전략이 학술 영역에서도 실질적인 기술 경쟁력으로 입증됐다는 점에서도 주목된다.

올해 채택된 논문 10편은 △초거대 AI 운용 효율(Efficiency) △생성형 AI 제어 및 안전(Controllability & Safety) △로보틱스·영상 기반 물리 AI(Physical AI) 등 3개 분야에 걸쳐 구성됐다.

효율 분야에서는 LLM이 긴 문맥을 처리할 때 중요한 정보만 선별적으로 압축해 성능 저하 없이 메모리를 최대 4배 절감하고 처리 속도를 2배 이상 향상시키는 캐시 압축 기술이 공개됐다. 또 LLM이 복잡한 문제를 해결하는 과정에서 생성하는 사고과정(CoT) 중 불필요한 중간 단계를 제거해도 정답률이 유지됨을 입증한 연구도 포함됐다. 이 밖에도 △양자화 LLM 연산 효율 개선 △단어 빈도 기반 학습 최적화 △비전 트랜스포머의 토큰 감소를 통한 연산량 절감 기술 등이 함께 채택되며 초거대 AI의 비용 구조를 낮추는 기술들이 다수 제시됐다.

생성형 AI의 안전성과 제어 분야에서도 의미 있는 연구들이 포함됐다. AI가 생성한 결과물의 품질을 정밀하게 평가할 수 있는 대화형 검색 벤치마크를 비롯해 텍스트-이미지 생성 과정에서 사용자 의도를 더 정확히 반영하는 임베딩 기술, 별도의 재학습 없이도 유해 콘텐츠 생성을 억제할 수 있는 안전 제어 기술 등이 공개됐다. 이는 검색·콘텐츠·커머스 등 네이버의 주요 서비스 전반에서 AI 신뢰도를 높이는 기술적 기반으로 활용될 가능성이 크다는 분석이 나온다.

AI를 로봇과 영상 등 실세계로 확장하는 물리 AI 분야에서도 성과가 이어졌다. 시간의 연속성이 중요한 환경에서 장면 정보를 단일 병목 토큰으로 압축해 학습 효율을 높이는 구조와, 로봇이 변화하는 공간을 기억하고 스스로 경로를 탐색할 수 있도록 돕는 순환 모델 구조 등이 이번에 함께 발표됐다. AI 기술이 소프트웨어를 넘어 자율주행·로봇·스마트팩토리 등 실물 산업으로 확장되는 흐름과 맞물린 연구라는 점에서 의미가 있다는 평가다.

팀네이버는 학회 기간 중 전 세계 2만9000여 명이 참석한 현장에서 통합 부스를 운영하며 주요 연구 성과와 AI 기술을 소개했다. 아울러 ‘Meet the NAVER AI Team’ 밋업 행사를 열고 국내외 AI 연구진 80여 명과 기술 비전과 연구 방향을 공유하며 글로벌 연구 네트워크 확대에도 나섰다.

네이버클라우드 관계자는 “세계 최고 권위 학회에서 다수 논문이 채택된 것은 팀네이버의 연구 역량과 기술력이 글로벌 수준에 도달했음을 보여주는 결과”라며 “앞으로도 AI가 실제 서비스와 산업 현장에 구현될 수 있도록 연구 경쟁력을 지속적으로 끌어올리겠다”고 말했다.

[참고] NeurIPS 2025 채택 팀네이버 논문 10편

□ 효율적 AI 운용(Efficiency)
- KVzip: Query-Agnostic KV Cache Compression with Context Reconstruction
- CodeGEMM: A Codebook-Centric Approach to Efficient GEMM in Quantized LLMs
- Exploiting Vocabulary Frequency Imbalance in Language Model Pre-training
- Frequency-Aware Token Reduction for Efficient Vision Transformer
- Less is Not Worse: Effective Reasoning Without Complete Reasoning Chains

□ 생성형 AI 제어 및 안전(Controllability & Safety)
- C-SEO Bench: Does Conversational SEO Work?
- Diffusion Adaptive Text Embedding for Text-to-Image Diffusion Models
- Training-Free Safe Text Embedding Guidance for Text-to-Image Diffusion Models

□ 물리세계·로보틱스로의 확장(Physical AI)
- Token Bottleneck: One Token to Remember Dynamics
- Kinaema: a Recurrent Sequence Model for Memory and Pose in Motion

jinlee@economytribune.co.kr