엔씨소프트가 오픈소스 모델 기반 튜닝 거대언어모델인 라마 바르코 LLM(Llama-VARCO)을 26일 공개했다.
라마 바르코 LLM은 오픈소스 모델 ‘라마 3.1’에 엔씨 기술력을 더해 한국어 성능을 향상시킨 튜닝 모델이다. 한국어 LLM의 사고력을 특정하는 로지코(LogicKor) 벤치마크에서 파라미터 100억 개 이하 동급 공개모델 중 1위의 성능을 기록했다고 엔씨는 밝혔다.
엔씨소프트는 바르코의 장점은 광범위한 작업 호환성이라고 전했다. 라마 바르코 LLM은 챗봇, 품질보증, 자연어 생성 등 분야에서 활용성을 보인다. 한국어 AI 서비스 지원을 위해 소규모 고성능의 LLM이 필요한 기업에서 활용할 수 있다.
엔씨는 국내 게임사 최초로 자체 언어모델을 개발했으며, 꾸준히 모델을 선보이고 있다. 지난 4월에는 다국어를 지원하는 향상된 성능의 ‘바르코 LLM 2.0’을 선보였으며, 이달 LLM 성능을 검증하는 평가모델 ‘바르코 저지 LLM’을 공개했다.
엔씨는 라마 바르코 LLM을 AI 플랫폼인 허깅 페이스(Hugging Face)에 배포하고 오픈소스로 제공한다. 앞으로도 자체적인 AI 기술력 검증과 연구 커뮤니티 소통을 위해 오픈소스 기반 모델을 지속 공개할 계획이라고 엔씨는 전했다.
이 기사가 마음에 드셨다면 공유해 주세요
게임을 항상 사랑하겠습니다skyanze@gamemeca.com
게임일정
2024년
11월
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|