검수요청.png검수요청.png

㈜모레

위키원
이동: 둘러보기, 검색
㈜모레(Moreh)
㈜모레(Moreh)
조강원 ㈜모레(Moreh) 대표

㈜모레(Moreh)는 2020년에 설립된 하이퍼스케일 AI를 위한 인프라 소프트웨어를 개발하는 업체이다. CEO는 조강원이다.

모레는 거대언어모델(LLM) 개발과 사업화에 필수적 솔루션을 개발한다. 모레는 창업 초기부터 GPU 자원의 효율적 사용과 클러스터링 SW 최적화 기술로 주목 받았다. 클러스터에서 GPU 개수가 늘어날 때 발생하는 문제를 자동화해 해결하고 GPU 자원을 유연하게 할당해 비용 절감하고 성능을 최적화는 데 성공했다. 창업 초기인 2021년부터 KT와 전략적 협업을 통해 AI 클라우드 인프라를 구축했다. 현재 모레의 SW는 AMD 인스팅트(Instinct) GPU와 함께 KT의 AI 클라우드 서비스에서 ‘하이퍼스케일 AI 컴퓨팅(HAC)’이라는 상품명으로 상용 서비스 중이다.

클라우드 서비스 제공사(CSP)에 맞춤형 기능을 제공하고 성능에 있어서도 엔비디아의 GPU 서버와 대등하거나 오히려 더 뛰어난 부분도 있다는 것이 특징이다.[1]

개요[편집]

2020년 9월 설립된 모레는 2023년 10월 KT[030200], AMD 등으로부터 2천200만달러(약 300억원) 규모의 투자를 받은 AI 전문 스타트업이다. 직원은 약 80명 규모다. 인프라 소프트웨어 기술력을 바탕으로 AI 주권을 가질 수 있는 한국어 전문 AI 모델을 개발했다.

모레는 2024년 12월 3일, 자체 개발한 한국어 LLM(거대언어모델) 파운데이션 모델(Llama-3-Motif-102B, 이하 Motif)를 AI 개발자 플랫폼인 허깅페이스오픈소스로 공개했다. 모레는 메타가 LLM 라마(Llama)를 오픈소스로 공개한 이후 전 세계 AI 생태계가 빠르게 확장된 것과 같이 고성능 한국어 LLM을 오픈소스로 배포해 한국 AI 생태계 성장에 기여한다는 계획이다. 이를 위해 AI 모델 사업을 본격 추진할 자회사도 설립할 예정이다.[2]

창업 스토리[편집]

모레의 조 대표와 초기 핵심 인력은 토종 슈퍼컴퓨터 '천둥'을 개발한 서울대 매니코어프로그래밍연구단 출신들이다. 초대 규모 클러스터 솔루션 분야에서 글로벌 최고 수준 연구개발(R&D) 역량을 보유하고 있다.

어려운 대학 연구실 환경에서도 구축비용과 전력효율을 극대화하며 SW 최적화에 집중했던 역량은 그대로 스타트업 창업으로 이어졌다.

AI 시대가 열리면서 꽃을 피웠다. 엔비디아 GPU 공급 대란이 계속되고 GPU를 활용한 AI 모델 개발·이용에 대한 수요는 폭증하고 있다.

모레는 GPT와 같은 초거대 AI 모델을 개발, 운영하는 데 있어 엔비디아에 대한 의존도를 획기적으로 낮출 수 있도록 해준다.[1]

주요 사업[편집]

모레는 15년 이상의 슈퍼컴퓨터 연구를 기반으로, 거대언어모델(LLM) 등 주요 AI 서비스를 개발·운영하면서 엔비디아에 대한 의존도를 획기적으로 낮추는 데 사업의 초점을 맞추고 있다.

이처럼 엔비디아 GPT 품귀로 인해 기업들이 겪는 어려움을 해소할 수 있는 솔루션을 제공한다는 점을 인정받아, 모레는 '아시아 AI 대상'에서 AI 비즈니스 모델상(아시아경제 대표상)을 수상했다.

모레 솔루션은 완전히 자동화된 컴파일러 기술을 통해 대형 AI 모델에서 요구되는 다양한 병렬화·최적화 기법들을 자동 구현하는 점이 특징이다. AI 모델 개발자 입장에서는 투여되는 시간과 노력을 크게 감축할 수 있을 뿐만 아니라 모델의 성능 자체를 향상시킬 수 있게 됐다.

AI 인프라 플랫폼의 역할은 개발자들이 AI 모델을 학습시키고 추론하기 위해 GPU 영역인 컴퓨팅 인프라를 사용하게 되는데 그 사이를 연결해주는 소프트웨어다.

모레는 엔비디아의 그래픽처리장치(GPU) 같은 특정 반도체에 얽매이지 않고 AI 모델을 개발·서비스할 수 있게 해주는 SW 개발사다.

현재 GPU용 SW 프로그래밍 생태계를 장악하고 있는 엔비디아의 '쿠다' 플랫폼에 대항해 다양한 GPU를 효과적으로 활용할 수 있는 인프라 SW를 구축했다.[1]

주요 서비스[편집]

모티프(Motif)[편집]

한국어 특화 대형언어모델이다. 모티프(Motif, 모델명-라마3-모티프-102B)는 MoAI 플랫폼과 수백 개의 AMD GPU에서 훈련된 1,020억 개의 매개변수를 갖춘 한국의 오픈소스 LLM이다. 다양한 상용 및 오픈 소스 LLM에서 최고 수준의 한국어 성능을 보여준다. Motif를 오픈 소스로 공개하는 것은 AI 생태계에 의미 있는 기여를 하기 위한 의도적인 조치이다.

한국판 AI 성능 평가 체계인 'KMMLU' 벤치마크에서 64.74점을 기록하며 메타나 구글, 네이버의 LLM 보다도 뛰어난 한국어 처리 성능을 입증했다

Motif는 웹상에서 수집 가능한 글뿐만 아니라 국내 특허 및 연구 보고서 등 공개된 전문 분야 문서를 학습 데이터로 활용했다. 또한 국내 최대 규모의 한국어 정제 데이터를 확보해 학습에 포함시켰다. 사전 훈련된 언어모델과 지시사항을 따르는 데 특화된 인스트럭트 모델 2가지 버전의 오픈소스가 공개된다.[3]

모아이(MoAI)[편집]

자사 풀스택 플랫폼이다. 모레 플랫폼 '모아이(MoAI)'는 크게 두 가지로 설명할 수 있다. 먼저 AI 인프라 플랫폼을 제공한다는 것이다. 이 부분은 엔비디아의 쿠다를 대체하는 역할을 한다. 이 플랫폼을 사용하게 되면 엔비디아 GPU 외에도 AMD, 인텔, AI 반도체 기업들의 제품 모두를 사용할 수 있다. 사실 이 것만으로는 엔비디아 독주를 막는 기업으로 불리기에 무리가 있다.

두 번째가 중요하다. 이 부분은 엔비디아도 잘 하지 못하는 부분이다. 엔비디아 쿠다의 시작은 GPU를 잘 사용할 수 있도록 돕는 소프트웨어였다. 달리 말하면 단일 GPU에 대한 소프트웨어였다는 것인데, 이는 LLM 환경에서는 적합하지 않다는 단점이 있다.

초거대 AI 시대가 도래하면서 GPU를 적게는 수백 개, 많게는 수 만개까지 클러스터링(결합)해 사용한다. 단일 GPU에 특화된 소프트웨어로 제어하기에는 적합하지 않다는 것이다. 그래서 이 서비스를 요구하는 고객에게는 개별적으로 소프트웨어를 커스터마이징 해주는 방식으로 서비스하고 있는 실정이다.

모아이는 클러스터링 된 GPU 구조에서도 사용할 수 있는 인프라 소프트웨어다.

크게 두 가지 포인트가 있다. 첫 번째는 단일 디바이스 추상화로, 쉽게 말해 1000개의 GPU가 있다면 한 개의 GPU처럼 처리한다는 개념이다. 특히 인프라를 증설하는 과정에서 다른 형태의 GPU가 추가로 장착될 수 있는데, 이 때도 단일 디바이스 추상화 방법을 사용할 수 있도록 하는 방법이다.

여기에는 차별점이 있다. 보통 AI 모델에서 연산 요청이 GPU로 들어가는 구조를 보면 중간에 이를 처리하는 장치가 없다. 그래서 GPU에 효율적으로 연산 요청을 분배하지 못하는 문제가 생긴다. 모레 플랫폼은 중간에 컴파일러를 마련해 받은 연산 요청을 효율적으로 분배시킨다.

두 번째는 애플리케이션 수준 가상화다. 가상 GPU(vGPU)를 제공해 물리 GPU처럼 사용할 수 있도록 하자는 것이다. 대신 가상 GPU와 물리 GPU 사이의 맵핑은 모아이가 자동으로 컨트롤하게 된다.

vGPU 기술은 GPU의 활용을 최적화 하는 데도 사용된다. 사용자들은 공급 받은 GPU를 항상 최대치로 사용하지는 않으며, 여러 이유로 쉬고 있는 경우가 생긴다. 전체적으로 보면 GPU 자원 활용률이 낮아진다는 것을 의미하는데, 이때 모아이는 vGPU와 동적할당 기술을 적용해 GPU 사용에 대해 최적화를 진행한다.[4]

모모-70B(MoMo-70B)[편집]

모아이 플랫폼에서 AI 모델을 잘 만들 수 있다는 것을 보여주기 위해 개발한 AI 모델이다. 오픈 LLM 리더보드 평가에서 1위에 올랐다.

이 모델을 개발하기까지 엔지니어 2명이서 3개월 걸렸다.엔지니어의 능력이 아닌 모아이가 GPU 자원을 사용하는 부분에 대해 해결해줬기 때문에 AI 모델 개발에만 신경 쓸 수 있었다.

그리고 모모-70B를 만들면 사람들이 모아이 플랫폼을 더 많이 활용하지 않을까하는 목적도 있다. 2024년 상반기 오픈소스로 공개할 예정이며, 이후 멀티모달 AI 모델도 개발 중에 있다. 기술적인 측면에서는 모모-70B를 통해 사용자들로부터 인프라 소프트웨어 사용에 대한 피드백을 받고 이를 기반으로 기술 고도화를 하려는 목적도 있다.[4]

사용 사례[편집]

KT에 공급하고 있다. 2021년 말부터 시작해서 KT클라우드의 '하이퍼스케일 AI 컴퓨팅 서비스(HAC)'를 제공하고 있다. 모아이 플랫폼은 굳이 엔비디아 GPU를 쓸 필요가 없기 때문에 AMD GPU를 사용해 클러스터를 구성하고 있다.

사용자는 KT의 'AI 엑셀러레이터'라는 가상의 가속기를 제공하게 된다. 이 가속기를 통해서는 앞서 설명처럼 원하는 GPU 연산 용량을 손쉽게 설정해 사용할 수 있다. 현재까지 100곳이 넘는 고객들이 모레 플랫폼 기반의 HAC를 사용하고 있는 것으로 안다. 또한 KT의 자체 LLM '믿음'의 인프라 소프트웨어로 모레 SW가 사용되고 있다. 참고로 이전까지는 믿음 모델도 엔비디아의 DGX 기반에서 운영됐었다.[4]

각주[편집]

  1. 1.0 1.1 1.2 김홍철 기자, 〈모레 “엔비디아 뛰어넘는 유니버셜 AI 플랫폼 목표”]〉, 《비즈니스리포터》, 2024-11-15
  2. 류준영 기자, 〈오픈AI·메타·구글 뛰어넘었다...모레, 한국어 LLM 오픈소스 공개〉, 《머니투데이》, 2024-12-03
  3. 김보경기자, 〈모레, 자체 개발 한국어 LLM 파운데이션 모델 'Motif' 오픈소스 공개〉, 《아시아경제》, 2024-12-04
  4. 4.0 4.1 4.2 조상록 기자, 〈조강원 모레 대표 “엔비디아 쿠다보다 앞선 한 가지 있다”〉, 《조선일보》, 2024-05-16

참고자료[편집]

같이 보기[편집]


  질문.png 이 문서는 로고 수정이 필요합니다.  

  질문.png 이 문서는 인물사진 수정이 필요합니다.  

  검수요청.png검수요청.png 이 ㈜모레 문서는 인공지능 기업에 관한 글로서 검토가 필요합니다. 위키 문서는 누구든지 자유롭게 편집할 수 있습니다. [편집]을 눌러 문서 내용을 검토·수정해 주세요.