검수요청.png검수요청.png

돌마

위키원
이동: 둘러보기, 검색

돌마(Dolma)는 앨런AI연구소(AI2)가 공개한 다양한 출처에서 수집된 방대한 양의 텍스트 데이터셋으로, 주로 콘텐츠, 학술 출판물, 코드, 서적 및 백과사전 자료를 포함한다. 이 데이터셋은 AI 모델의 학습을 위한 기초 자료로 활용된다.

아사달 스마트 호스팅 가로 배너 (since 1998).jpg
이 그림에 대한 정보
[아사달] 스마트 호스팅

개요[편집]

돌마는 앨런AI연구소가 공개한 오픈소스 대형 언어 모델(LLM)의 학습을 위한 텍스트 데이터셋이다. 무료로 사용할 수 있으며, 누구나 데이터셋의 내용을 검사할 수 있는 투명한 데이터셋으로, 기존의 폐쇄적이고 출처가 불분명한 데이터셋과는 차별화된다. 돌마는 AI 모델 학습 데이터셋의 투명성을 높이고 책임 있는 AI 개발 문화를 조성하기 위한 중요한 시도로 평가받고 있다. 돌마는 앨런AI연구소의 오픈소스 LLM인 올모(OLMo)의 핵심 학습 데이터셋으로, 대규모 언어 모델 학습의 새로운 표준을 제시하고 있다. 이는 AI 연구 및 개발에 있어 데이터 투명성과 책임감을 중시하는 흐름을 강화하며, 대규모 언어 모델의 발전에 중요한 역할을 할 것으로 기대된다. 돌마는 허깅페이스(Hugging Face) 플랫폼을 통해 제공되며, 연구자와 개발자가 이를 손쉽게 다운로드하고 사용할 수 있도록 접근성을 높였다. AI2는 데이터셋이 LLM 학습의 기초 자료로 활용되면서도 윤리적 기준을 준수하도록 하는 데 중점을 두고 있다.[1]

구성[편집]

돌마는 3조 개의 토큰으로 구성된 대규모 텍스트 데이터셋으로, 지금까지 발표된 데이터셋 중 가장 방대한 규모를 자랑한다. 메타라마2(LLaMA 2)가 포함했던 2억 개의 토큰을 훨씬 초과하며, 이로 인해 대규모 언어 모델의 훈련 데이터로 새로운 표준을 제시하고 있다. 주요 데이터 출처는 다음과 같다.

  • 과학 원고: 3,800만 개의 허가된 논문을 포함하는 peS2o 데이터셋.
  • 웹 콘텐츠: 위키피디아와 학술 출판물, 서적, 백과사전 등 다양한 영문 자료.
  • 기타 데이터: 허가된 다른 자료 조합으로 구성.

특징[편집]

라이선스[편집]

AI2는 돌마 데이터셋을 사용할 경우 다음과 같은 책임 있는 사용 기준을 요구한다.

  • 사용 목적과 투명성: 사용자는 라이선스를 획득하기 위해 의도한 사용 사례를 공개해야 한다.
  • 공유 규정: 돌마를 기반으로 생성된 파생물은 동일한 라이선스에 따라 배포되어야 하며, 데이터의 악용을 방지한다.
  • 사용 제한: 감시, 허위 정보 생성, 기타 윤리적 문제가 될 수 있는 영역에서의 사용을 금지한다​.

개인정보 보호[편집]

AI2는 개인 정보 보호를 중요하게 생각하며, 돌마 데이터셋에 포함된 개인 데이터를 삭제할 수 있는 요청 양식을 제공한다. 이는 데이터셋 학습 과정에서 개인의 민감한 정보가 사용되는 것에 대한 우려를 줄이기 위한 조치이다. 이러한 투명성은 오픈AI나 구글과 같은 회사들이 데이터셋 정보를 제한적으로 공유하는 방식과 비교하여 큰 차별점을 보인다.

각주[편집]

참고자료[편집]

같이 보기[편집]


  검수요청.png검수요청.png 이 돌마 문서는 인공지능 기술에 관한 글로서 검토가 필요합니다. 위키 문서는 누구든지 자유롭게 편집할 수 있습니다. [편집]을 눌러 문서 내용을 검토·수정해 주세요.