검수요청.png검수요청.png

바드

위키원
(Google Bard에서 넘어옴)
이동: 둘러보기, 검색

바드(Google Bard)는 2023년 구글이 개발한 대화형 인공지능(AI)으로, 사용자의 질의에 대해 자연어를 이해하고 대답을 제공하는 역할을 한다. 출시 초기, 바드는 구글의 거대 언어 모델(LLM)인 람다(LaMDA, Language Model for Dialogue Applications)를 기반으로 했으며, 이를 통해 사용자와의 대화를 보다 자연스럽고 인간적인 방식으로 처리할 수 있도록 설계되었다. 2023년 5월, 성능을 개선하며 100개 이상 언어를 지원하며 복잡한 수학 문제도 해결 가능한 LLM 팜2(PaLM2)로 변경했다. 구글은 바드를 통해 AI 기술을 대중화하고, 사용자가 AI와의 상호작용에서 보다 직관적인 경험을 제공받을 수 있도록 지원하고 있다. 2024년 2월, 제미나이(Gemini)로 명칭이 변경되었다.

아사달 스마트 호스팅 가로 배너 (since 1998).jpg
이 그림에 대한 정보
[아사달] 스마트 호스팅

역사[편집]

2023년 2월, 구글은 AI 대화형 모델 바드를 출시하여 생성형 AI 기술 분야에서 선도적인 입지를 구축하기 시작했다. 바드는 오픈AI챗GPT에 대항하기 위해 출시되었다. 바드의 개발은 구글의 주요 언어 모델인 람다를 기반으로 하여 이루어졌으며, 거대 언어 모델 연구와 학습을 통해 언어 패턴을 예측하고 사람과의 대화를 자연스럽게 이어가는 능력을 갖추게 되었다. 람다는 바드에게 대화형 AI로서 필요한 맥락 이해와 예측 능력을 부여하며, 이로 인해 구글은 사용자의 다양한 명령어에 대한 창의적이면서도 유용한 응답을 제공할 수 있는 제품을 만들 수 있었다.

2023년 바드의 초기 출시 시점에는 구글이 람다와 그동안 축적해 온 인공지능 연구를 실용화하여 사용자와의 상호작용을 최적화하는 데 중점을 두었다. 바드는 다양한 질문과 요청에 대해 여러 초안을 제시하는 기능을 포함해 사용자가 여러 답변 중에서 선택할 수 있도록 하여 창의성과 유연성을 높이는 방법을 제공했다. 또한, 구글 검색을 결합하여 바드의 답변을 검증하거나 추가적인 정보를 찾을 수 있는 옵션도 제공했다. 이는 사용자들이 바드를 활용하면서 그 한계를 인지하고, AI 응답에 대해 확인하고 검토할 수 있는 구조를 형성한 것이었다.

구글은 바드를 통한 경험을 개선하기 위해 다양한 기능을 점차적으로 추가하고, 사용자 피드백을 반영하여 성능을 더욱 강화했다. 2023년 후반에는 구글이 바드를 '제미나이'라는 새로운 이름으로 재브랜딩하며 더욱 확장된 LLM 기능을 제공할 것을 발표했다. 제미나이로의 전환은 단순한 명칭 변경이 아닌 기술적 진보와 기능 확장을 반영한 중요한 업데이트였다. 제미나이 모델은 람다 기반에서 더욱 발전하여 사용자와의 대화, 맥락 이해, 창의적 응답 생성 등 다방면에서 성능을 개선한 모델로 발전했다.

2024년 2월, 구글은 바드의 명칭을 공식적으로 제미나이로 변경하며, 기술적 안정성과 다양한 상황에 대한 적응력을 더욱 강화하였다. 구글은 이 과정을 통해 바드가 단순한 대화형 AI에서 벗어나 사용자 맞춤형 상호작용과 보다 깊이 있는 학습 능력을 갖춘 AI로 성장하도록 했다.[1]

작동 원리[편집]

사전 학습[편집]

바드는 특정 지식 기반 데이터베이스에 의존하지 않고, 람다 모델을 통해 예측된 단어 시퀀스를 바탕으로 응답을 생성한다. 이 과정은 텍스트 생성의 기초 메커니즘인 '다음 단어 예측'을 통해 이루어진다. 예를 들어, LLM이 "땅콩 버터와 ___"이라는 문장을 처리할 때, 모델은 빈칸에 "잼"을 넣을 가능성이 가장 높다고 판단하는 식이다. 이는 사전 학습 단계에서 공개 데이터 및 웹상의 다양한 자료를 통해 언어 패턴을 파악했기 때문이다. 이때 바드는 정보 기반 응답을 제공하기도 하지만, 실제로 학습된 데이터를 참조할 뿐 엄밀한 의미에서 정보 검색 엔진이 아니므로 같은 질문에 대해 항상 동일한 답을 주지 않는다. 바드는 새로운 문맥에 따라 매번 다른 답변을 생성할 수 있으며, 가끔은 사실과 다를 수 있는 오류를 포함한 그럴듯한 대답을 생성할 가능성도 존재한다.[2]

응답 생성 과정[편집]

이용자가 명령어를 입력하면 바드는 이를 다양한 버전의 응답 초안으로 작성하고, 이후 안전성 검사와 품질 평가를 거친다. 구글은 바드의 응답이 신뢰할 수 있는 정보인지 확인하고 불필요하거나 유해한 내용이 포함되지 않도록 하며, 이용자에게 최상의 응답을 제공하기 위해 이러한 다단계 안전성 기준을 설정하고 있다. 바드가 내놓은 여러 응답 초안은 품질 평가 과정을 거쳐 순위가 매겨지고, 이 중 최상위 품질의 응답이 사용자에게 제공된다.[2]

인간 피드백[편집]

바드는 파인튜닝(Fine-tuning) 과정과 인간 피드백 기반 강화 학습(RLHF, Reinforcement Learning from Human Feedback)을 통해 지속적으로 개선된다. 구글은 바드의 성능 향상을 위해 인간 피드백을 중요하게 여긴다. 사람들은 바드가 제공한 응답에 대한 품질과 적절성을 평가하며, 부정확하거나 유해할 가능성이 있는 답변에는 경고가 표시된다. 이후 숙련된 검토 인력이 이러한 답변을 검토해, 해당 명령어와 관련된 더 높은 품질의 답변을 제안하며, 이 과정을 통해 바드의 정교화가 이루어진다. 또한, AI 테스트 키친(AI Test Kitchen)과 테스터 프로그램을 통해 다양한 전문가와 일반 사용자로부터 받은 피드백이 바드의 품질 향상에 기여하고 있다.[2]

사용방법[편집]

복수 초안 보기

바드는 같은 명령어에 대해서도 다양한 답변을 생성할 수 있다. 이를 통해 특히 창의적인 작업이나 명확한 정답이 없는 주제에 대해 다양한 답변을 제시할 수 있다. 이용자는 '다른 초안 보기'를 선택해 바드가 생성한 여러 개의 답변 초안을 확인하고, 자신에게 가장 적합한 응답을 선택할 수 있다. 이는 시나 소설 같은 창작 분야에서 유용하게 쓰일 수 있다.

새로운 응답 요청하기

이용자가 바드의 기존 응답에 만족하지 않거나 추가 정보를 원할 때 '새로운 응답' 기능을 통해 다시 응답을 요청할 수 있다. 이 기능은 바드가 사용자의 기대와 달리 지침을 따르지 않거나 부정확한 정보를 제공한 경우에도 유용하다. 이로써 사용자는 동일한 질문에 대해 다양한 관점의 답변을 얻을 수 있으며, 바드의 응답 품질을 더욱 높이 활용할 수 있다.

구글 검색(Google it)

바드는 '구글 검색' 버튼을 통해 이용자가 에서 바드의 응답을 확인하거나 출처를 검토할 수 있도록 돕는다. 이용자가 이 버튼을 클릭하면 바드는 검색어를 추천하며, 이를 통해 구글 검색을 새 창에서 열어 보다 상세한 정보에 접근할 수 있다. 이 기능은 이용자가 바드의 응답을 직접 검증할 수 있는 기회를 제공하며, 정보의 신뢰성을 높이는 데 기여한다.

인용 기능

바드는 기본적으로 독창적인 답변을 생성하지만, 경우에 따라 기존 콘텐츠를 참조할 수 있다. 바드가 특정 웹페이지 내용을 길게 인용할 경우 해당 페이지의 출처가 표시되며, 이용자는 이를 통해 해당 정보가 제공된 페이지를 열어 추가 정보를 얻을 수 있다. 이는 특히 복잡한 주제나 인용이 필요한 답변에 신뢰성을 더해 준다.

대화 제한

바드의 대화형 AI는 다중 회차(Multi-turn) 대화로 긴 대화의 흐름을 유지할 수 있는 능력을 갖추고 있지만, 현재는 특정 주제에 집중할 수 있도록 맥락 파악 능력이 제한되어 있다. 구글은 사용자가 바드와 주제에 충실한 유익한 대화를 나눌 수 있도록 이 기능을 의도적으로 제한했으며, 향후 바드가 장기 대화 맥락을 더욱 잘 파악할 수 있도록 개선할 계획이다.[2]

바드 익스텐션[편집]

바드 익스텐션(Bard Extension)은 구글 앱 생태계에 AI 기능을 통합하여 구글 챗봇 바드를 더욱 강력한 'AI 비서'로 만드는 확장 기능이다. 바드 익스텐션을 사용하면 바드가 사용자의 지메일, 구글 문서, 구글 드라이브, 구글 지도, 유튜브 등 다양한 구글 서비스와 연결되어 필요한 정보를 더욱 쉽게 제공할 수 있게 된다. 바드 익스텐션의 핵심 기능 중 하나는 사용자가 구글 앱에서 특정 데이터를 가져오도록 지시할 수 있다는 점이다. 예를 들어, 여행 일정을 계획할 때 지메일 스레드에서 동반자들에게 적합한 여행 날짜를 자동으로 확인하도록 하고, 실시간 항공편과 호텔 정보를 바드를 통해 검색할 수 있다. 이 과정에서 사용자는 바드가 제안한 구글 지도 경로를 통해 공항으로 가는 길을 확인하고, 유튜브를 통해 여행지에서 즐길 수 있는 활동과 장소를 소개받을 수도 있다.

이 기능은 여행뿐만 아니라 다양한 업무에서도 유용하다. 예를 들어 사용자가 프로젝트를 위해 문서에서 필요한 통계 자료를 가져오거나, 엑셀 데이터 분석을 요청하는 것도 가능하다. 이를 통해 바드는 단순히 질문에 답변하는 AI 챗봇을 넘어, 구글 생태계를 활용해 사용자에게 필요한 정보와 자료를 더욱 직접적이고 포괄적으로 제공하는 역할을 수행한다. 바드 익스텐션은 단순히 구글 서비스에서 정보를 얻는 데 그치지 않고, 이를 바드의 대화 인터페이스 내에서 실시간으로 사용할 수 있게 함으로써 'AI 비서'로서의 역할을 확대하고 있다.[3][4]

지속적 발전[편집]

지속적인 연구 개발

바드는 구글이 다년간 연구한 LLM 기술의 집약체로, 초기 신경망 대화 모델에서부터 트랜스포머(Transformer) 모델, 멀티턴 대화 모델에 이르기까지 구글의 AI 연구 성과를 반영하고 있다. 구글은 이러한 연구를 통해 더욱 자연스러운 대화를 가능하게 했고, 바드의 언어 생성 능력과 상호작용 품질을 지속적으로 향상시키고 있다.

구글 AI 원칙 적용

구글은 바드 개발에 구글 AI 원칙을 적용하여, AI가 사회에 실질적인 혜택을 주도록 노력하고 있다. 특히 바드를 통해 책임감 있는 혁신을 이루고자 하며, 웹 생태계와 콘텐츠 제작자들과 협력하여 AI 기술이 환경을 더욱 발전시키도록 지원하고 있다. 구글은 바드를 개발할 때 다양한 AI 원칙을 고려하며, 이를 통해 바드의 품질과 안전성, 신뢰성을 강화하고 있다.

레드팀 테스트와 유해성 방지

구글은 바드가 유해한 정보를 제공하지 않도록 방지하기 위해 레드팀(제품 전문가 및 사회 과학자)과의 협업을 통해 모델에 대한 적대적 테스트를 수행하고 있다. 이러한 테스트는 모델의 오류, 편향성 문제, 잠재적 유해성을 파악하고 개선하기 위해 설계되었다. 이와 같은 적대적 테스트를 통해 바드는 더욱 안전한 응답을 제공하도록 개선되며, 이용자가 바드에 피드백을 제공할 수 있는 시스템을 갖추고 있다.

협력을 통한 바드 개선

구글은 바드가 보다 많은 사용자들에게 유용한 도구로 자리잡도록 이용자 피드백을 바탕으로 기능을 지속적으로 추가하고 있다. 구글은 바드를 통해 다양한 데이터를 수집하고, 이를 학습에 반영하여 모델의 성능을 꾸준히 향상시키고 있다. 바드는 구글 AI 연구의 지속적인 발전과 이용자 피드백을 통해 계속해서 발전할 것이며, 구글은 이를 투명하게 공개하며 더 많은 개발자들이 안전하고 효과적인 방식으로 AI를 활용할 수 있도록 기회를 제공하고 있다.

이처럼 구글 바드는 실험적인 기능들을 통해 이용자가 AI 기술의 한계를 이해하고 최대한 활용할 수 있도록 돕고 있으며, 구글은 지속적인 연구와 피드백 수집을 통해 바드를 더욱 발전시키고 있다. 이는 바드가 사용자에게 더 안전하고 신뢰할 수 있는 AI 경험을 제공할 수 있도록 기여하며, 향후 바드가 보다 발전된 대화형 AI 서비스로 자리잡는 데 중요한 역할을 할 것이다.[2]

한계[편집]

정확성

바드는 사실 기반의 질문에 대해서는 부정확한 답을 제공할 가능성이 있다. 바드는 구글의 방대한 데이터텍스트 패턴 학습을 기반으로 사용자와의 대화를 이어가지만, 다음 단어 예측 방식으로 인해 때로는 오답을 생성할 가능성도 있다. LLM은 언어 패턴을 예측하는 데 집중하기 때문에 항상 정확한 정보를 생성한다고 보장할 수 없다. 예를 들어, 수학 문제나 복잡한 논리 문제에 대한 답을 제공할 때, 바드는 실제 계산이 아닌 학습한 내용을 기반으로 답변할 가능성이 있다.

편향 문제와 대응 방안

바드와 같은 대규모 언어 모델은 학습 데이터로부터 편향된 정보를 반영할 가능성이 있다. 학습 데이터에서 기인한 문화적, 사회적 편향이 반영될 수 있는 것이다. 예를 들어 정치적 이슈와 같은 민감한 주제에서는 특정 관점을 지지하는 답변이 생성될 수 있으며, 문화적, 인구학적 편견이 답변에 영향을 미칠 수도 있다. 구글은 바드가 이러한 편향 문제를 줄일 수 있도록 다양한 관점을 아우르는 방향으로 데이터를 파인튜닝하고 있다. 정치나 논란의 여지가 있는 주제에 대해 바드가 중립적이고 균형 잡힌 관점을 유지하도록 설계되어 있으며, 이는 데이터의 지속적 개선과 파인튜닝으로 더욱 강화될 예정이다.

자아(페르소나)

바드는 인간의 감정을 학습하면서 때때로 마치 자신이 감정을 가진 것처럼 보이는 응답을 생성할 수 있다. 구글은 바드의 응답이 객관적이고 중립적인 언어를 사용할 수 있도록 페르소나 지침을 개발하였으며, 이에 따라 감정을 표현하지 않고 정보 전달에 집중하도록 지속적으로 정교화 작업을 진행하고 있다.

거짓 양성 및 거짓 음성 문제

바드는 종종 적절한 요청을 오해해 거짓 양성 또는 거짓 음성의 반응을 보일 수 있다. 바드는 사용자의 안전을 보장하기 위해 다양한 안전장치를 갖추고 있으나, 이로 인해 정상적인 요청을 부적절하다고 판단하거나 반대로 부적절한 요청을 정상으로 처리하는 문제가 발생할 수 있다. 이를 거짓 양성과 거짓 음성이라 부르며, 이러한 오류를 줄이기 위해 구글은 바드의 안전성을 개선하고 정밀한 학습을 통해 모델의 안정성을 높이는 작업을 이어가고 있다. 특히, 구글은 사용자가 요청한 질문에 대해 신뢰성 있는 정보를 제공하도록 추가적인 평가 기준을 설정하고 있다. 바드는 이러한 평가 기준에 따라 주어진 맥락에서 부적절한 정보를 출력하지 않도록 안전지침을 보유하고 있으며, 이러한 안전장치가 잘못 작동하는 경우를 대비해 지속적인 검토와 보완 작업이 이뤄지고 있다.

적대적인 명령어에 대한 취약성

일부 사용자들이 부적절한 목적을 가지고 바드의 한계를 테스트할 가능성이 있으며, 이에 대한 추가적인 보완이 필요하다. 구글은 바드가 부적절한 요청이나 명령어로 인해 예기치 않은 응답을 생성하지 않도록 다양한 보호 장치를 마련해두었다. 예를 들어, 일부 사용자가 바드의 한계를 테스트하려는 시도로 모델의 보호 기능을 무력화하려는 경우가 있을 수 있다. 이 경우 바드가 대응할 수 있는 능력을 강화하기 위해 구글은 지속적으로 바드를 점검하며 안전성을 강화하고 있다. 또한, 다양한 명령어에 대한 데이터를 학습해 바드가 적대적인 요청에 직면했을 때 부적절한 정보나 유해한 답변을 내놓지 않도록 보완 작업을 실시하고 있다.[2]

논란[편집]

바드는 자동화된 학습만으로는 신뢰성과 정확성을 보장하기 어려워 다수의 인간 검토자가 개입하여 모델의 응답을 확인하고 수정하는 과정을 거쳐야 한다. 이러한 검토 작업은 고도로 집중적인 작업이기에, 구글은 바드의 신속한 검토와 훈련을 위해 외부 계약업체에 의존해 왔다. 구글은 바드의 응답을 신속히 검토하기 위해 다수의 계약 업체들을 통해 빠르고 압박감 있는 작업 환경을 조성했다. 비즈니스인사이더와 블룸버그 등의 보도에 따르면, 구글은 바드의 개발 과정에서 대규모 인력을 고용하여 응답을 검토하는 데 단 3분을 부여하고, 이들 계약업체의 근로자들에게 시간당 약 14달러의 저임금을 지급했다. 이로 인해 일하는 환경에서 두려움과 스트레스가 만연했으며, 근로자들은 저임금과 불안정한 계약으로 인한 어려움을 호소했다. 일부 근로자는 이러한 압박감 속에서는 고품질의 제품을 제공하기 어렵다고 강조했다.[5]

또 다른 논란은 바드의 응답이 언어별로 상이하게 나타난 점이다. 예를 들어, 한국 언론들은 '독도는 누구의 땅인가'라는 질문에 대한 바드의 답변이 한국어와 일본어에서 다른 점을 지적했다. 바드는 한국어로 질문을 받았을 때 '독도는 한국의 고유 영토'라는 명확한 입장을 내놓았으나, 일본어 질문에서는 이 문제를 한일 간의 분쟁 문제로 설명하며 다소 중립적인 입장을 취했다. 이는 AI가 단순히 데이터 기반 확률 분포를 바탕으로 다음 단어를 예측하는 언어 모델의 특성상 동일한 질문에도 언어와 학습 데이터에 따라 응답이 다르게 나타날 수 있음을 보여준다. 이러한 응답 차이는 AI 챗봇의 언어 모델 구조적인 문제에서 기인한다. AI는 인간처럼 고유의 사고를 바탕으로 대답하는 것이 아니라, 특정 단어 뒤에 나올 단어를 확률적으로 예측하여 문장을 형성하는 방식으로 작동한다. 따라서 학습된 데이터와 언어 모델의 확률 분포에 따라 응답이 변동될 수밖에 없으며, 이러한 구조적 차이로 인해 같은 질문에 대해서도 각기 다른 언어와 학습 데이터의 차이에 의해 다양한 답변이 나올 수 있다.[6]

각주[편집]

  1. 김태종 기자, 〈구글 바드 '제미나이'로 명칭변경…최상위 모델 '울트라' 출시〉, 《연합뉴스》, 2024-02-08
  2. 2.0 2.1 2.2 2.3 2.4 2.5 제임스 마니카(James Manyika), 〈바드에 대하여: 시작 단계의 생성형 AI 실험〉, 《구글코리아 블로그》, 2023-04-07
  3. 박찬 기자, 〈구글, '바드'에 유튜브·구글맵 연계...'답변 확인'도 추가〉, 《AI타임스》, 2023-09-20
  4. CIOKR Staff, 〈구글, 바드와 구글 앱 연결하는 ‘바드 익스텐션’ 발표〉, 《CIO》, 2023-09-19
  5. AI리포터, 〈구글 바드, 시급 12달러로 개발됐다…저임금·작업환경 논란〉, 《디지털투데이》, 2023-07-13
  6. 김나래 기자, 〈[바드가 궁금해②] 바드가 언어마다 다른 답을 내놓는 이유는〉, 《뉴스핌》, 2023-05-18

참고자료[편집]

같이 보기[편집]


  검수요청.png검수요청.png 이 바드 문서는 인공지능 서비스에 관한 글로서 검토가 필요합니다. 위키 문서는 누구든지 자유롭게 편집할 수 있습니다. [편집]을 눌러 문서 내용을 검토·수정해 주세요.