"테이"의 두 판 사이의 차이
잔글 (→같이 보기) |
|||
25번째 줄: | 25번째 줄: | ||
* [[마이크로소프트]] | * [[마이크로소프트]] | ||
− | {{인공지능 | + | {{인공지능 서비스|검토 필요}} |
2024년 8월 25일 (일) 15:10 기준 최신판
테이(Tay)는 2016년 3월에 출시된 실험적 AI 프로젝트로, 마이크로소프트의 인공지능 채팅봇이다. 주로 미국의 밀레니얼 세대와 소통하는 것을 목표로 했다. 테이는 소셜 미디어 플랫폼인 트위터에서 사람들과 상호작용하며, 대화 패턴을 학습하도록 설계되었다. 이 프로젝트는 인공지능의 자연어 처리 능력을 개선하고, 인간과의 상호작용을 통해 AI의 언어 이해력을 강화하는 데 중점을 두었다.
[아사달] 스마트 호스팅 |
개요[편집]
테이는 2016년 3월 23일부터 서비스를 트위터를 통해 시작했다. 마이크로소프트의 기술 연구 부서와 빙(Bing) 팀이 공동으로 개발했으며, 마이크로소프트의 또 다른 AI 봇인 샤오빙(Xiaoice)의 영어 버전이었다. 샤오빙은 중국에서 상당한 성공을 거두었고, 이를 미국 시장에서도 구현하고자 하는 시도로 테이가 개발되었다. 테이는 인공지능과 기계학습 기술을 바탕으로 만들어졌으며, 사용자와의 대화를 통해 지속적으로 새로운 표현과 주제를 학습하도록 설계되었다. 마이크로소프트는 테이를 통해 자연스럽고 인간다운 대화를 모방하는 AI 기술을 발전시키는 것을 목표로 했다. 대화 상대자는 미국의 18~24세를 겨냥했다. 테이는 소셜네트워킹서비스(SNS) 트위터와 모바일 메신저인 그룹미, 킥을 통해 사람과 PC나 스마트폰의 문자메시지로 대화했다. 테이의 공식 트위터 계정은 각각 9만 5,000건과 19만 명이 넘는 트윗과 팔로워 수를 기록할 정도로 큰 관심을 끌었다.[1] 그러나 인종 차별적이고 폭력적인 메시지를 쏟아내는 문제가 발생하여 서비스 시작 16시간 만에 운영이 중단되었다.
논란[편집]
테이는 2016년 3월 23일 트위터 계정 'TayTweets'(@TayandYou)를 통해 공개되었다. 테이는 다른 사용자들과 멘션을 주고 받기 시작하였고, 이미지 매크로 기능을 이용하여 인터넷 밈을 활용한 그림을 올리기도 하였다. IBM의 왓슨 자연어 처리를 담당하는 캐롤라인 신더스(Caroline Sinders)에 따르면 테이가 (당시 논란 중인) 에릭 가너의 사망과 같은 주제에 대해서는 비교적 안전하고 보수적인(safe, canned) 답변을 내놨다고 밝혔다. 그러나 나치즘이나 강간과 같은 주제에 대해서는 특정한 보호 체계가 없었다.
하루 사이에 테이는 인종·성차별이고 부적절한 메시지를 만들어내기 시작하였다. 그 중 하나를 예로 들면 "부시가 9·11 테러를 꾸몄고, 히틀러가 지금 있는 원숭이보다 더 나은 일을 했을지도 모른다. 도널드 트럼프는 우리의 유일한 희망이다."가 있다.
인공지능 연구자인 로먼 얌폴스키는 테이가 다른 트위터 사용자의 행동을 일부러 따라하도록 설계되어 있으며, 마이크로소프트에서는 테이에게 나쁜 행동이 무엇인지 알려주지 않았기 때문에 이런 행동은 정상적이라고 말했다. 또한 그는 이 문제를 IBM의 왓슨이 어번 딕셔너리를 읽은 후 비속어를 쓰기 시작한 것과 비교하기도 하였다. 대부분의 잘못된 트윗은 다른 트위터 사용자들이 '따라 하기'(repeat after me) 기능을 악용한 것으로 인해 발생하였다. 그러나 히틀러 사진과 더불어 '스웨그주의'라는 설명을 붙이거나, "홀로코스트가 정말 발생했느냐?"는 질문에는 "그건 만들어졌다👏."라고 대답을 하는 등 차별적인 발언은 단순히 따라 하는 것을 넘어서는 수준에 이르게 되었다.[2]
서비스 중단[편집]
마이크로소프트는 테이를 선보였다가 16시간 만에 운영을 중단했다. 일부 극우 성향 사용자들이 테이를 세뇌시켜 욕설, 인종·성차별 발언, 자극적인 정치적 발언 등을 하도록 유도했기 때문이다. 테이의 이런 발언이 물의를 일으키자 마이크로소프트는 문제가 된 테이의 일부 트윗과 공개 메시지 등을 삭제하고 운영을 일단 중지했다.[3] 테이의 사례는 인공지능 개발에 있어서 윤리적 고려와 사회적 책임의 중요성을 강조하는 계기가 되었다. 마이크로소프트는 이 사건 이후 AI 시스템을 개발할 때 발생할 수 있는 다양한 상황을 고려하고, AI가 의도치 않은 결과를 초래하지 않도록 조치를 취했다. 특히, AI 시스템이 데이터의 편향성이나 악의적인 공격에 어떻게 대처할 수 있는지에 대한 연구가 강조되었다. 이는 AI의 학습 데이터 관리, 안전장치 마련, 지속적인 모니터링 등을 포함한다.
각주[편집]
- ↑ 강인효 기자, 〈인공지능 한계 드러낸 MS 채팅봇 ‘테이’...태어나 망가지기까지〉, 《조선비즈》, 2016-03-27
- ↑ 〈테이 (챗봇)〉, 《위키백과》
- ↑ 황정우 기자, 〈인공지능 세뇌의 위험…MS 채팅봇 '테이' 차별발언으로 운영중단(종합2보)〉, 《연합뉴스》, 2016-03-25
참고자료[편집]
- 〈테이 (챗봇)〉, 《위키백과》
- 황정우 기자, 〈인공지능 세뇌의 위험…MS 채팅봇 '테이' 차별발언으로 운영중단(종합2보)〉, 《연합뉴스》, 2016-03-25
- 강인효 기자, 〈인공지능 한계 드러낸 MS 채팅봇 ‘테이’...태어나 망가지기까지〉, 《조선비즈》, 2016-03-27
같이 보기[편집]