검수요청.png검수요청.png

자율성

위키원
cass5004 (토론 | 기여)님의 2020년 7월 17일 (금) 13:41 판
이동: 둘러보기, 검색

인공지능의 자율성이란 주변 환경을 관측(Observe)하고, 판단(Orient)해서, 결심(Decide)한 후 행동(Act)하는 의사 결정 과정인 OODA 루프(Loop)상의 각 단계별로 인공지능 스스로 결정할 수 있는 능력을 의미한다. 인공지능, 로봇이 의사 결정을 하는 단계가 많을수록 자율성의 수준도 높다고 할 수 있다. 높아진 자율성만큼 인간 사용자의 기대와 통제를 벗어난 행동을 할 확률이 높아지며 그것이 사고로 연결될 가능성도 높아지게 되는 셈이다.[1]

개요

일반적인 의미에서 자율성이란 타인의 의지가아닌 자신의 행동에 자유의지를 갖고 행동하고 자기 스스로의 원칙에 따라 어떤 일을 하거나 스스로 자신을 통제하여 절제하는 성질이나 특성이다. 하지만 인공지능은 입력받은 프로그램을 수행할뿐 이기에 아직까진 인간처럼 사고하고 행동하는 자율성을 기대하기엔 큰 무리가 있다. 대표적으로 자율주행 자동차가 있다.


인공지능은 인격체인가

특징

인공지능 에미

1990년대 미국에서 인공지능인 에미(Emmy)가 인간의 도움 없이 작곡한 클래식 음악이 진정한 창작품인지 여부를 두고 논란이 커진 적이 있다. 인공지능의 작품이 인간이 만든 것과 다를 바 없다고 옹호하는 의견도 있었지만 음악, 미술등 예술적 창작 분야를 오직 인간의 몫으로만 여기는 다수의 사람들은 에미(Emmy)의 작품을 창조성이 결여된 획일적인 것, DB화되어 있는 과거의 성공작들을 의도적으로 조각조각 분해한 후 재조립한 것에 불과한 것이라고 힐난했다. 인공지능 작곡가에 대한 논란은 개발자 데이빗 코프(David Cope)가 알고리즘의 DB를 삭제해서 에미(Emmy)를 복구 불가능하도록 파괴함으로써 종식되었다.[1]


장점

자율주행 자동차처럼 인간대신

단점

인공지능에 의사 결정을 맡기는 것이 반드시 좋은 결과를 보장하지 않는다. 결국 입력된 프로그램내에서 인공지능이 판단을 내리는 것이기에 때로는 인간보다 훨씬더 잘못된 판단을 내릴수도있다.

  • 2003년 이라크전 당시 미군의 패트리엇 미사일 시스템은 아군 전투기들을 연달아 격추하는 실수를 했다.
  • 2007년 남아공에서는 로봇 방공포가 갑자기 작동해서 수십 여명의 사상자를 발생시킨 사고가 있었다.
인명 손실을 줄이고 정확성을 높이고자 도입된 로봇이 오히려 인명 피해를 일으킨 주범이 되어버렸다.
  • 2010년 미국 증시 폭락
거래 권한을 위임받은 인공지능이 특정한 매도 거래에 개입했다가 부족한 매수 주문을 확인하잠자 손실을 줄이기 위해 경쟁적으로 팔아 치우기 시작한 영향이 순식간에 포트폴리오 전체로 확산되어 증시 규모의 10분의 1인 약 1조달러가 불과 5분 만에 사라져버렸다.
  • 2016년 미국,일본 자율주행 자동차 사고
낮은 수준의 자율주행 자동차들이 여러건의 교통사고를 일으키고 이 가운데 테슬라 모델 S의 운전자는 사망하기도했다. 이를 계기로 자율주행자동차의 사고의 책임을 운전자와 제조사 중 누가 져야 하는지에 대한 관심이 학계의 주제에서 현실의 이슈로 발전했다. 그리고 자율주행 자동차가 운전자와 보행자 중 누구를 더 보호하도록 개발해야 하는가라는 윤리적 문제에 대한 관심도 보다 커졌다.
  • 2016년 미국 캘리포니아 주의 한 쇼핑센터에서 최신형 보안 서비스 로봇이 16개월된 유아를 공격해서 다치게 한 사고가 발생했다. 사고 발생 후에는 이와 유사한 사례들이 그 전에도 있었다는 사실이 드러났다.[1]

인간대 인공지능

현재 많은 전문가들은 에미의 경우처럼 자율적인 인공지능의 활동이 인간과 갈등을 빚는 공간이나 영역이 점차 늘어날 가능성이 있다고 본다. 또 인공지능의 활동이 영향을 주는 범위도 개인의 차원에서 때로는 사회적, 국가적 차원에 이를 수 있고, 영향력의 수준 또한 사소한 불만족에서부터 재산 손실, 인명 피해 등 심각한 경우에 이를 수 있을 것으로 보고 있다. 왜냐 하면 인간과 인공지능이 상황 판단(Origin)이나 결심(Decision), 또는 행동(Act) 과정에서 각각 상이한 결정을 내릴 수 있기 때문이다. 인공지능이 사용자의 지시나 기대와 다른 결정을 내리는 상황에 직면하는 인간은 대부분 고민에 빠질 것이다. 즉, 인간과 인공지능간에 갈등이 빚어지는 것이다. 이러한 갈등은 다양한 상황에서 발생될 수 있다.[1]

AI 가전기기

로봇화된 의자가 내장된 인공지능의 결정에 따라 볕이 잘 드는 위치로 옮겼는데, 정작 사용자는 그 지점이 너무 밝아서 싫어할 수도 있다. 냉장고의 인공지능이 사용자에게 비만이니 그만 먹어야 한다고 계속 잔소리를 늘어놓거나 심한 경우에는 냉장고 문을 열어주지 않을 수도 있다. 유머 감각을 뽐내던 우주탐사로봇 타스(TARS)가 수리 받는 도중에도 주인공의 기분에 아랑곳하지 않고 계속 썰렁한 농담을 내뱉던 영화 인터스텔라(Interstellar, 2014)의 한 장면처럼 가정용 감성 서비스 로봇의 유머가 사용자의 취향과 맞지 않을 수도 있다. 해결 방안은 영화에서처럼 타스(TARS)의 유머 수준을 낮춰서 농담을 못 하게 만들듯이 자율성의 수준을 조절하는 데에서 찾을 수도 있다. 하지만 때때로 개발자의 의도가 사용자의 성향에 맞지 않아서 인공지능에 대한 불만족이 지속될 수도 있다.[1]

의료 인공지능

의사는 환자에 대한 진단, 처방, 시술 등 각 진료 단계에서 종종 자신의 경험, 생각과 인공지능의 판단이 배치되는 상황에 직면할 수 있다. 만약 환자에게도 선택에 개입할 기회가 주어진다면, 환자 역시 자신의 생명을 누구의 진단 결과에 맡겨야 하는지에 대해 심각한 고민에 빠질 수 있다.[1]

자율주행 자동차

자율주행자동차의 선택 경로 또는 자율주행자동차의 운행 패턴이 사용자의 취향과 맞지 않을 수도 있다. 중고 자율주행자동차의 전 소유주가 난폭운전자 인줄 모르고 구매한 새로운 소유주는 장시간에 걸쳐 인공지능을 새로 학습시켜야 하는 고역을 치를 수도 있다. 또한 자동차 개발자도 고민에 빠질 수 있다. 만일 탑승자와 다수의 보행자 중 하나만 선택할 수 있는 상황에 처했을 때에 인공지능이 보행자 보호를 우선시하도록 만들면 소비자가 구매하지 않을 것이고, 무조건 탑승자를 보호하도록 만들면 도덕적 논란의 대상이 될 수 있기 때문이다.[1]


=

각주

참고자료

같이 보기

  검수요청.png검수요청.png 이 자율성 문서는 인공지능 기술에 관한 글로서 검토가 필요합니다. 위키 문서는 누구든지 자유롭게 편집할 수 있습니다. [편집]을 눌러 문서 내용을 검토·수정해 주세요.