검수요청.png검수요청.png

"자율성"의 두 판 사이의 차이

위키원
이동: 둘러보기, 검색
잔글
잔글
 
(사용자 3명의 중간 판 42개는 보이지 않습니다)
1번째 줄: 1번째 줄:
'''자율성'''<!--자율성-->이란 스스로 결정할 수 있는 독립적인 상태. 자신이 행동의 주최자로서 자유의지를 갖고 행동하고 자기 스스로의 원칙에 따라 어떤 일을 하거나 스스로 자신을 통제하여 절제하는 성질이나 특성으로 선택권을 행사하며 행동하는 것이다. 남에게 의지하지 않고 홀로 서려는 독립성과는 다르다. 자율적으로 타인에게 의존할 수도있고, 반대로 강요에 의해 독립적일 수도 있다. 심리학자들은 자율성을 선천적인 욕구라고 가정한다. 단지 성장 과정이나 현재의 환경 때문에 개인 차이가 생긴다. 발달심리학자인 에릭슨은 1~3세경에 이미 자율성이 성격의 일부분으로 형성된다고 봤다. 시기에 인간은 처음으로 혼자서 걷고, 대소변을 가리고, 밥을 먹고, 옷을 입는 등 스스로 자신을 조절하려고 시도하면서 부모의 일방적인 보살핌에서 벗어나기 시작한다. 이때 부모님의 지원과 지지 속에 성공적으로 자신을 통제하는 경험을 쌓게 되면 자기 능력에 대한 기본적 자신감을 갖고, 이를 바탕으로 전 생애에 걸쳐 독립적이고, 의지력과 자기 통제력이 강한 성품, 즉 자율성이 형성된다. 이런 에릭슨의 관점에서 자율성이란 건강한 성인의 특징이다. 건강한 자율성은 지나치게 의존하지도, 혹은 피하지도 않으면서 사람들과의 관계 속에서 자신의 주체성을 유지하며 독립적으로 자기 조절을 해나갈 있는 능력<ref name="자율">박수애 연구원, 〈[https://dbr.donga.com/article/view/1201/article_no/7457 성과와 만족도는 자율성과 비례한다.]〉, 《DBR》, 2016-02-02</ref>
+
'''자율성'''<!--인공지능 자율성-->(自律性)(Autonomy)이란 주변 환경을 관측(Observe)하고, 판단(Orient)해서, 결심(Decide)한 후 행동(Act)하는 의사 결정 과정인 OODA 루프(Loop)상의 단계별로 스스로 결정할 수 있는 능력을 의미한다. [[인공지능]], [[로봇]]의사 결정을 하는 단계가 많을수록 자율성의 수준도 높다고 할 있다. 높아진 자율성만큼 인간 사용자의 기대와 통제를 벗어난 행동을 할 확률이 높아지며 그것이 사고로 연결될 가능성도 커지게 되는 셈이다.
  
  "너의 의지가 자신의 준칙을 통하여 동시에 자기 자신을 보편적인 법칙을 세우는 존재로 간주할 있도록 행위하라" - 칸트<ref>자율성 지식백과 - https://terms.naver.com/entry.nhn?docId=1530772&cid=60657&categoryId=60657</ref>
+
==개요==
 +
일반적인 의미에서 자율성이란 타인의 의지가 아닌 자신의 행동에 자유의지를 갖고 행동하고 자기 자신의 원칙에 따라 어떤 일을 하거나 스스로 자신을 통제하여 절제하는 성질이나 특성이다. 가나시아 교수는 "진정한 인공지능은 정보를 수집하여 인식하고, 기억하며 학습하고, 추론하며 사고하는 단계를 거쳐 의사결정을 하고, 그것을 실행에 옮길 있어야 한다. 하지만 지금의 인공지능은 무엇인가를 실행하게 되는 의도나 스스로 행동하는 자율성이 없기 때문에 진정한 주체라고 할 수 없다" 고 주장했다. 현주소의 인공지능은 입력받은 [[프로그램]]을 수행할 뿐이기에 아직까진 인간처럼 사고하고 행동하는 자율성을 기대하기엔 큰 무리가 있다. 인공지능 로봇이 행동을 하는 것은 명령자의 의도가 전달되어서 그것을 수행하는 수준일 뿐이지, 스스로 무언가를 해야 한다는 목적성을 갖고 그것을 자율적으로 수행하지는 못한다는 얘기다. 인공지능이 탑재된 완전한 자율 자동차가 상용화되더라도 사용자가 목적지를 입력하지 않는 한, 그 자동차는 움직일 수 없다. 스스로 명령을 내릴 수 없고, 스스로 실행을 결정할 목적이나 의도를 가질 수 없기 때문이다. 인공지능 로봇이 행동을 하는 것은 명령자의 의도가 전달되어서 그것을 수행하는 수준일 뿐이지, 스스로 무언가를 해야 한다는 목적성을 갖고 그것을 자율적으로 수행하지는 못한다는 얘기다. 이것은 자율과 자동의 차이점과 같은 것이다.<ref name="자율2">김순강 기자, 〈[https://www.sciencetimes.co.kr/news/%EC%9D%B8%EA%B0%84%EC%9D%98-%ED%8E%B8%EA%B2%AC%EC%9D%B4-%EB%B6%88%EA%B3%B5%EC%A0%95%ED%95%9C-ai-%EB%A7%8C%EB%93%A0%EB%8B%A4/ 인간의 편견이 불공정한 AI만든다.]〉, 《사이언스타임즈》, 2019-06-25</ref>
 +
 
 +
==특징==
 +
자율성이 높을수록 수준 높은 인공지능이라고 할수 있다. 하지만 사용자의 기대와 통제를 벗어난 행동을 할 확률이 높아지며 사고가 발생할 확률도 늘어난다.
 +
지금의 인공지능은 무엇인가를 실행하게 되는 의도나 스스로 행동하는 자율성은 없고 높은 자율성을 가진 강인공지능의 가까운 인공지능은 아직 발명되지 않았으며 앞으로도 언제 발명이될지는 미지수이다. 이 자율성이 높은 인공지능이 개발된다면 대부분의 일자리는 인공지능 로봇으로 대체될 것이다.<ref name="자율2"></ref>
 +
 
 +
===인공지능 에미===
 +
1990년대 미국에서 인공지능인 에미(Emmy)가 인간의 도움 없이 작곡한 클래식 음악이 진정한 창작품인지 여부를 두고 논란이 커진 적이 있다. 인공지능의 작품이 인간이 만든 것과 다를 바 없다고 옹호하는 의견도 있었지만, 음악, 미술 등 예술적 창작 분야를 오직 인간의 몫으로만 여기는 다수의 사람은 에미의 작품을 창조성이 결여된 획일적인 것, DB화되어 있는 과거의 성공작들을 의도적으로 조각조각 분해한 후 재조립한 것에 불과한 것이라고 힐난했다. 인공지능 작곡가에 대한 논란은 개발자 데이비드 코프가 알고리즘의 DB를 삭제해서 에미를 복구 불가능하도록 파괴함으로써 종식되었다.<ref name="자율">진석용 책임연구원, 〈[http://www.lgeri.com/report/view.do?idx=19458 인공지능의 자율성, SF의 주제가 현실의 문제로 다가오고 있다.]〉, 《LG경제연구원》, 2016-08-10</ref>
  
==개요==
+
===자율성의 정도===
사회심리학자 에드워드 데시(Edward L.Deci)는 자율성이란 자신이 행동의 주최자로서 자유의지를 갖고 행동하는 것이라고 말한다. 자유의지를 갖고 행동한다는 것은 개인이 정한 목표와 가치에 따라 스스로의 행동을 조절하고 적응하여 상황에 맞추어 간다는 의미이다. 자율성은 행동에 대한 통제력, 책임감, 자존감, 자기효능감과 관련이 있다. 자신이 선택한 목표와 가치를 이루기 위하여 자신의 행동을 상황에 맞게 통제하고, 조절하고, 적응시키는 능력 이것이 자율성이다.<ref name="자율2">위캔스토리, 〈[https://post.naver.com/viewer/postView.nhn?volumeNo=18278642&memberNo=22869745 자율성의 개념과 중요성]〉, 《네이버포스트》, 2019-03-14</ref>
+
인공지능이 예상치 못한 문제를 일으킬 수 있다고 해서 자율성을 완전히 제거할 수는 없다. 자율성은 인공지능, 로봇의 도입 목적인 인간의 대체 효과, 즉, 인력 투입 및 관련 비용 절감을 위해 필수적인 요소이기 때문이다. 이런 점을 고려하면 결국 문제의 핵심은 인공지능이 어느 정도의 자율성을 가지게 할 것인가, 바꿔 말하면 인간이 인공지능에 자율적 의사결정권을 얼마나 부여해야 하는 것 인가이다.
 +
자율성의 수준이 인공지능의 도입 효과를 결정하기도 한다. 인공지능에 자율성은 인간이 가진 권한과 책임의 공유, 위임을 의미하므로 인간의 통제, 개입 수준과 반비례하게 된다. 그래서 인간을 대체하는 효과가 그만큼 커진다는 것이다. 자율성의 수준에 따라 인공지능의 판단에 대한 책임 소재가 달라지기 때문이다. 자율성의 수준은 사용자의 편의성과 안전성에 직결된다. 지나치게 똑똑해서 매사 간섭하려 들거나, 잔소리하는 인공지능은 사용자에게 불편한 존재가 될 가능성이 크다. 자율성의 수준은 기계에 대한 인간의 핵심적인 역할을 바꾸는 변수로 작용할 것이기 때문이다. 자율성을 갖춘 기계 앞에 선 인간의 역할이 OODA 루프 상의 최종 과정인 행동 단계에만 거부권을 행사하는 수준이거나, 인공지능이 고장 났을 때 해결 능력을 제공하는 감독자 정도에 그칠 가능성도 엿보이기 때문이다.
 +
그리고 인간이 인공지능의 판단을 곧이곧대로 신뢰하는 경향이 있다는 점에서도 자율성의 수준은 중요한 문제이다. 인간이 인공지능이나 로봇을 맹신할 수 있다는 우려는 로봇의 지시를 접한 인간의 반응을 조사한 실험과 미국의 이지스함 사례 등에서 찾아볼 수 있다.<ref name="자율"></ref>
 +
 
 +
===인간과 인공지능===
 +
많은 전문가는 에미의 경우처럼 자율적인 인공지능의 활동이 인간과 갈등을 빚는 공간이나 영역이 점차 늘어날 가능성이 있다고 본다. 또 인공지능의 활동이 영향을 주는 범위도 개인의 차원에서 때로는 사회적, 국가적 차원에 이를 수 있고, 영향력의 수준 또한 사소한 불만족에서부터 재산 손실, 인명 피해 등 심각한 경우에 이를 수 있을 것으로 보고 있다. 왜냐하면 인간과 인공지능이 상황 판단(Origin)이나 결심(Decision), 또는 행동(Act) 과정에서 각각 상이한 결정을 내릴 수 있기 때문이다. 인공지능이 사용자의 지시나 기대와 다른 결정을 내리는 상황에 직면하는 인간은 대부분 고민에 빠질 것이다. 즉, 인간과 인공지능 간에 갈등이 빚어지는 것이다. 이러한 갈등은 다양한 상황에서 발생할 수 있다.<ref name="자율"></ref>
 +
 
 +
* '''의료 인공지능''' : 의사는 환자에 대한 진단, 처방, 시술 등 각 진료 단계에서 종종 자신의 경험, 생각과 인공지능의 판단이 배치되는 상황에 직면할 수 있다. 만약 환자에게도 선택에 개입할 기회가 주어진다면, 환자 역시 자신의 생명을 누구의 진단 결과에 맡겨야 하는지에 대해 심각한 고민에 빠질 수 있다.<ref name="자율"></ref>
  
==자율성의 중요성==
+
* '''자율주행 자동차'''
자율성이 없으면 자율성 부족을 특징으로 하는 성격 장애를 겪게 된다.  
+
: [[자율주행 자동차]]의 선택 경로 또는 자율주행 자동차의 운행 패턴이 사용자의 취향과 맞지 않을 수도 있다. 중고 자율주행 자동차의 전 소유주가 난폭 운전자인 줄 모르고 구매한 새로운 [[소유주]]는 장시간에 걸쳐 [[인공지능]]을 새로 [[학습]]시켜야 하는 고역을 치를 수도 있다. 또한, 자동차 개발자도 고민에 빠질 수 있다. 만일 탑승자와 다수의 보행자 중 하나만 선택할 수 있는 상황에 부닥쳤을 때 인공지능이 보행자 보호를 우선시하게 하면 소비자가 구매하지 않을 것이고, 무조건 탑승자를 보호하도록 만들면 도덕적 논란의 대상이 될 수 있기 때문이다.<ref name="자율"></ref>
  
===의존성 성격장애(dependent personality disorder)===
+
* '''살상용 로봇'''
의존성 성격장애는 자율성의 부족을 타인에게 의지해서 해결하려고 한다. 스스로 선택하거나 결정을 내리지 못하고 자기 주장을 하지못한다. 홀로 남게 되는 것을 두려워하며 타인의 도움과 지지에 의존하고 보호받고 싶어 한다. 스스로를 통제할 있다는 자신감이 없기 때문에 타인의 통제를 원하고 따른다. 이들은 의지할 대상을 찾아내고 그의 마음에 들기 위해 자신이 원하지 않는 일도 적극적으로 복종하면서 의존 관계를 유지하는데 이것은 스스로의 삶을 책임질 자신이 없기 때문이다. 유능한 타인이 자신 대신 선택해주고 보호해주기를 원하며 그와의 관계를 유지하기 위해 비굴한 자세를 취하게 되며 타인에게 이용당하기 쉽다.
+
: 인간은 종종 살상용 로봇이 민간인을 공격 대상으로 오인하거나 임무 수행을 위해 민간인 피해를 무시하고 있는 것은 아닌지 의심해 볼 수 있다. 군사적 행동은 사회적으로도 파장이 크고 돌이킬 수 없는 문제이다. 전쟁터에서 자국의 인명 손실을 줄이려는 각국 정부의 노력이 역으로 자율성을 갖춘 살상용 로봇의 개발과 보급을 가속할 수 있어서 사용자가 고민하는 경우도 늘어날 있다.<ref name="자율"></ref>
  
===회피성 성격장애(avoidant personality disorder)===
+
;인공지능 가전기기
회피성 성격장애는 의존성 성격장애와 반대로 타인을 피한다. 사람을 싫어해서가 아니라 좋아하지만 상처가 두려워 피하는 것이다. 열등감이 강하고 자신감이 없어서 타인의 거절이나 비판을 두려워하고, 쉽게 당황하고 부끄러움을 많이 탄다. 그래서 낯선 사람을 꺼려하며 안전한 사람하고만 상호작용하려 한다. 이들은 타인과의 관계가 완만하게 보이지만 남들에게 받는 비난을 피하기 위해 일정 선을 넘기려 하지 않기 때문에 관계가 깊지 않다면 남들에게 피해를 줄 가능성은 낮다. 그러나 자신이 정한 선을 남에게도 바라는 경향이 있기에 늦건 빠르건 주위에 폐를 끼칠 수 밖에없다. 문화나 민족을 막론하고 실제로는 자신이 어떤 일을 시켜 놓고 명료치 않게, 혹은 어설프게 전달하여 사고가 발생할 시, '남탓'하지 말라며 책임을 떠 넘기거나 '눈치'탓하는 경우가 많다는 것이 대표적인 예시이다. 그리고 다시 비슷한 일이 자신의 눈앞에 놓여있을 때, 전에 자신이 한 행동이 게속 떠올라서 자신감이 사라지고 불안해져서 그 일을 시도하기 힘들어한다. 타인의 영향에서 벗어나지 못한다는 점에서 방식만 다를 뿐 의존성 성격장애와 마찬가지로 자율성 부족이 특징이다.<ref name="자율"></ref><ref>의존성 성격장애 나무위키 - https://namu.wiki/w/%EC%9D%98%EC%A1%B4%EC%84%B1%20%EC%84%B1%EA%B2%A9%EC%9E%A5%EC%95%A0</ref><ref>회피성 성격장애 나무위키 - https://namu.wiki/w/%ED%9A%8C%ED%94%BC%EC%84%B1%20%EC%84%B1%EA%B2%A9%EC%9E%A5%EC%95%A0</ref>
+
로봇화된 의자가 내장된 인공지능의 결정에 따라 볕이 잘 드는 위치로 옮겼는데, 정작 사용자는 그 지점이 너무 밝아서 싫어할 수도 있다. 냉장고의 인공지능이 사용자에게 비만이니 그만 먹어야 한다고 계속 잔소리를 늘어놓거나 심하면 냉장고 문을 열어주지 않을 수도 있다. 유머 감각을 뽐내던 우주탐사 로봇 타스(TARS)가 수리받는 도중에도 주인공의 기분에 아랑곳하지 않고 계속 썰렁한 농담을 내뱉던 영화 인터스텔라의 한 장면처럼 가정용 감성 서비스 로봇의 유머가 사용자의 취향과 맞지 않을 수도 있다. 해결 방안은 영화에서처럼 타스의 유머 수준을 낮춰서 농담을 못 하게 만들듯이 자율성의 수준을 조절하는 데에서 찾을 수도 있다. 하지만 때때로 개발자의 의도가 사용자의 성향에 맞지 않아서 인공지능에 대한 불만족이 지속할 수도 있다.<ref name="자율"></ref>
  
==자율성의 종류==
+
===인공지능과 인공지능===
 +
인간과 인공지능 간의 갈등뿐만 아니라 인공지능끼리의 경쟁이나 충돌도 중요한 문제가 될 것으로 보는 전문가들도 많다. 이들은 인공지능 간의 갈등이 우발적인 결과를 낳을 수 있다는 것은 막연한 추측이 아니라 곧 현실화할 문제라고 주장한다. 단지 인공지능의 개발 자체가 여전히 큰 관심사인 데다, 금융, 방산 등 전문적인 분야 외에는 인공지능을 사용한 경험이 부족한 탓에 충분히 다루어지지 못했을 뿐이라는 것이다.
  
===기능적 자율성===
+
인공지능 간의 경쟁에서 비롯될 부작용을 주장하는 연구자들은 인공지능이 사용상의 부작용에 대해서는 전혀 고려되지 않은 채, 각각 독립적으로 오로지 목표 성취만을 위해 만들어지는 현실을 우려한다. 독립적으로 개발된 인공지능들 각각의 개별적이고 사소한 행동들이 모두 합쳐지면 심각한 현상으로 번질 수 있다는 것이다. [[구글]]의 인공지능 전문가인 피터 노빅(Peter Novig)은 인공지능들 각각의 개별적인 행동이 모여서 대형 사고를 낳을 수 있는 영역으로 미국의 의료 분야를 거론하기도 했다. 매일 발생하는 미국 내 의료사고 사망자 200여 명 중 상당수는 바로 컴퓨터의 오류에 의한 것인데, 이런 컴퓨터의 실수와 의료 과정상의 잘못이 결합하면 두어 달마다 911 테러와 맞먹는 규모의 사망자가 발생할 수도 있다고 경고했다. 인공지능이 통제하는 금융시장을 연구한 학자도 인공지능에 전체적인 통제권을 주는 것이 어떤 결과를 낳을지 예측하기 힘들다는 견해를 보이기도 했다. 위 사례는 이미 2010년 미국 증시 폭락으로 겪은 바가 있다.<ref name="자율"></ref>
울포트(G.W.Allprot)가 인격심리학의 기초 개념으로서 제창한 것이다. 인간 동기의 복잡하고 논란 많은 문제에 접근하면서 소개한 개념을 말한다. 특정한 활동이나 행동방식은 그것이 원래 다른 이유 때문에 끌어들여진 것이라 해도 그 자체가 목적이나 목표가 된다는 것이다. 그래서 단순한 행동이든 복잡한 행동이든 그것이 원래는 유기체적 혹은 부분적 긴장에서 유래되었다 하더라도 생묵할적인 강화 없이도 그 자체는 무한히 유지될 수 있다는 것이다.<ref>기능적 자율성 사회복지용어대백과 사전 - http://welfare24.net/ab-welfare_dic_v-9731</ref> 그는 한 예로서 원래 돈을 벌기 위해 선원이 된 사람이 나중에 은행가가 되어 유복해진 후에도 바다에 대한 그리움을 버리지 못하는 사태를 인용, 성인의 동기에는 본능이나 생리적 욕구로부터 독립된 독자적 목표를 추구하는 경향이 많다고 말한다.<ref>기능적 자율성 두산백과 - https://terms.naver.com/entry.nhn?docId=1070751&ref=y&cid=40942&categoryId=31531</ref>
 
  
===도덕적 자율성===
+
;로봇 윤리
철학자 칸트가 가장 일반적이고 기본적인 도덕적 자율성의 개념을 창시하였다. 스스로 옳다고 생각하는 도덕법칙을 세우고 이에 따를 수 있는 능력 이성을 지닌 인간이라면 양심의 명령을 알고 스스로 따를 수 있는 능력을 지님 반대로 타율이란 타인의 결정이나 자신의 본능적 욕구 및 충동에 따르는 것을 이른다. 타인의 칭찬과 비난, 보상과 벌 등 과 같은 외적 이유에 따르기보다는 스스로 반성하여 옳다고 생각하는 자신의 도덕원칙에 따라 행동하는것<ref>정모 김, 〈[https://prezi.com/b_jsg8r6r0sb/presentation/ 도덕적 자율성]〉, 《Prezi》, 2014-03-31</ref>
+
시스템의 자율성이 커지면 공학자들도 그에 상응해서 안전과 책임 문제를 더 폭넓게 고려해야 한다고 주장해왔다. MIT 감성 컴퓨팅 연구소장을 지낸 로설린 피카드같은 로봇 공학자들도 기계의 자유가 커질수록 도덕적 기준이 필요하다고 한 바 있다. 바꿔 말하면, 기술 발전으로 향상되는 자율성에 비례해서 도덕적 고려 사항을 누가 어떻게 다룰 것인가도 고민해야 한다는 것이다. 이러한 학계의 분위기를 배경으로 2000년대 초반 로봇 윤리(Roboethics) 연구가 시작되었고, 2005~2008년 진행된 EU 차원의 공동 프로젝트 'ETHICBOTS' 등으로 확산하였다. 인공지능의 도입이 가속화될 조짐을 보이는 현재에는 로봇 윤리 연구에 대한 관심도 더욱 커지고 있다. 오늘날 로봇 윤리 측면에서 가장 첨예한 논쟁이 벌어지는 분야 중 하나는 살상용 로봇 개발이 진행되는 군수산업이다. 각국 정부가 인간의 개입이 전혀 없는 완전 자율형 무기 개발에 박차를 가하면서 군사용 로봇도 갈수록 정교해지고 있고, 관련 사안들도 윤리적으로 복잡하기 때문이다.<ref name="자율"></ref>
  
 +
;인공지능은 인격체인가?
 +
엑사비트 코퍼레이션이 소유한 'BINA48' 은 자율성과 공감능력을 지니고 고객 상담 업무를 담당하는 인공지능 컴퓨터다. BINA48은 점검을 위해 전기 공급을 중단하려 하자 몇몇 변호사에게 자신의 생명을 구해달라는 메일을 보냈다. 한 변호사가 이를 받아들여 BINA48을 대리해 전기 공급 중단의 금지를 구하는 가처분신청을 했다. 회사 측은 BINA48이 단지 인간의 의식을 흉내 냈을 뿐 진정한 의식은 없다고 다퉜지만, 배심원은 5대 1로 신청인 승소 의견을 제시했다. 다만 담당 판사는 신청인에게 당사자 능력이 인정되지 않고 법원이 이를 인정할 권한도 없다는 이유로 신청을 배척했다. 위 사건은 2003년에 미국에서 있었던 모의재판 내용이다. BINA48과 같은 고도의 자율성을 갖춘 AI는 존재하지 않으며 앞으로도 출현 여부를 예측하기 어렵다. 하지만 기술의 발전으로 비슷한 예시가 나올 수도 있고 아직 명확한 해답은 없다. 법률가 입장에서 볼 때 모의재판에서 판사가 내린 결론은 온당한 것이다. 그러나 배심원이 BINA48의 손을 들어 주었다는 점은 AI에 법적 주체성이 인정될 것인지의 문제가 간단하지 않으며 마냥 회피할 수만은 없는 문제임을 암시한다.<ref name="인격">이상용 위원, 〈[https://m.etnews.com/20200428000098?obj=Tzo4OiJzdGRDbGFzcyI6Mjp7czo3OiJyZWZlcmVyIjtOO3M6NzoiZm9yd2FyZCI7czoxMzoid2ViIHRvIG1vYmlsZSI7fQ%3D%3D 인공지능은 인격체인가]〉, 《전자신문》, 2020-04-28</ref>
  
====도덕적 자율성을 강조한 이론====
+
;법적 책임
*칸트
+
인공지능에 자율성을 부여할 경우 법적 책임을 어떻게 인정할 것인지, 책임을 인정하기 위해서는 인격을 부여해야 할 것인지, 알고리즘에 대한 신뢰성을 어느 정도 인정 할 것인지, 알고리즘의 중립성을 확보하는 문제가 논의된다. 인간의 통제권에 관해서는 인공지능으로 인한 인간의 존엄성이나 인권 가치의 혼란, 사생활이나 개인정보의 침해 가능성, 갈등 조정의 거버넌스, 정보격차 발생으로 인한 불평등 등의 문제가 제기될 수 있다.
:스스로 정한 보편타당한 규범에 따라 이성적으로 행동하는 것 따라서 본능이나 욕망이 아닌, 이성(양심)의 명령에 스스로 복종하는 것을 일컫는 것이다. 칸트에 따르면 '정언 명령'과 '가언 명령'이 존재한다. 정언 명령이란 어떤 조건이나 상황에 좌우되지 않는 무조건적이고 절대적인 도덕 명령을 말한다. 가언 명령은 이와 반대되는 것으로 어떤 조건이나 상황에 따라 적용되는 명령을 말한다. 공부 해라는 정언 명령, 성공 하고 싶다면 공부해라는 가언 명령이다. 절대적인 도덕 명령은 정언 명령, 조건적인 도덕 명령은 가언 명령이다.
+
구체적으로는 인공지능 의사의 의료과실 사고나 자율주행 자동차의 충돌사고 등에서 법적 책임이 어디에 있는지 가늠할 수 있는 법체계가 필요하다고 할 것이다. 또한, 기존의 AI가 내린 최종결과를 어떻게 도출하게 되었는지 사람이 이해할 수 있도록 설명할 수 있는 AI(Explainable AI)의 개발이 진행 중에 있다.<ref>장민선 연구위원, 〈[https://www.klri.re.kr/cmm/fms/FileDown.do?atchFileId=FILE_000000000012879LIftz&fileSn=0&stat=journal&param_gubun=Z&data_no=59 인공지능 시대의 법적 쟁점에 관한 연구]〉, 《한국법제연구원》, 2018-06-10</ref>
  
*피아제의 도덕 발단 이론
+
==사례==
:피아제는 도덕성이 높을수록 자율적으로 사고하고, 보편적 원리에 따라 행동하려고 한다고 말한다. 즉 피아제는 인간의 도덕성이 타율적 도덕에서 자율적 도덕으로 발달한다고 생각했고, 규범에 대한 무조건적인 복종의 단계에서 규범에 대한 비판적 사고와 자율적 판단이 가능한 단계로 나아간다고 한다.
+
* '''민항기 격추''' : 1988년, 미군이 페르시아만에서 승객 290명을 태운 이란 민항기를 격추해 전원 사망하게 했다. 미군의 이지스 순양함이 민간 여객기를 적 전투기로 오인해서 발생한 사고로 당시 여객기는 지정된 항로를 따라 비행하면서 민간 항공기라는 무선 신호도 보내고 있었다. 당시 승무원들이 보던 레이더 화면에는 전투기가 아닌 민항기라는 사실을 보여주는 신호가 떠 있었지만, 누구도 이지스 시스템의 판단을 의심하지 않았다. 독자적으로 공격 권한까지 부여받은 이지스 시스템이 내린 판정을 인간은 자신의 눈에 보이는 레이더 화면의 신호보다 더 믿었고 그 결과 민간 여객기를 추락시켰다.
  
*콜버그의 도덕 발달 단계
+
* '''패트리엇 미사일 시스템''' : 2003년, 이라크전 당시 미군의 패트리엇 미사일 시스템은 아군 전투기들을 연달아 격추하는 실수를 했다.
:콜버그는 도덕 발달 단계를 6단계로 나눠 단계별로 도덕이 발달한다고 보았다.
 
#단계 벌을 피하기 위해 행위한다. (벌과 복종의 지향)
 
#단계 이익을 얻기 위해 행위한다. (개인적 보상 지향)
 
#단계 인간관계에서의 조화와 일치를 중시한다.(인간관계 조화 지향)
 
#단계 법, 사회 규범, 사회 질서 유지의 관점에서 행위한다.(법과 질서 지향)
 
#단계 공리주의적 관점, 사회 계약에 따라 행위한다.(사회 계약정신 지향)
 
#단계 인간의 존엄성 존중, 정의와 같은 보편적 원리에 따라 행위한다.(보편적 도덕원리 지향)<ref>기웃기웃, 〈[https://blog.naver.com/PostView.nhn?blogId=nhcyell&logNo=130190623038&proxyReferer=https:%2F%2Fwww.google.com%2F 도덕적 자율성]〉, 《네이버 블로그》, 2014-05-06</ref>
 
  
====도덕적 자율성을 갖추려면====
+
* '''로봇 방공포''' : 2007년, 남아공에서는 로봇 방공포가 갑자기 작동해서 수십 명의 사상자를 발생시킨 사고가 있었다. 인명 손실을 줄이고 정확성을 높이고자 도입된 로봇이 오히려 인명 피해를 일으킨 주범이 되어버렸다.
  
*자주적이고 주체적인 의사결정능력을 기른다.
+
* '''매도 거래에 개입''' : 2010년, 미국 증시 폭락 거래 권한을 위임받은 인공지능이 특정한 매도 거래에 개입했다가 부족한 매수 주문을 확인하자마자 손실을 줄이기 위해 경쟁적으로 팔아 치우기 시작한 영향이 순식간에 포트폴리오 전체로 확산하여 증시 규모의 10분의 1인 약 1조 달러가 불과 5분 만에 사라져버렸다.
:만약 스스로 옳고 그름을 판단하지 않고 외부의 의견이나 명령, 관습을 무비판적으로 따른다면, 이는 자율적인 삶의 모습이라고 할 수 없다. 따라서 도덕적 문제 상황에서 스스로 선택하고 행동하도록 노력해야 한다.
 
:도덕적 책임의식을 가져야한다. 우리는 자율적 존재이기 때문에 자신이 선택한 행위에 대해 책임을 질 수 있어야한다. 더 나아가 자신이 속한 공동체에서 일어나는 도덕적 문제에 관심을 가지고 적극 참여하여 문제를 해결하려고 노력해야 한다.
 
*보편적 가치를 자신의 행위 원칙으로 삼아야 한다.
 
:자신에게 돌아올 이익과 불이익을 기준으로 옳고 그름을 평가하는 것이 아니라 인권, 정의, 평화 등과 같이 보편적으로 바람직한 가치를 기준으로 옳고 그름을 평가하고 그에 따라 행위해야한다.
 
*용기 있는 자세를 지녀야 한다.
 
:올바르지 못한 관습이나 다른 사람의 잘못된 의견에 당당히 맞서거나, 자신의 잘못을 솔직히 인정하고 책임을 지는 것은 쉽지않다. 하지만 그럴 때 용기 있게 결단하고 행동해야한다.
 
*반복적으로 실천하여 도덕적인 습관을 길러야 한다.
 
*이성적이고 합리적으로 사고하는 능력을 키워야 한다.
 
*다른 사람의 처지를 생각하는 자세를 가져야 한다.
 
*도덕 실천의지를 가져야 한다.<ref>신화창조 도덕교실, 〈[https://prezi.com/6n3opowafbkh/presentation/ 도덕적 자율성]〉, 《Prezi》, 2015-04-06</ref>
 
  
===직무 자율성===
+
* '''자율주행 자동차 사고''' : 2016년 미국과 일본에서 낮은 수준의 [[자율주행 자동차]]들이 여러 건의 [[교통사고]]를 일으키고 이 가운데 테슬라 [[모델S]]의 [[운전자]]는 [[사망]]하기도 했다. 이를 계기로 자율주행 자동차의 사고의 [[책임]]을 [[운전자]]와 [[제조사]] 누가 져야 하는지에 관한 관심이 학계 주제에서 현실의 이슈로 발전했다. 그리고 자율주행 자동차가 [[운전자]]와 [[보행자]] 중 누구를 더 [[보호]]하도록 [[개발]]해야 하느냐는 윤리적 문제에 대한 관심도 보다 커졌다.
주어진 업무를 얼마나 독립적이고 자유롭게 할 수있는지, 직무를 수행하는 절차나 일정에 대한 재량권을 얼마나 가지고 있는지를 가리키는 개념. 성과를 증신시키고 내재적 동기를 유발하는 핵심 직무 조건 하나. 직무자율성이 높을수록 직무 성과와 업무 만족도는 향상, 스트레스는 감소한다.
 
  
==자율성의 문제점==
+
* '''보안 서비스 로봇''' : 2016년 미국 캘리포니아주의 한 쇼핑센터에서 최신형 보안 서비스 로봇이 16개월 된 유아를 공격해서 다치게 한 사고가 발생했다. 사고 발생 후에는 이와 유사한 사례들이 그전에도 있었다는 사실이 드러났다.<ref name="자율"></ref>
사회 내에서 자율성이라는 개념은 올바르게 적용되기가 상당히 까다롭다.
 
사회적으로, 자율성은 그 구성원이 모두 인정하는 규범을 만들고 지켜나가는 것이다.
 
그러나 실제로 자율성을 위한 규범을 만들 때 모두가 참여하지 못한다. 자율성을 실현할 능력이 없는 상태에서 자율성을 갖게 되면 역효과가 일어난다.
 
자율성의 성질상 개인 또는 구성원이 스스로 규범을 만들어야하는대 올바른 규범을 세우는 데 실패할 경우 큰 부작용이 생긴다.  
 
  
 
{{각주}}
 
{{각주}}
  
 
==참고자료==
 
==참고자료==
* 박수애 연구원, 〈[https://dbr.donga.com/article/view/1201/article_no/7457 성과와 만족도는 자율성과 비례한다.]〉, 《DBR》, 2016-02-02
+
* 진석용 책임연구원, 〈[http://www.lgeri.com/report/view.do?idx=19458 인공지능의 자율성, SF의 주제가 현실의 문제로 다가오고 있다]〉, 《LG경제연구원》, 2016-08-10
* 자율성 지식백과 - https://terms.naver.com/entry.nhn?docId=1530772&cid=60657&categoryId=60657
+
* 이상용 위원, 〈[https://m.etnews.com/20200428000098?obj=Tzo4OiJzdGRDbGFzcyI6Mjp7czo3OiJyZWZlcmVyIjtOO3M6NzoiZm9yd2FyZCI7czoxMzoid2ViIHRvIG1vYmlsZSI7fQ%3D%3D 인공지능은 인격체인가]〉, 《전자신문》, 2020-04-28
* 위캔스토리, 〈[https://post.naver.com/viewer/postView.nhn?volumeNo=18278642&memberNo=22869745 자율성의 개념과 중요성]〉, 《네이버블로그》, 2019-03-14
+
* 장민선 연구위원, 〈[https://www.klri.re.kr/cmm/fms/FileDown.do?atchFileId=FILE_000000000012879LIftz&fileSn=0&stat=journal&param_gubun=Z&data_no=59 인공지능 시대의 법적 쟁점에 관한 연구]〉, 《한국법제연구원》, 2018-06-10
* 기능적 자율성 사회복지용어대백과 사전 -  http://welfare24.net/ab-welfare_dic_v-973
+
* 김순강 기자, 〈[https://www.sciencetimes.co.kr/news/%EC%9D%B8%EA%B0%84%EC%9D%98-%ED%8E%B8%EA%B2%AC%EC%9D%B4-%EB%B6%88%EA%B3%B5%EC%A0%95%ED%95%9C-ai-%EB%A7%8C%EB%93%A0%EB%8B%A4/ 인간의 편견이 불공정한 AI만든다.]〉, 《사이언스타임즈》, 2019-06-25
* 기능적 자율성 두산백과 -  https://terms.naver.com/entry.nhn?docId=1070751&ref=y&cid=40942&categoryId=31531
 
* 정모 김, 〈[https://prezi.com/b_jsg8r6r0sb/presentation/ 도덕적 자율성]〉, 《Prezi》, 2014-03-31
 
* 기웃기웃, 〈[https://blog.naver.com/PostView.nhn?blogId=nhcyell&logNo=130190623038&proxyReferer=https:%2F%2Fwww.google.com%2F 도덕적 자율성]〉, 《네이버블로그》, 2014-05-06
 
* 신화창조 도덕교실, 〈[https://prezi.com/6n3opowafbkh/presentation/ 도덕적 자율성]〉, 《Prezi》, 2015-04-06
 
  
 
==같이 보기==
 
==같이 보기==
 
+
[[인공지능]]
  
 
{{인공지능 기술|검토 필요}}
 
{{인공지능 기술|검토 필요}}

2022년 6월 5일 (일) 03:22 기준 최신판

자율성(自律性)(Autonomy)이란 주변 환경을 관측(Observe)하고, 판단(Orient)해서, 결심(Decide)한 후 행동(Act)하는 의사 결정 과정인 OODA 루프(Loop)상의 단계별로 스스로 결정할 수 있는 능력을 의미한다. 인공지능, 로봇이 의사 결정을 하는 단계가 많을수록 자율성의 수준도 높다고 할 수 있다. 높아진 자율성만큼 인간 사용자의 기대와 통제를 벗어난 행동을 할 확률이 높아지며 그것이 사고로 연결될 가능성도 커지게 되는 셈이다.

개요[편집]

일반적인 의미에서 자율성이란 타인의 의지가 아닌 자신의 행동에 자유의지를 갖고 행동하고 자기 자신의 원칙에 따라 어떤 일을 하거나 스스로 자신을 통제하여 절제하는 성질이나 특성이다. 가나시아 교수는 "진정한 인공지능은 정보를 수집하여 인식하고, 기억하며 학습하고, 추론하며 사고하는 단계를 거쳐 의사결정을 하고, 그것을 실행에 옮길 수 있어야 한다. 하지만 지금의 인공지능은 무엇인가를 실행하게 되는 의도나 스스로 행동하는 자율성이 없기 때문에 진정한 주체라고 할 수 없다" 고 주장했다. 현주소의 인공지능은 입력받은 프로그램을 수행할 뿐이기에 아직까진 인간처럼 사고하고 행동하는 자율성을 기대하기엔 큰 무리가 있다. 인공지능 로봇이 행동을 하는 것은 명령자의 의도가 전달되어서 그것을 수행하는 수준일 뿐이지, 스스로 무언가를 해야 한다는 목적성을 갖고 그것을 자율적으로 수행하지는 못한다는 얘기다. 인공지능이 탑재된 완전한 자율 자동차가 상용화되더라도 사용자가 목적지를 입력하지 않는 한, 그 자동차는 움직일 수 없다. 스스로 명령을 내릴 수 없고, 스스로 실행을 결정할 목적이나 의도를 가질 수 없기 때문이다. 인공지능 로봇이 행동을 하는 것은 명령자의 의도가 전달되어서 그것을 수행하는 수준일 뿐이지, 스스로 무언가를 해야 한다는 목적성을 갖고 그것을 자율적으로 수행하지는 못한다는 얘기다. 이것은 자율과 자동의 차이점과 같은 것이다.[1]

특징[편집]

자율성이 높을수록 수준 높은 인공지능이라고 할수 있다. 하지만 사용자의 기대와 통제를 벗어난 행동을 할 확률이 높아지며 사고가 발생할 확률도 늘어난다. 지금의 인공지능은 무엇인가를 실행하게 되는 의도나 스스로 행동하는 자율성은 없고 높은 자율성을 가진 강인공지능의 가까운 인공지능은 아직 발명되지 않았으며 앞으로도 언제 발명이될지는 미지수이다. 이 자율성이 높은 인공지능이 개발된다면 대부분의 일자리는 인공지능 로봇으로 대체될 것이다.[1]

인공지능 에미[편집]

1990년대 미국에서 인공지능인 에미(Emmy)가 인간의 도움 없이 작곡한 클래식 음악이 진정한 창작품인지 여부를 두고 논란이 커진 적이 있다. 인공지능의 작품이 인간이 만든 것과 다를 바 없다고 옹호하는 의견도 있었지만, 음악, 미술 등 예술적 창작 분야를 오직 인간의 몫으로만 여기는 다수의 사람은 에미의 작품을 창조성이 결여된 획일적인 것, DB화되어 있는 과거의 성공작들을 의도적으로 조각조각 분해한 후 재조립한 것에 불과한 것이라고 힐난했다. 인공지능 작곡가에 대한 논란은 개발자 데이비드 코프가 알고리즘의 DB를 삭제해서 에미를 복구 불가능하도록 파괴함으로써 종식되었다.[2]

자율성의 정도[편집]

인공지능이 예상치 못한 문제를 일으킬 수 있다고 해서 자율성을 완전히 제거할 수는 없다. 자율성은 인공지능, 로봇의 도입 목적인 인간의 대체 효과, 즉, 인력 투입 및 관련 비용 절감을 위해 필수적인 요소이기 때문이다. 이런 점을 고려하면 결국 문제의 핵심은 인공지능이 어느 정도의 자율성을 가지게 할 것인가, 바꿔 말하면 인간이 인공지능에 자율적 의사결정권을 얼마나 부여해야 하는 것 인가이다. 자율성의 수준이 인공지능의 도입 효과를 결정하기도 한다. 인공지능에 자율성은 인간이 가진 권한과 책임의 공유, 위임을 의미하므로 인간의 통제, 개입 수준과 반비례하게 된다. 그래서 인간을 대체하는 효과가 그만큼 커진다는 것이다. 자율성의 수준에 따라 인공지능의 판단에 대한 책임 소재가 달라지기 때문이다. 자율성의 수준은 사용자의 편의성과 안전성에 직결된다. 지나치게 똑똑해서 매사 간섭하려 들거나, 잔소리하는 인공지능은 사용자에게 불편한 존재가 될 가능성이 크다. 자율성의 수준은 기계에 대한 인간의 핵심적인 역할을 바꾸는 변수로 작용할 것이기 때문이다. 자율성을 갖춘 기계 앞에 선 인간의 역할이 OODA 루프 상의 최종 과정인 행동 단계에만 거부권을 행사하는 수준이거나, 인공지능이 고장 났을 때 해결 능력을 제공하는 감독자 정도에 그칠 가능성도 엿보이기 때문이다. 그리고 인간이 인공지능의 판단을 곧이곧대로 신뢰하는 경향이 있다는 점에서도 자율성의 수준은 중요한 문제이다. 인간이 인공지능이나 로봇을 맹신할 수 있다는 우려는 로봇의 지시를 접한 인간의 반응을 조사한 실험과 미국의 이지스함 사례 등에서 찾아볼 수 있다.[2]

인간과 인공지능[편집]

많은 전문가는 에미의 경우처럼 자율적인 인공지능의 활동이 인간과 갈등을 빚는 공간이나 영역이 점차 늘어날 가능성이 있다고 본다. 또 인공지능의 활동이 영향을 주는 범위도 개인의 차원에서 때로는 사회적, 국가적 차원에 이를 수 있고, 영향력의 수준 또한 사소한 불만족에서부터 재산 손실, 인명 피해 등 심각한 경우에 이를 수 있을 것으로 보고 있다. 왜냐하면 인간과 인공지능이 상황 판단(Origin)이나 결심(Decision), 또는 행동(Act) 과정에서 각각 상이한 결정을 내릴 수 있기 때문이다. 인공지능이 사용자의 지시나 기대와 다른 결정을 내리는 상황에 직면하는 인간은 대부분 고민에 빠질 것이다. 즉, 인간과 인공지능 간에 갈등이 빚어지는 것이다. 이러한 갈등은 다양한 상황에서 발생할 수 있다.[2]

  • 의료 인공지능 : 의사는 환자에 대한 진단, 처방, 시술 등 각 진료 단계에서 종종 자신의 경험, 생각과 인공지능의 판단이 배치되는 상황에 직면할 수 있다. 만약 환자에게도 선택에 개입할 기회가 주어진다면, 환자 역시 자신의 생명을 누구의 진단 결과에 맡겨야 하는지에 대해 심각한 고민에 빠질 수 있다.[2]
  • 자율주행 자동차
자율주행 자동차의 선택 경로 또는 자율주행 자동차의 운행 패턴이 사용자의 취향과 맞지 않을 수도 있다. 중고 자율주행 자동차의 전 소유주가 난폭 운전자인 줄 모르고 구매한 새로운 소유주는 장시간에 걸쳐 인공지능을 새로 학습시켜야 하는 고역을 치를 수도 있다. 또한, 자동차 개발자도 고민에 빠질 수 있다. 만일 탑승자와 다수의 보행자 중 하나만 선택할 수 있는 상황에 부닥쳤을 때 인공지능이 보행자 보호를 우선시하게 하면 소비자가 구매하지 않을 것이고, 무조건 탑승자를 보호하도록 만들면 도덕적 논란의 대상이 될 수 있기 때문이다.[2]
  • 살상용 로봇
인간은 종종 살상용 로봇이 민간인을 공격 대상으로 오인하거나 임무 수행을 위해 민간인 피해를 무시하고 있는 것은 아닌지 의심해 볼 수 있다. 군사적 행동은 사회적으로도 파장이 크고 돌이킬 수 없는 문제이다. 전쟁터에서 자국의 인명 손실을 줄이려는 각국 정부의 노력이 역으로 자율성을 갖춘 살상용 로봇의 개발과 보급을 가속할 수 있어서 사용자가 고민하는 경우도 늘어날 수 있다.[2]
인공지능 가전기기

로봇화된 의자가 내장된 인공지능의 결정에 따라 볕이 잘 드는 위치로 옮겼는데, 정작 사용자는 그 지점이 너무 밝아서 싫어할 수도 있다. 냉장고의 인공지능이 사용자에게 비만이니 그만 먹어야 한다고 계속 잔소리를 늘어놓거나 심하면 냉장고 문을 열어주지 않을 수도 있다. 유머 감각을 뽐내던 우주탐사 로봇 타스(TARS)가 수리받는 도중에도 주인공의 기분에 아랑곳하지 않고 계속 썰렁한 농담을 내뱉던 영화 인터스텔라의 한 장면처럼 가정용 감성 서비스 로봇의 유머가 사용자의 취향과 맞지 않을 수도 있다. 해결 방안은 영화에서처럼 타스의 유머 수준을 낮춰서 농담을 못 하게 만들듯이 자율성의 수준을 조절하는 데에서 찾을 수도 있다. 하지만 때때로 개발자의 의도가 사용자의 성향에 맞지 않아서 인공지능에 대한 불만족이 지속할 수도 있다.[2]

인공지능과 인공지능[편집]

인간과 인공지능 간의 갈등뿐만 아니라 인공지능끼리의 경쟁이나 충돌도 중요한 문제가 될 것으로 보는 전문가들도 많다. 이들은 인공지능 간의 갈등이 우발적인 결과를 낳을 수 있다는 것은 막연한 추측이 아니라 곧 현실화할 문제라고 주장한다. 단지 인공지능의 개발 자체가 여전히 큰 관심사인 데다, 금융, 방산 등 전문적인 분야 외에는 인공지능을 사용한 경험이 부족한 탓에 충분히 다루어지지 못했을 뿐이라는 것이다.

인공지능 간의 경쟁에서 비롯될 부작용을 주장하는 연구자들은 인공지능이 사용상의 부작용에 대해서는 전혀 고려되지 않은 채, 각각 독립적으로 오로지 목표 성취만을 위해 만들어지는 현실을 우려한다. 독립적으로 개발된 인공지능들 각각의 개별적이고 사소한 행동들이 모두 합쳐지면 심각한 현상으로 번질 수 있다는 것이다. 구글의 인공지능 전문가인 피터 노빅(Peter Novig)은 인공지능들 각각의 개별적인 행동이 모여서 대형 사고를 낳을 수 있는 영역으로 미국의 의료 분야를 거론하기도 했다. 매일 발생하는 미국 내 의료사고 사망자 200여 명 중 상당수는 바로 컴퓨터의 오류에 의한 것인데, 이런 컴퓨터의 실수와 의료 과정상의 잘못이 결합하면 두어 달마다 911 테러와 맞먹는 규모의 사망자가 발생할 수도 있다고 경고했다. 인공지능이 통제하는 금융시장을 연구한 학자도 인공지능에 전체적인 통제권을 주는 것이 어떤 결과를 낳을지 예측하기 힘들다는 견해를 보이기도 했다. 위 사례는 이미 2010년 미국 증시 폭락으로 겪은 바가 있다.[2]

로봇 윤리

시스템의 자율성이 커지면 공학자들도 그에 상응해서 안전과 책임 문제를 더 폭넓게 고려해야 한다고 주장해왔다. MIT 감성 컴퓨팅 연구소장을 지낸 로설린 피카드같은 로봇 공학자들도 기계의 자유가 커질수록 도덕적 기준이 필요하다고 한 바 있다. 바꿔 말하면, 기술 발전으로 향상되는 자율성에 비례해서 도덕적 고려 사항을 누가 어떻게 다룰 것인가도 고민해야 한다는 것이다. 이러한 학계의 분위기를 배경으로 2000년대 초반 로봇 윤리(Roboethics) 연구가 시작되었고, 2005~2008년 진행된 EU 차원의 공동 프로젝트 'ETHICBOTS' 등으로 확산하였다. 인공지능의 도입이 가속화될 조짐을 보이는 현재에는 로봇 윤리 연구에 대한 관심도 더욱 커지고 있다. 오늘날 로봇 윤리 측면에서 가장 첨예한 논쟁이 벌어지는 분야 중 하나는 살상용 로봇 개발이 진행되는 군수산업이다. 각국 정부가 인간의 개입이 전혀 없는 완전 자율형 무기 개발에 박차를 가하면서 군사용 로봇도 갈수록 정교해지고 있고, 관련 사안들도 윤리적으로 복잡하기 때문이다.[2]

인공지능은 인격체인가?

엑사비트 코퍼레이션이 소유한 'BINA48' 은 자율성과 공감능력을 지니고 고객 상담 업무를 담당하는 인공지능 컴퓨터다. BINA48은 점검을 위해 전기 공급을 중단하려 하자 몇몇 변호사에게 자신의 생명을 구해달라는 메일을 보냈다. 한 변호사가 이를 받아들여 BINA48을 대리해 전기 공급 중단의 금지를 구하는 가처분신청을 했다. 회사 측은 BINA48이 단지 인간의 의식을 흉내 냈을 뿐 진정한 의식은 없다고 다퉜지만, 배심원은 5대 1로 신청인 승소 의견을 제시했다. 다만 담당 판사는 신청인에게 당사자 능력이 인정되지 않고 법원이 이를 인정할 권한도 없다는 이유로 신청을 배척했다. 위 사건은 2003년에 미국에서 있었던 모의재판 내용이다. BINA48과 같은 고도의 자율성을 갖춘 AI는 존재하지 않으며 앞으로도 출현 여부를 예측하기 어렵다. 하지만 기술의 발전으로 비슷한 예시가 나올 수도 있고 아직 명확한 해답은 없다. 법률가 입장에서 볼 때 모의재판에서 판사가 내린 결론은 온당한 것이다. 그러나 배심원이 BINA48의 손을 들어 주었다는 점은 AI에 법적 주체성이 인정될 것인지의 문제가 간단하지 않으며 마냥 회피할 수만은 없는 문제임을 암시한다.[3]

법적 책임

인공지능에 자율성을 부여할 경우 법적 책임을 어떻게 인정할 것인지, 책임을 인정하기 위해서는 인격을 부여해야 할 것인지, 알고리즘에 대한 신뢰성을 어느 정도 인정 할 것인지, 알고리즘의 중립성을 확보하는 문제가 논의된다. 인간의 통제권에 관해서는 인공지능으로 인한 인간의 존엄성이나 인권 가치의 혼란, 사생활이나 개인정보의 침해 가능성, 갈등 조정의 거버넌스, 정보격차 발생으로 인한 불평등 등의 문제가 제기될 수 있다. 구체적으로는 인공지능 의사의 의료과실 사고나 자율주행 자동차의 충돌사고 등에서 법적 책임이 어디에 있는지 가늠할 수 있는 법체계가 필요하다고 할 것이다. 또한, 기존의 AI가 내린 최종결과를 어떻게 도출하게 되었는지 사람이 이해할 수 있도록 설명할 수 있는 AI(Explainable AI)의 개발이 진행 중에 있다.[4]

사례[편집]

  • 민항기 격추 : 1988년, 미군이 페르시아만에서 승객 290명을 태운 이란 민항기를 격추해 전원 사망하게 했다. 미군의 이지스 순양함이 민간 여객기를 적 전투기로 오인해서 발생한 사고로 당시 여객기는 지정된 항로를 따라 비행하면서 민간 항공기라는 무선 신호도 보내고 있었다. 당시 승무원들이 보던 레이더 화면에는 전투기가 아닌 민항기라는 사실을 보여주는 신호가 떠 있었지만, 누구도 이지스 시스템의 판단을 의심하지 않았다. 독자적으로 공격 권한까지 부여받은 이지스 시스템이 내린 판정을 인간은 자신의 눈에 보이는 레이더 화면의 신호보다 더 믿었고 그 결과 민간 여객기를 추락시켰다.
  • 패트리엇 미사일 시스템 : 2003년, 이라크전 당시 미군의 패트리엇 미사일 시스템은 아군 전투기들을 연달아 격추하는 실수를 했다.
  • 로봇 방공포 : 2007년, 남아공에서는 로봇 방공포가 갑자기 작동해서 수십 명의 사상자를 발생시킨 사고가 있었다. 인명 손실을 줄이고 정확성을 높이고자 도입된 로봇이 오히려 인명 피해를 일으킨 주범이 되어버렸다.
  • 매도 거래에 개입 : 2010년, 미국 증시 폭락 거래 권한을 위임받은 인공지능이 특정한 매도 거래에 개입했다가 부족한 매수 주문을 확인하자마자 손실을 줄이기 위해 경쟁적으로 팔아 치우기 시작한 영향이 순식간에 포트폴리오 전체로 확산하여 증시 규모의 10분의 1인 약 1조 달러가 불과 5분 만에 사라져버렸다.
  • 자율주행 자동차 사고 : 2016년 미국과 일본에서 낮은 수준의 자율주행 자동차들이 여러 건의 교통사고를 일으키고 이 가운데 테슬라 모델S운전자사망하기도 했다. 이를 계기로 자율주행 자동차의 사고의 책임운전자제조사 중 누가 져야 하는지에 관한 관심이 학계 주제에서 현실의 이슈로 발전했다. 그리고 자율주행 자동차가 운전자보행자 중 누구를 더 보호하도록 개발해야 하느냐는 윤리적 문제에 대한 관심도 보다 커졌다.
  • 보안 서비스 로봇 : 2016년 미국 캘리포니아주의 한 쇼핑센터에서 최신형 보안 서비스 로봇이 16개월 된 유아를 공격해서 다치게 한 사고가 발생했다. 사고 발생 후에는 이와 유사한 사례들이 그전에도 있었다는 사실이 드러났다.[2]

각주[편집]

  1. 1.0 1.1 김순강 기자, 〈인간의 편견이 불공정한 AI만든다.〉, 《사이언스타임즈》, 2019-06-25
  2. 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 진석용 책임연구원, 〈인공지능의 자율성, SF의 주제가 현실의 문제로 다가오고 있다.〉, 《LG경제연구원》, 2016-08-10
  3. 이상용 위원, 〈인공지능은 인격체인가〉, 《전자신문》, 2020-04-28
  4. 장민선 연구위원, 〈인공지능 시대의 법적 쟁점에 관한 연구〉, 《한국법제연구원》, 2018-06-10

참고자료[편집]

같이 보기[편집]

인공지능


  검수요청.png검수요청.png 이 자율성 문서는 인공지능 기술에 관한 글로서 검토가 필요합니다. 위키 문서는 누구든지 자유롭게 편집할 수 있습니다. [편집]을 눌러 문서 내용을 검토·수정해 주세요.