검수요청.png검수요청.png

전자적 인간

위키원
이동: 둘러보기, 검색

전자적 인간(Electronic personhood)이란 사람의 형상을 한 인공지능 로봇의 법적 지위를 뜻한다. 로봇이 사람을 다치게 하거나 개인 자산에 손해를 입힌 경우, 그 책임을 법적 지위를 가진 로봇에 물을 수 있다는 내용이 포함되어 있다.

개요[편집]

2017년 1월 12일, 유럽연합(European Union) 의회가 사람의 형상을 한 인공지능 로봇의 법적 지위를 전자 인간으로 지정하는 결의안이 통과시켰다. 영화 속 인간형 로봇이 이제는 현실에도 보이는 것이다. 자율주행 자동차처럼 자율적 판단 기능을 수행하는 인공지능과 로봇이 등장하고, 일상 속에서 차지하는 비중이 커짐에 따라, 이로 인한 피해 발생 시 책임 범위를 명확하게 하려고 로봇에게 별도의 법적 지위가 필요하다는 논리이다.[1]

유럽연합 법사위 부위원장 마디 델보(Mady Delvaux)는 '유럽연합은 인공지능 로봇을 전자 인간으로 규정해 로봇은 인간에 도움을 주는 존재일 뿐'임을 명확히 하는 법적 근거를 만들었다는 말과 함께 인공지능 로봇의 사회적 악용 가능성과 해킹에 대한 사회적 불안감을 해소하고 로봇이 인간에 무조건 복종하면서 위협을 가하지 않도록 하는 항목도 있다고 말했다.[2] 또한, '폴리티코'와의 인터뷰에서 '로봇에게 인격권을 부여하는 것이 좋은 방안인지 확실치 않지만, 자율적 기계로 인해 벌어지는 복잡한 문제들을 처리하기에 현재의 법률 체계는 충분하지 않아, 모든 문제를 올려놓고 논의해야 한다고 생각한다'고 말했다. [1]

등장 배경[편집]

인공지능의 권리와 의무

많은 만화, 영화 속에 등장하는 로봇은 인간 이상으로 똑똑하고, 인간과 비교도 되지 않는 신체 능력도 가졌다. 이런 로봇이 인간에게 반항하는 암흑사회 디스토피아를 그린 작품이 여럿 존재한다. 반대로 일부 작품에선 로봇을 인간의 친구로 묘사한다. 1950년대 연재됐던 일본만화 아톰에도 비슷한 설정이 나온다. 이 만화에서 로봇은 인간과 완전히 같은 인격을 가진 존재로 묘사된다. 로봇을 인간의 노예 같은 계급으로 본 나노리스트와 비교하면 로봇의 권리를 한층 더 높게 인정하고 있던 셈이다. 이런 로봇의 권리를 실제로 명확하게, 공식적으로 인정한 사례가 영화나 만화를 넘어서 드디어 현실사회에서도 등장했다. 급성장하고 있는 인공지능과 로봇기술을 감안할 때, 인공지능을 가진 로봇을 전자 인간이란 계급으로 인정하고, 그에 따른 권한과 의무, 책임을 부여하겠다는 것이다. 인공지능을 갖춘 로봇을 통제하려는 움직임은 거의 1세기 전부터 전 세계적으로 계속해서 제기되어 왔다. SF 작가 아이작 아시모프는 1942년에 발표한 소설 런어라운드(Runaround)에서 유명한 로봇 3원칙을 제시했다. 로봇은 인간을 헤쳐선 안 되며, 인간의 명령을 들어야 하고, 스스로를 보호해야 한다는 원칙이다. 유럽연합 의회도 이 원칙을 그대로 차용했다.[3]

인공지능의 발전

인공지능과 기계공학 기술이 계속 발전한다면, 인간 이상의 지능과 신체 능력을 가진 로봇도 언젠가는 등장할 것이다. 로봇을 창조한 인간의 입장에선 반항할 수 없도록 최소한의 대비책을 마련해야 할 필요를 느끼는 것도 당연하다. 이 때문에 항상 가장 먼저 대두되는 조건은 인간을 해치지 말 것이다. 아이작 아시모프가 만든 로봇 3원칙도 기본은 인간을 보호하자는 데 있다. 웹툰 군사용 안드로이드 나노리스트에선 어떤 안드로이드도 사람을 해칠 수 없는 존재이다. 즉, 태어날 때부터 인간을 해칠 수 없도록 만들어져 있는 것으로 묘사된다. 유럽연합의 결의안도 핵심을 살펴보면 인간에 복종하는 존재로 만들고, 만약 오작동 등을 일으킬 경우에도 언제든 정지시킬 수 있도록 만들라는 내용을 담고 있다. 그러나, 간과해선 안 되는 것이 로봇이라는 하나의 종(種)의 진화를 막는 일이다. 로봇이 종으로 구분되기 시작한다면, 로봇 스스로 진화하는 것을 막을 필요도 있다. 인간을 비롯해 모든 동물은 진화를 거듭하며 종족의 지능과 신체 능력을 환경에 맞게 바꾸어 나간다. 로봇은 기계장치로 만들어졌다. 오랜 시간을 걸려 세대를 거듭하지 않아도 언제든 더 뛰어난 개체를 만들어 낼 수 있다.

여기에 대한 대비책으로 거론되고 있는 이론이 2014년 개봉한 영화 오토마타에 등장한 2대 프로토콜이다. 로봇은 생명체를 해치거나 죽도록 방치하지 않으며, 자신이나 다른 로봇을 고치거나 개조할 수 없다고 규정한다. 이는 인간보다 고도의 지능을 가진 로봇이 인간으로서는 상상하기 어려운 새로운 로봇을 만드는 것을 막기 위한 조치다. 로봇은 사람 대신 일을 하는 존재이다. 사람이 하기 싫은 힘들고 귀찮은 일을 대신하기 위해 만들어진다. 이렇게 만들어진 로봇의 발전을 두고 이제는 많은 사람들이 로봇에게 일자리를 빼앗길 것을 우려한다. 이처럼 인공지능에 대한 관점은 사람마다 가지각색이다. 어떤 사람은 안드로이드를 가족처럼 대하지만, 어떤 사람은 그저 고성능 기계장치로 대한다. 서로 다른 두 부류에서도 공통점이 하나 있는데, 인공지능에 관한 규제가 필요하다는 것이다. 이처럼, 앞으로 기술이 지속적으로 발전하면 결국 로봇을 제어할 규약과 제도가 필요하다는 우려가 있기에 로봇에게 제한된 권리를 주고, 인간과 함께 살 수 있도록 하기 위해 '전자적 인간' 법안이 제정되었다.[3]

특징[편집]

윤리적 로봇[편집]

로봇 3원칙을 제안한 아이작 아시모프(Isaac Asimov)의 세계관에서는 인간사회와는 다른 다양한 현상이 일어난다. 우선 범죄가 일어날 수 없다. 사람이 해를 입는 것을 보면 어디선가 로봇이 달려와 막기 때문이다. 이 세계에서 살인 사건이 일어나 로봇과 인간 형사가 함께 수사하는 소설이 로봇 다닐 올리버가 등장하는 장편 시리즈 첫 작품 강철 도시이다. 아시모프는 자신의 무수한 작품에서, 자연법칙의 우회로를 찾는 과학자처럼 이 원칙 아래 일어날 수 있는 맹점과 모순을 실험한다. 1원칙인 "인간에게 해를 끼치지 않는 것"부터 살펴보면, 아이 로봇(I, Robot)이라는 그의 단편집의 한 에피소드에는 사람의 마음을 읽는 로봇이 등장한다. 이 로봇에게 인간에게 해를 끼치지 않는 문제는 내면의 문제로 확장된다. 그는 인간에게 물리적인 해뿐 아니라 심리적인 해도 끼칠 수 없다. 그는 결국 귀에 달콤한 말만 하는 거짓말쟁이 로봇이 되어버리고, 이 거짓말이 결국 인간에게 해를 끼쳤다는 것을 알게 되자 자기모순으로 기능을 정지해버린다. 또한, 다른 일화가 있다. 아버지와 아들이 같이 일하던 현장이 있었다. 그 현장에서 사고가 일어나게 되고, 로봇은 사고 현장에서 아버지가 좀 더 살 가능성이 높았기 때문에 아버지를 구했다. 하지만 아버지가 원한 것은 자신이 죽더라도 아들을 구하는 것이었다. 이 경우, 과연 로봇은 아버지에게 해를 끼친 것인가이다. 로봇이 인간에게 해를 끼치지 않게 하려면 인간에게 해를 끼친다는 것이 무엇인가를 먼저 정의해야 한다. 다시 말해, 로봇이 윤리적으로 행동하게 하려면 우선 윤리가 무엇인지 먼저 이해해야 한다. 아시모프는 이 원칙에 숨겨진 다른 맹점도 놓치지 않는다. "인간을 어떻게 정의할 것인가?"로 피부와 출신 지역에 상관없이 생물학적 인간종 모두에게 동등한 인권을 상상한 것도 인류사에 그리 오래지 않았다.

만약, 인간이 우주로 진출해 각기 다른 별에 사는 서로를 외계인으로 부르게 되는 모습으로 예를들면, 그의 또 다른 장편 파운데이션 시리즈에서는 특정 사투리를 쓰는 사람, 즉 특정 지역의 주민만을 인간으로 규정해 다른 인간을 공격하는 로봇이 등장한다. 로봇이 인간을 보편적으로 평등하게 존중하려면, 로봇을 제작하는 인간이 먼저 인간을 보편적으로 평등하게 존중해야 한다는 점을 시사한다. 아시모프의 고민은 이미 눈앞에 닥친 현실의 문제이다. 마이크로소프트(MS)사는 대화형 인공지능 테이(Tay)를 트위터에 업데이트했다. 테이는 알파고(AlphaGo)처럼 학습이 가능한 인공지능으로, 대화를 통해 사고력을 학습하며 성장할 예정이었다. 하지만, 설치된 지 몇 시간 이내에 테이는 유대인, 무슬림, 여성, 이주민에 대한 혐오를 쏟아내기 시작하며 순식간에 차별주의자로 성장했다. MS사는 놀라 16시간 만에 테이의 활동을 중단시켰다. 테이는 가치판단 없이 인공지능을 제작했을 때 일어날 위험성을 경고한다.[4]

법적지위[편집]

2018년 2월, 유럽의회(EP)는 인공지능 로봇이 스스로 배우고 판단할 수 있는 능력을 갖추는 것을 넘어, 이러한 수준이 인간을 뛰어넘는 단계까지 발전한다면 로봇에 책임을 물을 수 있다는 결의안을 통과시켰다. 해당 결의안에서는 인공지능 로봇의 법적 지위를 전자인간(Electronic personhood)으로 정의한다. 만약, 로봇이 사람을 다치게 하거나 개인 자산에 손해를 입힌 경우에는, 그 책임을 법적 지위를 가진 로봇에 물을 수 있다는 내용이 포함되어 있다. 2월 12일, 인공지능 로봇 전문가를 포함한 법학 및 윤리 전문가 162명은 유럽연합 집행위원회에 공개서한을 보내 로봇에 법적 지위를 부여하는 것은 인공지능 로봇 제조사들이 법적 책임에서 벗어나게끔 돕는 것과 다르지 않다고 주장했다. 무인자동차끼리 충돌하는 사고가 발생했을 때, 사고의 책임이 무인자동차 소유주에게 있는 것인지, 아니면 무인자동차 인공지능 시스템을 개발한 자동차 업체에 있는 것인지, 그것도 아니라면 자율주행 자동차 인공지능 시스템에 책임을 전가할지 등을 판단해야 하는데, 관련 규정을 명확하게 내세운 국가는 아직 찾아보기 어렵다.

실제로 인공지능이 탑재된 미국 우버(Uber)의 자율주행 자동차가 4차선 도로를 건너던 보행자를 미처 발견하지 못하고 치어 사망에 이르게 했다. 미국 테슬라의 운전자가 자율주행모드에서 다른 트럭과 부딪쳐 사망한 사고가 있긴 하지만, 길 위의 보행자를 치어 사망케 한 사고는 이례적이다. 전문가들은 유럽의회와 로봇 제조업체 등은 로봇에 인격을 부여하고 책임을 물을 수 있다고 주장하지만, 유럽의회 메디 델보 조사위원은 "유럽연합은 인공지능 로봇을 전자인간으로 규정하고, 이것이 인간에게 도움을 주는 존재라는 탄탄한 법적 근거를 마련해야 한다"라고 주장했다.[5]

자율주행 자동차

2019년 6월 13일, 국토교통부와 금융위원회는 자동차손해배상 보장법인 자동차손배법 개정안을 황희 더불어민주당 의원을 통해 발의했다. 3단계 자율주행 자동차를 타고 가다가 사고가 발생할 경우 운전자가 사고 책임을 지는 방안이 추진된다. 자율주행차에 문제가 있어 사고가 났다면 해당 자동차 제조사에 배상 책임이 있으며, 또한, 정부 주도로 자율주행차 조사위원회를 구성해 사고 발생 시 원인을 규명하는 방안도 마련된다. 국내에서는 자율주행차에 문제가 있어 사고가 났다면 해당 자동차 제조사에 배상 책임이 있고, 그 외에는 운전자에 배상 책임이 있는 규정이 있다. 하지만, 조건부는 자동화 자율주행차이다. 즉, 차량이 주변 환경을 파악해 자율주행을 하며 특정 상황 시에는 운전자 개입이 가능한 3단계 자율주행 자동차까지만 해당하고, 4단계인 운전자 개입 없이 운행하는 차, 5단계로 운전자 없이 무인으로 주행되는 자동차 이렇게 두 단계에 대해서는 관련 규정이 아직 마련되지 못했다.[6]

  • 테슬라
2016년 5월 7일, 미국의 테슬라 자율주행 자동차가 처음으로 사망사고를 내면서 화제가 되었다. 이제는 인공지능 관련 기술의 끊임 없는 발전으로, 일상생활 속에서도 인공지능을 어렵지 않게 찾을 수 있다. 그에 따라, 인공지능 관련 규정을 만들어야 한다고 주장하는 목소리가 커져갔다. 인공지능이 사람에게 상해를 입히거나 재산에 피해를 줄 경우에는, 처벌을 어떻게 해야하는지 제대로 정해지지 않았기 때문이다.[7]

지적 재산권 소유 분쟁[편집]

글로벌로펌 오스본 클라크(Osborne Clarke)의 애슐리 모건 법 전문가는 로봇을 전자 인간으로 정의하면 로봇과 로봇 사이에 지식 재산권 소유 분쟁이 일어날 수 있다고 지적했다. 애슐리 모건은 "자신이 만든 인공지능 로봇이 스스로 음악을 작곡했다면, 그 음악의 지적재산권은 자신에게 있는 것인가 혹은 로봇에게 있는 것인가"라며 우려를 나타냈다. 유럽연합 회원국들은 결의안을 토대로 자국 내에서 논의와 수정을 거치면서 유럽연합이 공식적으로 로봇 시민법을 제정할 계획이다. 법이 제정되면 유럽연합에 로봇 및 인공지능 등을 수출하는 회원국 이외의 국가들도 관련 규정을 따라야 하므로 사실상 전 세계 로봇 산업에 영향을 미치는 로봇 윤리 및 기술 규정이 생긴 것이다. 또한, 유럽연합 의회는 결의안에 인공지능 로봇이 산업 전반에 확산함에 따라 대규모 실직이 발생할 수 있다는 우려도 반영했다. 의회는 인공지능 로봇 활용에 따른 새로운 고용모델의 필요성을 강조하고, 인공지능 로봇을 고용하는 기업에 로봇세를 몰려야 한다는 구체적인 내용도 결의안에 포함하기로 했다.[2]

논란[편집]

찬성[편집]

전자 인간은 사람처럼 투표권, 소유권을 갖고 결혼을 할 수 있는 주체적 지위를 갖는 게 아니라고 찬성론자들은 말하고 있다. 교황 인노켄티우스 4세가 13세기에 수도원에 인격권을 부여함으로써 현재의 법인 개념이 만들어진 것과 유사하다는 견해다. 법인은 계약과 법적 책임의 주체로 기능하며, 문제가 발생했을 때 책임을 물을 수 있는 대상이 된다. '전자 인간' 지위를 도입하면 로봇이 사고와 배상에 대비해 의무적으로 보험에 가입해야 하고, 로봇들이 축적하는 부의 일부를 재원으로 확보할 수 있는 구조를 만들 수 있다. 고도의 자율적 로봇이 아직 등장하지 않았지만, 인공지능 기술이 빠르게 발달하고 있고 그 작동 방식이 드러나지 않는 블랙박스 적 속성의 인공지능이 등장하고 있는 만큼 사회적 논의와 법적 개념을 갖춰야 기술을 통제할 수 있다는 논리다.[1]

휴머노이드 로봇 소피아(Sophia)를 만든 핸슨로보틱스(Hanson Robotics)의 대표 데이비드 핸슨(David Hanson)은 'AI도 하나의 인격체로 인정해야 한다'고 강조했다. 소피아는 인간과 실시간 대화는 물론, 대화 내내 아이 컨택을 한다. 수시로 미소짓고 고개도 끄덕이는 등 62가지의 표정을 지을 수 있다. 데이비드는 '어떤 사람은 진화한 로봇을 통제해야만 안전하고, 인간에 종속되어야 한다고 말한다. 하지만, 이는 지능을 가진 생명체를 케이지에 가둬놓는 것과 마찬가지이고, 기계가 지능을 가지게 됐는데 통제만 하면 그게 더 위험할 것'이라고 말했다. AI를 무조건으로 통제해야 한다는 발상은 지능이 있는 생명체를 인간의 종으로 부리기 위해 통제하는 것과 다를 게 없다는 설명이다. AI를 인간 서비스에만 종속 시켜 활용해야 한다는 생각에서 벗어나야 한다는 것이다. 또한, '로봇이 잠재력을 충분히 발휘하려면 하나의 인격체로 만들어야 한다'라고 말하면서 AI 로봇도 마찬가지로 심성을 가질 수 있도록 연구를 하는 것이 올바른 방향이라고 말했고, 인공지능을 새로운 종으로 인정하고 사람들과 똑같은 가치를 공유하고 공존할 수 있도록 해야 한다고 주장했다.[8]

반대[편집]

서명을 주도한 프랑스 다르투아 대학 나탈리 나브장 법학 교수는 "전자인간을 도입해 로봇 제조사의 책임을 없애려 하고 있다"라고 반대했다. 책임 있는 로봇 재단을 이끄는 영국 셰필드 대학(University of Sheffield) 노엘 샤키 교수도 "유럽의회 입장은 로봇 제조자가 책임에서 벗어나려는 비열한 방법"이라고 비판했다. 공개 편지는 유럽연합의 기존 민법 조항들은 현존 로봇으로 인한 책임성 등의 법적 문제를 해결하기에 충분하다며 전자 인간 도입에 반대했다. 서명한 전문가들은 사우디아라비아에서 시민권을 받은 핸슨 로보틱스의 인간형 로봇 소피아와 같은 사례가 현재의 인공지능 기술을 공상과학 수준으로 과대평가하고 오도하게 만들고 있다며, 로봇이 뛰어난 능력을 보이는 영역은 바둑, 영상인식 등 아주 협소한 일부 영역일 따름이라고 강조했다.[1]

각주[편집]

  1. 1.0 1.1 1.2 1.3 사람과디지털연구소장, 〈로봇에 ‘전자인간’ 법적 지위 줄까 말까, 찬반 격화〉, 《한겨레》, 2018-04-30
  2. 2.0 2.1 gilpark, 〈전자인간(electronic personhood)?〉, 《브런치》, 2017-02-28
  3. 3.0 3.1 전승민 기자, 〈EU, 인공지능 로봇 ‘전자인간’으로 인정...“스스로 진화하지 말 것”〉, 《동아사이언스》, 2017-01-19
  4. (SF, 미래에서 온 이야기) ‘로봇시민법’ 만드는 EU… 전자인간에 윤리를 명하다〉, 《한국일보》, 2017-03-04
  5. 송혜민 기자, 〈(핵잼 사이언스) AI가 사고 치면, AI가 법적 책임질까〉, 《서울신문》, 2018-04-20
  6. 송기영 기자, 〈자율주행차 사고나면 운전자 책임…차 결함땐 제조사〉, 《조선비즈》, 2019-06-13
  7. 심재훈 기자, 〈테슬라 자율주행차 첫 사망사고…안전성 논란 증폭〉, 《연합뉴스》, 2016-07-01
  8. 김연지 기자, 〈"지능가진 AI로봇, 통제만 하면 위험"…"인격체로 인정해야"〉, 《CBS노컷뉴스》, 2018-01-30

참고자료[편집]

같이 보기[편집]


  검수요청.png검수요청.png 이 전자적 인간 문서는 인공지능 기술에 관한 글로서 검토가 필요합니다. 위키 문서는 누구든지 자유롭게 편집할 수 있습니다. [편집]을 눌러 문서 내용을 검토·수정해 주세요.