책임법
책임법(Liability)은 결함으로 인해 발생한 생명 및 신체의 손상 또는 재산상의 손해에 대하여 무과실책임의 손해배상 의무를 지우고 있는 법률이다. 인공지능 기술이 발전함에 따라 인공지능의 책임법에 대한 필요성이 나타난다. 법적 책임으로는 민사상 책임과 형사상 책임이 있다. 이 책임을 이들에게 어떻게 적용할지에 대한 논의가 많다. 현행법상으로 자율주행 자동차 같은 약인공지능은 제조물 책임법의 영향을 받는다.
목차
개요[편집]
책임법은 결함으로 인해 발생한 생명 및 신체의 손상 또는 재산상의 손해에 대하여 무과실책임의 손해배상 의무를 지우고 있는 법률이다. 인공지능의 동작과 행동은 학습 및 의사결정을 지휘하는 알고리즘이 알려지더라도 모든 상황을 완전히 예측할 수는 없다. 민사책임은 일반적으로 동작이나 행동이 예측될 때에만 사용자, 생산자, 프로그래머 등이 그에 대한 책임을 진다. 만일 인공지능을 통해 악의적인 알고리즘을 프로그래밍하거나 가용 되는 데이터 세트에 영향을 주어 시스템을 손상시키는 등 인공지능을 통해 의도적으로 타인에게 손해를 입힐 경우에는 그에 대한 책임 부여는 비교적 간단하다. 그러나 인공지능의 동작과 행동은 예측할 수가 없어 인공지능에 의한 피해에 대해서 아무런 책임을 물을 수 없으며, 그 결과 책임법에 공백이 생길 수 있다.[1]
인공지능은 인간의 개입 없이 판단하고 행동할 수 있다. 이것은 법적으로 문제를 일으킬 수 있으며, 인간의 개입 없이 발생한 손해에 대한 책임을 묻기 위해서는 인공지능 관련 책임법이 필요하다. 현행법상으로 약인공지능은 제조물 책임법의 영향을 받는다. 제조물 책임법은 제조물의 결함으로 발생한 손해로부터 피해자를 보호하기 위해 제정된 법으로, 물품을 제조하거나 가공한 자에게 손해배상의 의무가 주어진다. 무인자동차가 사고를 내면 무인자동차의 제작자가 법적 책임을 진다. 하지만, 미래에 다가올 인간의 지능에 더 유사한 더 높은 능력과 자질을 갖춘 인공지능에게도 범죄의 금지에 대해서 알고 있지 않는 무죄의 대행자로 취급해야 하는지 논란이 제기되고 있다. 강한 인공지능에 다가갈수록 인공지능 로봇의 활동으로 인한 사고 발생에 대한 피해가 폭넓을 것이다. 그런 행동에 대비하여 새로운 형사정책이 필요하다.[2]
특징[편집]
인공지능이 책임법에 제기하는 법적 문제는 기술적 조치를 조합하여 해결해야 한다. 인공지능의 동작과 행동은 학습 및 의사결정을 지휘하는 알고리즘이 알려지더라도 모든 상황을 완전히 예측할 수는 없다. 인공지능의 동작과 행동은 가용 되는 데이터 세트에서 발견되는 패턴과 상관관계를 기반으로 하며, 이러한 패턴과 상관관계는 그 특성상 사전에 알려지지 않기 때문에 학습이 필요하지 않다. 그러나 인공지능의 동작과 행동을 완전히 예견할 수 없다는 것은 민사책임 체제에 대한 커다란 도전이기도 하다. 민사책임은 일반적으로 동작이나 행동이 예측될 때에만 사용자, 생산자, 프로그래머 등이 그에 대한 책임을 지기 때문이다. 만일, 인공지능을 통해 악의적인 알고리즘을 프로그래밍하거나 가용 되는 데이터 세트에 영향을 주어 시스템을 손상시키는 등 인공지능을 통해 의도적으로 타인에게 손해를 입힐 경우에는 그에 대한 책임을 비교적 간단하게 부여한다. 그러나, 인공지능의 동작과 행동은 예측할 수가 없어 인공지능에 의한 피해에 대해서 아무런 책임을 물을 수 없으며, 그 결과 책임법에 공백이 생길 수 있다.[1]
- 법의 능력 증대
특정한 이론적 고려 사항과 기술적 조치는 인공지능의 예기치 않은 동작과 행동을 다루기 위한 법의 능력을 증가시킨다. 첫째, 고려사항 중 하나는 인공지능에 의한 피해를 입은 희생자의 관점이다. 희생자에게 피해가 되는 것은 가해자가 아무리 피해를 예측할 수 있다고 하더라도 피해자에게 발생한 피해는 현존한다. 운전자가 운전 중에 문자를 쓰는 경우에는, 자율주행 자동차가 패턴을 인식하지 못한 경우이든 자동차 사고를 당한 피해자는 똑같은 피해를 입게 된다. 전자의 경우에는 가해자가 가지는 예측 가능성으로, 후자의 경우보다 피해자가 받아들일 수 있는 피해에 대한 책임을 더 많이 부여하지 않는다. 둘째, 구체적인 상황에서 인간의 행동은 충분히 예측할 수 없어 빠른 반응을 요구하는 상황에서 인간의 반응은 크게 다를 수 있다. 셋째, 민사책임의 보완을 목적으로 설계된 보험은 인공지능의 예견 불가능성에 대한 관련성을 크게 감소시킨다. 기존 자동차에 대한 보험은 자율주행 자동차에 대해서도 근본적으로 차이가 없다. 이는 보험금 산정은 그 잘못이나 비난과 무관하게 위험의 크기와 빈도에 비례하여 할당되기 때문이다. 넷째, 장래 국가의 인증과 결합될 인공지능은 과실의 가능성을 제거할 것이므로 과실에 대한 책임은 더 이상 필요하지 않을 수 있다. 이 경우에는 인공지능이 신체적 위험이 클수록 더 엄격한 테스트와 인증이 필요하다. 이러한 측면에서 인공지능에 대한 민사책임의 판단요소는 의도적 행위인 고의 및 부작위에 국한되며, 과실은 부주의한 행동과 구별하기 어렵다.
다섯째, 예측 가능성은 일반적으로 법률에 포함된 기대와 구별되어야 한다. 법은 특정 상황에서 특정 행동을 기대한다. 운전자는 충돌이 예측되는 경우에도 충돌을 피하고자 브레이크를 제동한다. 인간과 인공지능은 때때로 이러한 기대에 잘 부응할 수 있다. 그러나, 자율주행 자동차는 운전자보다 더 빨리 브레이크를 제동하는 것이 가능하므로 인공지능은 원래 인간을 염두에 둔 기대치를 더욱 잘 충족시킬 수 있다. 이처럼 인공지능은 법에 포함된 기대에 부응할 수 있으며, 시간이 지남에 따라 이러한 기대를 일반화할 수 있다. 여섯째, 인공지능이 특정 상황에서 결론을 수립하는 경우에는, 인간의 행동을 기준점으로 삼는 것이 도움이 될 수 있다. 손해를 초래한 인공지능 대신에 인간이 무엇을 했을 것인지에 대해서 질문할 수 있다. 자율주행 자동차가 충돌을 피하는데 부주의하지 않았다면 예측 불가능성에 관계없이 생산자가 손해에 대한 책임을 지는 방안이 고려될 수 있다. 일곱째, 인공지능에 국한된 것은 예측 가능성만이 아니다. 특정 상황에서 인공지능이 특정 방식으로 작동한 이유가 항상 이후에 완전하게 설명될 수 없거나, 적어도 부단한 노력 없이는 설명될 수 없다. 특정 상황에서 햇빛이 인공지능 센서의 작동에 장애를 야기할 때, 인공지능이 취한 결정은 선형모델에 따라 해석되어야 한다.[1]
제조물책임법[편집]
- 인공지능의 결함 여부 : 제조물책임법은 책임성립 요건으로 결함을 들고 있다. 이는 제조상의 결함, 설계상의 결함, 표시상의 결함으로 구분할 수 있으며, 다음과 같다.
- 제조상의 결함 : 제조업자가 제조물에 대하여 제조상·가공 상의 주의의무를 이행하였는지의 여부에 관계없이 제조물이 원래 의도한 설계와 다르게 제조·가공됨으로써 안전하지 못하게 된 경우를 말한다. 인공지능의 경우 애초에 의도한 설계대로 인공지능을 제조하였다고 하더라도 인공지능의 머신러닝으로 인하여 제조자가 의도하지 않은 손해를 야기할 수 있다. 이 경우 현행 제조물책임법으로는 그 손해를 규율할 수 없다.
- 설계상의 결함 : 제조업자가 합리적인 대체설계(代替設計)를 채용하였더라면 피해나 위험을 줄이거나 피할 수 있었음에도 불구하고 대체 설계를 채용하지 아니하여 해당 제조물이 안전하지 못하게 된 경우를 말한다(제2조 제2호 나목). 인공지능의 경우 수많은 컴포넌트로 구성된 인공지능 시스템의 특성으로 인하여 대체설계가 가능하지만 어떤 컴퍼넌트가 설계단계에서 인공지능 시스템에 사용될 것인지를 예견할 수 없기 때문에 설계상의 결함으로 판단하기 어렵다. 특히 현재로서는 최선의 기술기준에 의하더라도 설계상 불가피한 오류가 발생할 수 있으므로 대체설계의 결함으로 보기 어렵다.
- 표시상의 결함 : 제조업자가 합리적인 설명・지시・경고 또는 그 밖의 표시를 하였더라면 해당 제조물에 의하여 발생할 수 있는 피해나 위험을 줄이거나 피할 수 있었음에도 불구하고 이를 하지 아니한 경우를 말한다(제2조 제2호 다목). 표시상의 결함의 판단기준으로 가장 대표적인 것은 합리적인 설명・지시・경고 기타의 표시를 들 수 있으며, 합리적인 표시 여부를 판단하는 경우에도 위험-효용기준이 적용된다고 한다. 하지만 인공지능의 제조업자가 알고리즘에 결함이 없는 인공지능을 개발하였고, 또한 인공지능의 머신러닝으로 인하여 애초에 예견할 수 없었던 피해가 발행한 경우에 인공지능의 제조업자에게 표시상의 결함을 묻기 어렵다.[1]
- 인과관계의 입증
- 제조물책임법에 따른 손해배상을 처구하기 위해서는 제조물의 결함과 손해 사이에 인과관계가 입증되어야 한다. 그러나, 인공지능은 고도의 기술과 복잡한 공정으로 만들어지기 때문에 인공지능 시스템의 결함을 밝히기 어렵다. 또한, 그 작동에 고도의 기술과 복잡한 공정이 필요하기 때문에 작동 오류나 오조작을 입증하기 에도 어렵다. 또한, 인공지능 시스템과 관련하여 발생한 손해가 인공지능 시스템에 의한 것인지의 여부를 확인하기 어려울뿐만 아니라 인공지능의 개발에는 여러 사람이 관여하기 때문에 인과관계가 인정된다고 하더라도 책임범위를 구체적으로 산정하기 쉽지 않다.[1]
논란[편집]
법적 이슈[편집]
- 테슬라 자율주행 자동차
2016년 테슬라 자율주행 자동차의 사망 사고는 인공지능 사고의 법적 책임에 대한 관심을 불러일으켰다. 앞으로 이 문제가 정리되지 않으면 인공지능의 산업적 적용과 시장 확대도 더뎌질 것이다. 사회적 합의를 통해 인공지능 시스템과 그 소유주의 법적 책임의 기준과 인공지능의 효율적으로 처벌할 것인지를 규정해야 한다. 특히, 딥러닝 알고리즘의 특성상 눈에 보이는 규칙을 준수하게 하는 것은 불가능하다. 새로운 데이터 세트를 통한 재학습을 처벌로써 고려해야 한다. 기술이 사회를 변화시키는 데에는 시간이 필요하다. 기존 법 체제를 바꾸고 이해관계자들을 설득하는 일은 쉽지 않다. 택시업계의 반발로 한국 시장에서 거의 퇴출돼버린 우버가 대표적이다.
또한, 자율주행 자동차도 마찬가지이다. 테슬라는 이미 인간보다 훨씬 안전하게 차를 운전할 수 있는 자율주행 시스템을 개발했다고 하지만, 전 세계적으로 자율주행 자동차를 전면 허용하고 있는 국가나 지역은 아직 없다. 사고 시 법적 책임을 누가 져야 하는지에 대한 문제 때문이다. 현실적으로 인공지능이 실생활에 얼마나 빠르고, 얼마나 많은 변화를 가져올지는 기술의 발달과 속도가 아닌 법의 발전과 적응 속도에 달려있다. 인공지능과 관련한 법적 이슈 중에 핵심이 되는 것은 두 가지이다. 인공지능의 오류나 어쩔 수 없는 상황으로 인한 사고 발생 시 법적 책임 문제와 인공지능 그 자체의 법적 지위 문제이다. 만일 인공지능이 사람처럼 자체적인 판단력을 가지고 행동하게 된다면 이를 별개의 법적 주체로 대해야 한다.[3]
법적 및 윤리적 책임[편집]
인공지능 알고리즘은 주어진 정보를 판단하고 사안마다 다르게 대응한다는 점에서 제조물책임법을 적용하기에는 무리가 있다. 라이언 칼로(Ryan Calo)는 로봇공학의 발전이 기존의 법률과 규범체계의 긴장을 증가시키므로 인공지능 등장으로 새롭게 문제되는 법률관계를 조정할 수 있는 로봇법 정책이 필요하다고 말했다. 인공지능 기술의 활용이 점점 더 커지면서 거론되는 법적 및 윤리적 쟁점을 열거하자면 다음과 같다.[4]
- 자율주행 차량이 사고를 냈을 때의 배상책임과 처벌
- 자동적 주식거래 시스템에 대한 규제
- 자율주행 차량의 사고 등 알고리즘의 실수로 불법행위나 피해가 발행했을 때의 법적 처리
- 인공지능에 의한 질병의 검진과 로봇수술 허용 여부
- 사람의 지시에 따라 활동하는 원격로봇에 법인격을 의제할 것인가
- 로봇을 도덕적 행위자로 볼 수 있는가
- 알고리즘의 편향이 누군가에게 피해를 주었을 때의 처리와 해결책은 어떻게 할 것인가
인공지능의 법적 지위[편집]
인공지능 로봇이 소유주의 말을 따라서 사람을 치거나 물건을 파손하거나 악용되고 사고를 일으키는 등 문제가 발생했을 때, 책임은 언제나 소유주가 지는 것인지 아니면 그 명령을 따르도록 알고리즘을 설계한 제작자가 지는지를 가리기 쉽지 않다. 로봇이 불법행위에 사용되지 않도록 처음부터 로봇 자체가 인체를 해하거나 파괴적 행동의 명령은 거부하거나 윤리적 판단이 가능하도록 설계할 수도 있다. 제조사나 설계자의 선택에 따라서 로봇은 자율적으로 행동할 여지가 있으며, 로봇의 인공지능 시스템을 도덕적 행위자(AMA)로 의제하고 로봇에게 책임을 물어야 할 것인지에 대한 논의가 많아졌다. 만일, 로봇이 단지 기계적인 작업이 아니라 인간 고유의 영역에 들어와서 고도의 지적 작업이 필요한 일을 하게 된다면 그 인지적 판단의 수준이 높을 것으로 예견되는 데 이 경우에도 로봇의 불법적 행동이나 부작위에 대하여는 수동적 기계라는 이유로 면책해야 하는 것인가 등이 문제가 될 수 있다. 이러한 논의가 가능한 이유는 인공지능을 갖춘 로봇의 등장은 자신의 판단하에 움직이는 새로운 개체 및 주체의 출현을 의미한다는 것을 다수가 수용하고 있어 사람들이 로봇을 기계 덩어리가 아니라 의인화된 대상으로 받아들이기 때문이다.[4]
윤리적 이슈[편집]
4차 산업혁명이라는 거대한 물결 속에 위치한 인공지능 윤리는 인터넷 윤리의 심화 및 확대판이라고 할 수 있다. 이는 4차 산업혁명이 3차 산업혁명의 심화, 확대판으로 보는 것과 같은 맥락이다. 예를 들면, 인공지능이 취득한 개인정보와 사생활 정보에 대한 유출이나 인공지능 서비스 이용에 대한 빈익빈 부익부 현상 등이다. 이는 인터넷 윤리에서 다루어온 주요 이슈이기도 하다. 이런 점에서 많은 인공지능 윤리적 이슈는 인터넷 윤리가 심화되고 확산되는 형태를 취하고 있다. 특히, 인터넷 윤리가 정보화의 역기능에 대한 후발적 조치 성격이 강했다는 것으로 보아 앞으로 더 논의될 인공지능 윤리는 선제적인 대응 차원에서 준비할 필요가 있다. 이렇듯 인공지능 기술의 발전이 여러 영역에서 좋은 성과를 보이면서, 다양한 분야에서 활용되고 있다. 이와 동시에 개발에 활용된 데이터의 부족함 혹은 편향성이 내재된다거나, 사용 알고리즘 자체에 왜곡 및 편향이 내포된다거나 기술 자체의 부족함으로 인해 예상하지 못한 사회적 및 윤리적 이슈가 발생하고 있으며, 혹은 발생 가능성이 보인다.[5]
- 트롤리 딜레마
대표적으로 교통안전에 대해 등장하는 논리 이슈는 트롤리 딜레마이다. 성인과 어린이를 태우고 가던 자율주행 자동차가 전방에서 보행 신호를 무시하고 횡단보도를 건너고 있는 노인들을 발견했을 때, 그대로 직진해서 노인들을 죽게 할 것인지 아니면 방향을 틀어서 노인들을 피하는 대신 차가 장애물을 부딪쳐서 승객 세 명을 죽게 할 것인지를 묻는 질문이다. 이러한 이슈 때문에 인공지능에 대한 윤리적 대응 체계를 만들기 위해 총론적 담론 수준에서 벗어나 산업별, 서비스별 윤리 이슈에 대한 구체적이고 탄력적인 정책적 대응을 해야 한다고 지적이 제기됐다.[6]
사례[편집]
- 인종 차별
구글의 이미지 인식 기술의 불완전성이 흑인 여성을 고릴라로 인식하거나, 위챗이 번역 과정에서 니그로라는 단어를 사용하고, 마이크로소프트의 테이 챗봇이 사용 과정에서 인종차별자나 혐오주의자의 표현을 사용하게 됐다. 이것은 알고리즘의 불완전성 또는 데이터의 부족, 잘못된 학습 등의 결과이다. 2018년 2월, 매사추세츠 공과대학교 미디어랩(MIT Media Lab) 조이 부올람위니(Joy Buolamwini)가 참여하는 젠더 쉐이즈(Gender Shades) 프로젝트를 통해 마이크로소프트, IBM, 중국의 메그비의 페이스++ 기술을 비교했다. 그 결과, 피부 빛이 검을수록 인식 에러율이 크게 증가하는 것을 발견했다. 특히 피부색이 검은 여성의 경우에는 거의 35%나 오류가 발생했다.[7]
- 자율주행 자동차 사고
자율주행 자동차의 출연은 사법체계를 흔들고 있다. 자동차를 이용하는 것은 사람이지만, 이를 통제하는 주체는 사람이 아닐 수 있기 때문이다. 소비자로서는 난처한 일이다. 사고 발생 시 자동차의 운전자, 자동차의 제조사, 자율주행 프로그램의 개발사 중 어느 쪽에 책임소재를 물어야 할지 혼란스러워진 것이다. 세계 최대 전기차 업체 테슬라(Tesla)는 인공지능 자율주행 자동차 사고의 책임을 운전자에게 돌렸다. 2019년 3월, 테슬라의 자율주행 차량이 고속도로 중앙분리대를 들이받았으며, 운전자는 사망했다. 테슬라는 운전자가 사고 직전 6초 동안 운전대에 손을 올리지 않았다며, 자율주행모드에서도 운전자는 운전대를 잡고 주의를 기울일 필요가 있다고 주장했다. 그러면서도 테슬라는 자율주행 시스템이 중앙분리대를 인지하지 못한 이유에 대해서는 공개하지 않았다. 유족 측 변호사는 "테슬라의 내비게이션 시스템이 도로의 차선을 잘못 인지해 분리대 감지에 실패했고 차를 멈추지 못한 채 분리대를 들이받았을 것"이라고 반박했다. 테슬라의 대응을 지켜보던 투자자들은 테슬라의 주식이 떨어질 것이라는데 돈을 걸었다. 테슬라 주식의 숏 포지션 투자액이 107억 달러 규모로 사고 전 달보다 28% 상승했다. 인공지능을 활용한 신기술에 대한 윤리의식과 논리의 부재가 기업에 대한 시장의 불신으로 이어진 사례이다.[7]
각주[편집]
- ↑ 1.0 1.1 1.2 1.3 1.4 정진명,이상용,〈인공지능 사회를 대비한 민사법적 과제 연구〉, 《한국민사법학회》, 2017
- ↑ 코싸인,〈인공지능〉, 《브런치》, 2017-07-28
- ↑ 조진서,〈인공지능 오류로 사고 땐 누구 책임? 법적 문제 정리돼야 시장이 커진다〉, 《동아일보》, 2017-07-01
- ↑ 4.0 4.1 최은창, 〈인공지능 시대의 법적·윤리적 쟁점〉, 《미래연구 포커스》
- ↑ 국민권익위원회 공식 홈페이지 - http://acrc.go.kr/acrc/briefs/201901/html/index.html
- ↑ 이은광 기자,〈4차 산업혁명, AI 윤리 문제와 대응안〉, 《데일리비즈온》, 2019-03-14
- ↑ 7.0 7.1 한상기, 〈인공지능 윤리의 주요 이슈와 기업의 대응〉, 《국민권익위원회》
참고자료[편집]
- 최은창, 〈인공지능 시대의 법적·윤리적 쟁점〉, 《미래연구 포커스》
- 국민권익위원회 공식 홈페이지 - http://acrc.go.kr/acrc/briefs/201901/html/index.html
- 정진명,이상용,〈인공지능 사회를 대비한 민사법적 과제 연구〉, 《한국민사법학회》, 2017
- 코싸인,〈인공지능〉, 《브런치》, 2017-07-28
- 조진서,〈인공지능 오류로 사고 땐 누구 책임? 법적 문제 정리돼야 시장이 커진다〉, 《동아일보》, 2017-07-01
- 이은광 기자,〈4차 산업혁명, AI 윤리 문제와 대응안〉, 《데일리비즈온》, 2019-03-14
같이 보기[편집]