트롤리 딜레마
트롤리 딜레마(Trolley dilemma)는 광차 문제라고도 불리며 윤리학 분야의 사고 실험이다. 다섯 사람을 구하기 위해 한 사람을 죽이는 것이 도덕적으로 허용 가능한지에 대한 질문으로 특히, 자율주행 자동차 제조업체가 직면한 윤리적 문제와 관련하여 가장 많이 언급되고 있는 시나리오이다.
개요
트롤리 딜레마는 영국의 철학자 필리파 풋과 미국의 철학자 주디스 자비스 톰슨이 고안한 사고실험이다.[1] 사람들에게 브레이크가 고장 난 트롤리 상황을 제시하고 다수를 구하기 위해 소수를 희생할 수 있는지를 판단하게 하는 문제 상황을 가리키는 말이다.[2] 이러한 실험은 인공지능을 이용한 자율주행 자동차, 무인자동차 상용화와 밀접한 관계를 맺고 있다.[3]
사례
- 트롤리 사례
브레이크가 고장 난 트롤리 기차가 달리고 있다. 레일 위에는 5명의 인부가 일하고 있는데, 트롤리가 이대로 달리면 5명은 반드시 죽게 될 것이다. 한 가지 방법은 레일 변환기로 트롤리의 방향을 바꾸는 것뿐이다. 하지만 다른 레일 위에는 1명의 인부가 있다. 실험자가 트롤리의 방향을 오른쪽으로 변경하면 오른쪽 철로에서 일하는 한 명의 인부가 죽게 된다. 그렇다면 실험자는 트롤리의 방향을 바꿀 것인가?
- 육교 사례
실험자는 육교 위에서 트롤리가 달리는 모습을 지켜보고 있다. 브레이크가 고장 난 트롤리는 5명의 인부를 향해 달리고 있다. 무거운 것을 떨어뜨려 트롤리를 멈춰야 하는데, 육교에는 몸집이 큰 사람 한 명이 있을 뿐이다. 실험자는 몸무게가 작아 육교에서 떨어져도 트롤리를 멈출 수 없고, 몸집이 큰 사람을 떠밀 경우 확실히 트롤리를 멈출 수 있다. 그렇다면 실험자는 몸집이 큰 사람을 육교 아래로 떨어뜨릴 것인가?[2]
실험 결과
트롤리 사례는 영국의 윤리 철학자인 필리파 푸트가 제안한 것으로 응답자의 89%가 방향을 변경해야 한다고 응답했다. 미국의 심리학자 조슈아 그린은 기능성 자기공명영상으로 응답자의 뇌 활동도를 조사한 결과, 합리적이고 이성적인 의사결정에 관여하는 전전두엽 부위가 활성화된 것으로 나타났다. 육교 사례는 미국 도덕 철학자인 주디스 톰슨이 추가로 제안한 것으로 이 사례에 대해 응답자들의 78%가 몸집이 큰 사람을 육교 아래로 밀어서는 안 된다고 응답했다. 더불어 조슈아 그린이 기능성 자기공명영상으로 응답자의 뇌 활동도를 조사한 결과, 편도체를 포함한 정서와 관계된 뇌 부위가 활성화된 것으로 나타났다. 진화심리학자 마크 하우저는 트롤리 딜레마를 바탕으로 통계 심리 실험을 했는데, 그는 도덕적 판단은 이성의 결과이므로 실험 참가자들의 나이와 문화에 따라 답이 다르게 나타날 것이라고 보았으나, 실험 결과 참가자들의 인종, 나이, 학력, 종교, 문화적 차이를 막론하고 트롤리 사례에 대해서는 89%의 참가자들이 방향을 변경한다고 제시했다. 하지만 육교 사례에 대해서는 12%의 참가자들만이 몸집이 큰 사람을 떨어트리는 것을 도덕적으로 허용할 수 있다고 답했다. 따라서 트롤리 딜레마의 실험 결과 한 사람의 목숨을 희생하여 다섯 사람의 목숨을 구하는 것은 두 사례 모두 동일하지만, 목적을 위해 수단과 방법을 정당화해서는 안 된다는 도덕적 가치로 인해 이와 같은 차이가 발생했다고 결론 지어졌다.[1][2]
적용
자율주행 자동차
자율주행 자동차의 트롤리 딜레마는 사고가 불가피할 때 자동차의 소프트웨어가 어느 방향을 취할지 결정해야 하는 상황을 의미한다. 원래 트롤리 사례에서는 5명이 있는 선로를 향해 달려가는 고장난 열차와 선로 전환기 앞의 한 사람과 관련된 문제인데, 자율주행 자동차에서는 전환기 앞의 사람을 자동차의 소프트웨어가 담당하게 된다. 만약 사고가 날 것이 확실한 상황에서 도로의 한쪽에는 엄마와 아기가 있고, 자동차 앞쪽엔 한 무리의 어린 학생들이 길을 건너고 있으며, 도로의 다른 쪽은 절벽인 상황에 자율주행 자동차가 내릴 수 있는 가장 윤리적인 결정은 무엇이 될 것인가가 지속해서 이어지는 논점이다. 또한 2020년 5월 15일, 국토교통부와 관련 기관 및 학계에서 자율주행 자동차의 윤리적 원칙 가이드라인을 공개했다. 이는 자율주행 자동차 기술이 준수해야 하는 기본가치 4개 항목과 행동원칙 5개 항목을 제시했다. 기본가치는 인간의 생명을 우선하되, 타인의 생명이나 권리를 침해할 수 없다는 것으로 요약되어, 피할 수 없는 사고 상황에서 탑승객을 보호하기 위해 다른 보행자나 다른 차량의 피해를 초래하는 방식으로 설계될 수 없다는 것이다. 다만 독일의 사례처럼, 인간 대신 동물이나 물건을 다치도록 할 수 있다거나 다수를 위해 소수를 희생할 수 있다는 구체적인 판단은 추가적인 논의가 진행 중이라며 포함하지 않았다. 블랙박스와 같은 운행 정보 기록시스템을 갖춰야 하고, 탑승자가 필요할 때 제어 및 정지할 수 있는 기능을 탑재하도록 하는 등의 내용은 행동원칙에 담겼다. 다수를 위해 소수를 희생할지와 관련된 트롤리 딜레마 등 사고를 피할 수 없는 상황에서 자율주행 자동차 기술이 인간처럼 윤리적 판단을 할 수 있느냐는 주요 쟁점이 되었다.[4]
- 적용 모순 : 비현실적인 상황을 평가하기 위해서 이런 상황이 얼마나 발생하기 어려운지 알아야 하며 트롤리 딜레마에서 상정되듯이 매우 제한적인 공간에서 자율주행 자동차는 결정 내리는 상황을 맞닥뜨리기 전에 환경에 반응한다. 즉, 속도를 늦추고 센서의 범위를 확대하여 주변 환경에 대해 최대한 완벽한 그림을 확보하며 이런 작업이 이루어짐으로써 누구를 살리고 죽이는 것인가에 대한 결정을 내려야 하는 상황에 놓일 가능성은 확연히 낮아진다. 더불어 자율주행 자동차가 선택할 상황에 놓이지 않는 이유는 사람 운전자보다 훨씬 빠른 반응 속도로 멈출 수 있다는 사실이다. 충돌 가능성이 있는 상황이 감지되면, 자동차는 밀리초 만에 제동하기 시작하며 센서의 범위가 차량의 정지거리보다 훨씬 넘어서기 때문에 자동차가 치명적인 상황에 부닥칠 가능성은 훨씬 줄어든다. 어떠한 이유로 충돌이 불가피해졌다면, 브레이크뿐만 아니라 센서 또한 안전벨트를 조이거나 에어백을 작동시키는 등 운전자를 보호하기 위한 다양한 조처를 할 수 있다. 더불어 자동차의 레이저 센서는 자동차 주변 영역에 대해 3차원 모델을 구성한 후, 알고리즘으로 영역 내 모든 위험을 탐지하며 다른 센서 시스템을 이용하여 레이저가 감지한 위험의 진위를 이중으로 검사한다.[5]
각주
- ↑ 1.0 1.1 〈트롤리 딜레마〉, 《네이버 지식백과》
- ↑ 2.0 2.1 2.2 〈트롤리 딜레마〉, 《네이버 지식백과》
- ↑ 가치UX그룹 임채린, 〈누구를 죽일 것인가? –인공지능과 트롤리 딜레마-〉, 《라이트브레인》
- ↑ 진명선 기자, 〈트롤리 딜레마, 자율차가 지켜야 할 윤리는?〉, 《한겨레》, 2020-12-15
- ↑ 선연수 기자, 〈자율주행자동차, 트롤리 딜레마 문제없어〉, 《테크월드》, 2019-06-13
참고자료
- 〈트롤리 딜레마〉, 《네이버 지식백과》
- 〈트롤리 딜레마〉, 《네이버 지식백과》
- 가치UX그룹 임채린, 〈누구를 죽일 것인가? –인공지능과 트롤리 딜레마-〉, 《라이트브레인》
- 진명선 기자, 〈트롤리 딜레마, 자율차가 지켜야 할 윤리는?〉, 《한겨레》, 2020-12-15
- 선연수 기자, 〈자율주행자동차, 트롤리 딜레마 문제없어〉, 《테크월드》, 2019-06-13
같이 보기