검수요청.png검수요청.png

"불확실성"의 두 판 사이의 차이

위키원
이동: 둘러보기, 검색
 
(사용자 3명의 중간 판 55개는 보이지 않습니다)
1번째 줄: 1번째 줄:
'''불확실성'''(不確實性, uncertainty)은 장래 일어날 수 있는 사상(事象)에 관해서 인간이 가진 정보의 정확성에 대한 하나의 구분을 말한다. 즉, 불규칙적인 변화로 인해 미래에 전개될 상황을 예측할 수 없는 상태이다. 행정학에서의 불확실성은 의사결정의 행동노선에 영향을 미치는 요인이 가변적(可變的)이거나 과거·현재·미래에 대한 확실한 지식이 부족한 상태를 말한다.
+
'''불확실성'''(不確實性, uncertainty)은 장래 일어날 수 있는 사상(事象)에 관해서 인간이 가진 [[정보]]의 정확성에 대한 하나의 구분을 말한다. 즉, 불규칙한 변화로 인해 미래에 전개될 상황을 예측할 수 없는 상태이다.
  
 
== 개요 ==
 
== 개요 ==
 +
우리가 사는 현실 세계는 복잡하고 예측이 어려워서 논리만으로는 현실 세계를 반영하기 매우 어렵다.
 +
그뿐만 아니라 단순화된 모델과 정형화된 기법으로 표현하기에 한계가 있다. 이러한 현실 세계의 불확실성을 해결하기 위해 지식 베이스의 일관성을 유지하는 것과 수치화를 통해 불확실성을 정형화하는 확률적 기법이 도입되었지만, 여전히 제한적이며 완벽한 해결이 불가능하다. 그 예시로 [[카네기멜론 대학교]](CMU)에서 개발한 [[자율주행 자동차]] 'NAVLAB'을 들 수 있는데, 이 역시 돌발 상황에서의 대처 능력이 부족하다.<ref name="베이지">Cloud Travel, 〈[https://destiny738.tistory.com/443 (인공지능) 불확실성과 베이지 추론]〉, 《티스토리》, 2012-11-07</ref>
  
 +
불확실성의 요인은 크게 네 가지로 분류할 수 있다.
 +
[[데이터]] 불확실성, 지식의 불확실성, 정보의 불완전성, 확률의 불규칙성이다.
 +
먼저 데이터 불확실성은 부사, 형용사의 수치화가 정확하지 않으며 그 경계 또한 모호하고, 이로 인해 데이터의 모호함을 유발하게 되어 사람이 사용하는 [[정보]]는 불완전하고 모순되기도 하기에 센서 장치가 얻는 정보 자체가 불확실할 수 있다는 것을 말한다.
 +
다음으로 지식의 불확실성은 전문가의 [[자문]]도 사실 또한 불확실하고, 완전하지 않은 지식이며 표현상, 의사소통 간 오류가 있을 수 있다는 것을 의미한다.
 +
정보의 불완전성은 알려지지 않은 데이터에 대해서는 근사적 추론을 진행하기에 결과가 불완전하고, 정보량이 부족하다는 것을 의미하고, 확률의 불규칙성은 시간이 지나면서 추가로 발생하는 불규칙성이 있을 수 있다는 것을 말한다.<ref name="비단조">이앵두, 〈[https://cbw1030.tistory.com/142 (인공지능 기초) 불확실성 - 비단조 추론]〉, 《티스토리》, 2020-07-06</ref>
  
오늘날 불확실성의 문제는 자연과학은 물론 모든 사회과학에서 관심의 대상이 되고 있으며, 특히 미래를 설계하고 적은 비용으로 큰 성과를 추구하는 행정학에서는 불확실성을 제거하는 문제가 중요한 과제이다.<ref>하동석, 〈[https://terms.naver.com/entry.nhn?docId=659645&cid=42152&categoryId=42152]〉, 《이해하기 쉽게 쓴 행정학용어사전》, 2010-03-25 </ref>
+
== 특징 ==
 +
=== 비단조 추론 ===
 +
* '''기존 논리 체계와 문제점'''
 +
: 본격적인 추론법에 들어가기에 앞서 다룬 논리 체계의 문제점을 먼저 알아보도록 하자. 기존 논리 체계를 통한 추론은 모든 정보가 존재하거나 1차 논리로 유도하는 완전성, 정보 상호 간 모순이 없다는 일관성, 추론할수록 참인 정보가 늘어난다는 단조성. 이 세 가지에 다 부합하지 않는다. 결국 의미 없는 추론이 되는 것이다.<ref name="비단조"></ref>
 +
 
 +
* '''비단조 추론'''
 +
: 그렇다면 추론을 하고 싶어도 위의 불확실성의 요인들이나 논리의 문제점에 의해 추론을 할 수 없는 경우에는 어떻게 할까?
 +
: 이러한 상황에서 이루어지는 추론 중 하나가 비단조 추론이다. 비단조 추론은 새로운 사실이 기존 참인 사실과 모순될 수 있음을 인정하고 단조 증가가 아님을 인정하는 추론법이다. 비단조 추론의 예를 아주 간단하게 들어보자. 여행에 관련된 운전자의 지식이 있다고 가정할 때, 현 상황에서의 운전자의 인식 사실과 새로 획득한 지식이 충돌되어 원래 사실로 믿고 있던 것들이 갱신된다면 이는 비단조 추론이고 가변적인 추론이라고 말할 수 있다.<ref name="비단조"></ref>
 +
 
 +
=== 베이지 추론 ===
 +
불확실성을 없애기 위해서 수학적으로 완벽한 확률(베이지 규칙)을 이용한 방법과 사람과 비슷한 형식으로 생각(확신도 이론)하는 방법이 나오게 되었다.
  
 +
*'''확률적 접근'''
 +
: 확률적 접근은 자연현상에는 쓸만하지만, 사람이 관련되면 결과의 오차범위가 커진다.
 +
: 베이지 규칙은 특정 사건을 상호 배타적인 사건들에 대한 종속적인 사건으로 확장해 나갈 수 있다.
  
== 역사 ==
+
Rule) IF E is true then H is True.(P percent)
 +
- E가 참일 경우 H는 P의 확률로 사실이 된다.
  
 +
E가 일어날 확률도 존재할 것이기에 계산이 복잡해지고, 확률이 전파가 된다. 또한 각 증거 사이의 의존 관계를 계산해내기가 힘들다.
 +
통상적으로 H는 가설을 나타내며, E는 가설에 대한 증거로 나타난다.
 +
증거가 모두 독립 사건이라고 가정했을 때, 증거가 발생한 시점에서 가설이 발생할 확률의 결합확률로 구한다. 여러 증거가 주어졌을 때, 이로 인해 발생할 가설에 대한 확률을 구하는 방식이다.
 +
[[파일:발병확률.jpg|썸네일|400픽셀|'''발병확률''']]예를 들어, 감기, 독감, 몸살과 그 증상에 대한 통계적 조사로 다음과 같은 표를 구했다고 한다. 의사가 환자에 대해서 날이 지나감에 따라 E2, E1, E3 순서로 증상을 발견한다면, 각각의 날에 의사는 환자의 병을 무엇으로 판단할까?
 +
* '''1일 차'''
 +
: 최초 기침 증상을 보이는 환자가 나타났다. 의사는 과연 어떤 판단을 할까?
 +
: P(H1|E2) = P(E2|H1) * P(H1) / { P(E2|H1)P(H1) + P(E2|H2)P(H2) + P(E2|H3)P(H3) }
 +
: = 0.9 * 0.4 / { 0.9*0.4 + 0.7*0.35 + 0.5*0.25 } = 0.36 / 0.73 = 0.49
 +
: P(H2|E2) = P(E2|H2) * P(H2) / { P(E2|H1)P(H1) + P(E2|H2)P(H2) + P(E2|H3)P(H3) }
 +
: = 0.7 * 0.35 / { 0.9*0.4 + 0.7*0.35 + 0.5*0.25 } = 0.245 / 0.73 = 0.34
 +
: P(H3|E2) = P(E2|H3) * P(H3) / { P(E2|H1)P(H1) + P(E2|H2)P(H2) + P(E2|H3)P(H3) }
 +
: = 0.9 * 0.4 / { 0.9*0.4 + 0.7*0.35 + 0.5*0.25 } = 0.1225 / 0.73 = 0.17
 +
: 확률이 가장 높은 감기로 판단을 한다.
 +
* '''2일 차'''
 +
: 이튿날, 환자가 열이 나기 시작했다. 의사는 과연 어떤 판단을 할까?
 +
: P(H1+E1,E2) = P(E1|H1)*P(E2|H1)*P(H1) / { P(E1|H1)P(E2|H1)P(H1) + P(E1|H2)P(E2|H2)P(H2) + P(E1|H3)P(E2|H3)P(H3)
 +
: = 0.9*0.8*0.4 / { 0.9*0.8*0.4 + 0.7*0.5*0.35 + 0.5*0.3*0.25 } = 0.288 / 0.488 = 0.59
 +
: P(H2+E1,E2) = P(E1|H2)*P(E2|H2)*P(H2) / { P(E1|H1)P(E2|H1)P(H1) + P(E1|H2)P(E2|H2)P(H2) + P(E1|H3)P(E2|H3)P(H3)
 +
: = 0.7*0.5*0.35 / { 0.9*0.8*0.4 + 0.7*0.5*0.35 + 0.5*0.3*0.25 } = 0.1225 / 0.488 = 0.25
 +
: P(H3+E1,E2) = P(E1|H3)*P(E2|H3)*P(H3) / { P(E1|H1)P(E2|H1)P(H1) + P(E1|H2)P(E2|H2)P(H2) + P(E1|H3)P(E2|H3)P(H3)
 +
: = 0.9*0.8*0.4 / { 0.9*0.8*0.4 + 0.7*0.5*0.35 + 0.5*0.3*0.25 } = 0.0375 / 0.488 = 0.08
 +
: 이때도 확률이 가장 높은 감기로 판단을 한다.
 +
* '''3일 차'''
 +
: 환자 관찰 후 3일째 되는 날 환자의 입술이 마르는 것을 확인했다. 의사는 과연 어떤 판단을 할까?
 +
: P(H1|E1,E2,E3) = P(E1|H1)*P(E2|H1)*P(E3+H1)*P(H1) / { P(E1|H1)P(E2|H1)P(E3|H1)P(H1) + P(E1|H2)P(E2|H2)P(E3|H2)P(H2) + P(E1|H3)P(E2|H3)P(E3|H3)*P(H3) }
 +
: = 0 / { 0.4*0.8*0.9*0 + 0.35*0.50*0.70*0.70 + 0.25*0.30*0.50*0.90 } = 0
 +
: P(H2|E1,E2,E3) = P(E1|H2)*P(E2|H2)*P(E3+H2)*P(H2) / { P(E1|H1)P(E2|H1)P(E3|H1)P(H1) + P(E1|H2)P(E2|H2)P(E3|H2)P(H2) + P(E1|H3)P(E2|H3)P(E3|H3)*P(H3) }
 +
: = 0.35*0.50*0.70*0.70 / { 0.4*0.8*0.9*0 + 0.35*0.50*0.70*0.70 + 0.25*0.30*0.50*0.90 } = 0.08575 / 0.1195 = 0.72
 +
: P(H1|E1,E2,E3) = P(E1|H3)*P(E2|H3)*P(E3+H3)*P(H3) / { P(E1|H1)P(E2|H1)P(E3|H1)P(H1) + P(E1|H2)P(E2|H2)P(E3|H2)P(H2) + P(E1|H3)P(E2|H3)P(E3|H3)*P(H3) }
 +
: = 0.25*0.30*0.50*0.90 / { 0.4*0.8*0.9*0 + 0.35*0.50*0.70*0.70 + 0.25*0.30*0.50*0.90 } = 0.03375 / 0.1195 = 0.28
 +
: 확률이 가장 높은 독감으로 판단한다.
  
== 특징 ==
+
* 베이지 추론의 편중
어떤 의사결정을 할 때는 무엇을 위해 결정을 하는가의 목적이 반드시 있다. 이 목적을 이룰 수 있느냐 없느냐에 관여하는 요인은 2가지가 있다. 의사결정자가 제어가능한 요인인 '의사결정자의 행동'과 제어불가능한 요인인 '사회ㆍ자연 상태/타인의 전략'이 있다. 이때 제어불가능한 요인에 관해서 의사결정자는 정보의 정확성을 4가지로 분류한다. 확실성, 리스크,
+
# 인간은 베이지 규칙에 적용할 수 있는 확률값을 도출할 수 없다.
=== 경제적 측면 ===
+
# 조건부 확률값이 전문가가 제시한 사전 확률과 모순될 수도 있다.
 +
# 현실 세계에서 모든 사건이 독립적이어서 영향을 미치지 않는 것은 거의 없고, 결합확률을 구하는 것은 더더욱 힘들다.
 +
# 이러한 한계점을 극복하기 위해 제공된 것이 확산도 이론이다.<ref name="베이지"></ref>
 +
 
 +
=== 이미지 감지 인공지능의 불확실성 ===
 +
이미지 감지 [[인공지능]]을 학습시킬 때, 현실세계를 가지고 학습시킬 수는 없기 때문에 사진이나 컴퓨터가 생성한 이미지 혹은 비디오 등을 이용해야 한다. 하지만 이런 데이터를 통해 인공지능을 학습시키는 데는 한계가 있고, 현실세계에는 통제되지 않은 요인들이 많기 때문에 이미지를 완벽하게 감지사기가 쉽지 않다. [[머신러닝]]의 일반적인 이미지 추적 프로세스는 대상이 되는 물체 주변을 박스모양 테두리로 캡처하여 레이블을 지정하는 방식으로 객체를 잡는 것을 학습한다. 이런 프로세스는 단순한 환경에서 성공적으로 작동하지만, 상황이 복잡해지면 결과는 달라진다.
 +
 
 +
예시로, 전신이 찍힌 사진과 어떤 물체에 의해 머리만 찍힌 사진을 비교해보자. 전신이 찍힌 사진 속 인물을 정의하기는 쉽지만 머리만 찍힌 사진 속 인물을 정의하긴 어렵다. 사진에서 실제로 보이는 머리 부분만 테두리 안에 포함해야 할지, 보이진 않지만, 몸의 부위로 예상되는 부분까지 테두리 안에 포함해야 할지 애매하기 때문이다. 이처럼, 아직은 모든 [[객체]]를 완벽하게 정의할 방법은 없다. 머리만 찍힌 사진과 같이, 현실 세계에서는 깔끔하게 떨어지는 것이 없기에 정답이라는 개념이 모호하다. 하지만, 머신러닝 시스템이 훈련받은 데이터를 통해 현실 세계를 이해하기 위해서 접근할 때는 이런 부분을 반영하지 못한다. 불확실성과 모호함을 인식하기보다는 훈련용 데이터를 기반으로 실제 상황에 접근하며, 이러한 접근방식은 시스템과 사람에게 리스크로 작용할 가능성을 내포하고 있다. 인공 지능 시스템의 불확실성 속에서 작동 능력을 향상하기 위한 연구를 진행하고 있는 미국 일리노이 대학교의 교수 '브라이언 지바트'(Brian Ziebart)는 '실제 세계는 디지털화된 [[가상현실]]과는 다르게 예측 불가능한 요소들이 가득하다. 그러므로 우리가 인공지능 시스템을 신뢰하기 위해서는 먼저 이런 예측불허한 상황을 처리할 수 있는 능력이 필요하다'라고 말한다.
 +
 
 +
머신러닝 시스템은 필연적으로 훈련받은 데이터에서 배우지 못한 실제 상황에 직면하게 된다. 지바트 교수는 현재 데이터로 사용되고 있는 통계 모델들은 미래의 데이터들이 과거의 데이터와 흡사하리라 추정하는 경향이 있다'고 말한다. 결과적으로 로직을 바탕으로 한 머신러닝 시스템은 새로운 데이터가 발생하더라도 과거의 데이터와 흡사하다고 결과를 내기에 잘못된 추정이 나올 수 있으며 이는 위험한 결과를 초래할 수 있다.
  
=== 불확실성 회피 성향 ===
+
자가운전 차량에 사용될 이미지 감지 인공지능의 예를 들어보자. 다른 차량의 데이터를 기반으로 자가운전 차량의 이미지 감지 인공지능을 훈련했다고 하자. 그러면 주변의 객체를 테두리 처리하고 레이블을 달면서 주변 이미지들을 정의하려고 한다. 여기서 위에 말했던 문제점이 발생한다. 인공지능이 선명하고 깨끗한 이미지들을 가지고 훈련되었다면, 비가 오거나 날이 흐린 날에는 정확도가 떨어지게 된다. 인공지능은 지금까지 학습된 내용이 모든 경우의 수를 포함한다고 추정하기에 일어나는 결과이다. 반대로, 사람이라면 어떨까? 사람은 자신의 경험을 바탕으로 상황에 적응하고, 적응하지 못할 때는 이에 대해서 재인식하려는 경향이 있다. 예를 들어, 평소에는 아무것도 없어야 할 도로 위에 무언가가 있다면 운전자는 그냥 지나치지 않는다. 속도를 줄이며 조심스레 비껴가려고 하거나, 무엇인지 확인하려고 시도한다. 이처럼 사람은 주변 환경에 대해 불확실성을 느낄 때 위험한 실수를 저지르지 않기 위해 주의를 기울인다. 지바트 교수는 인공지능 시스템이 이런 불확실한 상황에서도 사람처럼 주의를 기울여야 할 필요가 있다고 말한다. 즉, 불확실성을 인식하고 더 많은 정보를 수집할 수 있도록 끊임없이 질문해야 한다는 것이다.<ref name="지바트">Tucker Davey, 〈[https://futureoflife.org/2018/03/15/how-ai-handles-uncertainty-brian-ziebart/?cn-reloaded=1 How AI Handles Uncertainty: An Interview With Brian Ziebart]〉, 《퓨쳐 오브 라이프》, 2018-03-15</ref>
  
 +
* 접근 방법
 +
: 인공지능이 오직 훈련과 실습만을 통해서 발생 가능한 모든 상황에 대처하는 것은 무리다. 하지만, 지바트는 훈련 시 혼란을 야기할 수 있는 불명확한 데이터를 공급함으로써 인공지능이 불확실성을 더 잘 인식하고 해결할 수 있다고 말한다. 인공지능과 다르게 인간은 불확실성 요소가 널려있는 실제 현실 세계에서 살아가고 있기 때문에 불확실한 상황에 이미 적응되었고, 사람들을 고용하여 특정 물체를 인간의 기준으로 테두리 처리하게 된다면 정상적인 데이터가 어떤 모습인지 더 정확하게 분류하게 될 수 있다. 예를 들어, 10명의 사람에게 특정 물체를 테두리 처리하라고 요청하면 모두 제각각의 결과가 나올 것이다. 이는 사람마다 진실에 대해 어떻게 생각하는지에 대한 다른 근거를 기반으로 하는, 모호함을 의미한다. 머신러닝 단계에서 혼란스럽고 상반되는 데이터를 제공한다면 모호성에 대비하기 위한 훈련을 할 수 있다. 지바트 교수는 이를 훈련 과정에서 데이터 '노이즈'를 합성한다고 말한다. 노이즈는 현실 세계의 무질서함을 반영하고 새로운 환경을 신중하게 예측할 수 있도록 훈련하는데 도움을 준다. 이로써 인공지능은 혼란스러운 상황에서 신중하게 추가 정보를 찾고 탐색하는 법을 배우게 된다. 앞에서 얘기한 예시에서 자가운전 자동차가 지나가는 길목에 새로운 물체가 나타날 경우, 이 물체가 무엇인지 바로 파악은 힘들더라도 불확실성 앞에서 신중한 태도를 취하는 인공지능을 개발할 수 있을 것이다.<ref name="지바트"></ref>
  
 
{{각주}}
 
{{각주}}
  
 
== 참고자료 ==
 
== 참고자료 ==
 +
* 이앵두, 〈[https://cbw1030.tistory.com/142 (인공지능 기초) 불확실성 - 비단조 추론]〉, 《티스토리》, 2020-07.06
 +
* Cloud Travel, 〈[https://destiny738.tistory.com/443 (인공지능) 불확실성과 베이지 추론]〉, 《티스토리》, 2012-11.07
 +
* Tucker Davey, 〈[https://futureoflife.org/2018/03/15/how-ai-handles-uncertainty-brian-ziebart/?cn-reloaded=1 How AI Handles Uncertainty: An Interview With Brian Ziebart]〉, 《퓨쳐 오브 라이프》, 2018-03-15
  
== 같이보기 ==
+
== 같이 보기 ==
  
{{로고 수정 필요}
+
{{인공지능 기술|검토 필요}}
{{경제|검토 필요}}
 

2020년 7월 17일 (금) 15:22 기준 최신판

불확실성(不確實性, uncertainty)은 장래 일어날 수 있는 사상(事象)에 관해서 인간이 가진 정보의 정확성에 대한 하나의 구분을 말한다. 즉, 불규칙한 변화로 인해 미래에 전개될 상황을 예측할 수 없는 상태이다.

개요[편집]

우리가 사는 현실 세계는 복잡하고 예측이 어려워서 논리만으로는 현실 세계를 반영하기 매우 어렵다. 그뿐만 아니라 단순화된 모델과 정형화된 기법으로 표현하기에 한계가 있다. 이러한 현실 세계의 불확실성을 해결하기 위해 지식 베이스의 일관성을 유지하는 것과 수치화를 통해 불확실성을 정형화하는 확률적 기법이 도입되었지만, 여전히 제한적이며 완벽한 해결이 불가능하다. 그 예시로 카네기멜론 대학교(CMU)에서 개발한 자율주행 자동차 'NAVLAB'을 들 수 있는데, 이 역시 돌발 상황에서의 대처 능력이 부족하다.[1]

불확실성의 요인은 크게 네 가지로 분류할 수 있다. 데이터 불확실성, 지식의 불확실성, 정보의 불완전성, 확률의 불규칙성이다. 먼저 데이터 불확실성은 부사, 형용사의 수치화가 정확하지 않으며 그 경계 또한 모호하고, 이로 인해 데이터의 모호함을 유발하게 되어 사람이 사용하는 정보는 불완전하고 모순되기도 하기에 센서 장치가 얻는 정보 자체가 불확실할 수 있다는 것을 말한다. 다음으로 지식의 불확실성은 전문가의 자문도 사실 또한 불확실하고, 완전하지 않은 지식이며 표현상, 의사소통 간 오류가 있을 수 있다는 것을 의미한다. 정보의 불완전성은 알려지지 않은 데이터에 대해서는 근사적 추론을 진행하기에 결과가 불완전하고, 정보량이 부족하다는 것을 의미하고, 확률의 불규칙성은 시간이 지나면서 추가로 발생하는 불규칙성이 있을 수 있다는 것을 말한다.[2]

특징[편집]

비단조 추론[편집]

  • 기존 논리 체계와 문제점
본격적인 추론법에 들어가기에 앞서 다룬 논리 체계의 문제점을 먼저 알아보도록 하자. 기존 논리 체계를 통한 추론은 모든 정보가 존재하거나 1차 논리로 유도하는 완전성, 정보 상호 간 모순이 없다는 일관성, 추론할수록 참인 정보가 늘어난다는 단조성. 이 세 가지에 다 부합하지 않는다. 결국 의미 없는 추론이 되는 것이다.[2]
  • 비단조 추론
그렇다면 추론을 하고 싶어도 위의 불확실성의 요인들이나 논리의 문제점에 의해 추론을 할 수 없는 경우에는 어떻게 할까?
이러한 상황에서 이루어지는 추론 중 하나가 비단조 추론이다. 비단조 추론은 새로운 사실이 기존 참인 사실과 모순될 수 있음을 인정하고 단조 증가가 아님을 인정하는 추론법이다. 비단조 추론의 예를 아주 간단하게 들어보자. 여행에 관련된 운전자의 지식이 있다고 가정할 때, 현 상황에서의 운전자의 인식 사실과 새로 획득한 지식이 충돌되어 원래 사실로 믿고 있던 것들이 갱신된다면 이는 비단조 추론이고 가변적인 추론이라고 말할 수 있다.[2]

베이지 추론[편집]

불확실성을 없애기 위해서 수학적으로 완벽한 확률(베이지 규칙)을 이용한 방법과 사람과 비슷한 형식으로 생각(확신도 이론)하는 방법이 나오게 되었다.

  • 확률적 접근
확률적 접근은 자연현상에는 쓸만하지만, 사람이 관련되면 결과의 오차범위가 커진다.
베이지 규칙은 특정 사건을 상호 배타적인 사건들에 대한 종속적인 사건으로 확장해 나갈 수 있다.
Rule) IF E is true then H is True.(P percent)
- E가 참일 경우 H는 P의 확률로 사실이 된다.

E가 일어날 확률도 존재할 것이기에 계산이 복잡해지고, 확률이 전파가 된다. 또한 각 증거 사이의 의존 관계를 계산해내기가 힘들다. 통상적으로 H는 가설을 나타내며, E는 가설에 대한 증거로 나타난다. 증거가 모두 독립 사건이라고 가정했을 때, 증거가 발생한 시점에서 가설이 발생할 확률의 결합확률로 구한다. 여러 증거가 주어졌을 때, 이로 인해 발생할 가설에 대한 확률을 구하는 방식이다.

발병확률
예를 들어, 감기, 독감, 몸살과 그 증상에 대한 통계적 조사로 다음과 같은 표를 구했다고 한다. 의사가 환자에 대해서 날이 지나감에 따라 E2, E1, E3 순서로 증상을 발견한다면, 각각의 날에 의사는 환자의 병을 무엇으로 판단할까?
  • 1일 차
최초 기침 증상을 보이는 환자가 나타났다. 의사는 과연 어떤 판단을 할까?
P(H1|E2) = P(E2|H1) * P(H1) / { P(E2|H1)P(H1) + P(E2|H2)P(H2) + P(E2|H3)P(H3) }
= 0.9 * 0.4 / { 0.9*0.4 + 0.7*0.35 + 0.5*0.25 } = 0.36 / 0.73 = 0.49
P(H2|E2) = P(E2|H2) * P(H2) / { P(E2|H1)P(H1) + P(E2|H2)P(H2) + P(E2|H3)P(H3) }
= 0.7 * 0.35 / { 0.9*0.4 + 0.7*0.35 + 0.5*0.25 } = 0.245 / 0.73 = 0.34
P(H3|E2) = P(E2|H3) * P(H3) / { P(E2|H1)P(H1) + P(E2|H2)P(H2) + P(E2|H3)P(H3) }
= 0.9 * 0.4 / { 0.9*0.4 + 0.7*0.35 + 0.5*0.25 } = 0.1225 / 0.73 = 0.17
확률이 가장 높은 감기로 판단을 한다.
  • 2일 차
이튿날, 환자가 열이 나기 시작했다. 의사는 과연 어떤 판단을 할까?
P(H1+E1,E2) = P(E1|H1)*P(E2|H1)*P(H1) / { P(E1|H1)P(E2|H1)P(H1) + P(E1|H2)P(E2|H2)P(H2) + P(E1|H3)P(E2|H3)P(H3)
= 0.9*0.8*0.4 / { 0.9*0.8*0.4 + 0.7*0.5*0.35 + 0.5*0.3*0.25 } = 0.288 / 0.488 = 0.59
P(H2+E1,E2) = P(E1|H2)*P(E2|H2)*P(H2) / { P(E1|H1)P(E2|H1)P(H1) + P(E1|H2)P(E2|H2)P(H2) + P(E1|H3)P(E2|H3)P(H3)
= 0.7*0.5*0.35 / { 0.9*0.8*0.4 + 0.7*0.5*0.35 + 0.5*0.3*0.25 } = 0.1225 / 0.488 = 0.25
P(H3+E1,E2) = P(E1|H3)*P(E2|H3)*P(H3) / { P(E1|H1)P(E2|H1)P(H1) + P(E1|H2)P(E2|H2)P(H2) + P(E1|H3)P(E2|H3)P(H3)
= 0.9*0.8*0.4 / { 0.9*0.8*0.4 + 0.7*0.5*0.35 + 0.5*0.3*0.25 } = 0.0375 / 0.488 = 0.08
이때도 확률이 가장 높은 감기로 판단을 한다.
  • 3일 차
환자 관찰 후 3일째 되는 날 환자의 입술이 마르는 것을 확인했다. 의사는 과연 어떤 판단을 할까?
P(H1|E1,E2,E3) = P(E1|H1)*P(E2|H1)*P(E3+H1)*P(H1) / { P(E1|H1)P(E2|H1)P(E3|H1)P(H1) + P(E1|H2)P(E2|H2)P(E3|H2)P(H2) + P(E1|H3)P(E2|H3)P(E3|H3)*P(H3) }
= 0 / { 0.4*0.8*0.9*0 + 0.35*0.50*0.70*0.70 + 0.25*0.30*0.50*0.90 } = 0
P(H2|E1,E2,E3) = P(E1|H2)*P(E2|H2)*P(E3+H2)*P(H2) / { P(E1|H1)P(E2|H1)P(E3|H1)P(H1) + P(E1|H2)P(E2|H2)P(E3|H2)P(H2) + P(E1|H3)P(E2|H3)P(E3|H3)*P(H3) }
= 0.35*0.50*0.70*0.70 / { 0.4*0.8*0.9*0 + 0.35*0.50*0.70*0.70 + 0.25*0.30*0.50*0.90 } = 0.08575 / 0.1195 = 0.72
P(H1|E1,E2,E3) = P(E1|H3)*P(E2|H3)*P(E3+H3)*P(H3) / { P(E1|H1)P(E2|H1)P(E3|H1)P(H1) + P(E1|H2)P(E2|H2)P(E3|H2)P(H2) + P(E1|H3)P(E2|H3)P(E3|H3)*P(H3) }
= 0.25*0.30*0.50*0.90 / { 0.4*0.8*0.9*0 + 0.35*0.50*0.70*0.70 + 0.25*0.30*0.50*0.90 } = 0.03375 / 0.1195 = 0.28
확률이 가장 높은 독감으로 판단한다.
  • 베이지 추론의 편중
  1. 인간은 베이지 규칙에 적용할 수 있는 확률값을 도출할 수 없다.
  2. 조건부 확률값이 전문가가 제시한 사전 확률과 모순될 수도 있다.
  3. 현실 세계에서 모든 사건이 독립적이어서 영향을 미치지 않는 것은 거의 없고, 결합확률을 구하는 것은 더더욱 힘들다.
  4. 이러한 한계점을 극복하기 위해 제공된 것이 확산도 이론이다.[1]

이미지 감지 인공지능의 불확실성[편집]

이미지 감지 인공지능을 학습시킬 때, 현실세계를 가지고 학습시킬 수는 없기 때문에 사진이나 컴퓨터가 생성한 이미지 혹은 비디오 등을 이용해야 한다. 하지만 이런 데이터를 통해 인공지능을 학습시키는 데는 한계가 있고, 현실세계에는 통제되지 않은 요인들이 많기 때문에 이미지를 완벽하게 감지사기가 쉽지 않다. 머신러닝의 일반적인 이미지 추적 프로세스는 대상이 되는 물체 주변을 박스모양 테두리로 캡처하여 레이블을 지정하는 방식으로 객체를 잡는 것을 학습한다. 이런 프로세스는 단순한 환경에서 성공적으로 작동하지만, 상황이 복잡해지면 결과는 달라진다.

예시로, 전신이 찍힌 사진과 어떤 물체에 의해 머리만 찍힌 사진을 비교해보자. 전신이 찍힌 사진 속 인물을 정의하기는 쉽지만 머리만 찍힌 사진 속 인물을 정의하긴 어렵다. 사진에서 실제로 보이는 머리 부분만 테두리 안에 포함해야 할지, 보이진 않지만, 몸의 부위로 예상되는 부분까지 테두리 안에 포함해야 할지 애매하기 때문이다. 이처럼, 아직은 모든 객체를 완벽하게 정의할 방법은 없다. 머리만 찍힌 사진과 같이, 현실 세계에서는 깔끔하게 떨어지는 것이 없기에 정답이라는 개념이 모호하다. 하지만, 머신러닝 시스템이 훈련받은 데이터를 통해 현실 세계를 이해하기 위해서 접근할 때는 이런 부분을 반영하지 못한다. 불확실성과 모호함을 인식하기보다는 훈련용 데이터를 기반으로 실제 상황에 접근하며, 이러한 접근방식은 시스템과 사람에게 리스크로 작용할 가능성을 내포하고 있다. 인공 지능 시스템의 불확실성 속에서 작동 능력을 향상하기 위한 연구를 진행하고 있는 미국 일리노이 대학교의 교수 '브라이언 지바트'(Brian Ziebart)는 '실제 세계는 디지털화된 가상현실과는 다르게 예측 불가능한 요소들이 가득하다. 그러므로 우리가 인공지능 시스템을 신뢰하기 위해서는 먼저 이런 예측불허한 상황을 처리할 수 있는 능력이 필요하다'라고 말한다.

머신러닝 시스템은 필연적으로 훈련받은 데이터에서 배우지 못한 실제 상황에 직면하게 된다. 지바트 교수는 현재 데이터로 사용되고 있는 통계 모델들은 미래의 데이터들이 과거의 데이터와 흡사하리라 추정하는 경향이 있다'고 말한다. 결과적으로 이 로직을 바탕으로 한 머신러닝 시스템은 새로운 데이터가 발생하더라도 과거의 데이터와 흡사하다고 결과를 내기에 잘못된 추정이 나올 수 있으며 이는 위험한 결과를 초래할 수 있다.

자가운전 차량에 사용될 이미지 감지 인공지능의 예를 들어보자. 다른 차량의 데이터를 기반으로 자가운전 차량의 이미지 감지 인공지능을 훈련했다고 하자. 그러면 주변의 객체를 테두리 처리하고 레이블을 달면서 주변 이미지들을 정의하려고 한다. 여기서 위에 말했던 문제점이 발생한다. 인공지능이 선명하고 깨끗한 이미지들을 가지고 훈련되었다면, 비가 오거나 날이 흐린 날에는 정확도가 떨어지게 된다. 인공지능은 지금까지 학습된 내용이 모든 경우의 수를 포함한다고 추정하기에 일어나는 결과이다. 반대로, 사람이라면 어떨까? 사람은 자신의 경험을 바탕으로 상황에 적응하고, 적응하지 못할 때는 이에 대해서 재인식하려는 경향이 있다. 예를 들어, 평소에는 아무것도 없어야 할 도로 위에 무언가가 있다면 운전자는 그냥 지나치지 않는다. 속도를 줄이며 조심스레 비껴가려고 하거나, 무엇인지 확인하려고 시도한다. 이처럼 사람은 주변 환경에 대해 불확실성을 느낄 때 위험한 실수를 저지르지 않기 위해 주의를 기울인다. 지바트 교수는 인공지능 시스템이 이런 불확실한 상황에서도 사람처럼 주의를 기울여야 할 필요가 있다고 말한다. 즉, 불확실성을 인식하고 더 많은 정보를 수집할 수 있도록 끊임없이 질문해야 한다는 것이다.[3]

  • 접근 방법
인공지능이 오직 훈련과 실습만을 통해서 발생 가능한 모든 상황에 대처하는 것은 무리다. 하지만, 지바트는 훈련 시 혼란을 야기할 수 있는 불명확한 데이터를 공급함으로써 인공지능이 불확실성을 더 잘 인식하고 해결할 수 있다고 말한다. 인공지능과 다르게 인간은 불확실성 요소가 널려있는 실제 현실 세계에서 살아가고 있기 때문에 불확실한 상황에 이미 적응되었고, 사람들을 고용하여 특정 물체를 인간의 기준으로 테두리 처리하게 된다면 정상적인 데이터가 어떤 모습인지 더 정확하게 분류하게 될 수 있다. 예를 들어, 10명의 사람에게 특정 물체를 테두리 처리하라고 요청하면 모두 제각각의 결과가 나올 것이다. 이는 사람마다 진실에 대해 어떻게 생각하는지에 대한 다른 근거를 기반으로 하는, 모호함을 의미한다. 머신러닝 단계에서 혼란스럽고 상반되는 데이터를 제공한다면 모호성에 대비하기 위한 훈련을 할 수 있다. 지바트 교수는 이를 훈련 과정에서 데이터 '노이즈'를 합성한다고 말한다. 노이즈는 현실 세계의 무질서함을 반영하고 새로운 환경을 신중하게 예측할 수 있도록 훈련하는데 도움을 준다. 이로써 인공지능은 혼란스러운 상황에서 신중하게 추가 정보를 찾고 탐색하는 법을 배우게 된다. 앞에서 얘기한 예시에서 자가운전 자동차가 지나가는 길목에 새로운 물체가 나타날 경우, 이 물체가 무엇인지 바로 파악은 힘들더라도 불확실성 앞에서 신중한 태도를 취하는 인공지능을 개발할 수 있을 것이다.[3]

각주[편집]

  1. 1.0 1.1 Cloud Travel, 〈(인공지능) 불확실성과 베이지 추론〉, 《티스토리》, 2012-11-07
  2. 2.0 2.1 2.2 이앵두, 〈(인공지능 기초) 불확실성 - 비단조 추론〉, 《티스토리》, 2020-07-06
  3. 3.0 3.1 Tucker Davey, 〈How AI Handles Uncertainty: An Interview With Brian Ziebart〉, 《퓨쳐 오브 라이프》, 2018-03-15

참고자료[편집]

같이 보기[편집]

  검수요청.png검수요청.png 이 불확실성 문서는 인공지능 기술에 관한 글로서 검토가 필요합니다. 위키 문서는 누구든지 자유롭게 편집할 수 있습니다. [편집]을 눌러 문서 내용을 검토·수정해 주세요.