검수요청.png검수요청.png

"불확실성"의 두 판 사이의 차이

위키원
이동: 둘러보기, 검색
(역사)
 
(사용자 3명의 중간 판 49개는 보이지 않습니다)
1번째 줄: 1번째 줄:
'''불확실성'''(不確實性, uncertainty)은 장래 일어날 수 있는 사상(事象)에 관해서 인간이 가진 [[정보]]의 정확성에 대한 하나의 구분을 말한다. 즉, 불규칙적인 변화로 인해 미래에 전개될 상황을 예측할 수 없는 상태이다. 행정학에서의 불확실성은 의사결정의 행동노선에 영향을 미치는 요인이 가변적(可變的)이거나 과거·현재·미래에 대한 확실한 지식이 부족한 상태를 말한다.
+
'''불확실성'''(不確實性, uncertainty)은 장래 일어날 수 있는 사상(事象)에 관해서 인간이 가진 [[정보]]의 정확성에 대한 하나의 구분을 말한다. 즉, 불규칙한 변화로 인해 미래에 전개될 상황을 예측할 수 없는 상태이다.
  
 
== 개요 ==
 
== 개요 ==
불확실한 미래로 인해 사람들은 불안해하고 힘들어한다.
+
우리가 사는 현실 세계는 복잡하고 예측이 어려워서 논리만으로는 현실 세계를 반영하기 매우 어렵다.
예를 들어, 학창시절에 숙제를 안 하고 학교에 갔다고 하자. 숙제를 검사한다는 사실을 알고 있으면 체념하고 혼날 각오를 하면 된다. 하지만 , 선생님께서 숙제를 검사하실지 안 하실지 모른다면 어떨까? 그 시간이 되기 전까지는 아무것도 모르기에 불안에 떨어야한다. 혼날 각오를 한다는 선택지도 있지만, 검사를 안 할수도 있다는 희망이 남아 있기에 불확실한 미래로 인한 불안감이 극대화된다.
+
그뿐만 아니라 단순화된 모델과 정형화된 기법으로 표현하기에 한계가 있다. 이러한 현실 세계의 불확실성을 해결하기 위해 지식 베이스의 일관성을 유지하는 것과 수치화를 통해 불확실성을 정형화하는 확률적 기법이 도입되었지만, 여전히 제한적이며 완벽한 해결이 불가능하다. 그 예시로 [[카네기멜론 대학교]](CMU)에서 개발한 [[자율주행 자동차]] 'NAVLAB'을 들 수 있는데, 이 역시 돌발 상황에서의 대처 능력이 부족하다.<ref name="베이지">Cloud Travel, 〈[https://destiny738.tistory.com/443 (인공지능) 불확실성과 베이지 추론]〉, 《티스토리》, 2012-11-07</ref>
  
극단적인 예로, 도박, 그 중에서도 얼마 전에 열풍이 불었던 비트코인을 들어보자. 비트코인은 가격이 시간대마다 천차만별이기에 낮은 가격에 사서 높은 가격에 팔아 이득을 보는 구조이다. 가격이 어떻게, 얼마나 변할지 모르기에 코인을 산 사람들은 자신이 산 코인의 가격이 떨어지지는 않을까 불안해한다.
+
불확실성의 요인은 크게 네 가지로 분류할 수 있다.
 +
[[데이터]] 불확실성, 지식의 불확실성, 정보의 불완전성, 확률의 불규칙성이다.
 +
먼저 데이터 불확실성은 부사, 형용사의 수치화가 정확하지 않으며 경계 또한 모호하고, 이로 인해 데이터의 모호함을 유발하게 되어 사람이 사용하는 [[정보]]는 불완전하고 모순되기도 하기에 센서 장치가 얻는 정보 자체가 불확실할 수 있다는 것을 말한다.
 +
다음으로 지식의 불확실성은 전문가의 [[자문]]도 사실 또한 불확실하고, 완전하지 않은 지식이며 표현상, 의사소통 간 오류가 있을 수 있다는 것을 의미한다.
 +
정보의 불완전성은 알려지지 않은 데이터에 대해서는 근사적 추론을 진행하기에 결과가 불완전하고, 정보량이 부족하다는 것을 의미하고, 확률의 불규칙성은 시간이 지나면서 추가로 발생하는 불규칙성이 있을 수 있다는 것을 말한다.<ref name="비단조">이앵두, 〈[https://cbw1030.tistory.com/142 (인공지능 기초) 불확실성 - 비단조 추론]〉, 《티스토리》, 2020-07-06</ref>
  
이처럼 불확실성은 불안감을 낳고, 사람들은 그 불안감을 없애기 위해 혈안이다. 매달 꽤 많은 돈을 들여가며 보험에 들고, 적금도 들며 혹시 모를 위험에 대비하고 일부 사람들은 '오늘의 운세'와 같은 문구를 보며 미래를 알고싶어한다.<ref>임낭연, 〈[http://www.mind-journal.com/news/articleView.html?idxno=557]〉, 《불확실성의 역설: 때론 불확실할 더 행복하다!》, 2019-10-14 </ref>
+
== 특징 ==
 +
=== 비단조 추론 ===
 +
* '''기존 논리 체계와 문제점'''
 +
: 본격적인 추론법에 들어가기에 앞서 다룬 논리 체계의 문제점을 먼저 알아보도록 하자. 기존 논리 체계를 통한 추론은 모든 정보가 존재하거나 1차 논리로 유도하는 완전성, 정보 상호 간 모순이 없다는 일관성, 추론할수록 참인 정보가 늘어난다는 단조성. 이 세 가지에 다 부합하지 않는다. 결국 의미 없는 추론이 되는 것이다.<ref name="비단조"></ref>
 +
 
 +
* '''비단조 추론'''
 +
: 그렇다면 추론을 하고 싶어도 위의 불확실성의 요인들이나 논리의 문제점에 의해 추론을 할 수 없는 경우에는 어떻게 할까?
 +
: 이러한 상황에서 이루어지는 추론 중 하나가 비단조 추론이다. 비단조 추론은 새로운 사실이 기존 참인 사실과 모순될 수 있음을 인정하고 단조 증가가 아님을 인정하는 추론법이다. 비단조 추론의 예를 아주 간단하게 들어보자. 여행에 관련된 운전자의 지식이 있다고 가정할 때, 현 상황에서의 운전자의 인식 사실과 새로 획득한 지식이 충돌되어 원래 사실로 믿고 있던 것들이 갱신된다면 이는 비단조 추론이고 가변적인 추론이라고 말할 수 있다.<ref name="비단조"></ref>
 +
 
 +
=== 베이지 추론 ===
 +
불확실성을 없애기 위해서 수학적으로 완벽한 확률(베이지 규칙)을 이용한 방법과 사람과 비슷한 형식으로 생각(확신도 이론)하는 방법이 나오게 되었다.
  
불확실성의 문제는 의사결정과 정책 결정에 직접적인 영향을 미치기 때문에 자연과학은 물론 모든 사회과학에서 관심의 대상이 되고 있다. 특히 미래를 설계하고 적은 비용으로 큰 성과를 추구하는 행정학에서는 불확실성을 제거하는 문제가 중요한 과제이다.<ref>하동석, 〈[https://terms.naver.com/entry.nhn?docId=659645&cid=42152&categoryId=42152]〉, 《이해하기 쉽게 쓴 행정학용어사전》, 2010-03-25 </ref>
+
*'''확률적 접근'''
 +
: 확률적 접근은 자연현상에는 쓸만하지만, 사람이 관련되면 결과의 오차범위가 커진다.
 +
: 베이지 규칙은 특정 사건을 상호 배타적인 사건들에 대한 종속적인 사건으로 확장해 나갈 수 있다.
  
== 역사 ==
+
Rule) IF E is true then H is True.(P percent)
역사적 관점에서, 불확실성의 문제가 과학계 내에서 항상 받아들여지지는 않았다. 과거의 과학계는 불확실성을 바람직하지 않은 상태, 즉 어떤 대가를 치르더라도 피해야 하는 상태라고 정의했다. 이 정의는 물리학자들이 '뉴턴 역학은 분자 수준에서 문제를 다루지 않는다'라는 것을 깨닫게 된 19세기 후반까지 건재했다. 하지만 그 이후로 통계적 역학과 관련된 새로운 방법들이 개발되었고 통계적 평균이 정확히 알려지지 않은 것. 즉, 불확실성을 회계처리하는 미시적 실체들의 특정한 발현을 대체할 수 있다는 것을 인식했다. 대량의 미시적 실체의 활동을 요약한 통계량은 적절한 거시적 변수를 가진 모델에서 연결될 수 있다. 그 이후, 불확실성을 고려하지 않았던 뉴턴 역학의 역할과 그 기초 미적분학은 확률 이론으로 설명할 수 있는 통계 역학, 즉 무작위 공정에서 발생하는 불확실성의 형태를 포착할 수 있는 이론으로 대체되었다. 통계 역학의 발달 후, 신뢰할 수 있는 해결책이 달성될 수 있고 동시에 불확실성의 양을 계량화한다는 의미에서, 지난 세기에 걸쳐, 불확실성의 영향을 고려하는 과학의 점진적인 추세가 있었다.
+
  - E가 참일 경우 H는 P의 확률로 사실이 된다.
  
19세기 후반부터 20세기 후반까지 과학 모델의 불확실성을 계량하는 데 있어서 선도적인 이론은 확률론이었다. 확률은 1500년대부터 도박꾼들이 운의 게임에서 확률의 법칙을 인식하던 카르다노 시대까지 오랜 사용 역사를 가지고 있다. 뉴턴 시대에 이르러 물리학자와 수학자들은 공리와 운영 이론에 부합하는 확률에 대한 서로 다른 해석을 만들어 내고 있었다. 오늘날 남아 있는 가장 인기 있는 것은 상대적 주파수 확률과 주관적 또는 개인주의적 확률이다. 후자의 발전은 Rev에 기초했다. 토마스 베이지스의 (1763년경) 조건부 확률을 위한 1763년경)의 강력한 정리. 주관적 확률은 인간의 믿음 정도나 베팅 의지가 이론적 구성 내에서 확률에 대한 수학적으로 일관성 있는 해석이라고 명시했다.
+
E가 일어날 확률도 존재할 것이기에 계산이 복잡해지고, 확률이 전파가 된다. 또한 각 증거 사이의 의존 관계를 계산해내기가 힘들다.
 +
통상적으로 H는 가설을 나타내며, E는 가설에 대한 증거로 나타난다.
 +
증거가 모두 독립 사건이라고 가정했을 때, 증거가 발생한 시점에서 가설이 발생할 확률의 결합확률로 구한다. 여러 증거가 주어졌을 때, 이로 인해 발생할 가설에 대한 확률을 구하는 방식이다.
 +
[[파일:발병확률.jpg|썸네일|400픽셀|'''발병확률''']]예를 들어, 감기, 독감, 몸살과 증상에 대한 통계적 조사로 다음과 같은 표를 구했다고 한다. 의사가 환자에 대해서 날이 지나감에 따라 E2, E1, E3 순서로 증상을 발견한다면, 각각의 날에 의사는 환자의 병을 무엇으로 판단할까?
 +
* '''1일 차'''
 +
: 최초 기침 증상을 보이는 환자가 나타났다. 의사는 과연 어떤 판단을 할까?
 +
: P(H1|E2) = P(E2|H1) * P(H1) / { P(E2|H1)P(H1) + P(E2|H2)P(H2) + P(E2|H3)P(H3) }
 +
: = 0.9 * 0.4 / { 0.9*0.4 + 0.7*0.35 + 0.5*0.25 } = 0.36 / 0.73 = 0.49
 +
: P(H2|E2) = P(E2|H2) * P(H2) / { P(E2|H1)P(H1) + P(E2|H2)P(H2) + P(E2|H3)P(H3) }
 +
: = 0.7 * 0.35 / { 0.9*0.4 + 0.7*0.35 + 0.5*0.25 } = 0.245 / 0.73 = 0.34
 +
: P(H3|E2) = P(E2|H3) * P(H3) / { P(E2|H1)P(H1) + P(E2|H2)P(H2) + P(E2|H3)P(H3) }
 +
: = 0.9 * 0.4 / { 0.9*0.4 + 0.7*0.35 + 0.5*0.25 } = 0.1225 / 0.73 = 0.17
 +
: 확률이 가장 높은 감기로 판단을 한다.
 +
* '''2일 차'''
 +
: 이튿날, 환자가 열이 나기 시작했다. 의사는 과연 어떤 판단을 할까?
 +
: P(H1+E1,E2) = P(E1|H1)*P(E2|H1)*P(H1) / { P(E1|H1)P(E2|H1)P(H1) + P(E1|H2)P(E2|H2)P(H2) + P(E1|H3)P(E2|H3)P(H3)
 +
: = 0.9*0.8*0.4 / { 0.9*0.8*0.4 + 0.7*0.5*0.35 + 0.5*0.3*0.25 } = 0.288 / 0.488 = 0.59
 +
: P(H2+E1,E2) = P(E1|H2)*P(E2|H2)*P(H2) / { P(E1|H1)P(E2|H1)P(H1) + P(E1|H2)P(E2|H2)P(H2) + P(E1|H3)P(E2|H3)P(H3)
 +
: = 0.7*0.5*0.35 / { 0.9*0.8*0.4 + 0.7*0.5*0.35 + 0.5*0.3*0.25 } = 0.1225 / 0.488 = 0.25
 +
: P(H3+E1,E2) = P(E1|H3)*P(E2|H3)*P(H3) / { P(E1|H1)P(E2|H1)P(H1) + P(E1|H2)P(E2|H2)P(H2) + P(E1|H3)P(E2|H3)P(H3)
 +
: = 0.9*0.8*0.4 / { 0.9*0.8*0.4 + 0.7*0.5*0.35 + 0.5*0.3*0.25 } = 0.0375 / 0.488 = 0.08
 +
: 이때도 확률이 가장 높은 감기로 판단을 한다.
 +
* '''3일 차'''
 +
: 환자 관찰 후 3일째 되는 날 환자의 입술이 마르는 것을 확인했다. 의사는 과연 어떤 판단을 할까?
 +
: P(H1|E1,E2,E3) = P(E1|H1)*P(E2|H1)*P(E3+H1)*P(H1) / { P(E1|H1)P(E2|H1)P(E3|H1)P(H1) + P(E1|H2)P(E2|H2)P(E3|H2)P(H2) + P(E1|H3)P(E2|H3)P(E3|H3)*P(H3) }
 +
: = 0 / { 0.4*0.8*0.9*0 + 0.35*0.50*0.70*0.70 + 0.25*0.30*0.50*0.90 } = 0
 +
: P(H2|E1,E2,E3) = P(E1|H2)*P(E2|H2)*P(E3+H2)*P(H2) / { P(E1|H1)P(E2|H1)P(E3|H1)P(H1) + P(E1|H2)P(E2|H2)P(E3|H2)P(H2) + P(E1|H3)P(E2|H3)P(E3|H3)*P(H3) }
 +
: = 0.35*0.50*0.70*0.70 / { 0.4*0.8*0.9*0 + 0.35*0.50*0.70*0.70 + 0.25*0.30*0.50*0.90 } = 0.08575 / 0.1195 = 0.72
 +
: P(H1|E1,E2,E3) = P(E1|H3)*P(E2|H3)*P(E3+H3)*P(H3) / { P(E1|H1)P(E2|H1)P(E3|H1)P(H1) + P(E1|H2)P(E2|H2)P(E3|H2)P(H2) + P(E1|H3)P(E2|H3)P(E3|H3)*P(H3) }
 +
: = 0.25*0.30*0.50*0.90 / { 0.4*0.8*0.9*0 + 0.35*0.50*0.70*0.70 + 0.25*0.30*0.50*0.90 } = 0.03375 / 0.1195 = 0.28
 +
: 확률이 가장 높은 독감으로 판단한다.
  
확률 이론을 이용한 불확실성 표현의 점진적 진화는 1937년 맥스 블랙이 그의 학생들과 연구한 것을 시초로, 1965년 로트피 자데에 의한 퍼지 집합의 도입으로 시작되었다. 자데의 연구는 불확실성에 대한 사고에 깊은 영향을 주었다. 불확실성에 대한 유일한 표현으로서 확률 이론뿐만 아니라 확률 이론이 근거한 바로 그 기초에 도전했기 때문이다.
+
* 베이지 추론의 편중
 +
# 인간은 베이지 규칙에 적용할 수 있는 확률값을 도출할 수 없다.
 +
# 조건부 확률값이 전문가가 제시한 사전 확률과 모순될 수도 있다.
 +
# 현실 세계에서 모든 사건이 독립적이어서 영향을 미치지 않는 것은 거의 없고, 결합확률을 구하는 것은 더더욱 힘들다.
 +
# 이러한 한계점을 극복하기 위해 제공된 것이 확산도 이론이다.<ref name="베이지"></ref>
  
20세기는 확률 이론과 고전적인 아리스토텔레스 논리에 대한 대안의 첫 발전을 더 많은 종류의 불확실성을 다루기 위한 패러다임으로 보았다. 얀 루카시위츠(Jan Lucasiewicz)는 다중 값과 이산논리(circa 1930)를 개발했다. 1960년대에 아서 뎀스터(Arthur Dempster)는 처음으로 무지의 평가 또는 정보의 부재를 포함하는 증거 이론을 개발했다. 1965년, 로트피 자데는 퍼지 집합론이라고 부르는 연속 가치 논리에 대한 그의 생각을 발표했다. 1970년대에 글렌 샤퍼(Glenn Shafer)는 뎀스터의 연구를 확장하여 둘 이상의 출처로부터 정보를 다루는 완전한 증거 이론을 만들어 냈고, 로트피 자데는 퍼지 집합의 특수한 사례에서 비롯되는 가능성 이론을 설명했다. 이후 1980년대에 다른 조사관들은 퍼지 척도라고 불리던 것의 사용과 함께 증거 이론, 확률 이론, 가능성 이론 사이의 강한 관계를 보여주었고, 지금은 모노톤 척도 라고 불렸다.<ref>J.M. Booker, 〈[https://www.sciencedirect.com/science/article/pii/S1026309811000551#!]〉, 《ScienceDirect》, 2011-05-07 </ref>
+
=== 이미지 감지 인공지능의 불확실성 ===
 +
이미지 감지 [[인공지능]]을 학습시킬 때, 현실세계를 가지고 학습시킬 수는 없기 때문에 사진이나 컴퓨터가 생성한 이미지 혹은 비디오 등을 이용해야 한다. 하지만 이런 데이터를 통해 인공지능을 학습시키는 데는 한계가 있고, 현실세계에는 통제되지 않은 요인들이 많기 때문에 이미지를 완벽하게 감지사기가 쉽지 않다. [[머신러닝]]의 일반적인 이미지 추적 프로세스는 대상이 되는 물체 주변을 박스모양 테두리로 캡처하여 레이블을 지정하는 방식으로 객체를 잡는 것을 학습한다. 이런 프로세스는 단순한 환경에서 성공적으로 작동하지만, 상황이 복잡해지면 결과는 달라진다.
  
== 특징 ==
+
예시로, 전신이 찍힌 사진과 어떤 물체에 의해 머리만 찍힌 사진을 비교해보자. 전신이 찍힌 사진 속 인물을 정의하기는 쉽지만 머리만 찍힌 사진 속 인물을 정의하긴 어렵다. 사진에서 실제로 보이는 머리 부분만 테두리 안에 포함해야 할지, 보이진 않지만, 몸의 부위로 예상되는 부분까지 테두리 안에 포함해야 할지 애매하기 때문이다. 이처럼, 아직은 모든 [[객체]]를 완벽하게 정의할 방법은 없다. 머리만 찍힌 사진과 같이, 현실 세계에서는 깔끔하게 떨어지는 것이 없기에 정답이라는 개념이 모호하다. 하지만, 머신러닝 시스템이 훈련받은 데이터를 통해 현실 세계를 이해하기 위해서 접근할 때는 이런 부분을 반영하지 못한다. 불확실성과 모호함을 인식하기보다는 훈련용 데이터를 기반으로 실제 상황에 접근하며, 이러한 접근방식은 시스템과 사람에게 리스크로 작용할 가능성을 내포하고 있다. 인공 지능 시스템의 불확실성 속에서 작동 능력을 향상하기 위한 연구를 진행하고 있는 미국 일리노이 대학교의 교수 '브라이언 지바트'(Brian Ziebart)는 '실제 세계는 디지털화된 [[가상현실]]과는 다르게 예측 불가능한 요소들이 가득하다. 그러므로 우리가 인공지능 시스템을 신뢰하기 위해서는 먼저 이런 예측불허한 상황을 처리할 수 있는 능력이 필요하다'라고 말한다.
어떤 의사결정을 할 때는 무엇을 위해 결정을 하는가의 목적이 반드시 있다. 이 목적을 이룰 수 있느냐 없느냐에 관여하는 요인은 2가지가 있다. 의사결정자가 제어가능한 요인인 '의사결정자의 행동'과 제어불가능한 요인인 '사회ㆍ자연 상태/타인의 전략'이 있다. 이때 제어불가능한 요인에 관해서 의사결정자는 정보의 정확성을 4가지로 분류한다. 확실성, 리스크,
 
=== 불확실성과 금융의 연관성 ===
 
  
=== 불확실성 회피 성향 ===
+
머신러닝 시스템은 필연적으로 훈련받은 데이터에서 배우지 못한 실제 상황에 직면하게 된다. 지바트 교수는 현재 데이터로 사용되고 있는 통계 모델들은 미래의 데이터들이 과거의 데이터와 흡사하리라 추정하는 경향이 있다'고 말한다. 결과적으로 이 로직을 바탕으로 한 머신러닝 시스템은 새로운 데이터가 발생하더라도 과거의 데이터와 흡사하다고 결과를 내기에 잘못된 추정이 나올 수 있으며 이는 위험한 결과를 초래할 수 있다.
  
=== 불확실성의 역설 ===
+
자가운전 차량에 사용될 이미지 감지 인공지능의 예를 들어보자. 다른 차량의 데이터를 기반으로 자가운전 차량의 이미지 감지 인공지능을 훈련했다고 하자. 그러면 주변의 객체를 테두리 처리하고 레이블을 달면서 주변 이미지들을 정의하려고 한다. 여기서 위에 말했던 문제점이 발생한다. 인공지능이 선명하고 깨끗한 이미지들을 가지고 훈련되었다면, 비가 오거나 날이 흐린 날에는 정확도가 떨어지게 된다. 인공지능은 지금까지 학습된 내용이 모든 경우의 수를 포함한다고 추정하기에 일어나는 결과이다. 반대로, 사람이라면 어떨까? 사람은 자신의 경험을 바탕으로 상황에 적응하고, 적응하지 못할 때는 이에 대해서 재인식하려는 경향이 있다. 예를 들어, 평소에는 아무것도 없어야 할 도로 위에 무언가가 있다면 운전자는 그냥 지나치지 않는다. 속도를 줄이며 조심스레 비껴가려고 하거나, 무엇인지 확인하려고 시도한다. 이처럼 사람은 주변 환경에 대해 불확실성을 느낄 때 위험한 실수를 저지르지 않기 위해 주의를 기울인다. 지바트 교수는 인공지능 시스템이 이런 불확실한 상황에서도 사람처럼 주의를 기울여야 할 필요가 있다고 말한다. 즉, 불확실성을 인식하고 더 많은 정보를 수집할 수 있도록 끊임없이 질문해야 한다는 것이다.<ref name="지바트">Tucker Davey, 〈[https://futureoflife.org/2018/03/15/how-ai-handles-uncertainty-brian-ziebart/?cn-reloaded=1 How AI Handles Uncertainty: An Interview With Brian Ziebart]〉, 《퓨쳐 오브 라이프》, 2018-03-15</ref>
  
 +
* 접근 방법
 +
: 인공지능이 오직 훈련과 실습만을 통해서 발생 가능한 모든 상황에 대처하는 것은 무리다. 하지만, 지바트는 훈련 시 혼란을 야기할 수 있는 불명확한 데이터를 공급함으로써 인공지능이 불확실성을 더 잘 인식하고 해결할 수 있다고 말한다. 인공지능과 다르게 인간은 불확실성 요소가 널려있는 실제 현실 세계에서 살아가고 있기 때문에 불확실한 상황에 이미 적응되었고, 사람들을 고용하여 특정 물체를 인간의 기준으로 테두리 처리하게 된다면 정상적인 데이터가 어떤 모습인지 더 정확하게 분류하게 될 수 있다. 예를 들어, 10명의 사람에게 특정 물체를 테두리 처리하라고 요청하면 모두 제각각의 결과가 나올 것이다. 이는 사람마다 진실에 대해 어떻게 생각하는지에 대한 다른 근거를 기반으로 하는, 모호함을 의미한다. 머신러닝 단계에서 혼란스럽고 상반되는 데이터를 제공한다면 모호성에 대비하기 위한 훈련을 할 수 있다. 지바트 교수는 이를 훈련 과정에서 데이터 '노이즈'를 합성한다고 말한다. 노이즈는 현실 세계의 무질서함을 반영하고 새로운 환경을 신중하게 예측할 수 있도록 훈련하는데 도움을 준다. 이로써 인공지능은 혼란스러운 상황에서 신중하게 추가 정보를 찾고 탐색하는 법을 배우게 된다. 앞에서 얘기한 예시에서 자가운전 자동차가 지나가는 길목에 새로운 물체가 나타날 경우, 이 물체가 무엇인지 바로 파악은 힘들더라도 불확실성 앞에서 신중한 태도를 취하는 인공지능을 개발할 수 있을 것이다.<ref name="지바트"></ref>
  
 
{{각주}}
 
{{각주}}
  
 
== 참고자료 ==
 
== 참고자료 ==
 +
* 이앵두, 〈[https://cbw1030.tistory.com/142 (인공지능 기초) 불확실성 - 비단조 추론]〉, 《티스토리》, 2020-07.06
 +
* Cloud Travel, 〈[https://destiny738.tistory.com/443 (인공지능) 불확실성과 베이지 추론]〉, 《티스토리》, 2012-11.07
 +
* Tucker Davey, 〈[https://futureoflife.org/2018/03/15/how-ai-handles-uncertainty-brian-ziebart/?cn-reloaded=1 How AI Handles Uncertainty: An Interview With Brian Ziebart]〉, 《퓨쳐 오브 라이프》, 2018-03-15
  
== 같이보기 ==
+
== 같이 보기 ==
  
{{로고 수정 필요}
 
 
{{인공지능 기술|검토 필요}}
 
{{인공지능 기술|검토 필요}}

2020년 7월 17일 (금) 15:22 기준 최신판

불확실성(不確實性, uncertainty)은 장래 일어날 수 있는 사상(事象)에 관해서 인간이 가진 정보의 정확성에 대한 하나의 구분을 말한다. 즉, 불규칙한 변화로 인해 미래에 전개될 상황을 예측할 수 없는 상태이다.

개요[편집]

우리가 사는 현실 세계는 복잡하고 예측이 어려워서 논리만으로는 현실 세계를 반영하기 매우 어렵다. 그뿐만 아니라 단순화된 모델과 정형화된 기법으로 표현하기에 한계가 있다. 이러한 현실 세계의 불확실성을 해결하기 위해 지식 베이스의 일관성을 유지하는 것과 수치화를 통해 불확실성을 정형화하는 확률적 기법이 도입되었지만, 여전히 제한적이며 완벽한 해결이 불가능하다. 그 예시로 카네기멜론 대학교(CMU)에서 개발한 자율주행 자동차 'NAVLAB'을 들 수 있는데, 이 역시 돌발 상황에서의 대처 능력이 부족하다.[1]

불확실성의 요인은 크게 네 가지로 분류할 수 있다. 데이터 불확실성, 지식의 불확실성, 정보의 불완전성, 확률의 불규칙성이다. 먼저 데이터 불확실성은 부사, 형용사의 수치화가 정확하지 않으며 그 경계 또한 모호하고, 이로 인해 데이터의 모호함을 유발하게 되어 사람이 사용하는 정보는 불완전하고 모순되기도 하기에 센서 장치가 얻는 정보 자체가 불확실할 수 있다는 것을 말한다. 다음으로 지식의 불확실성은 전문가의 자문도 사실 또한 불확실하고, 완전하지 않은 지식이며 표현상, 의사소통 간 오류가 있을 수 있다는 것을 의미한다. 정보의 불완전성은 알려지지 않은 데이터에 대해서는 근사적 추론을 진행하기에 결과가 불완전하고, 정보량이 부족하다는 것을 의미하고, 확률의 불규칙성은 시간이 지나면서 추가로 발생하는 불규칙성이 있을 수 있다는 것을 말한다.[2]

특징[편집]

비단조 추론[편집]

  • 기존 논리 체계와 문제점
본격적인 추론법에 들어가기에 앞서 다룬 논리 체계의 문제점을 먼저 알아보도록 하자. 기존 논리 체계를 통한 추론은 모든 정보가 존재하거나 1차 논리로 유도하는 완전성, 정보 상호 간 모순이 없다는 일관성, 추론할수록 참인 정보가 늘어난다는 단조성. 이 세 가지에 다 부합하지 않는다. 결국 의미 없는 추론이 되는 것이다.[2]
  • 비단조 추론
그렇다면 추론을 하고 싶어도 위의 불확실성의 요인들이나 논리의 문제점에 의해 추론을 할 수 없는 경우에는 어떻게 할까?
이러한 상황에서 이루어지는 추론 중 하나가 비단조 추론이다. 비단조 추론은 새로운 사실이 기존 참인 사실과 모순될 수 있음을 인정하고 단조 증가가 아님을 인정하는 추론법이다. 비단조 추론의 예를 아주 간단하게 들어보자. 여행에 관련된 운전자의 지식이 있다고 가정할 때, 현 상황에서의 운전자의 인식 사실과 새로 획득한 지식이 충돌되어 원래 사실로 믿고 있던 것들이 갱신된다면 이는 비단조 추론이고 가변적인 추론이라고 말할 수 있다.[2]

베이지 추론[편집]

불확실성을 없애기 위해서 수학적으로 완벽한 확률(베이지 규칙)을 이용한 방법과 사람과 비슷한 형식으로 생각(확신도 이론)하는 방법이 나오게 되었다.

  • 확률적 접근
확률적 접근은 자연현상에는 쓸만하지만, 사람이 관련되면 결과의 오차범위가 커진다.
베이지 규칙은 특정 사건을 상호 배타적인 사건들에 대한 종속적인 사건으로 확장해 나갈 수 있다.
Rule) IF E is true then H is True.(P percent)
- E가 참일 경우 H는 P의 확률로 사실이 된다.

E가 일어날 확률도 존재할 것이기에 계산이 복잡해지고, 확률이 전파가 된다. 또한 각 증거 사이의 의존 관계를 계산해내기가 힘들다. 통상적으로 H는 가설을 나타내며, E는 가설에 대한 증거로 나타난다. 증거가 모두 독립 사건이라고 가정했을 때, 증거가 발생한 시점에서 가설이 발생할 확률의 결합확률로 구한다. 여러 증거가 주어졌을 때, 이로 인해 발생할 가설에 대한 확률을 구하는 방식이다.

발병확률
예를 들어, 감기, 독감, 몸살과 그 증상에 대한 통계적 조사로 다음과 같은 표를 구했다고 한다. 의사가 환자에 대해서 날이 지나감에 따라 E2, E1, E3 순서로 증상을 발견한다면, 각각의 날에 의사는 환자의 병을 무엇으로 판단할까?
  • 1일 차
최초 기침 증상을 보이는 환자가 나타났다. 의사는 과연 어떤 판단을 할까?
P(H1|E2) = P(E2|H1) * P(H1) / { P(E2|H1)P(H1) + P(E2|H2)P(H2) + P(E2|H3)P(H3) }
= 0.9 * 0.4 / { 0.9*0.4 + 0.7*0.35 + 0.5*0.25 } = 0.36 / 0.73 = 0.49
P(H2|E2) = P(E2|H2) * P(H2) / { P(E2|H1)P(H1) + P(E2|H2)P(H2) + P(E2|H3)P(H3) }
= 0.7 * 0.35 / { 0.9*0.4 + 0.7*0.35 + 0.5*0.25 } = 0.245 / 0.73 = 0.34
P(H3|E2) = P(E2|H3) * P(H3) / { P(E2|H1)P(H1) + P(E2|H2)P(H2) + P(E2|H3)P(H3) }
= 0.9 * 0.4 / { 0.9*0.4 + 0.7*0.35 + 0.5*0.25 } = 0.1225 / 0.73 = 0.17
확률이 가장 높은 감기로 판단을 한다.
  • 2일 차
이튿날, 환자가 열이 나기 시작했다. 의사는 과연 어떤 판단을 할까?
P(H1+E1,E2) = P(E1|H1)*P(E2|H1)*P(H1) / { P(E1|H1)P(E2|H1)P(H1) + P(E1|H2)P(E2|H2)P(H2) + P(E1|H3)P(E2|H3)P(H3)
= 0.9*0.8*0.4 / { 0.9*0.8*0.4 + 0.7*0.5*0.35 + 0.5*0.3*0.25 } = 0.288 / 0.488 = 0.59
P(H2+E1,E2) = P(E1|H2)*P(E2|H2)*P(H2) / { P(E1|H1)P(E2|H1)P(H1) + P(E1|H2)P(E2|H2)P(H2) + P(E1|H3)P(E2|H3)P(H3)
= 0.7*0.5*0.35 / { 0.9*0.8*0.4 + 0.7*0.5*0.35 + 0.5*0.3*0.25 } = 0.1225 / 0.488 = 0.25
P(H3+E1,E2) = P(E1|H3)*P(E2|H3)*P(H3) / { P(E1|H1)P(E2|H1)P(H1) + P(E1|H2)P(E2|H2)P(H2) + P(E1|H3)P(E2|H3)P(H3)
= 0.9*0.8*0.4 / { 0.9*0.8*0.4 + 0.7*0.5*0.35 + 0.5*0.3*0.25 } = 0.0375 / 0.488 = 0.08
이때도 확률이 가장 높은 감기로 판단을 한다.
  • 3일 차
환자 관찰 후 3일째 되는 날 환자의 입술이 마르는 것을 확인했다. 의사는 과연 어떤 판단을 할까?
P(H1|E1,E2,E3) = P(E1|H1)*P(E2|H1)*P(E3+H1)*P(H1) / { P(E1|H1)P(E2|H1)P(E3|H1)P(H1) + P(E1|H2)P(E2|H2)P(E3|H2)P(H2) + P(E1|H3)P(E2|H3)P(E3|H3)*P(H3) }
= 0 / { 0.4*0.8*0.9*0 + 0.35*0.50*0.70*0.70 + 0.25*0.30*0.50*0.90 } = 0
P(H2|E1,E2,E3) = P(E1|H2)*P(E2|H2)*P(E3+H2)*P(H2) / { P(E1|H1)P(E2|H1)P(E3|H1)P(H1) + P(E1|H2)P(E2|H2)P(E3|H2)P(H2) + P(E1|H3)P(E2|H3)P(E3|H3)*P(H3) }
= 0.35*0.50*0.70*0.70 / { 0.4*0.8*0.9*0 + 0.35*0.50*0.70*0.70 + 0.25*0.30*0.50*0.90 } = 0.08575 / 0.1195 = 0.72
P(H1|E1,E2,E3) = P(E1|H3)*P(E2|H3)*P(E3+H3)*P(H3) / { P(E1|H1)P(E2|H1)P(E3|H1)P(H1) + P(E1|H2)P(E2|H2)P(E3|H2)P(H2) + P(E1|H3)P(E2|H3)P(E3|H3)*P(H3) }
= 0.25*0.30*0.50*0.90 / { 0.4*0.8*0.9*0 + 0.35*0.50*0.70*0.70 + 0.25*0.30*0.50*0.90 } = 0.03375 / 0.1195 = 0.28
확률이 가장 높은 독감으로 판단한다.
  • 베이지 추론의 편중
  1. 인간은 베이지 규칙에 적용할 수 있는 확률값을 도출할 수 없다.
  2. 조건부 확률값이 전문가가 제시한 사전 확률과 모순될 수도 있다.
  3. 현실 세계에서 모든 사건이 독립적이어서 영향을 미치지 않는 것은 거의 없고, 결합확률을 구하는 것은 더더욱 힘들다.
  4. 이러한 한계점을 극복하기 위해 제공된 것이 확산도 이론이다.[1]

이미지 감지 인공지능의 불확실성[편집]

이미지 감지 인공지능을 학습시킬 때, 현실세계를 가지고 학습시킬 수는 없기 때문에 사진이나 컴퓨터가 생성한 이미지 혹은 비디오 등을 이용해야 한다. 하지만 이런 데이터를 통해 인공지능을 학습시키는 데는 한계가 있고, 현실세계에는 통제되지 않은 요인들이 많기 때문에 이미지를 완벽하게 감지사기가 쉽지 않다. 머신러닝의 일반적인 이미지 추적 프로세스는 대상이 되는 물체 주변을 박스모양 테두리로 캡처하여 레이블을 지정하는 방식으로 객체를 잡는 것을 학습한다. 이런 프로세스는 단순한 환경에서 성공적으로 작동하지만, 상황이 복잡해지면 결과는 달라진다.

예시로, 전신이 찍힌 사진과 어떤 물체에 의해 머리만 찍힌 사진을 비교해보자. 전신이 찍힌 사진 속 인물을 정의하기는 쉽지만 머리만 찍힌 사진 속 인물을 정의하긴 어렵다. 사진에서 실제로 보이는 머리 부분만 테두리 안에 포함해야 할지, 보이진 않지만, 몸의 부위로 예상되는 부분까지 테두리 안에 포함해야 할지 애매하기 때문이다. 이처럼, 아직은 모든 객체를 완벽하게 정의할 방법은 없다. 머리만 찍힌 사진과 같이, 현실 세계에서는 깔끔하게 떨어지는 것이 없기에 정답이라는 개념이 모호하다. 하지만, 머신러닝 시스템이 훈련받은 데이터를 통해 현실 세계를 이해하기 위해서 접근할 때는 이런 부분을 반영하지 못한다. 불확실성과 모호함을 인식하기보다는 훈련용 데이터를 기반으로 실제 상황에 접근하며, 이러한 접근방식은 시스템과 사람에게 리스크로 작용할 가능성을 내포하고 있다. 인공 지능 시스템의 불확실성 속에서 작동 능력을 향상하기 위한 연구를 진행하고 있는 미국 일리노이 대학교의 교수 '브라이언 지바트'(Brian Ziebart)는 '실제 세계는 디지털화된 가상현실과는 다르게 예측 불가능한 요소들이 가득하다. 그러므로 우리가 인공지능 시스템을 신뢰하기 위해서는 먼저 이런 예측불허한 상황을 처리할 수 있는 능력이 필요하다'라고 말한다.

머신러닝 시스템은 필연적으로 훈련받은 데이터에서 배우지 못한 실제 상황에 직면하게 된다. 지바트 교수는 현재 데이터로 사용되고 있는 통계 모델들은 미래의 데이터들이 과거의 데이터와 흡사하리라 추정하는 경향이 있다'고 말한다. 결과적으로 이 로직을 바탕으로 한 머신러닝 시스템은 새로운 데이터가 발생하더라도 과거의 데이터와 흡사하다고 결과를 내기에 잘못된 추정이 나올 수 있으며 이는 위험한 결과를 초래할 수 있다.

자가운전 차량에 사용될 이미지 감지 인공지능의 예를 들어보자. 다른 차량의 데이터를 기반으로 자가운전 차량의 이미지 감지 인공지능을 훈련했다고 하자. 그러면 주변의 객체를 테두리 처리하고 레이블을 달면서 주변 이미지들을 정의하려고 한다. 여기서 위에 말했던 문제점이 발생한다. 인공지능이 선명하고 깨끗한 이미지들을 가지고 훈련되었다면, 비가 오거나 날이 흐린 날에는 정확도가 떨어지게 된다. 인공지능은 지금까지 학습된 내용이 모든 경우의 수를 포함한다고 추정하기에 일어나는 결과이다. 반대로, 사람이라면 어떨까? 사람은 자신의 경험을 바탕으로 상황에 적응하고, 적응하지 못할 때는 이에 대해서 재인식하려는 경향이 있다. 예를 들어, 평소에는 아무것도 없어야 할 도로 위에 무언가가 있다면 운전자는 그냥 지나치지 않는다. 속도를 줄이며 조심스레 비껴가려고 하거나, 무엇인지 확인하려고 시도한다. 이처럼 사람은 주변 환경에 대해 불확실성을 느낄 때 위험한 실수를 저지르지 않기 위해 주의를 기울인다. 지바트 교수는 인공지능 시스템이 이런 불확실한 상황에서도 사람처럼 주의를 기울여야 할 필요가 있다고 말한다. 즉, 불확실성을 인식하고 더 많은 정보를 수집할 수 있도록 끊임없이 질문해야 한다는 것이다.[3]

  • 접근 방법
인공지능이 오직 훈련과 실습만을 통해서 발생 가능한 모든 상황에 대처하는 것은 무리다. 하지만, 지바트는 훈련 시 혼란을 야기할 수 있는 불명확한 데이터를 공급함으로써 인공지능이 불확실성을 더 잘 인식하고 해결할 수 있다고 말한다. 인공지능과 다르게 인간은 불확실성 요소가 널려있는 실제 현실 세계에서 살아가고 있기 때문에 불확실한 상황에 이미 적응되었고, 사람들을 고용하여 특정 물체를 인간의 기준으로 테두리 처리하게 된다면 정상적인 데이터가 어떤 모습인지 더 정확하게 분류하게 될 수 있다. 예를 들어, 10명의 사람에게 특정 물체를 테두리 처리하라고 요청하면 모두 제각각의 결과가 나올 것이다. 이는 사람마다 진실에 대해 어떻게 생각하는지에 대한 다른 근거를 기반으로 하는, 모호함을 의미한다. 머신러닝 단계에서 혼란스럽고 상반되는 데이터를 제공한다면 모호성에 대비하기 위한 훈련을 할 수 있다. 지바트 교수는 이를 훈련 과정에서 데이터 '노이즈'를 합성한다고 말한다. 노이즈는 현실 세계의 무질서함을 반영하고 새로운 환경을 신중하게 예측할 수 있도록 훈련하는데 도움을 준다. 이로써 인공지능은 혼란스러운 상황에서 신중하게 추가 정보를 찾고 탐색하는 법을 배우게 된다. 앞에서 얘기한 예시에서 자가운전 자동차가 지나가는 길목에 새로운 물체가 나타날 경우, 이 물체가 무엇인지 바로 파악은 힘들더라도 불확실성 앞에서 신중한 태도를 취하는 인공지능을 개발할 수 있을 것이다.[3]

각주[편집]

  1. 1.0 1.1 Cloud Travel, 〈(인공지능) 불확실성과 베이지 추론〉, 《티스토리》, 2012-11-07
  2. 2.0 2.1 2.2 이앵두, 〈(인공지능 기초) 불확실성 - 비단조 추론〉, 《티스토리》, 2020-07-06
  3. 3.0 3.1 Tucker Davey, 〈How AI Handles Uncertainty: An Interview With Brian Ziebart〉, 《퓨쳐 오브 라이프》, 2018-03-15

참고자료[편집]

같이 보기[편집]

  검수요청.png검수요청.png 이 불확실성 문서는 인공지능 기술에 관한 글로서 검토가 필요합니다. 위키 문서는 누구든지 자유롭게 편집할 수 있습니다. [편집]을 눌러 문서 내용을 검토·수정해 주세요.