검수요청.png검수요청.png

"에이알키트"의 두 판 사이의 차이

위키원
이동: 둘러보기, 검색
 
(사용자 3명의 중간 판 20개는 보이지 않습니다)
1번째 줄: 1번째 줄:
'''에이알키트'''(ARKit)는 애플에서 개발한 증강현실 앱을 제작하는 소프트웨어 프레임워크이다.
+
[[파일:에이알키트 로고.png|썸네일|200픽셀|'''에이알키트'''(ARKit)]]
[[파일:ARKit1.jpg|300픽셀|오른쪽|썸네일|에이알키트(ARKit)]]
+
[[파일:에이알키트 글자.png|썸네일|300픽셀|'''에이알키트'''(ARKit)]]
[[파일:ARKit2.jpg|300픽셀|오른쪽|썸네일|에이알키트(ARKit)]]
+
[[파일:애플 글자.png|썸네일|300픽셀|'''[[애플]]'''(Apple)]]
 +
 
 +
'''에이알키트'''(ARKit)는 [[애플]](Apple)에서 개발한 [[증강현실]](AR) [[애플리케이션]]을 제작하는 [[소프트웨어]] [[프레임워크]]이다.
 +
 
 
==개요==
 
==개요==
에이알키트는 애플에서 개발한 증강현실 앱을 제작하는 소프트웨어 프레임워크로 아이폰, 아이패드, 맥 등의 애플 제품에서 증강현실 기술을 구현하고 사용할 수 있도록 한다. 2017년 6월 애플 세계 개발자 회의(WWDC)에서 최초 공개되었다. 에이알키트가 활용된 예시 중 대표적인 것은 애플 기본 애플리케이션인 측정 앱과 애플의 제품을 아이폰과 아이패드의 사파리에서 증강현실로 보는 것이 있다. 2019년 아이폰 11시리즈에서 U1 칩셋을 탑재하면서 활용성이 더 넓어졌다. 여기서 U1 칩셋은 초광대역(UWB) 기반의 칩으로 아이폰의 기능 중 에어 드롭(AirDrop)이나 에어 태그(AirTag) 등 주변 사물의 정확한 위치를 찾아주는 기능으로 사용된다. 에이알키트가 공개된 후 이케아의 제품을 가상으로 배치해보는 이케아의 '이케아 플레이스'앱, 용을 사육하는 게임인 '에이알 드래곤(AR Dragon)'앱, 나이키의 신발을 증강현실을 통해 신어볼 수 있는 워너킥스(Wanna Kicks)앱 등이 출시되면서 많은 관심을 받았다. [[유니티]](Unity)와 [[언리얼엔진]](UE) 등을 통해 개발이 가능하며 구글의 [[에이알코어]]와 더불어 무료 소프트웨어 개발 키트라는 강력한 장점이 있다.
+
에이알키트는 애플에서 개발한 증강현실 앱을 제작하는 소프트웨어 프레임워크로 [[아이폰]], [[아이패드]], [[]](MAC) 등의 애플 제품에서 증강현실 기술을 구현하고 사용할 수 있도록 한다. 2017년 6월 애플 세계 개발자 회의(WWDC)에서 최초 공개되었다. 에이알키트가 활용된 예시 중 대표적인 것은 애플 기본 애플리케이션인 측정 앱과 애플의 제품을 아이폰과 아이패드의 사파리(Safari)에서 증강현실로 보는 것이 있다. 2019년 아이폰 11시리즈에서 U1 칩셋을 탑재하면서 활용성이 더 넓어졌다. 여기서 U1 칩셋은 초광대역(UWB) 기반의 칩으로 아이폰의 기능 중 에어드롭(AirDrop)이나 에어태그(AirTag) 등 주변 사물의 정확한 위치를 찾아주는 기능으로 사용된다. 에이알키트가 공개된 후 [[이케아]](IKEA)의 제품을 가상으로 배치해보는 이케아의 '이케아 플레이스(IKEA plus)' 앱, 용을 사육하는 게임인 '에이알 드래곤(AR Dragon)' 앱, 나이키(Nike)의 신발을 증강현실을 통해 신어볼 수 있는 워너킥스(Wanna Kicks)앱 등이 출시되면서 많은 관심을 받았다. [[유니티]](Unity)와 [[언리얼엔진]](Unreal Engine) 등을 통해 개발이 가능하며 구글의 [[에이알코어]]와 더불어 무료 소프트웨어 개발 키트라는 강력한 장점이 있다.
 +
 
 +
==업데이트==
 +
===에이알키트1===
 +
세계 개발자 회의에서 모바일 기기 [[모션트래킹]], [[카메라]] 씬 캡처, 씬 프로세싱, 디스플레이 기능을 결합하여 증강현실 애플리케이션 개발을 지원하는 에이알키트를 발표했다. 에이알키트의 동시적 위치추정 및 지도작성(SLAM : Simultaneous localization and mapping)은 시각적 관성 거리계(VIO : Visual Inertial Odometry)기반으로 하고 있으나 [[모바일기기]]의 성능상 칼만 필터 기반의 방식이 많이 이용된다. 이 방법은 카메라로부터 들어오는 영상을 컴퓨터 비전 [[알고리즘]]을 이용하여 분석함으로써 특징점을 찾고, 이를 칼만 필터에 적용하여 관성 측정 장치(IMU)에서 발생하는 오차를 보정한다.<ref>박지훈, 조영식, 〈[http://journal.dcs.or.kr/_common/do.php?a=full&b=12&bidx=1847&aidx=22743 지역 축제지원을 위한 AR 레이더 서비스 개발]〉, 《한국디지털콘텐츠학회 논문지》, 2020-01-31</ref>
 +
 
 +
===에이알키트===
 +
2018년 6월 애플 세계 개발자 회의를 통해 기존의 업그레이드 버전인 에이알키트2를 선보였다. 에이알키트2의 경험 공유를 통해 사용자들은 여러 명의 사용자가 함께 게임을 하거나 프로젝트를 공동으로 할 수 있도록 만든다. 개발자는 증강현실 게임 플레이를 잘 볼 수 있는 관전자 모드를 추가할 수 있다. 지속성 증강현실은 사용자들이 현실의 사물과 연결된 증강현실 공간과 물체의 진행 상황을 저장해두었다가 나중에 그 진행 상황을 이어서 진행할 수 있다. 또, 이미지 탐지 및 추적, [[3D]] 물체 탐지를 가능하도록 개선되었으며 조명의 정확성과 얼굴 표정 추적 기능도 개선되었다.
 +
 
 +
===에이알키트3===
 +
2019년 6월 애플 세계 개발자 회의를 통해 선보인 에이알키트 3은 모션 캡처, 다중 얼굴추적, 인물 오클루전, 협업 세션 기능이 포함되어있었다. 에이알키트의 주요 기능인 모션 캡처는 카메라 속에서 인식한 사람의 몸의 위치와 움직임을 관절과 뼈로 파악한다. [[2D]]로 감지된 사람은 [[공간]] 좌표에 17개의 관절을 가진 계층 구조로 형상화되며, 3D로 감지된 경우는 93개의 관절을 가진 계층 구조로 형상화된다. 이렇게 파악한 사람을 증강현실 경험에 동작과 자세를 입력하여 증강현실의 중심에 사람을 배치할 수 있다. 다중 얼굴추적기능은 전면부 깊이 카메라(True Depth Camera)로 최대 3명의 다른 얼굴을 인식할 수 있으며 증강현실 파운데이션 얼굴 보조 시스템으로 최대 몇 명의 얼굴을 동시에 추적할지 설정할 수 있다. 이를 통해서 후면 카메라를 통해 보이는 환경에 전면 카메라로 포착한 캐릭터의 표정을 반영하여 렌더링할 수 있다. 인물 오클루전은 [[렌더링]] 된 3D 콘텐츠를 사람의 앞뒤에서 사실적으로 표시하는 기능이다. 증강현실 파운데이션 인체 시스템의 보조 시스템은 인물 스텐실과 심도 분할 이미지를 추가할 수 있는데 스텐실 분할 이미지에서는 모든 픽셀을 분석하여 픽셀이 사람을 구성하고 있는지 식별한다. 심도 분할 이미지에서는 인물로 식별된 픽셀과 기기 사이의 거리를 예측한 정보가 담겨있다. 이를 통해서 더 사실적으로 표현할 수 있게 된다. 마지막으로 협업 세션은 연결된 다수의 에이알키트 앱이 각자 인식한 환경에 대한 정보를 끊임없이 주고받을 수 있다. 즉, 실시간 협업 세션을 통해서 공동으로 증강현실 앱을 제작할 수 있어 더 빠르게 제작이 가능하며 사용자들이 증강현실 경험을 공유할 수 있도록 한다.
 +
 
 +
===에이알키트4===
 +
2020년 6월 애플 세계 개발자 회의를 통해 공개된 에이알키트 4는 깊이 애플리케이션 [[프로그래밍 인터페이스]](Depth API), 위치 앵커, 얼굴 추적 기능 지원 확대 세 가지의 기능을 선보였다. 깊이 애플리케이션 프로그래밍 인터페이스는 [[라이다]](LiDAR) [[스캐너]]에 내장된 고급 장면 인식 기능을 통해 주변 환경에 대한 픽셀당 심도 정보를 사용할 수 있다. 이 심도 정보를 씬 지오메트리(Scene Geometry)에서 생성된 3D 메시 데이터와 결합하면 가상 물체를 즉각적으로 배치할 수 있음은 물론이고 실제 환경에 자연스럽게 혼합하여 가상의 사물 오클루전을 더 사실적으로 구현 가능하다. 이를 통해 더 정밀한 측정과 사용자 환경에 효과를 적용하는 등 앱 내에서 새로운 기능을 구현할 수 있다. 위치 앵커는 유명 랜드마크와 도시 곳곳의 특정한 위치에서 증강현실 경험을 구현할 수 있다. 특정 위도, 경도 및 고도 좌표에 증강현실 창작물을 고정할 수 있다. 사용자는 카메라 렌즈를 통해 실제 물체를 보는 것처럼 가상 물체를 움직이거나 다른 시각에서 확인이 가능하다. 마지막으로 얼굴 추적 기능 지원을 확대하면서 더 많은 사용자가 전면 카메라를 사용하여 증강현실 경험을 할 수 있다.
 +
 
 +
===에이알키트5===
 +
에이알키트5는 위치 앵커, 얼굴 추적 지원, [[모션캡처]] 기능이 향상되었다. 그 외에 앱 클립 코드 통합 기능이 추가되었다. 앱 클립은 앱 클립 코드나 [[NFC]] 태그, [[QR코드]]를 인식해 활성화되는 앱의 일부 기능으로 사용자는 앱을 설치하지 않아도 활성화가 되는 앱 클립으로 결제나 주문과 같은 기능을 빠르고 편리하게 사용할 수 있다. 앱 클립 기능은 작은 사이즈의 프로그램으로 빠른 로딩과 실행이 가능하며 사파리, 지도, 메시지 등의 앱에서도 실행할 수 있다. 이런 앱 클립 코드가 에이알키트와 통합되어 개발자는 앱을 설치하지 않고도 바로 실행할 수 있는 증강현실을 개발할 수 있다.<ref>JK JK-Lim, 〈[https://hikkumuri.tistory.com/339 iOS 14 앱 클립(APP Clips)과 앱 클립 코드 내용 정리]〉, 《티스토리》, 2020-07-21</ref> 그리고 이전의 기능들인 깊이 애플리케이션 프로그래밍 인터페이스(Depth API), 즉각적인 에이알, 모션 캡처, 전·후면 카메라 동시 지원, 씬지오메트리(Scene Geometry), 인물 오클루전 등을 지원하며 더 많은 이미지를 정확하게 인식할 수 있게 되었다.
  
 
==특징==
 
==특징==
===업데이트===
+
===개발자 플랫폼===
* 에이알키트2 : 2018년 6월 애플 세계 개발자 회의를 통해 기존의 업그레이드 버전인에이알키트2를 선보였다. 에이알키트2의 경험 공유를 통해 사용자들은 여러 명의 사용자가 함께 게임을 하거나 프로젝트를 공동으로 할 수 있도록 만든다. 개발자는 증강현실 게임 플레이를 잘 볼 수 있는 관전자 모드를 추가할 수 있다. 지속성 증강현실은 사용자들이 현실의 사물과 연결된 증강현실 공간과 물체의 진행 상황을 저장해두었다가 나중에 그 진행 상황을 이어서 진행할 수 있다. 또, 이미지 탐지 및 추적, 3D 물체 탐지를 가능하도록 개선되었으며 조명의 정확성과 얼굴 표정 추적 기능도 개선되었다.
+
많은 대기업이 메타버스를 기회의 땅이라 여기며 다양한 시도와 개발, 투자가 이뤄지는 가운데 가상현실보다는 증강현실의 존재감이 커지는 중이라는 이야기가 있다. 특히, AR 글래스의 개발에 대한 관심이 커지고 있다. 애플의 경우 이미 증강현실 헤드셋은 2022년 중반에, '[[AR글래스]]'는 2025년에 애플 세계 개발자 회의를 통해 공개할 것으로 전했다. 지금껏 가상 및 증강현실 콘텐츠가 부족하다는 지적이 있었다. 하드웨어 측면에서는 더 실감 나는 경험이 가능해진 반면 이른바 '킬러 콘텐츠'가 없는 상황이다.<ref>오수연 기자, 〈[https://www.ajunews.com/view/20210307111432793 "5G 확산 느린 이유는 킬러 콘텐츠 부족…AR·VR 잡아라"]〉, 《아주경제》, 2021-03-07</ref> 그렇기 때문에 콘텐츠 부족 해결을 도울 있는 증강현실 소프트웨어 개발 도구가 자연스럽게 주목을 받게 될 것이다. 특히 애플의 경우 하드웨어와 소프트웨어 두가지를 동시에 자급자족할 있기 때문에 애플 기기 사이에서는 좋은 개발 환경과 호환성을 보여줄 있다. 그렇게 공개된 에이알키트는 애플에서 개발한 메타버스 기반의 개발자 플랫폼이다. 개발자들이 증강현실 경험을 손쉽게 구축할 수 있도록 돕기 위한 것으로, 증강현실 콘텐츠를 통해 게임과 앱, 쇼핑, 디자인 등에서 뛰어난 몰입감과 실감 나는 경험을 선사한다.<ref>강필주 기자, 〈[http://osen.mt.co.kr/article/G1110661056 (애플 WWDC) iOS11로 엿볼 있는 아이폰8 기능들]〉, 《오센》, 2017-06-07</ref> 또한 에이알키트에서 제공하는 제공하는 신규 뎁스 API는 개발자들이 아이패드 프로에 탑재된 [[라이다]] [[스캐너]]를 보다 효율적으로 이용할 있도록 해준다. 개발자들은 뎁스 API를 활용해, 이용자의 신체를 측정하거나, 특정 공간을 3D로 완벽히 구현할 수 있다. 애플 지도와 연계해 특정 지점으로 이동하면 증강현실 기능이 자동으로 실행되도록 지정하는 것도 지원한다.<ref>강일용 기자, 〈[https://www.ajunews.com/view/20200623061256015 (WWDC 20) ② iOS 그림자 벗어난 '아이패드OS14'... 태블릿PC 경험 강화에 초점]〉, 《아주경제》, 2020-06-23</ref>
* 에이알키트3 : 2019년 6월 애플 세계 개발자 회의를 통해 선보인에이알키트 3은 모션 캡처, 다중 얼굴추적, 인물 오클루전, 협업 세션 기능이 포함되어있었다. 에이알키트의 주요 기능인 모션 캡처는 카메라 속에서 인식한 사람의 몸의 위치와 움직임을 관절과 뼈로 파악한다. 2D로 감지된 사람은 공간 좌표에 17개의 관절을 가진 계층 구조로 형상화되며, 3D로 감지된 경우는 93개의 관절을 가진 계층 구조로 형상화된다. 이렇게 파악한 사람을 증강현실 경험에 동작과 자세를 입력하여 증강현실의 중심에 사람을 배치할 수 있다. 다중 얼굴추적기능은 전면 트루 뎁스 카메라(True Depth Camera)로 최대 3명의 다른 얼굴을 인식할 있으며 증강현실 파운데이션 얼굴 보조 시스템으로 최대 몇 명의 얼굴을 동시에 추적할지 설정할 있다. 이를 통해서 후면 카메라를 통해 보이는 환경에 전면 카메라로 포착한 캐릭터의 표정을 반영하여 렌더링할 수 있다. 인물 오클루전은 렌더링 된 3D 콘텐츠를 사람의 앞뒤에서 사실적으로 표시하는 기능이다. 증강현실 파운데이션 인체 시스템의 보조 시스템은 인물 스텐실과 심도 분할 이미지를 추가할 수 있는데 스텐실 분할 이미지에서는 모든 픽셀을 분석하여 픽셀이 사람을 구성하고 있는지 식별한다. 심도 분할 이미지에서는 인물로 식별된 픽셀과 기기 사이의 거리를 예측한 정보가 담겨있다. 이를 통해서 사실적으로 표현할 있게 된다. 마지막으로 협업 세션은 연결된 다수의 에이알키트 앱이 각자 인식한 환경에 대한 정보를 끊임없이 주고받을 수 있다. 즉, 실시간 협업 세션을 통해서 공동으로 증강현실 앱을 제작할 수 있어 더 빠르게 제작이 가능하며 사용자들이 증강현실 경험을 공유할 수 있도록 한다.
+
 
* 에이알키트4 : 2020년 6월 애플 세계 개발자 회의를 통해 공개된 에이알키트 4는 깊이 애플리케이션 프로그래밍 인터페이스(Depth API), 위치 앵커, 얼굴 추적 기능 지원 확대 세 가지의 기능을 선보였다. 깊이 애플리케이션 프로그래밍 인터페이스는 라이다(LiDAR) 스캐너에 내장된 고급 장면 인식 기능을 통해 주변 환경에 대한 픽셀당 심도 정보를 사용할 수 있다. 이 심도 정보를 씬 지오메트리(Scene Geometry)에서 생성된 3D 메시 데이터와 결합하면 가상 물체를 즉각적으로 배치할 수 있음은 물론이고 실제 환경에 자연스럽게 혼합하여 가상의 사물 오클루전을 더 사실적으로 구현 가능하다. 이를 통해 더 정밀한 측정과 사용자 환경에 효과를 적용하는 등 앱 내에서 새로운 기능을 구현할 수 있다. 위치 앵커는 유명 랜드마크와 도시 곳곳의 특정한 위치에서 증강현실 경험을 구현할 수 있다. 특정 위도, 경도 및 고도 좌표에 증강현실 창작물을 고정할 수 있다. 사용자는 카메라 렌즈를 통해 실제 물체를 보는 것처럼 가상 물체를 움직이거나 다른 시각에서 확인이 가능하다. 마지막으로 얼굴 추적 기능 지원을 확대하면서 더 많은 사용자가 전면 카메라를 사용하여 증강현실 경험을 할 있다.
+
===리얼리티키트2===
* 에이알키트5 : 에이알키트5는 위치 앵커, 얼굴 추적 지원, 모션 캡처 기능이 향상되었다. 그 외에 앱 클립 코드 통합 기능이 추가되었다. 앱 클립은 앱 클립 코드나 NFC 태그, QR 코드를 인식해 활성화되는 앱의 일부 기능으로 사용자는 앱을 설치하지 않아도 활성화가 되는 앱 클립으로 결제나 주문과 같은 기능을 빠르고 편리하게 사용할 있다. 앱 클립 기능은 작은 사이즈의 프로그램으로 빠른 로딩과 실행이 가능하며 사파리, 지도, 메시지 등의 앱에서도 실행할 수 있다. 이런 앱 클립 코드가 에이알키트와 통합되어 개발자는 앱을 설치하지 않고도 바로 실행할 수 있는 증강현실을 개발할 수 있다.<ref>JK JK-Lim, 〈[https://hikkumuri.tistory.com/339 iOS 14 앱 클립(APP Clips)과 앱 클립 코드 내용 정리]〉, 《티스토리》,2020-07-21</ref> 그리고 이전의 기능들인 깊이 애플리케이션 프로그래밍 인터페이스(Depth API), 즉각적인 에이알, 모션 캡처, 전·후면 카메라 동시 지원, 씬 지오메트리(Scene Geometry), 인물 오클루전 등을 지원하며 더 많은 이미지를 정확하게 인식할 수 있게 되었다.
+
리얼리티키트2(RealityKit2)는 에이알키트와 통합하여 사용할 수 있는 증강현실 특화 프레임워크이다. 에이알키트가 기본적으로 증강현실이 작동하는데 필요한 센서 데이터를 제공하고 처리하는 소프트웨어 개발 도구라면 리얼리티키트는 증강현실 애플리케이션을 위한 일부 게임 엔진 기능을 제공하는 더 높은 수준의 소프트웨어 개발 도구이다. 씬키트(SceneKit)는 가벼운 3D 엔진 소프트웨어 개발 도구로 에이알키트의 유무에 관계없이 사용할 수 있다. 리얼리티키트는 씬키트와 비교하여 3D 엔진을 최대한 활용할 수 있기 때문에, 씬키트의 많은 기능을 대체하게 되는 순간 리얼리티키트2를 주로 사용하게 될 것이다. 한편 에이알키트는 2016년에 애플이 인수한 플라이바이 미디어가 근간이 되어 만들어졌으며, 플라이바이 미디어는 구글의 [[에이알코어]] 이전작이라 할 수 있는 '탱고'를 제작한 비전 기반 소프트웨어 파트너였다.<ref name = 한상기></ref>
 +
 
 +
===비교===
 +
:{|class=wikitable width=600 style="background-color:#ffffee"
 +
|+<big>'''유니티 증강현실 파운데이션 지원 특징'''</big>
 +
!align=center style="background-color:#ffeecc"|지원 기능
 +
!align=center style="background-color:#ffeecc"|에이알코어
 +
!align=center style="background-color:#ffeecc"|에이알키트
 +
!align=center style="background-color:#ffeecc"|매직리프
 +
!align=center style="background-color:#ffeecc"|홀로렌즈
 +
|-
 +
|align=center|기기 추적(Device tracking)
 +
|align=center|O
 +
|align=center|O
 +
|align=center|O
 +
|align=center|O
 +
|-
 +
|align=center|비행기 추적(Plane tracking)
 +
|align=center|O
 +
|align=center|O
 +
|align=center|O
 +
|align=center|X
 +
|-
 +
|align=center|포인트 클라우드(Point clouds)
 +
|align=center|O
 +
|align=center|O
 +
|align=center|X
 +
|align=center|X
 +
|-
 +
|align=center|앵커(Anchors)
 +
|align=center|O
 +
|align=center|O
 +
|align=center|O
 +
|align=center|O
 +
|-
 +
|align=center|조명 추정(Light estimation)
 +
|align=center|O
 +
|align=center|O
 +
|align=center|X
 +
|align=center|X
 +
|-
 +
|align=center|환경 프로브(Environment probes)
 +
|align=center|O
 +
|align=center|O
 +
|align=center|X
 +
|align=center|X
 +
|-
 +
|align=center|얼굴 추적(Face tracking)
 +
|align=center|O
 +
|align=center|O
 +
|align=center|X
 +
|align=center|X
 +
|-
 +
|align=center|2D 이미지 추적(2D Image tracking)
 +
|align=center|O
 +
|align=center|O
 +
|align=center|O
 +
|align=center|X
 +
|-
 +
|align=center|3D 개체 추적(3D Object tracking)
 +
|align=center|X
 +
|align=center|O
 +
|align=center|X
 +
|align=center|X
 +
|-
 +
|align=center|메싱(Meshing)
 +
|align=center|X
 +
|align=center|O
 +
|align=center|O
 +
|align=center|O
 +
|-
 +
|align=center|2D 및 3D 신체 추적(2D & 3D body tracking)
 +
|align=center|X
 +
|align=center|O
 +
|align=center|X
 +
|align=center|X
 +
|-
 +
|align=center|협력 참가자(Collaborative participants)
 +
|align=center|X
 +
|align=center|O
 +
|align=center|X
 +
|align=center|X
 +
|-
 +
|align=center|인간 세분화(Human segmentation)
 +
|align=center|X
 +
|align=center|O
 +
|align=center|X
 +
|align=center|X
 +
|-
 +
|align=center|레이캐스트(Raycast)
 +
|align=center|O
 +
|align=center|O
 +
|align=center|O
 +
|align=center|X
 +
|-
 +
|align=center|통과 비디오(Pass-through video)
 +
|align=center|O
 +
|align=center|O
 +
|align=center|X
 +
|align=center|X
 +
|-
 +
|align=center|세션 관리(Session management)
 +
|align=center|O
 +
|align=center|O
 +
|align=center|O
 +
|align=center|O
 +
|-
 +
|align=center|폐색(Occlusion)
 +
|align=center|O
 +
|align=center|O
 +
|align=center|X
 +
|align=center|X
 +
|}
 +
:{|class=wikitable width=600 style="background-color:#ffffee"
 +
|+<big>'''에이알코어 vs 에이알키트'''</big>
 +
!align=center style="background-color:#ffeecc"|
 +
!align=center style="background-color:#ffeecc"|에이알코어
 +
!align=center style="background-color:#ffeecc"|에이알키트
 +
|-
 +
|align=center|장점
 +
|align=center|특이점을 최대한 많이 찾고 맵핑된 공간 영역을 빠르게 확장한다.
 +
|align=center|수평과 수직으로 평면을 감지하는 기술이 좀 더 정확하다.
 +
|-
 +
|align=center|지원 기기
 +
|align=center|삼성, 엘지, 구글, 샤오미, 화웨이, 애플
 +
|align=center|아이폰, 아이패드
 +
|-
 +
|align=center|주요 지원 기능
 +
|align=center|조명 추정, 오클루전, 2D 이미지 추적, 얼굴 추적
 +
|align=center|조명 추정, 오클루전, 2D 이미지 추적, 얼굴 추적, 3D 객체 추적, 모션캡처, 전후면 카메라 동시 지원, 다중 얼굴 추적
 +
|}
 +
 
 
===단점===
 
===단점===
애플에서 개발한 소프트웨어 개발 도구답게 오로지 iOS에만 호환이 된다는 부분이다. 그래서 다른 플랫폼을 지원하는 애플리케이션을 만들기 위해서는 동일한 애플리케이션을 다시 개발해야한다. 또한 에이알키트로 개발하기 위해서는 맥과 엑스코드가 필요하다는 부분도 있다. 그래서 일반 사용자들이 많이 쓰는 다양한 기기를 생각하면 다른 소프트웨어 개발 도구가 필요할 수 있는데 그 때 선택하는 것이 뷰포리아(Vuforia)나 맥스트 에이알(MAXST AR)이다.<ref name = 한상기>한상기, 〈[https://www.kisa.or.kr/public/library/IS_View.jsp?mode=view&p_No=158&b_No=158&d_No=500 (2021년 Vol.02 KISA Report-2월호) 메타버스를 위한 소프트웨어 플랫폼 )한상기/ 테크프론티어 대표) 등 10편]〉, 《한국인터넷진흥원》,2021-03-02</ref>
+
애플에서 개발한 소프트웨어 개발 도구답게 오로지 iOS에만 호환이 된다는 부분이다. 그래서 다른 플랫폼을 지원하는 애플리케이션을 만들기 위해서는 동일한 애플리케이션을 다시 개발해야한다. 또한 에이알키트로 개발하기 위해서는 맥과 엑스코드가 필요하다는 부분도 있다. 그래서 일반 사용자들이 많이 쓰는 다양한 기기를 생각하면 다른 소프트웨어 개발 도구가 필요할 수 있는데 그 때 선택하는 것이 뷰포리아(Vuforia)나 맥스트 에이알(MAXST AR)이다.<ref name = 한상기>한상기, 〈[https://www.kisa.or.kr/public/library/IS_View.jsp?mode=view&p_No=158&b_No=158&d_No=500 (2021년 Vol.02 KISA Report-2월호(메타버스를 위한 소프트웨어 플랫폼)한상기/ 테크프론티어 대표) 등 10편]〉, 《한국인터넷진흥원》, 2021-03-02</ref>
==메타버스==
+
 
많은 대기업이 메타버스를 기회의 땅이라 여기며 다양한 시도와 개발, 투자가 이뤄지는 가운데 가상현실보다는 증강현실의 존재감이 커지는 중이라는 이야기가 있다. 특히, AR 글래스의 개발에 대한 관심이 커지고 있다. 애플의 경우 이미 증강현실 헤드셋은 2022년 중반에, '[[AR글래스]]'는 2025년에 애플 세계 개발자 회의를 통해 공개할 것으로 전했다. 지금껏 가상 및 증강현실 콘텐츠가 부족하다는 지적이 있었다. 하드웨어 측면에서는 더 실감 나는 경험이 가능해진 반면 이른바 '킬러 콘텐츠'가 없는 상황이다.<ref>오수연 기자, 〈[https://www.ajunews.com/view/20210307111432793 "5G 확산 느린 이유는 킬러 콘텐츠 부족…AR·VR 잡아라"]〉, 《아주경제》,2021-03-07</ref> 그렇기 때문에 콘텐츠 부족 해결을 도울 수 있는 증강현실 소프트웨어 개발 도구가 자연스럽게 주목을 받게 될 것이다. 특히 애플의 경우 하드웨어와 소프트웨어 두가지를 동시에 자급자족할 수 있기 때문에 애플 기기 사이에서는 더 좋은 개발 환경과 호환성을 보여줄 수 있다. 뷰포리아(vuforia), 위키튜드(Wikitude), 에이알툴킷(ARToolKit), [[에이알코어]](ARCore)와 함께 에이알키트(ARKit) 역시 상위 5개의 증강현실 소프트웨어 개발 도구로 알려져 있다.
 
==기타==
 
* 리얼리티키트2(RealityKit2)는 에이알키트와 통합하여 사용할 수 있는 증강현실 특화 프레임워크이다. 에이알키트가 기본적으로 증강현실이 작동하는데 필요한 센서 데이터를 제공하고 처리하는 소프트웨어 개발 도구라면 리얼리티키트는 증강현실 애플리케이션을 위한 일부 게임 엔진 기능을 제공하는 더 높은 수준의 소프트웨어 개발 도구이다. 씬키트(SceneKit)는 가벼운 3D 엔진 소프트웨어 개발 도구로 에이알키트의 유무에 관계없이 사용할 수 있다. 리얼리티키트는 씬키트와 비교하여 3D 엔진을 최대한 활용할 수 있기 때문에, 씬키트의 많은 기능을 대체하게 되는 순간 리얼리티키트2를 주로 사용하게 될 것이다.
 
* 참고로 에이알키트는 2016년에 애플이 인수한 플라이바이 미디어가 근간이 되어 만들어졌으며, 플라이바이 미디어는 구글의 [[에이알코어]] 이전작이라 할 수 있는 '탱고'를 제작한 비전 기반 소프트웨어 파트너였다.<ref name = 한상기></ref>
 
 
{{각주}}
 
{{각주}}
  
 
==참고자료==
 
==참고자료==
* JK JK-Lim, 〈[https://hikkumuri.tistory.com/339 iOS 14 앱 클립(APP Clips)과 앱 클립 코드 내용 정리]〉, 《티스토리》,2020-07-21
+
* 강필주 기자, 〈[http://osen.mt.co.kr/article/G1110661056 (애플 WWDC) iOS11로 엿볼 수 있는 아이폰8 기능들]〉, 《오센》, 2017-06-07
* 오수연 기자, 〈[https://www.ajunews.com/view/20210307111432793 "5G 확산 느린 이유는 킬러 콘텐츠 부족…AR·VR 잡아라"]〉, 《아주경제》,2021-03-07
+
* 박지훈, 조영식, 〈[http://journal.dcs.or.kr/_common/do.php?a=full&b=12&bidx=1847&aidx=22743 지역 축제지원을 위한 AR 레이더 서비스 개발]〉, 《한국디지털콘텐츠학회 논문지》, 2020-01-31
* 한상기, 〈[https://www.kisa.or.kr/public/library/IS_View.jsp?mode=view&p_No=158&b_No=158&d_No=500 (2021년 Vol.02 KISA Report-2월호) 메타버스를 위한 소프트웨어 플랫폼 )한상기/ 테크프론티어 대표) 등 10편]〉, 《한국인터넷진흥원》,2021-03-02
+
* 강일용 기자, 〈[https://www.ajunews.com/view/20200623061256015 (WWDC 20) ② iOS 그림자 벗어난 '아이패드OS14'... 태블릿PC 경험 강화에 초점]〉, 《아주경제》, 2020-06-23
* [https://developer.apple.com/kr/augmented-reality/arkit/ 애플 개발자 사이트]
+
* JK JK-Lim, 〈[https://hikkumuri.tistory.com/339 iOS 14 앱 클립(APP Clips)과 앱 클립 코드 내용 정리]〉, 《티스토리》, 2020-07-21
* [https://developer.apple.com/documentation/arkit/#overview 애플 에이알키트 자습서]
+
* 한상기, 〈[https://www.kisa.or.kr/public/library/IS_View.jsp?mode=view&p_No=158&b_No=158&d_No=500 (2021년 Vol.02 KISA Report-2월호) 메타버스를 위한 소프트웨어 플랫폼(한상기/ 테크프론티어 대표) 등 10편]〉, 《한국인터넷진흥원》, 2021-03-02
 +
* 오수연 기자, 〈[https://www.ajunews.com/view/20210307111432793 "5G 확산 느린 이유는 킬러 콘텐츠 부족…AR·VR 잡아라"]〉, 《아주경제》, 2021-03-07
 +
 
 
==같이 보기==
 
==같이 보기==
 
* [[증강현실]]
 
* [[증강현실]]
 
* [[키트]]
 
* [[키트]]
 +
* [[애플]]
 +
* [[에이알코어]]
  
{{메타버스|토막글}}
+
{{메타버스|검토 필요}}

2021년 7월 30일 (금) 12:26 기준 최신판

에이알키트(ARKit)
에이알키트(ARKit)
애플(Apple)

에이알키트(ARKit)는 애플(Apple)에서 개발한 증강현실(AR) 애플리케이션을 제작하는 소프트웨어 프레임워크이다.

개요[편집]

에이알키트는 애플에서 개발한 증강현실 앱을 제작하는 소프트웨어 프레임워크로 아이폰, 아이패드, (MAC) 등의 애플 제품에서 증강현실 기술을 구현하고 사용할 수 있도록 한다. 2017년 6월 애플 세계 개발자 회의(WWDC)에서 최초 공개되었다. 에이알키트가 활용된 예시 중 대표적인 것은 애플 기본 애플리케이션인 측정 앱과 애플의 제품을 아이폰과 아이패드의 사파리(Safari)에서 증강현실로 보는 것이 있다. 2019년 아이폰 11시리즈에서 U1 칩셋을 탑재하면서 활용성이 더 넓어졌다. 여기서 U1 칩셋은 초광대역(UWB) 기반의 칩으로 아이폰의 기능 중 에어드롭(AirDrop)이나 에어태그(AirTag) 등 주변 사물의 정확한 위치를 찾아주는 기능으로 사용된다. 에이알키트가 공개된 후 이케아(IKEA)의 제품을 가상으로 배치해보는 이케아의 '이케아 플레이스(IKEA plus)' 앱, 용을 사육하는 게임인 '에이알 드래곤(AR Dragon)' 앱, 나이키(Nike)의 신발을 증강현실을 통해 신어볼 수 있는 워너킥스(Wanna Kicks)앱 등이 출시되면서 많은 관심을 받았다. 유니티(Unity)와 언리얼엔진(Unreal Engine) 등을 통해 개발이 가능하며 구글의 에이알코어와 더불어 무료 소프트웨어 개발 키트라는 강력한 장점이 있다.

업데이트[편집]

에이알키트1[편집]

세계 개발자 회의에서 모바일 기기 모션트래킹, 카메라 씬 캡처, 씬 프로세싱, 디스플레이 기능을 결합하여 증강현실 애플리케이션 개발을 지원하는 에이알키트를 발표했다. 에이알키트의 동시적 위치추정 및 지도작성(SLAM : Simultaneous localization and mapping)은 시각적 관성 거리계(VIO : Visual Inertial Odometry)기반으로 하고 있으나 모바일기기의 성능상 칼만 필터 기반의 방식이 많이 이용된다. 이 방법은 카메라로부터 들어오는 영상을 컴퓨터 비전 알고리즘을 이용하여 분석함으로써 특징점을 찾고, 이를 칼만 필터에 적용하여 관성 측정 장치(IMU)에서 발생하는 오차를 보정한다.[1]

에이알키트[편집]

2018년 6월 애플 세계 개발자 회의를 통해 기존의 업그레이드 버전인 에이알키트2를 선보였다. 에이알키트2의 경험 공유를 통해 사용자들은 여러 명의 사용자가 함께 게임을 하거나 프로젝트를 공동으로 할 수 있도록 만든다. 개발자는 증강현실 게임 플레이를 잘 볼 수 있는 관전자 모드를 추가할 수 있다. 지속성 증강현실은 사용자들이 현실의 사물과 연결된 증강현실 공간과 물체의 진행 상황을 저장해두었다가 나중에 그 진행 상황을 이어서 진행할 수 있다. 또, 이미지 탐지 및 추적, 3D 물체 탐지를 가능하도록 개선되었으며 조명의 정확성과 얼굴 표정 추적 기능도 개선되었다.

에이알키트3[편집]

2019년 6월 애플 세계 개발자 회의를 통해 선보인 에이알키트 3은 모션 캡처, 다중 얼굴추적, 인물 오클루전, 협업 세션 기능이 포함되어있었다. 에이알키트의 주요 기능인 모션 캡처는 카메라 속에서 인식한 사람의 몸의 위치와 움직임을 관절과 뼈로 파악한다. 2D로 감지된 사람은 공간 좌표에 17개의 관절을 가진 계층 구조로 형상화되며, 3D로 감지된 경우는 93개의 관절을 가진 계층 구조로 형상화된다. 이렇게 파악한 사람을 증강현실 경험에 동작과 자세를 입력하여 증강현실의 중심에 사람을 배치할 수 있다. 다중 얼굴추적기능은 전면부 깊이 카메라(True Depth Camera)로 최대 3명의 다른 얼굴을 인식할 수 있으며 증강현실 파운데이션 얼굴 보조 시스템으로 최대 몇 명의 얼굴을 동시에 추적할지 설정할 수 있다. 이를 통해서 후면 카메라를 통해 보이는 환경에 전면 카메라로 포착한 캐릭터의 표정을 반영하여 렌더링할 수 있다. 인물 오클루전은 렌더링 된 3D 콘텐츠를 사람의 앞뒤에서 사실적으로 표시하는 기능이다. 증강현실 파운데이션 인체 시스템의 보조 시스템은 인물 스텐실과 심도 분할 이미지를 추가할 수 있는데 스텐실 분할 이미지에서는 모든 픽셀을 분석하여 픽셀이 사람을 구성하고 있는지 식별한다. 심도 분할 이미지에서는 인물로 식별된 픽셀과 기기 사이의 거리를 예측한 정보가 담겨있다. 이를 통해서 더 사실적으로 표현할 수 있게 된다. 마지막으로 협업 세션은 연결된 다수의 에이알키트 앱이 각자 인식한 환경에 대한 정보를 끊임없이 주고받을 수 있다. 즉, 실시간 협업 세션을 통해서 공동으로 증강현실 앱을 제작할 수 있어 더 빠르게 제작이 가능하며 사용자들이 증강현실 경험을 공유할 수 있도록 한다.

에이알키트4[편집]

2020년 6월 애플 세계 개발자 회의를 통해 공개된 에이알키트 4는 깊이 애플리케이션 프로그래밍 인터페이스(Depth API), 위치 앵커, 얼굴 추적 기능 지원 확대 세 가지의 기능을 선보였다. 깊이 애플리케이션 프로그래밍 인터페이스는 라이다(LiDAR) 스캐너에 내장된 고급 장면 인식 기능을 통해 주변 환경에 대한 픽셀당 심도 정보를 사용할 수 있다. 이 심도 정보를 씬 지오메트리(Scene Geometry)에서 생성된 3D 메시 데이터와 결합하면 가상 물체를 즉각적으로 배치할 수 있음은 물론이고 실제 환경에 자연스럽게 혼합하여 가상의 사물 오클루전을 더 사실적으로 구현 가능하다. 이를 통해 더 정밀한 측정과 사용자 환경에 효과를 적용하는 등 앱 내에서 새로운 기능을 구현할 수 있다. 위치 앵커는 유명 랜드마크와 도시 곳곳의 특정한 위치에서 증강현실 경험을 구현할 수 있다. 특정 위도, 경도 및 고도 좌표에 증강현실 창작물을 고정할 수 있다. 사용자는 카메라 렌즈를 통해 실제 물체를 보는 것처럼 가상 물체를 움직이거나 다른 시각에서 확인이 가능하다. 마지막으로 얼굴 추적 기능 지원을 확대하면서 더 많은 사용자가 전면 카메라를 사용하여 증강현실 경험을 할 수 있다.

에이알키트5[편집]

에이알키트5는 위치 앵커, 얼굴 추적 지원, 모션캡처 기능이 향상되었다. 그 외에 앱 클립 코드 통합 기능이 추가되었다. 앱 클립은 앱 클립 코드나 NFC 태그, QR코드를 인식해 활성화되는 앱의 일부 기능으로 사용자는 앱을 설치하지 않아도 활성화가 되는 앱 클립으로 결제나 주문과 같은 기능을 빠르고 편리하게 사용할 수 있다. 앱 클립 기능은 작은 사이즈의 프로그램으로 빠른 로딩과 실행이 가능하며 사파리, 지도, 메시지 등의 앱에서도 실행할 수 있다. 이런 앱 클립 코드가 에이알키트와 통합되어 개발자는 앱을 설치하지 않고도 바로 실행할 수 있는 증강현실을 개발할 수 있다.[2] 그리고 이전의 기능들인 깊이 애플리케이션 프로그래밍 인터페이스(Depth API), 즉각적인 에이알, 모션 캡처, 전·후면 카메라 동시 지원, 씬지오메트리(Scene Geometry), 인물 오클루전 등을 지원하며 더 많은 이미지를 정확하게 인식할 수 있게 되었다.

특징[편집]

개발자 플랫폼[편집]

많은 대기업이 메타버스를 기회의 땅이라 여기며 다양한 시도와 개발, 투자가 이뤄지는 가운데 가상현실보다는 증강현실의 존재감이 커지는 중이라는 이야기가 있다. 특히, AR 글래스의 개발에 대한 관심이 커지고 있다. 애플의 경우 이미 증강현실 헤드셋은 2022년 중반에, 'AR글래스'는 2025년에 애플 세계 개발자 회의를 통해 공개할 것으로 전했다. 지금껏 가상 및 증강현실 콘텐츠가 부족하다는 지적이 있었다. 하드웨어 측면에서는 더 실감 나는 경험이 가능해진 반면 이른바 '킬러 콘텐츠'가 없는 상황이다.[3] 그렇기 때문에 콘텐츠 부족 해결을 도울 수 있는 증강현실 소프트웨어 개발 도구가 자연스럽게 주목을 받게 될 것이다. 특히 애플의 경우 하드웨어와 소프트웨어 두가지를 동시에 자급자족할 수 있기 때문에 애플 기기 사이에서는 더 좋은 개발 환경과 호환성을 보여줄 수 있다. 그렇게 공개된 에이알키트는 애플에서 개발한 메타버스 기반의 개발자 플랫폼이다. 개발자들이 증강현실 경험을 손쉽게 구축할 수 있도록 돕기 위한 것으로, 증강현실 콘텐츠를 통해 게임과 앱, 쇼핑, 디자인 등에서 뛰어난 몰입감과 실감 나는 경험을 선사한다.[4] 또한 에이알키트에서 제공하는 제공하는 신규 뎁스 API는 개발자들이 아이패드 프로에 탑재된 라이다 스캐너를 보다 효율적으로 이용할 수 있도록 해준다. 개발자들은 뎁스 API를 활용해, 이용자의 신체를 측정하거나, 특정 공간을 3D로 완벽히 구현할 수 있다. 애플 지도와 연계해 특정 지점으로 이동하면 증강현실 기능이 자동으로 실행되도록 지정하는 것도 지원한다.[5]

리얼리티키트2[편집]

리얼리티키트2(RealityKit2)는 에이알키트와 통합하여 사용할 수 있는 증강현실 특화 프레임워크이다. 에이알키트가 기본적으로 증강현실이 작동하는데 필요한 센서 데이터를 제공하고 처리하는 소프트웨어 개발 도구라면 리얼리티키트는 증강현실 애플리케이션을 위한 일부 게임 엔진 기능을 제공하는 더 높은 수준의 소프트웨어 개발 도구이다. 씬키트(SceneKit)는 가벼운 3D 엔진 소프트웨어 개발 도구로 에이알키트의 유무에 관계없이 사용할 수 있다. 리얼리티키트는 씬키트와 비교하여 3D 엔진을 최대한 활용할 수 있기 때문에, 씬키트의 많은 기능을 대체하게 되는 순간 리얼리티키트2를 주로 사용하게 될 것이다. 한편 에이알키트는 2016년에 애플이 인수한 플라이바이 미디어가 근간이 되어 만들어졌으며, 플라이바이 미디어는 구글의 에이알코어 이전작이라 할 수 있는 '탱고'를 제작한 비전 기반 소프트웨어 파트너였다.[6]

비교[편집]

유니티 증강현실 파운데이션 지원 특징
지원 기능 에이알코어 에이알키트 매직리프 홀로렌즈
기기 추적(Device tracking) O O O O
비행기 추적(Plane tracking) O O O X
포인트 클라우드(Point clouds) O O X X
앵커(Anchors) O O O O
조명 추정(Light estimation) O O X X
환경 프로브(Environment probes) O O X X
얼굴 추적(Face tracking) O O X X
2D 이미지 추적(2D Image tracking) O O O X
3D 개체 추적(3D Object tracking) X O X X
메싱(Meshing) X O O O
2D 및 3D 신체 추적(2D & 3D body tracking) X O X X
협력 참가자(Collaborative participants) X O X X
인간 세분화(Human segmentation) X O X X
레이캐스트(Raycast) O O O X
통과 비디오(Pass-through video) O O X X
세션 관리(Session management) O O O O
폐색(Occlusion) O O X X
에이알코어 vs 에이알키트
에이알코어 에이알키트
장점 특이점을 최대한 많이 찾고 맵핑된 공간 영역을 빠르게 확장한다. 수평과 수직으로 평면을 감지하는 기술이 좀 더 정확하다.
지원 기기 삼성, 엘지, 구글, 샤오미, 화웨이, 애플 아이폰, 아이패드
주요 지원 기능 조명 추정, 오클루전, 2D 이미지 추적, 얼굴 추적 조명 추정, 오클루전, 2D 이미지 추적, 얼굴 추적, 3D 객체 추적, 모션캡처, 전후면 카메라 동시 지원, 다중 얼굴 추적

단점[편집]

애플에서 개발한 소프트웨어 개발 도구답게 오로지 iOS에만 호환이 된다는 부분이다. 그래서 다른 플랫폼을 지원하는 애플리케이션을 만들기 위해서는 동일한 애플리케이션을 다시 개발해야한다. 또한 에이알키트로 개발하기 위해서는 맥과 엑스코드가 필요하다는 부분도 있다. 그래서 일반 사용자들이 많이 쓰는 다양한 기기를 생각하면 다른 소프트웨어 개발 도구가 필요할 수 있는데 그 때 선택하는 것이 뷰포리아(Vuforia)나 맥스트 에이알(MAXST AR)이다.[6]

각주[편집]

  1. 박지훈, 조영식, 〈지역 축제지원을 위한 AR 레이더 서비스 개발〉, 《한국디지털콘텐츠학회 논문지》, 2020-01-31
  2. JK JK-Lim, 〈iOS 14 앱 클립(APP Clips)과 앱 클립 코드 내용 정리〉, 《티스토리》, 2020-07-21
  3. 오수연 기자, 〈"5G 확산 느린 이유는 킬러 콘텐츠 부족…AR·VR 잡아라"〉, 《아주경제》, 2021-03-07
  4. 강필주 기자, 〈(애플 WWDC) iOS11로 엿볼 수 있는 아이폰8 기능들〉, 《오센》, 2017-06-07
  5. 강일용 기자, 〈(WWDC 20) ② iOS 그림자 벗어난 '아이패드OS14'... 태블릿PC 경험 강화에 초점〉, 《아주경제》, 2020-06-23
  6. 6.0 6.1 한상기, 〈(2021년 Vol.02 KISA Report-2월호(메타버스를 위한 소프트웨어 플랫폼)한상기/ 테크프론티어 대표) 등 10편〉, 《한국인터넷진흥원》, 2021-03-02

참고자료[편집]

같이 보기[편집]


  검수요청.png검수요청.png 이 에이알키트 문서는 메타버스에 관한 글로서 검토가 필요합니다. 위키 문서는 누구든지 자유롭게 편집할 수 있습니다. [편집]을 눌러 문서 내용을 검토·수정해 주세요.