"은닉층"의 두 판 사이의 차이
leejia1222 (토론 | 기여) (새 문서: '''은닉층''') |
leejia1222 (토론 | 기여) |
||
1번째 줄: | 1번째 줄: | ||
− | '''은닉층''' | + | '''은닉층'''(Hidden Layer)은 [[인공신경망]](Artificial Neural Network, ANN)에서 입력층(Input Layer)과 출력층(Output Layer) 사이에 위치한 중간 계층이다. 은닉층은 [[신경망]]의 성능을 결정짓는 중요한 요소로, 신경망이 복잡한 패턴이나 비선형적인 문제를 해결하는 데 필수적인 역할을 한다. 은닉층은 입력층으로부터 받은 [[데이터]]를 가공하고, 출력층으로 전달하기 전에 데이터의 특징을 추출하고 변환하는 과정을 거친다. |
+ | |||
+ | == 상세 == | ||
+ | 은닉층은 [[인공신경망]]에서 입력층과 출력층 사이에 위치한 계층이다. 은닉층은 입력층(Input Layer)에서 받은 데이터를 처리하고, 그 결과를 출력층(Output Layer)으로 전달하는 중간 단계의 역할을 한다. '은닉'이라는 명칭은, 이 계층의 출력을 외부에서는 직접 관찰할 수 없기 때문에 붙여진 이름이다. 즉, 이 계층의 내부에서 이루어지는 처리는 외부에서 숨겨져 있다는 뜻이다. 은닉층은 단순히 [[데이터]]를 전달하는 것이 아니라, 그 데이터에서 중요한 특징을 추출하고 변환하는 역할을 한다. 이는 특히 [[다층퍼셉트론]](Multilayer Perceptron, MLP)과 같은 [[심층신경망]]에서 중요한 역할을 하며, [[딥러닝]](Deep Learning)의 성공을 이끄는 주요 요소 중 하나이다.<ref>〈[https://zena1010.tistory.com/117 (딥러닝) 01. 인공 신경망의 구조(입력층, 은닉층, 출력층)와 함수 용어 설명(keras), 가중치 행렬]〉, 《티스토리》, 2022-01-17</ref> | ||
+ | |||
+ | == 구성 요소 == | ||
+ | 은닉층은 신경망의 뉴런(또는 노드)으로 구성되며, 각 뉴런은 입력 데이터를 받아 특정 연산을 수행하고 출력을 생성한다. 이 과정에서 다음과 같은 요소들이 중요한 역할을 한다. | ||
+ | |||
+ | * '''입력 데이터''': 은닉층의 각 뉴런은 이전 층으로부터 입력 데이터를 받는다. 이때 입력 데이터는 입력층에서 받은 원시 데이터일 수도 있고, 이전 은닉층에서 처리된 결과일 수도 있다. | ||
+ | |||
+ | * '''가중치'''(Weights): 입력값은 뉴런에 전달될 때 각기 다른 가중치(weight)와 결합된다. 가중치는 입력값이 해당 뉴런의 출력에 미치는 영향을 조정하는 파라미터이다. 초기에는 가중치가 임의의 값으로 설정되지만, 학습을 통해 점진적으로 조정된다. | ||
+ | |||
+ | * '''편향'''(Bias): 은닉층의 각 뉴런에는 편향(bias)이라는 추가적인 상수값이 더해진다. 이 편향은 입력이 모두 0일 때도 뉴런이 출력을 생성할 수 있도록 도와준다. 편향은 학습 과정에서 중요한 역할을 하며, 모델이 보다 유연하게 학습할 수 있게 해준다. | ||
+ | |||
+ | * '''합산기'''(Summation): 각 뉴런은 입력값과 그에 대응하는 가중치의 곱을 모두 더해 합산한다. 이 과정은 수학적으로 다음과 같이 표현된다. | ||
+ | <center><math>z = \sum_{i=1}^{n} w_i x_i + b</math></center> | ||
+ | : 여기서 <math>w_i</math>는 가중치, <math>x_i</math>는 입력값, <math>b</math>는 편향이다. 이 결과값 <math>z</math>는 뉴런의 활성화 함수에 전달된다. | ||
+ | |||
+ | * '''활성화 함수'''(Activation Function): 활성화 함수는 뉴런에서 합산된 결과값을 비선형적으로 변환하여 출력값을 생성한다. 활성화 함수는 신경망이 단순한 선형 분류를 넘어서 비선형적인 문제를 해결할 수 있도록 도와준다. 활성화 함수의 선택은 신경망의 성능에 큰 영향을 미친다. 가장 일반적으로 사용되는 활성화 함수는 다음과 같다. | ||
+ | :{|class=wikitable | ||
+ | |+일반적으로 사용되는 활성화 함수 | ||
+ | !align=center width=350|렐루(ReLU) | ||
+ | !align=center width=350|시그모이드(Sigmoid) | ||
+ | !align=center width=350|Tanh(하이퍼볼릭 탄젠트) | ||
+ | |- | ||
+ | |align=center|입력이 0 이하일 때는 0을 출력하고, 0보다 클 때는 입력값 그대로 출력하는 함수. 빠르고 계산이 간단해 심층 신경망에서 널리 사용된다. | ||
+ | |align=center|출력값을 0과 1 사이로 변환하는 함수로, 이진 분류 문제에 자주 사용되었다. | ||
+ | |align=center|출력값을 -1과 1 사이로 변환하는 함수. 시그모이드와 유사하지만 출력값 범위가 더 넓다. | ||
+ | |- | ||
+ | |align=center|<math>\text{ReLU}(z) = \max(0, z)</math> | ||
+ | |align=center|<math>\sigma(z) = \frac{1}{1 + e^{-z}}</math> | ||
+ | |align=center|<math>\tanh(z) = \frac{e^z - e^{-z}}{e^z + e^{-z}}</math> | ||
+ | |} | ||
+ | |||
+ | == 주요 역할 == | ||
+ | 은닉층의 가장 중요한 역할은 [[데이터]]의 특징 추출(feature extraction)이다. 은닉층은 단순한 선형적인 변환을 넘어서, 입력 데이터의 복잡한 패턴이나 비선형성을 학습할 수 있도록 도와준다. 이를 통해 신경망은 단순히 데이터를 분류하는 것뿐만 아니라, 데이터의 구조와 의미를 이해할 수 있게 된다. | ||
+ | |||
+ | * '''비선형 문제 해결''': [[단층퍼셉트론]](Single-Layer Perceptron)은 선형적으로 분리 가능한 문제만 해결할 수 있다. 하지만 비선형적인 문제는 선형 변환만으로는 해결이 불가능하다. 이때 은닉층은 활성화 함수의 비선형적 변환을 통해 비선형 문제를 해결할 수 있도록 돕는다. 예를 들어, XOR 문제는 단층 퍼셉트론으로는 해결할 수 없는 비선형 문제이다. 하지만 은닉층을 도입하면 이 문제를 해결할 수 있다. [[다층퍼셉트론]]에서 은닉층은 입력값 간의 복잡한 관계를 학습하고, 이를 바탕으로 최종 출력을 도출할 수 있게 한다.<ref>뚜찌지롱, 〈[https://syj9700.tistory.com/37 활성화 함수(Activation Function)]〉, 《티스토리》, 2021-02-24</ref> | ||
+ | * '''계층적 특징 학습'''(Hierarchical Feature Learning): 심층 신경망에서 은닉층이 여러 층으로 쌓여 있을 때, 신경망은 계층적으로 특징을 학습한다. 예를 들어, 이미지 인식 문제에서는 초기 은닉층에서 저차원의 특징(예: 모서리, 선)을 학습하고, 깊은 은닉층에서는 고차원의 복잡한 특징(예: 얼굴, 사물)을 학습하게 된다. 이러한 계층적 학습 구조 덕분에 [[심층신경망]]은 복잡한 문제를 더 잘 해결할 수 있다.<ref>Yongjoo Lee, 〈[https://velog.io/@leeyongjoo/7-5-%EB%94%A5%EB%9F%AC%EB%8B%9D-%EA%B8%B0%EC%B4%88 (7-5) 딥러닝 기초]〉, 《벨로그》, 2021-01-25</ref> | ||
+ | * '''패턴 인식과 추상화''': 은닉층은 [[데이터]]의 [[패턴]]을 인식하고 이를 추상화하는 역할을 한다. 데이터가 입력될 때 은닉층은 반복적인 변환을 통해 점점 더 중요한 패턴을 추출해낸다. 이러한 과정 덕분에 신경망은 입력 데이터의 복잡한 구조를 이해하고 적절한 출력을 생성할 수 있다.<ref>융, 〈[https://velog.io/@jyunxx/DL-%EB%94%A5%EB%9F%AC%EB%8B%9D-%EA%B8%B0%EC%B4%88 (DL) 딥러닝 시작하기]〉, 《벨로그》, 2023-06-26</ref> | ||
+ | |||
+ | == 수와 구조 == | ||
+ | 은닉층의 수와 구조는 [[신경망]]의 성능에 큰 영향을 미친다. 신경망에서 은닉층의 수를 늘리면 [[네트워크]]는 더 많은 특징을 학습할 수 있으며, 더 복잡한 문제를 해결할 수 있게 된다. 그러나 은닉층이 너무 많으면 과적합(overfitting) 문제가 발생할 수 있다. 과적합은 신경망이 학습 데이터에 너무 맞춰져, 새로운 데이터를 처리할 때 일반화 성능이 떨어지는 현상이다. | ||
+ | |||
+ | * '''은닉층의 수''' | ||
+ | :* 단층 신경망(Single-Layer Network): 은닉층이 없는 신경망이다. 단층 퍼셉트론은 선형적으로 분리 가능한 문제만 해결할 수 있어, 제한적인 문제에서만 유용하다. | ||
+ | :* 다층 신경망(Multilayer Network): 은닉층이 여러 층으로 구성된 신경망이다. 이 경우 신경망은 더 복잡한 패턴과 비선형적인 문제를 해결할 수 있다. | ||
+ | :* 심층 신경망(Deep Neural Networks, DNN): 여러 개의 은닉층을 사용하는 신경망이다. 심층 신경망은 복잡한 문제에서 탁월한 성능을 발휘하며, 특히 이미지 처리, [[자연어 처리]], [[자율주행]]과 같은 고차원 문제에서 널리 사용된다. | ||
+ | * '''은닉층의 노드 수''' : 은닉층 내의 각 층에 포함된 [[노드]] 또는 [[뉴런]]의 수는 모델의 성능과 학습 속도에 중요한 영향을 미친다. 노드가 너무 적으면 신경망이 충분히 학습하지 못하고, 노드가 너무 많으면 과적합이 발생할 수 있다. | ||
+ | |||
+ | == 한계 및 해결책 == | ||
+ | * '''기울기 소실 문제'''(Vanishing Gradient Problem): 신경망이 깊어질수록 은닉층에서 발생하는 기울기 값이 매우 작아지는 현상이 발생할 수 있다. 이는 역전파(Backpropagation) 과정에서 학습이 제대로 이루어지지 않게 만든다. 이를 해결하기 위해 [[ReLU]]와 같은 [[활성화 함수]]가 도입되었으며, 이를 통해 기울기 소실 문제를 완화하고 더 깊은 신경망을 학습할 수 있게 되었다.<ref>박재한, 〈[https://velog.io/@lighthouse97/%EA%B8%B0%EC%9A%B8%EA%B8%B0-%EC%86%8C%EC%8B%A4-%EB%AC%B8%EC%A0%9C%EC%99%80-ReLU-%ED%95%A8%EC%88%98 기울기 소실 문제와 ReLU 함수]〉, 《벨로그》, 2022-02-10</ref> | ||
+ | * '''과적합'''(Overfitting): 은닉층의 수가 많고 파라미터가 복잡해지면, 모델이 훈련 데이터에 너무 적합하게 학습되어 새로운 데이터에 대한 일반화 성능이 떨어지는 과적합 현상이 발생할 수 있다. 이를 해결하기 위해 [[드롭아웃]](Dropout)과 같은 규제 기법이 사용된다. 드롭아웃은 학습 중 무작위로 은닉층의 일부 뉴런을 제거하여 모델이 특정 뉴런에 의존하지 않도록 만드는 방식이다.<ref>동네코더, 〈[https://blog.naver.com/baek2sm/222013681679 딥러닝 과적합 줄이기, 드롭 아웃(Drop out)]〉, 《네이버 블로그》, 2020-07-06</ref> | ||
+ | * '''연산 비용''' : 은닉층이 많아질수록 연산 비용이 기하급수적으로 증가한다. 이를 해결하기 위해 병렬 처리, 고성능 [[하드웨어]]([[GPU]], [[TPU]]) 등이 필요하다. [[딥러닝]] 모델의 학습 과정에서 대규모 데이터를 처리하기 위해 고성능 하드웨어는 필수적이다.<ref>김채형 (Chaehyeong Kim), 〈[https://cheris8.github.io/artificial%20intelligence/DL-Activation-Function/ (딥러닝) 활성화 함수 (Activation Function)]〉, 《깃허브》, 2021-03-25</ref> | ||
+ | |||
+ | {{각주}} | ||
+ | |||
+ | == 참고자료 == | ||
+ | * 동네코더, 〈[https://blog.naver.com/baek2sm/222013681679 딥러닝 과적합 줄이기, 드롭 아웃(Drop out)]〉, 《네이버 블로그》, 2020-07-06 | ||
+ | * Yongjoo Lee, 〈[https://velog.io/@leeyongjoo/7-5-%EB%94%A5%EB%9F%AC%EB%8B%9D-%EA%B8%B0%EC%B4%88 (7-5) 딥러닝 기초]〉, 《벨로그》, 2021-01-25 | ||
+ | * 뚜찌지롱, 〈[https://syj9700.tistory.com/37 활성화 함수(Activation Function)]〉, 《티스토리》, 2021-02-24 | ||
+ | * 김채형 (Chaehyeong Kim), 〈[https://cheris8.github.io/artificial%20intelligence/DL-Activation-Function/ (딥러닝) 활성화 함수 (Activation Function)]〉, 《깃허브》, 2021-03-25 | ||
+ | * 〈[https://zena1010.tistory.com/117 (딥러닝) 01. 인공 신경망의 구조(입력층, 은닉층, 출력층)와 함수 용어 설명(keras), 가중치 행렬]〉, 《티스토리》, 2022-01-17 | ||
+ | * 박재한, 〈[https://velog.io/@lighthouse97/%EA%B8%B0%EC%9A%B8%EA%B8%B0-%EC%86%8C%EC%8B%A4-%EB%AC%B8%EC%A0%9C%EC%99%80-ReLU-%ED%95%A8%EC%88%98 기울기 소실 문제와 ReLU 함수]〉, 《벨로그》, 2022-02-10 | ||
+ | * 융, 〈[https://velog.io/@jyunxx/DL-%EB%94%A5%EB%9F%AC%EB%8B%9D-%EA%B8%B0%EC%B4%88 (DL) 딥러닝 시작하기]〉, 《벨로그》, 2023-06-26 | ||
+ | |||
+ | == 같이 보기 == | ||
+ | * [[인공신경망]] | ||
+ | * [[인공지능]] | ||
+ | |||
+ | {{인공지능 기술|검토 필요}} |
2024년 10월 14일 (월) 15:43 기준 최신판
은닉층(Hidden Layer)은 인공신경망(Artificial Neural Network, ANN)에서 입력층(Input Layer)과 출력층(Output Layer) 사이에 위치한 중간 계층이다. 은닉층은 신경망의 성능을 결정짓는 중요한 요소로, 신경망이 복잡한 패턴이나 비선형적인 문제를 해결하는 데 필수적인 역할을 한다. 은닉층은 입력층으로부터 받은 데이터를 가공하고, 출력층으로 전달하기 전에 데이터의 특징을 추출하고 변환하는 과정을 거친다.
상세[편집]
은닉층은 인공신경망에서 입력층과 출력층 사이에 위치한 계층이다. 은닉층은 입력층(Input Layer)에서 받은 데이터를 처리하고, 그 결과를 출력층(Output Layer)으로 전달하는 중간 단계의 역할을 한다. '은닉'이라는 명칭은, 이 계층의 출력을 외부에서는 직접 관찰할 수 없기 때문에 붙여진 이름이다. 즉, 이 계층의 내부에서 이루어지는 처리는 외부에서 숨겨져 있다는 뜻이다. 은닉층은 단순히 데이터를 전달하는 것이 아니라, 그 데이터에서 중요한 특징을 추출하고 변환하는 역할을 한다. 이는 특히 다층퍼셉트론(Multilayer Perceptron, MLP)과 같은 심층신경망에서 중요한 역할을 하며, 딥러닝(Deep Learning)의 성공을 이끄는 주요 요소 중 하나이다.[1]
구성 요소[편집]
은닉층은 신경망의 뉴런(또는 노드)으로 구성되며, 각 뉴런은 입력 데이터를 받아 특정 연산을 수행하고 출력을 생성한다. 이 과정에서 다음과 같은 요소들이 중요한 역할을 한다.
- 입력 데이터: 은닉층의 각 뉴런은 이전 층으로부터 입력 데이터를 받는다. 이때 입력 데이터는 입력층에서 받은 원시 데이터일 수도 있고, 이전 은닉층에서 처리된 결과일 수도 있다.
- 가중치(Weights): 입력값은 뉴런에 전달될 때 각기 다른 가중치(weight)와 결합된다. 가중치는 입력값이 해당 뉴런의 출력에 미치는 영향을 조정하는 파라미터이다. 초기에는 가중치가 임의의 값으로 설정되지만, 학습을 통해 점진적으로 조정된다.
- 편향(Bias): 은닉층의 각 뉴런에는 편향(bias)이라는 추가적인 상수값이 더해진다. 이 편향은 입력이 모두 0일 때도 뉴런이 출력을 생성할 수 있도록 도와준다. 편향은 학습 과정에서 중요한 역할을 하며, 모델이 보다 유연하게 학습할 수 있게 해준다.
- 합산기(Summation): 각 뉴런은 입력값과 그에 대응하는 가중치의 곱을 모두 더해 합산한다. 이 과정은 수학적으로 다음과 같이 표현된다.
- 여기서 는 가중치, 는 입력값, 는 편향이다. 이 결과값 는 뉴런의 활성화 함수에 전달된다.
- 활성화 함수(Activation Function): 활성화 함수는 뉴런에서 합산된 결과값을 비선형적으로 변환하여 출력값을 생성한다. 활성화 함수는 신경망이 단순한 선형 분류를 넘어서 비선형적인 문제를 해결할 수 있도록 도와준다. 활성화 함수의 선택은 신경망의 성능에 큰 영향을 미친다. 가장 일반적으로 사용되는 활성화 함수는 다음과 같다.
일반적으로 사용되는 활성화 함수 렐루(ReLU) 시그모이드(Sigmoid) Tanh(하이퍼볼릭 탄젠트) 입력이 0 이하일 때는 0을 출력하고, 0보다 클 때는 입력값 그대로 출력하는 함수. 빠르고 계산이 간단해 심층 신경망에서 널리 사용된다. 출력값을 0과 1 사이로 변환하는 함수로, 이진 분류 문제에 자주 사용되었다. 출력값을 -1과 1 사이로 변환하는 함수. 시그모이드와 유사하지만 출력값 범위가 더 넓다.
주요 역할[편집]
은닉층의 가장 중요한 역할은 데이터의 특징 추출(feature extraction)이다. 은닉층은 단순한 선형적인 변환을 넘어서, 입력 데이터의 복잡한 패턴이나 비선형성을 학습할 수 있도록 도와준다. 이를 통해 신경망은 단순히 데이터를 분류하는 것뿐만 아니라, 데이터의 구조와 의미를 이해할 수 있게 된다.
- 비선형 문제 해결: 단층퍼셉트론(Single-Layer Perceptron)은 선형적으로 분리 가능한 문제만 해결할 수 있다. 하지만 비선형적인 문제는 선형 변환만으로는 해결이 불가능하다. 이때 은닉층은 활성화 함수의 비선형적 변환을 통해 비선형 문제를 해결할 수 있도록 돕는다. 예를 들어, XOR 문제는 단층 퍼셉트론으로는 해결할 수 없는 비선형 문제이다. 하지만 은닉층을 도입하면 이 문제를 해결할 수 있다. 다층퍼셉트론에서 은닉층은 입력값 간의 복잡한 관계를 학습하고, 이를 바탕으로 최종 출력을 도출할 수 있게 한다.[2]
- 계층적 특징 학습(Hierarchical Feature Learning): 심층 신경망에서 은닉층이 여러 층으로 쌓여 있을 때, 신경망은 계층적으로 특징을 학습한다. 예를 들어, 이미지 인식 문제에서는 초기 은닉층에서 저차원의 특징(예: 모서리, 선)을 학습하고, 깊은 은닉층에서는 고차원의 복잡한 특징(예: 얼굴, 사물)을 학습하게 된다. 이러한 계층적 학습 구조 덕분에 심층신경망은 복잡한 문제를 더 잘 해결할 수 있다.[3]
- 패턴 인식과 추상화: 은닉층은 데이터의 패턴을 인식하고 이를 추상화하는 역할을 한다. 데이터가 입력될 때 은닉층은 반복적인 변환을 통해 점점 더 중요한 패턴을 추출해낸다. 이러한 과정 덕분에 신경망은 입력 데이터의 복잡한 구조를 이해하고 적절한 출력을 생성할 수 있다.[4]
수와 구조[편집]
은닉층의 수와 구조는 신경망의 성능에 큰 영향을 미친다. 신경망에서 은닉층의 수를 늘리면 네트워크는 더 많은 특징을 학습할 수 있으며, 더 복잡한 문제를 해결할 수 있게 된다. 그러나 은닉층이 너무 많으면 과적합(overfitting) 문제가 발생할 수 있다. 과적합은 신경망이 학습 데이터에 너무 맞춰져, 새로운 데이터를 처리할 때 일반화 성능이 떨어지는 현상이다.
- 은닉층의 수
- 단층 신경망(Single-Layer Network): 은닉층이 없는 신경망이다. 단층 퍼셉트론은 선형적으로 분리 가능한 문제만 해결할 수 있어, 제한적인 문제에서만 유용하다.
- 다층 신경망(Multilayer Network): 은닉층이 여러 층으로 구성된 신경망이다. 이 경우 신경망은 더 복잡한 패턴과 비선형적인 문제를 해결할 수 있다.
- 심층 신경망(Deep Neural Networks, DNN): 여러 개의 은닉층을 사용하는 신경망이다. 심층 신경망은 복잡한 문제에서 탁월한 성능을 발휘하며, 특히 이미지 처리, 자연어 처리, 자율주행과 같은 고차원 문제에서 널리 사용된다.
- 은닉층의 노드 수 : 은닉층 내의 각 층에 포함된 노드 또는 뉴런의 수는 모델의 성능과 학습 속도에 중요한 영향을 미친다. 노드가 너무 적으면 신경망이 충분히 학습하지 못하고, 노드가 너무 많으면 과적합이 발생할 수 있다.
한계 및 해결책[편집]
- 기울기 소실 문제(Vanishing Gradient Problem): 신경망이 깊어질수록 은닉층에서 발생하는 기울기 값이 매우 작아지는 현상이 발생할 수 있다. 이는 역전파(Backpropagation) 과정에서 학습이 제대로 이루어지지 않게 만든다. 이를 해결하기 위해 ReLU와 같은 활성화 함수가 도입되었으며, 이를 통해 기울기 소실 문제를 완화하고 더 깊은 신경망을 학습할 수 있게 되었다.[5]
- 과적합(Overfitting): 은닉층의 수가 많고 파라미터가 복잡해지면, 모델이 훈련 데이터에 너무 적합하게 학습되어 새로운 데이터에 대한 일반화 성능이 떨어지는 과적합 현상이 발생할 수 있다. 이를 해결하기 위해 드롭아웃(Dropout)과 같은 규제 기법이 사용된다. 드롭아웃은 학습 중 무작위로 은닉층의 일부 뉴런을 제거하여 모델이 특정 뉴런에 의존하지 않도록 만드는 방식이다.[6]
- 연산 비용 : 은닉층이 많아질수록 연산 비용이 기하급수적으로 증가한다. 이를 해결하기 위해 병렬 처리, 고성능 하드웨어(GPU, TPU) 등이 필요하다. 딥러닝 모델의 학습 과정에서 대규모 데이터를 처리하기 위해 고성능 하드웨어는 필수적이다.[7]
각주[편집]
- ↑ 〈(딥러닝) 01. 인공 신경망의 구조(입력층, 은닉층, 출력층)와 함수 용어 설명(keras), 가중치 행렬〉, 《티스토리》, 2022-01-17
- ↑ 뚜찌지롱, 〈활성화 함수(Activation Function)〉, 《티스토리》, 2021-02-24
- ↑ Yongjoo Lee, 〈(7-5) 딥러닝 기초〉, 《벨로그》, 2021-01-25
- ↑ 융, 〈(DL) 딥러닝 시작하기〉, 《벨로그》, 2023-06-26
- ↑ 박재한, 〈기울기 소실 문제와 ReLU 함수〉, 《벨로그》, 2022-02-10
- ↑ 동네코더, 〈딥러닝 과적합 줄이기, 드롭 아웃(Drop out)〉, 《네이버 블로그》, 2020-07-06
- ↑ 김채형 (Chaehyeong Kim), 〈(딥러닝) 활성화 함수 (Activation Function)〉, 《깃허브》, 2021-03-25
참고자료[편집]
- 동네코더, 〈딥러닝 과적합 줄이기, 드롭 아웃(Drop out)〉, 《네이버 블로그》, 2020-07-06
- Yongjoo Lee, 〈(7-5) 딥러닝 기초〉, 《벨로그》, 2021-01-25
- 뚜찌지롱, 〈활성화 함수(Activation Function)〉, 《티스토리》, 2021-02-24
- 김채형 (Chaehyeong Kim), 〈(딥러닝) 활성화 함수 (Activation Function)〉, 《깃허브》, 2021-03-25
- 〈(딥러닝) 01. 인공 신경망의 구조(입력층, 은닉층, 출력층)와 함수 용어 설명(keras), 가중치 행렬〉, 《티스토리》, 2022-01-17
- 박재한, 〈기울기 소실 문제와 ReLU 함수〉, 《벨로그》, 2022-02-10
- 융, 〈(DL) 딥러닝 시작하기〉, 《벨로그》, 2023-06-26
같이 보기[편집]