Python/NLP+Pytorch 2

2-1. 신경망의 기본 구성 요소 - 퍼셉트론과 활성화함수

1. 퍼셉트론 퍼셉트론은 가장 간단한 신경망으로 입력, 연산, 출력으로 이뤄진다. 퍼셉트론은 위 그림처럼 다수의 입력을 받고, 해당 입력에 f(wx + b) 연산을 진행하고, 일반적으로 비선형 함수인 활성화 함수를 거쳐, y hat값을 구하는 과정이다. 즉, 퍼셉트론은 선형함수와 비선형함수의 조합이다. 선형함수인 wx + b 연산을 affine transformation(아핀 변환)이라고도 부른다. 2. 활성화 함수 (1) 시그모이드 신경망 분야의 초창기부터 사용한 활성화 함수로, 임의의 실수값을 받아서 0과 1 사이의 범위로 압축한다. 식은 다음과 같으며, 그래프는 다음과 같다. 그래프에서 볼 수 있다시피, 입력이 얼마나 큰 값이 들어오던 상관없이 0과 1로 수렴하기 때문에 매우 극단적인 출력을 만들곤..

Python/NLP+Pytorch 2023.01.26

1. Tensor 기초

1. Tensor의 생성 기본적으로 세가지 방법을 통해서 생성할 수 있다. 랜덤으로 초기화한 텐서 생성, 리스트에서 텐서 생성, 넘파이에서 텐서 생성. 기본적으로 Tensor의 디폴트 텐서타입은 float32이지만, 넘파이에서 텐서를 생성하게 되면 float64(double)형식으로 생성된다. 2. 텐서의 기초 메소드 - add와 + 연산은 동일하다 - list와 넘파이에서의 arange와 동일하다 - view는 동일한 데이터를 공유하는 새로운 텐서를 만든다. 데이터의 포인터값은 동일하기 때문에, 원본 데이터의 값이 변하면 뷰 텐서의 값 역시 같이 변한다. - sum은 해당 차원의 값들을 모두 더한다. (2,3에서 dim=0이면 2개의 값들을 더해줌) - transpose는 전치해줌. (두번째, 세번째 ..

Python/NLP+Pytorch 2023.01.25