반응형 분류 전체보기35 Loss Function 1. MSE(평균 제곱 오차) 가장 많이 쓰이는 loss function 중 하나이다. CNN feature 값들을 비교하는데 사용하는 방법 K는 노이즈가 포함된 이미지(생성된 이미지)를 의미한다. I1,I2는 Image MXN사이즈 두 이미지의 픽셀들을 의미한다. 1-1 Pixel-wise MSE Loss -생성된 이미지와 실제 이미지 사이의 pixel value들을 MSE를 통해서 비교 계산 G(ILR) : generated network를 통해 생성된 high-resolution image IHR : sampled된 high-resolution image 2. PSNR(Peak Signal-to-Noise Ratio, 최대 신호에서의 노이즈 비율) -영상의 화질에 대한 loss를 평가 , 손실이 적.. 2022. 4. 30. requires_grad for param in vgg16.features.parameters(): param.requires_grad = False 모델에 있는 layer들을 for문을 이용해 가져와서 하나하나씩 false로 만들어 주는 코드 false로 만들어 주는 경우 파라미터들을 상수 취급 해주어서 training시 update가 되지 않도록 만들어준다. 2022. 4. 29. 전이학습 (Transfer Learning)과 파인튜닝(pine tuning) 전이학습(Transfer Leaning) 전이학습(Transfer Leaning)이란 pretrain 된 모델들을 기반으로 그 모델의 출력층을 바꾸어 학습하는 기법이다. pretrain 된 모델의 최종 출력층(classifier)를 보유중인 데이터에 대응하는 출력층으로 바꾸고, 교체한 출력층의 결합 파라미터를 가지고 있는 데이터를 통해 다시 학습시켜 weight를 update합니다. 이때 입력층과 가까운 부분의 weight는 새로이 학습한 값으로 변화시키지 않습니다. 이러한 기법을 사용하는 전이학습은 보유중인 데이터가 적더라도 이미 가중치가 update 되어있는 학습된 모델을 활용하기 때문에 좋은 성능의 딥러닝을 실현할 수 있다는 것이 장점입니다. 파인튜닝(pine tuning) 파인튜닝(pine tun.. 2022. 3. 31. [논문 리뷰]Sequence to Sequence Learning with Neural Networks(Seq2Seq) https://arxiv.org/abs/1409.3215 Sequence to Sequence Learning with Neural Networks Deep Neural Networks (DNNs) are powerful models that have achieved excellent performance on difficult learning tasks. Although DNNs work well whenever large labeled training sets are available, they cannot be used to map sequences to sequences. In this pap arxiv.org 1. Abstract 이전까지는 보편적으로 DNN 모델을 이용하여 용량이 큰 label.. 2022. 3. 20. 이전 1 ··· 5 6 7 8 9 다음 반응형