일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 깃 연동
- 리액트 네이티브
- 깃 터미널 연동
- 모두를위한딥러닝
- 머신러닝
- 정리
- 리액트 네이티브 시작하기
- 백준 5525번
- React Native
- 네트워크
- 데베
- 문자열
- 백준 4358 자바
- 백준 4949번
- 모두의네트워크
- 자바
- 데이터베이스
- 모두를 위한 딥러닝
- 딥러닝
- 스터디
- 깃허브 로그인
- HTTP
- 리액트 네이티브 프로젝트 생성
- 백준 4358번
- 백준
- 모두의 네트워크
- 팀플회고
- 깃허브 토큰 인증
- SQL
- 지네릭스
- Today
- Total
목록정리 (2)
솜이의 데브로그
Sigmoid function 을 network 에서는 Activation function 이라고 많이 부른다. - Layer가 여러 개 있을 때 처음 들어가는 부분은 Input layer 출력 부분은 output layer, 그리고 가운데는 Hidden Layer라고 한다. - Layer가 여러 개 있을때 선행하는 앞 lyaer의 output과 그 바로 뒤의 input이 일치해야한다. Backpropagation (lec 9-2 내용) - 결과 값에 미친 영향을 알기 위해 각각의 값을 미분. 여기서 Sigmoid 함수를 사용하는 경우 : 미분을 사용해 결과에 미치는 정도를 파악하고 출력을 조정. 이 때 Sigmoid 함수를 사용하면 0~1 사이의 값이 출력이 되므로 제대로 된 값을 계산하지 못함. 이를..
Learning rate, 가지고 있는 데이터를 선처리하는 방법, overfitting 방지 방법 - Gradient descent에서 최소값 구할 때 learning rate라는 α값을 임의로 지정함.적당한 learning rate 값을 지정하는 것이 중요하다. Learning rate 값이 너무 큰 경우 : step 이 너무 커져 그래프의 밖으로 튕겨 나갈 수 있다. 이를 'overshooting' 이라 함. Learning rate값이 너무 작은 경우: 경사면을 너무 조금씩 이동해 바닥까지 내려가지 못하는 경우가 발생할 수 있다. => 방지하기 위해 cost 함수를 출력해보고 확인. 기울기가 거의 변하지 않는다면 learning rate을 조금 올려서 확인. -Observe the cost func..