일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 구현
- 분할 정복
- 자료구조
- 백준 구간 합 구하기 5
- 분할 정복을 이용한 거듭제곱
- AIDEEPDIVE
- 패스트캠퍼스
- 패스트캠퍼스혁펜하임
- 코딩테스트
- 혁펜하임
- 혁펜하임AI
- 수학
- 다이나익 프로그래밍
- 백준 구간 합 구하기 5 파이썬
- 큐
- 백준 시그마
- 모듈로 곱셈 역원
- mysql
- 백준 13172
- 혁펜하임강의후기
- 백준 Σ
- DP
- 다이나믹프로그래밍
- 그리디알고리즘
- 알고리즘
- 백준 Σ 파이썬
- 혁펜하임강의
- 백준 시그마 파이썬
- AI강의
- 백준 13172 파이썬
Archives
- Today
- Total
목록패스트캠퍼스 혁펜하임 (1)
MingyuPark

이번에는 강의 내용 정리보다는 Chapter 4. 딥러닝, 그것이 알고 싶다. 파트를 읽고 느낀 점에 대한 설명을 해보려고 한다. (강의 내용 정리도 좋지만, AI DEEP DIVE 강의 구매를 고민하고 있는 사람이 있다면 이런 글도 도움이 될 것 같다.) MLP를 구성할 때 linear activation만 이용하면 안 되는 이유를 설명해주는 장면이다. 가장 큰 장점은 행렬, 벡터에 대한 기초가 없는 사람이라면 이 과정을 행렬, 백터로 표현하는 과정에서부터 좌절을 할 수도 있을 것 같다. (물론 나는 선형대수학에 대한 기초가 있었기 때문에 크게 어려움이 있지는 않았지만) 아무튼, 이런 과정을 직관적으로 설명해준다. W 행렬이 왜 이렇게 구성되는지, bias 벡터는 어떻게 표현되는지 등등. (입문자들에게..
Deep learning
2023. 2. 6. 22:56