일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- AIDEEPDIVE
- 알고리즘
- 백준 Σ 파이썬
- 혁펜하임강의
- 모듈로 곱셈 역원
- 백준 13172
- 혁펜하임
- 분할 정복
- 백준 구간 합 구하기 5
- 그리디알고리즘
- 백준 13172 파이썬
- 백준 구간 합 구하기 5 파이썬
- 자료구조
- 패스트캠퍼스혁펜하임
- AI강의
- 구현
- 백준 Σ
- 수학
- 패스트캠퍼스
- 혁펜하임강의후기
- mysql
- 백준 시그마 파이썬
- 코딩테스트
- 다이나믹프로그래밍
- DP
- 백준 시그마
- 분할 정복을 이용한 거듭제곱
- 큐
- 혁펜하임AI
- 다이나익 프로그래밍
Archives
- Today
- Total
목록패스트캠퍼스 혁펜하임 (1)
MingyuPark

이번에는 강의 내용 정리보다는 Chapter 4. 딥러닝, 그것이 알고 싶다. 파트를 읽고 느낀 점에 대한 설명을 해보려고 한다. (강의 내용 정리도 좋지만, AI DEEP DIVE 강의 구매를 고민하고 있는 사람이 있다면 이런 글도 도움이 될 것 같다.) MLP를 구성할 때 linear activation만 이용하면 안 되는 이유를 설명해주는 장면이다. 가장 큰 장점은 행렬, 벡터에 대한 기초가 없는 사람이라면 이 과정을 행렬, 백터로 표현하는 과정에서부터 좌절을 할 수도 있을 것 같다. (물론 나는 선형대수학에 대한 기초가 있었기 때문에 크게 어려움이 있지는 않았지만) 아무튼, 이런 과정을 직관적으로 설명해준다. W 행렬이 왜 이렇게 구성되는지, bias 벡터는 어떻게 표현되는지 등등. (입문자들에게..
Deep learning
2023. 2. 6. 22:56