ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • Chapter1 딥러닝을 위한 필수 기초 수학
    교육/혁펜하임의 AI DEEP DIVE 2023. 1. 23. 19:43
    728x90

    chapter1-1. 함수

    y=f(x)=x^2

    chapter1-2. 로그함수

    로그 함수의 중요한 성질들

    앞으로는 그냥 log라고 써져 있으면 밑이 e인 로그

    chapter1-3. 벡터와 행렬

    chapter1-4 전치와 내적

    전치

    내적

    90일때 가장 안 닮음, 0일떄 가장 닮음

    chapter1-5 극한과 입실론-델타 논법

    chapter1-6 미분과 도함수

    미분

    =순간 변화율

    도함수

    chapter1-7 연쇄법칙

    chapter1-8 편미분과 그라디언트

    편미분

    그라디언트

    chapter1-9 테일러급수

    Maclaurin급수

    0에서만 일치

    테일러 급수

    chapter1-10 스칼라를 벡터로 미분하는 법

    이미 했던 그라디언트!

    chapter1-11 왜 그라디언트는 가장 가파른 방향을 향할까

    방향만 보기 위해 델타의 크기를 1로 고정한다면 L(wk+1)-L(wk)가 최대한 양수로 크려면 델타의 방향은 그라디언트 방향과 일치해야함

    =>델타만큼 업데이트할 때 그라디어트 방향으로 업데이트하는게 가장 L을 키울수 있는 방향

    chapter1-12 벡터를 벡터로 미분

    chapter1-13 벡터를 벡터로 미분할 때의 연쇄법칙

    chapter1-14 스칼라를 행렬로 미분하는 방법

    chapter1-15 행렬을 행렬로, 벡터를 행렬로 미분하는 법

    chapter1-16 랜덤 변수와 확률 분포

    평균

    종류 : 1. 산술평균 2.기하평균 3.조화평균

    수업에서 다룰 평균은 기댓값(Expectation)

    연속랜덤변수에 대해서 평균을 나타내는 법

    분산

    평균으로부터 얼마나 퍼져있는지 정도를 알려주는 값

    표준편차는 단위를 맞춰주기 위해 만들어졌음 ex)분산 xcm^2 -->표준편차 √xcm

    chapter1-17 균등 분포와 정규 분포

    균등 분포

    정규 분포

    chapter1-19 최대우도추정(MLE)

    개쩐다,,,나 이거 이해 여태 못했는데 한방에 함

    ex)P(카톡빈도|그녀의 마음)->카톡빈도로 그녀의 마음을 알아내기

    만약 카톡빈도가 5시간정도라면 그녀의 마음은 나에게 없을 가능성이 큼->이걸 알아내는 게 최대우도추정

    즉 P(x|b)이면 b의 값이 최대가 되려면 x가 무슨값이 되어야할까?

    chapter1-20 최대 사후 확률

    likelihood뿐만 아니라 prior distribution까지 고려한 posterior를 maximiaze하는 것

    MLE와 비교하면 p(x)가 추가된 것을 알 수 있고 p(x)를 안다는 것은 x의 분포를 사전에 알고있다는 의미

    ->사전 정보를 제공해주는 것이므로 prior distribution이라고 함

    Chapter 1- 21 정보 이론 기초

     

     

     

     

    본 게시글은 패스트캠퍼스 [혁펜하임의 AI DEEP DIVE] 체험단 활동을 위해 작성되었습니다.  

    https://bit.ly/3GV73FN

    댓글

Designed by Tistory.