#혁펜하임강의
-
Chapter3 왜 우리는 인공신경망을 공부해야하는가?교육/혁펜하임의 AI DEEP DIVE 2023. 1. 27. 14:51
chapter3-1 인공신경망, weight와 bias의 직관적 이해, 인공신경망은 함수다! 동그라미는 노드라 부르고 연결시켜주는 선들은 엣지(혹은 connection)이라고 부름 웨이트(중요도)를 곱하고 바이어스(민감도)와 함께 더하고 액티베이션 함수를 통과하여 출력하면 끝! 주어진 입력에 대해 원하는 출력이 나오도록 웨이트,바이어스를 정해줘야하는데 AI는 이를 스스로 알아냄 깊은 인공 신경망은 DNN, Deep Neural Network인데 그냥 히든레이어가 많아진다고 보면 됨 노드끼리 전부 연결한 층은 FC(Fully-connected)layer 모든 layer가 FC layer(예시 그림처럼)인 신경망을 MLP(Multilayer Perceptron)이라고 부름 chapter3-2 선형 회귀, 개..
-
Chapter2 왜 현재 AI가 가장 핫할까?교육/혁펜하임의 AI DEEP DIVE 2023. 1. 27. 06:31
Chapter2-1 AI vs ML vs DL(Rule-based vs Data-based) 인공지능이란?인간의 지능을 인공적으로 만든 것->인간의 사고방식을 흉내 Chpater2-2 딥러닝의 활용 CNN, RNN, GAN size=rgb갯수(채널갯수)*행*렬 chapter2-3 머신러닝의 분류 지도학습과 비지도학습 지도학습 정답(label)을 알고있음 ex)회귀, 분류 비지도 학습 정답(label)을 모름 ex)군집화(K-means, DBSCAN,...),차원축소(데이터 전처리:PCA, SVD, ...), GAN chapter2-4 자기지도학습 데이터는 많을수록 좋은데 정답을 아는 데이터가 너무 적다 자기지도학습은 진짜 풀려고 했던 문제 말고 다른 문제를 새롭게 정의해서 먼저 풀어봄 데이터 안에서 se..
-
Chapter1 딥러닝을 위한 필수 기초 수학교육/혁펜하임의 AI DEEP DIVE 2023. 1. 23. 19:43
chapter1-1. 함수 y=f(x)=x^2 chapter1-2. 로그함수 앞으로는 그냥 log라고 써져 있으면 밑이 e인 로그 chapter1-3. 벡터와 행렬 chapter1-4 전치와 내적 전치 내적 chapter1-5 극한과 입실론-델타 논법 chapter1-6 미분과 도함수 미분 =순간 변화율 도함수 chapter1-7 연쇄법칙 chapter1-8 편미분과 그라디언트 편미분 그라디언트 chapter1-9 테일러급수 Maclaurin급수 테일러 급수 chapter1-10 스칼라를 벡터로 미분하는 법 chapter1-11 왜 그라디언트는 가장 가파른 방향을 향할까 방향만 보기 위해 델타의 크기를 1로 고정한다면 L(wk+1)-L(wk)가 최대한 양수로 크려면 델타의 방향은 그라디언트 방향과 일치해..