교육/프로그래머스 인공지능 데브코스
-
[9주차 - Day4] Deep Learning 기초교육/프로그래머스 인공지능 데브코스 2021. 7. 3. 15:46
Deep Learning: 신경망의 기초 - 심층학습기초 II 3. 컨볼루션(합성곱) 신경망(CNN, Convolutional Neural Network) 컴퓨터 비전에 많이 사용됨 ex)분류(classification), 검색(retrieval), 검출(detection), 분할(segmentation) 컴퓨터 비전의 어려운 점 관점의 변화 : 동일한 객체라도 영상을 찍는 카메라의 이동에 따라 모든 픽셀값이 변화됨 경계색(보호색)으로 배경과 구분이 어려운 경우 조명에 따른 변화 기형적인 형태의 영상 존재 일부가 가려진 영상 존재 같은 종류 간 변화가 큼 DMLP와 CNN의 비교 DMLP 완전 연결(fully connection)구조로 복잡도가 높음->학습이 매우 느리고 과잉적합될 가능성이 높음 CNN ..
-
[9주차 - Day3] Deep Learning 기초교육/프로그래머스 인공지능 데브코스 2021. 7. 1. 14:17
Deep Learning: 신경망의 기초 - 심층학습기초 I 1. 심층학습(deep learning) 다층 퍼셉트론(multilayer perceptron)에 은닉층(hidden layer)을 여러개 추가하면 깊은 신경망이 됨 경사소멸문제(gradient vanishing problem)+작은 훈련집합+과다한 연산과 시간 소요 1.1. 심층학습의 성공 배경 혁신적 알고리즘 등장 합성곱 신경망(Convolutional Neural Networks, CNN)구조 : 부분연결, 가중치 공유 경사 소멸 문제 해결을 위한 ReLU활성함수 과잉 적합을 방지하는데 효과적인 다양한 규제기법 층별 예비학습(pretraining) 기법 개발 값싼 GPGPU의 등장 학습 데이터 양과 질의 향상 1.2. 표현학습의 부각 전통..
-
[9주차 - Day2] Multilayer Perceptron교육/프로그래머스 인공지능 데브코스 2021. 6. 24. 14:00
Deep Learning: 신경망의 기초 - 다층퍼셉트론 3. 다층 퍼셉트론 퍼셉트론은 선형 분류기(linear classifier)로 선형 분리 불가능한 상황에서 한계->다층 퍼셉트론의 등장 다층 퍼셉트론의 핵심 아이디어 은닉층(hidden layer)을 둠으로써 분류에 유리한 새로운 특징 공간으로 변환 시그모이드 활성함수 : 퍼셉트론은 계단함수를 활성함수로 사용하였음->경성(hard) 의사결정/다층 퍼셉트론은 연성(soft)의사결정이 가능한 시그모이드 함수를 활성함수로 사용, 출력이 연속값 오류 역전파 알고리즘을 사용함으로써 역방향으로 진행하면서 한 층씩 gradient를 계산하고 가중치를 갱신 3.1. 특징 공간 변환 다층 퍼셉트론의 용량(capacity) : p개의 퍼셉트론을 결합하면 p차원 공간..
-
[9주차 - Day1] 신경망 기초교육/프로그래머스 인공지능 데브코스 2021. 6. 23. 14:14
Deep Learning: 신경망의 기초 - 다층퍼셉트론 인공신경망 : 오래된 기계 학습 모델 퍼셉트론(인공두뇌학, cybernetics)->다층 퍼셉트론(결합설, connectionism)->깊은 인공신경망(심층학습, deep learning) 1. 신경망의 기초 1.1. 인공신경망과 생물신경망 사람의 신경망의 핵심적인 단위 : 뉴런(neuron)->두뇌의 가장 작은 정보처리 단위 뉴런의 구조 : 연산+수신+전송 뇌의 정보처리(뉴런의 동작)를 모방하여 지능적 행위를 할 수 있는 인공지능(인공 신경망)을 도전->퍼셉트론 고안 1.2. 신경망의 종류 2. 퍼셉트론 퍼셉트론의 구조 : 절(node), 가중치(weight), 층(layer) 제시된 퍼셉트론 구조의 학습 알고리즘 제안 2.1. 구조 입력->연산..
-
[8주차 - Day4] 기계학습과 수학 리뷰교육/프로그래머스 인공지능 데브코스 2021. 6. 18. 17:44
Deep Learning: 신경망의 기초 - 기계학습과 수학 기계학습에서 수학의 역할 : 목적함수를 정의하고 목적함수의 최저점을 찾아주는 최적화 이론 제공 최적화(optimization) 이론에 학습률(learning rate), 멈춤조건과 같은 제어를 추가하여 알고리즘 구축 1. 선형대수(linear algebra) 벡터, 즉 주어진 데이터가 어떤 공간에 존재하고 그 안에서 연산이 일어났을 때 주어져있는 공간이 어떤 영향을 미치느냐를 수학적으로 설명하는 것 1.1. 벡터와 행렬 벡터(vector) : 샘플을 특징 벡터(feature vector)로 표현 행렬(matrix) : 여러 개의 벡터를 담음 행렬을 이용하면 방정식(방정식계, system of equations)을 간결하게 표현가능 설계 행렬(d..
-
[8주차 - Day3] 인공지능과 기계학습 소개교육/프로그래머스 인공지능 데브코스 2021. 6. 17. 17:20
1. Deep Learning: 신경망의 기초 - 인공지능과 기계학습 소개 인공지능이란? 인간의 학습능력과 추론능력, 지각능력, 자연언어의 이해능력 등을 컴퓨터 프로그램으로 실현한 기술 ex)음성인식, 추천 시스템, 자율 주행, 실시간 객체 인식, 로봇, 번역 등 2. Deep Learning: 신경망의 기초 - 기계학습 I 1. 미리보기 1.1. 기계학습의 정의 인공지능(artificial intelligence) : 인간의 학습, 추론, 지각, 자연언어 이해 등의 지능적 능력을 기기로 실현한 기술 학습 : 비교적 지속적인 행동의 변화나 그 잠재력의 변화, 지식을 습득하는 과정 기계학습(machine learning) : 컴퓨터가 경험(=데이터)을 통해 학습하여 최적의 프로그램(알고리즘)을 찾는 행위 ..
-
-
[7주차 - Day2] ML_basics - Probability Distributions (Part 2)교육/프로그래머스 인공지능 데브코스 2021. 6. 10. 12:57
확률분포 1. 가우시안 분포(Gaussian Distribution) 정보이론에서 엔트로피를 최대화시키는 확률분포 중심극한정리 가우시안 분포의 기하하적인 형태 x에 대한 함수적 종속성은 지수부에 등장하는 이차형식(quadratic form)에 있음 가우시안 분포의 Normalization 증명 기저변환(change of basis) : y를 벡터들 ui에 의해 정의된 새로운 좌표체계 내의 점으로 해석가능 가우시안 분포의 기댓값 다변량(multivariate) 확률변수의 기댓값 가우시안 분포의 공분산 2. 조건분 가우시안 분포(Conditional Gaussian Distributions) D차원의 확률변수 벡터 x가 가우시안 분포를 따른다고 할 때 x를 두 그룹의 확률변수들로 나누었을 때 한 그룹이 주어..