전체 글
-
KMP, 라빈 카프 알고리즘공부/알고리즘 2021. 6. 15. 16:43
백준 5525번 풀다가 모르겠어서 질문 검색란 보니 요런 알고리즘이 있길래 정리 https://www.acmicpc.net/problem/5525 5525번: IOIOI 첫째 줄에 N이 주어진다. 둘째 줄에는 S의 길이 M이 주어지며, 셋째 줄에 S가 주어진다. (1 ≤ N ≤ 1,000,000, 2N+1 ≤ M ≤ 1,000,000) www.acmicpc.net 문자열 검색 시 가장 간단한 방법을 생각해보자면 한자리씩 옮겨가면서 비교하는 방법이 떠오를 것 백준 문제를 예시로 들어보자 O O I O I O I O I I O I I I O I OOI!=IOI 불일치 O O I O I O I O I I O I I I O I OIO!=IOI 불일치 O O I O I O I O I I O I I I O I IO..
-
Chapter1. 소개공부/PRML 2021. 6. 10. 21:42
training set(훈련집합) target vector(표적벡터) 머신러닝 알고리즘의 결과물은 함수 y(x)로 표현 y(x)의 정확한 형태는 훈련단계(training phase, 학습 단계(=learning phase))에서 훈련집합을 바탕으로 결정 훈련되고 난 모델은 시험집합(test set)이라고 불리는 새로운 세트의 정체를 찾아내는데 활용 훈련단계에서 사용되지 않았던 새로운 예시들을 올바르게 분류하는 능력 : 일반화(generalization) 대다수 실용 애플리케이션에서 입력변수들을 전처리(preprocessed, 특징추출(feature extraction)이라고도 함)하여 새로운 변수로 전환하면 패턴 인식 문제를 좀 더 쉽게 해결할 수 있음 지도학습(supervised learning) : ..
-
[7주차 - Day2] ML_basics - Probability Distributions (Part 2)교육/프로그래머스 인공지능 데브코스 2021. 6. 10. 12:57
확률분포 1. 가우시안 분포(Gaussian Distribution) 정보이론에서 엔트로피를 최대화시키는 확률분포 중심극한정리 가우시안 분포의 기하하적인 형태 x에 대한 함수적 종속성은 지수부에 등장하는 이차형식(quadratic form)에 있음 가우시안 분포의 Normalization 증명 기저변환(change of basis) : y를 벡터들 ui에 의해 정의된 새로운 좌표체계 내의 점으로 해석가능 가우시안 분포의 기댓값 다변량(multivariate) 확률변수의 기댓값 가우시안 분포의 공분산 2. 조건분 가우시안 분포(Conditional Gaussian Distributions) D차원의 확률변수 벡터 x가 가우시안 분포를 따른다고 할 때 x를 두 그룹의 확률변수들로 나누었을 때 한 그룹이 주어..
-
[7주차 - Day1] ML_basics - Probability Distributions (Part 1)교육/프로그래머스 인공지능 데브코스 2021. 6. 8. 14:18
Machine Learning 기초 - 확률분포 1. 밀도추정(Density Estimation) N개의 관찰데이터(observations)가 주어졌을 때 분포함수 p(x)를 찾는 것 p(x)를 파라미터화된 분포로 가정 분포 파라미터를 찾는다 빈도주의 방법(Frequentist's way) : 어떤 기준을 최적화시키는 과정을 통해 파라미터 값을 정함, 파라미터의 하나의 값을 구하게 됨 베이지언 방법(Bayesian way) : 파라미터의 사전확률(prior distribution)을 가정하고 Bayes rule을 통해 파라미터의 사후확률(posterior distribution)을 구함 파라미터를 찾았다면 파라미터를 사용해 예측 켤레사전분포(Conjugate Prior) : 사후확률이 사전확률과 동일한 ..
-
-
[6주차 - Day4] ML_basics - Linear Algebra교육/프로그래머스 인공지능 데브코스 2021. 6. 4. 17:52
뗴잉 수학싫어잉 1. 기본표기법(Basic Notation) import numpy as np x=np.array([1.2,3.4,5.6,7.8]) x.shape #>>(4,)1차원 배열 x #>>array([1.2, 3.4, 5.6, 7.8]) i=2 x[i] #>>5.6 #차원증가(2차원 배열) np.expand_dims(x,axis=1).shape #>>(4,1) np.expand_dims(x,axis=1) ''' >>array([[1.2], [3.4], [5.6], [7.8]]) ''' A=np.array([ [10,20,30], [40,50,60] ]) A ''' >>array([[10, 20, 30], [40, 50, 60]]) ''' A.shape #>>(2,3) i=0 j=2 A[i,j] ..
-
-
[6주차 - Day2] ML_basics - Decision Theory & Linear Regression교육/프로그래머스 인공지능 데브코스 2021. 6. 1. 22:48
1. Machine Learning 기초 - 결정이론 결정이론이란? 새로운 값 x가 주어졌을 때 확률모델 p(x,t)에 기반해 최적의 결정을 내리는 것 추론단계 : 결합확률분포 p(x, Ck)를 구하는 것 결정단계 : 상황에 대한 확률이 주어졌을 때 어떻게 최적의 결정을 내릴 것인지? p(ck|x)를 최대화시키는 k를 구하는 것이 좋은 결정 결정이론 - 이진분류(Binary Classification) 결정영역(decision region) x가 Ci클래스로 분류를 하게 되면 x는 Ri에 속하게 된다 각각의 Ri는 클래스i에 속하는 모든 x의 집합 분류오류 확률(probability of misclassfication) 위 그림으로 봤을때 전체 오류의 종류는 2가지 : x가 C2에 있는데 C1으로 잘못 ..