목록AI/Pytorch (5)
Kim Seon Deok
딥러닝이란? 신경망이 발전한 모델 2개 이상의 hidden layer를 지니고 있는 다층 신경망 Graphical Representation Learning 딥러닝의 발전 과적합과 Gradient Vanishing을 완화시킬 수 있는 알고리즘이 효과를 보임 Graphics processing unit을 신경망의 연산에 사용할 수 있게 되면서 학습 속도를 높일 수 있게 됌 Dropout 신경망의 학습과정 중 Layer의 노드를 랜덤하게 Drop함으로써 Generalization효과를 가져오게 하는 테크닉 Weight Matrix에 랜덤하게 일부 column에 0을 집어넣어 연산 >> Dropout을 적용하지 않은 신경망보다 Test error가 낮다 Activation 함수 ReLU함수(Rectified ..
퍼셉트론 최초의 인공지능 모형 Feed - Forward Network모형의 가장 간단한 형태, Input과 Output Layer만으로 구성된 선형분류모형의 형태를 띄고 있다. 퍼셉트론의 한계 : 비선형 분류 문제는 풀지 못한다. 활성화 함수(Activation Function) 특정 임계값의 초과 여부를 판단하는 함수 어떤 신호를 입력받아 이를 적절히 처리해 출력해주는 함수 1. Step Function Input 값이 0 이상이면 1, 이상이 아니면 0을 출력 2. Sigmoid Function Input 값이 0 이하이면 0.5 이하의 값, 0 이상이면 0.5 이상의 값을 출력 Back Propagation 과정 중 Gradient Vanishing 현상이 발생할 수 있다. 3. ReLU MLP(..
과적합의 발생원인 1. 학습할 샘플 데이터 수의 부족 학습할 데이터의 수가 많을 수록 모집단의 특성을 잘 반영할 확률이 높다. 모집단의 특성을 잘 반영할수록 과적합이 일어날 확률이 적어진다. 따라서 학습할 데이터의 수가 적을수록 과적합이 일어날 확률이 높다. 2.풀고자 하는 문제에 비해 복잡한 모델 적용 간단한 문제에 대해서는 간단한 모델 혹은 적은 변수를 사용해야 한다. 3.적합성 평가 및 실험 설계 학습 데이터와 검증 데이터로 분할하고 학습데이터로 모델을 학습한 후 검증 데이터에 모델을 적용시켜 과적합 여부를 판단해야 한다. 하이퍼파라미터(hyperparameter) : 학습데이터를 모델에 학습시킬 때 사용자가 지정해야 할 다양한 파라미터 학습 데이터(training data) : 머신러닝 모델함수 ..
인공지능 인간의 지능으로 할 수 있는 사고 학습, 자기 개발 등을 컴퓨터가 할 수 있도록 하는 방법을 연구하는 컴퓨터 공학 및 정보 기술의 한 분야 컴퓨터가 인간의 지능적인 행동을 모방할 수 있도록 하는 것 딥러닝 + 전통적 머신러닝(데이터 사이언스, 데이터 분석) 인공지능의 사례 1.이미지 분류 인간이 이미지를 분류하는 성능은 약 95%. 2015년 'ResNet'이라는 모델이 96%의 성능을 기록하면서 인간의 능력을 뛰어넘기 시작 2.객체 탐지 어떤 이미지 및 비디오 속에 포함돼 있는 물체에 대해 해당 물체가 어떤 물체인지 분류하는 문제, 물체의 위치를 찾아내는 문제 물체의 위치정보(x,y,w,h)를 bounding box로 표현하여 자율주행 자동차, CCTV 등과 같은 카메라 기술ㅇ르 바탕으로 개발..
머신러닝과 딥러닝의 경우 각 레이어의 노드 수가 증가할수록, 레이어의 수가 깊어질수록 파라미터의 수는 급격히 증가. 파라미터 수를 무조건 늘리는 것이 중요한 것이 아니라 해당 task를 수행하기 위해 적절한 수의 파라미터 수를 할당하고 학습에 이용되지 않는 데이터에 대해서도 task를 정확히 수행하기 위한 일반화 과정이 필요하다. Top-1Accuracy:모델의 예측한 결괏값 중 가장 높은 확률로 예측한 클래스가 실제 클래스와 동일한지를 평가하는 엄격한 기준 Top-5Accuracy:모델의 예측한 결괏값 중 상위 5개의 확률에 대해 실제 클래스가 포함되는지를 평가하는 비교적 덜 엄격한 기준 동일한 성능 - 파라미터 수가 적을수록 계산해야 할 변수가 줄어듦 파라미터 수가 비슷 - 성능이 높은 것 G-FLO..