일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
- 플러터
- AI
- mnist
- pytorch
- 코딩애플
- 피플
- filtering
- 딥러닝
- Flutter
- 선형회귀
- 파이썬
- 앱개발
- 인공지능
- 회귀
- 선형대수학
- 크롤러
- map
- 크롤링
- 모델
- 42경산
- 42서울
- RNN
- 유데미
- 머신러닝
- 자연어처리
- CV
- 데이터분석
- Regression
- Computer Vision
- 지정헌혈
- Today
- Total
목록인공지능 (9)
David의 개발 이야기!
CV에 대해 다음과 같은 Topic으로 포스팅을 해보고자 한다. 서울과학기술대 인공지능응용학과 김한울 교수님의 강의를 기준으로 포스팅하고자 한다. Lecture 주제: Topic 1 Image Processing Topic 2 Feature Detection and Matching Topic 3 Image Alignment and Stitching Topic 4 Image Classification Topic 5 Object Detection and Segmentation Topic 6 Dealing with Motion Topic 7 Camera Models Topic Geometric-Based Vision 실습 과제: Lab1 : Image Processing Lab2 : Panorama Lab3 ..

머신러닝 프로젝트의 업무프로세스는 다음과 같다 ( 부동산 회사 데이터 사이언티스트라고 가정하고 알아가보자! ) 1. 큰 그림을 본다 2. 데이터를 구한다 3. 데이터로부타 통찰을 얻기 위해 탐색하고 시각화 한다 4. 머신러닝 알고리즘을 위해 데이터를 준비한다 5. 모델을 선택하고 훈련시킨다 6. 모델을 상세하게 조정한다 7. 솔루션을 제시한다 8. 시스템을 런칭하고 모니터링하고 유지 보수 한다 1. 큰 그림 보기 위 데이터 모델을 학습시켜서, 다른 측정 데이터가 주어졌을 때 구역의 중간 주택 가격을 예측하고자 한다! 1.1 큰 그림을 보기 위한 질문들 A. 비지니스의 목적이 정확히 무엇인가요? (문제정의) - 모델을 만들기가 최종 목적이 아님 - 모델을 사용해 이익을 얻을 수 있어야함 B. 현재 솔루션은..

sklearn, 서포트벡터 머신을 활용해서, 호봉에 따른 임금상승을 구해보자! 1. Import Libraries 2. Import Dataset 3. Feature Scaling 4. Training the SVR model 5. Predicting the new result 6. Visualizing the SVR results. 다음과 같은 순서로 분석하고자 한다! 1. Import libraries import numpy as np import pandas as pd import matplotlib.pyplot as plt 2. Import Dataset dataset = pd.read_csv("Position_Salaries.csv") x = dataset.iloc[:,1:-1].values y..
데이터 전처리 과정을 살펴보면, 1. 라이브러리를 불러온다. Importing the libraries 2. 데이터셋을 불러온다. Importing the dataset 3. 결측치를 어떻게 처리할 것인가? Taking care of missing data 4. 범주형 데이터를 처리해준다! Encoding the categorical data 5. 훈련데이터와 테스트데이터를 나눠준다 Spliting the dataset into the Training set and Test set 6. 표준화, 정규화를 해준다 Feature scaling 이렇게 해주어야한다. 각각에 해당하는 코드를 살펴보자. 1. Importing the libraries import numpy as np import pandas as..

1. 데이터 주도 학습 2. 훈련데이터와 시험 데이터 기계학습 문제는 데이터를 훈련데이터와 시험데이터로 나누어서 학습과 실험을 수행한다. 훈련데이터만 사용해서 최적의 매개변수를 찾고, 시험데이터를 사용해 앞서 훈련한 모델의 실력을 평가한다. 이러한 방법을 사용하는 이유는, overfitting 문제를 피하기 위해서다. overfitting 문제는, 한 데이터셋에저만 지나치게 최적화된 상태를 의미한다.(과대적합) 3. 미니 배치 미니 배치를 이용하는 이유는 컴퓨터의 정보처리 효율성 때문이다. 컴퓨터는 10000개의 데이터를 1개씩 10000번 연산하는 것보다, batch_size 단위(100개 ) 의 데이터를 100번에 연산할때 보다 더 계산량이나 속도에 있어 효율적이다. 책에 따르면, 이미지 1장당 처리..

1. MNIST 데이터셋 MNIST 는 기계학습 분야에서 아주 유명한 데이터셋으로 0-9까지 숫자 이미지로 구성된다. 훈련이미지가 6만장, 시험이미지가 1만장 준비되어 있다. 이러한 데이터를 통해 모델을 학습하고, 학습한 모델로 시험 이미지들을 얼마나 정확하게 분류하는지를 평가한다. load_mnist 함수는 읽은 MNIST 데이터를 (훈련이미지, 훈련레이블), (시험이미지, 시험레이블) 형식으로 반환한다. 인수로는 3가지를 설정할 수 있는데, normalize 는 입력 이미지의 픽셀 값을 0.0 ~ 1.0 사이의 값으로 정규화할지를 정한다. flatten 는 입력이미지를 평탄하게, 즉 1차원 이미지로 만들지를 결정한다. FALSE 설정하면 1*28*28의 3차원의 배열로, True로 하면 784개의 원..