일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 선형회귀
- 자연어처리
- AI
- 앱개발
- Flutter
- 회귀
- 유데미
- Computer Vision
- RNN
- 지정헌혈
- 1D convolution
- 인공지능
- 크롤링
- CV
- 선형대수학
- 피플
- 파이썬
- Regression
- 플러터
- 모델
- 딥러닝
- 크롤러
- pytorch
- filtering
- 코딩애플
- 1d 합성곱
- 머신러닝
- mnist
- 데이터분석
- map
- Today
- Total
목록분류 전체보기 (107)
David의 개발 이야기!
CV에 대해 다음과 같은 Topic으로 포스팅을 해보고자 한다. 서울과학기술대 인공지능응용학과 김한울 교수님의 강의를 기준으로 포스팅하고자 한다. Lecture 주제: Topic 1 Image Processing Topic 2 Feature Detection and Matching Topic 3 Image Alignment and Stitching Topic 4 Image Classification Topic 5 Object Detection and Segmentation Topic 6 Dealing with Motion Topic 7 Camera Models Topic Geometric-Based Vision 실습 과제: Lab1 : Image Processing Lab2 : Panorama Lab3 ..
https://arxiv.org/abs/1408.5882 Convolutional Neural Networks for Sentence Classification We report on a series of experiments with convolutional neural networks (CNN) trained on top of pre-trained word vectors for sentence-level classification tasks. We show that a simple CNN with little hyperparameter tuning and static vectors achieves excell arxiv.org 원본 논문은 여기서 볼 수 있다! 전체내용을 번역하는 것이 아닌, 핵심 내..
1. 표본분산과 불편분산의 차이점 표본분산과 불편 분산의 정의는 위와 같으며, 식은 위와 같이 정의된다. 2. 불편분산이 필요한 이유 위 그림은, 분산이 과소평가되는 이유를 보여주는데, 예시를 들어보면, 낚시꾼이 낚시를 했는데, 잡은 물고기가 총 7마리 이며, 7마리의 몸 길이는, [1,2,3,4,5,6,7]이라고 하자. 여기서 모평균은, 4가 된다. 이제 이를 팔기위해 3마리를 다른 장바구니에 임의로 옮겼더니(표본) [1,2,3]이라고 하자. 여기서 표본평균은 2가 된다. 분산은, "데이터와 평균간의 거리"임으로 모평균간의 거리를 계산해야한다. 하지만, 모평균을 모르기 때문에, 표본 평균과 거리를 계산하게 되며, 이는 분산이 과소평가 되는 결과를 내게된다. 이러한 문제를 보완하기 위해, 불편분산이, 표..
Step 1. Build data processing pipeline 대부분의 머신러닝 시스템은 모델을 학습시키기 위해 미니배치를 사용한다. 따라서, 금번 실습에서는 미니배치를 활용해 학습/평가를 진행하고자 한다. 세부 단계는 아래와 같다. 1. Load inputs and labels 2. Preprocess inputs and labels 3. Group inputs and labels as a mini-batch Step 2. Build Model 인풋을 통해 예측 혹은 분류를 진행하는 모델을 정의한다. 1. Which model should be used? 2. How to set the hyperparameters of the ..
이미지 내에서 사물을 인식하는 방법에는 다양한 유형이 존재한다. 1. Object Detection 과 Localization에 대한 설명 Object Detection 은 다수의 사물이 존재하는 상황에서 각 사물의 위치와 클래스를 찾는 작업을 말한다. - 사물이 여러 개일 수 있는 상황에서 "각 사물마다" (Classification + Localization)을 같이 한다. - 직관적으로 생각해보면, 사물이 있는 위치를 모두 찾고, 그걸 개별적으로 CNN을 돌려서 분류하면 되지 않을까? -> 이 방식이 2-Stage 방식 (1) 사물이 있는 위치를 찾고 (2) 각 사물을 분류하자. Localization 은, Object Detection 의 하위호환 개념으로, 사물의 위치를 찾는 작업이다. loca..
1. 딥러닝 기반의 기계 번역 발전 과정 기계번역 발전과정은 위 표과 같다. GPT와 BERT의 차이는 아래와 같다. GPT : Transformer 의 디코더(Decoder) 아키텍처 활용 BERT : Transformer 의 인코더(Encoder) 아키텍처 활용 2. 기존 Seq2Seq 모델들의 한계점 (1) bottleneck 현상 - seq2seq 는 context vector v에 소스문장의 정보를 압축하는 구조 -> 병목(bottleneck)이 발생하여, 성능하락의 원인이 된다. (2) 디코더가 context vector를 매번 참고하는 문제 -> 그럼에도 여전히 소스문장을 하나의 벡터로 압축해야함. [ 문제 정리 ] => 하나의 context vector 가 소스 문장의 모든 정보를 가지고 ..