일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 머신러닝
- Computer Vision
- 선형대수학
- 모델
- mnist
- Regression
- 유데미
- RNN
- 자연어처리
- AI
- 1d 합성곱
- 1D convolution
- 인공지능
- 선형회귀
- 데이터분석
- CV
- 피플
- 딥러닝
- 코딩애플
- 앱개발
- filtering
- 크롤러
- pytorch
- Flutter
- 플러터
- map
- 지정헌혈
- 크롤링
- 파이썬
- 회귀
- Today
- Total
목록분류 전체보기 (107)
David의 개발 이야기!
1. Seq2seq - Sequence to sequence 모델 개요 seq2seq 모델은, 입력된 sequence로부터 다른 도메인의 시퀀스를 출력하는 모델이다. 주로 seq2seq는 번역기에서 대표적으로 사용되는 모델로, RNN을 어떻게 조립했느냐에 따라, seq2seq 구조가 만들어진다. 위 그림은, "나는 너를 사랑해" 라는 한국어 문장을 "I love you" 영어로 번역해 출력하는 모습을 보여준다. 2. Seq2seq 구조도 seq2seq 모델은 크게 인코더(encoder) 와 디코더(decoder) 두개의 모듈로 구성되어있다. 인코더는 입력문장의 모든 단어들을 순차적으로 입력받아, 마지막에 이 모든 단어 정보들을 압축해서, context vector로 만든다. Input값의 단어의 정보들이..
2023.08.19 - [자연어처리] - RNN 에 대해 알아보자 RNN 에 대해 알아보자 RNN(Recurrent Neural Network) 는 입력과 출력을 시퀀스 단위로 처리하는 시퀀스(Sequence) 모델이다. 1. RNN 예시 1. POS tagging RNN은 아래그림 같이, POS tagging(품사 분류)를 할 수 있다. 모델 구조를 좀 더 자세 david-kim2028.tistory.com 1. Vanilla RNN 의 한계 앞선 글에서 알수 있듯이, 바닐라 RNN 은 "Long-Term Dependencies" 라는 문제가 있다. 이러한 문제를 극복하기 위한 방법중 하나가 LSTM 이다. "Long-Term Depedencies"를 좀 더 자세히 설명하면, 아래 그림과 같다. RNN..
RNN(Recurrent Neural Network) 는 입력과 출력을 시퀀스 단위로 처리하는 시퀀스(Sequence) 모델이다. 1. RNN 예시 1. POS tagging RNN은 아래그림 같이, POS tagging(품사 분류)를 할 수 있다. 모델 구조를 좀 더 자세히 보면, 이렇게 구성되어있고, POS tagging 인경우, Supervised Learning 이므로, Softmax 를 통해 품사를 분류 할 수 있다. target값과 pred 값을 비교해, gradient descent 이용해 조정해 정확도를 높여간다. 각 변수는 다음과 같은 뜻을 지닌다. 모델에 있는 변수들이 Whh, Wxh, b가 결국 같은 변수고, 시간에 따라, 변하는 것이기에 Back Propagation 이 아니라 Ba..
1. 전이 학습(Transfer Learning)이란? 위키백과의 정의에 따르면, '한 분야의 문제를 해결하기 위해 얻은 지식과 정보를 단른 문제를 푸는데 사용하는 방식"이다. 딥러닝 분야에서는, 이미지분류 문제를 해결하는데 사용헀떤 네트워크를 다른 데이터셋 혹은 다른 문제(Task)에 적용시켜 푸는 것을 의미한다. 특히, 시각적 이해를 목표로 하는 컴퓨터 비전의 영역에서 전이학습으로 수행된 모델들이 높은 성능을 보이고 있어, 가장 많이 사용되는 대표적인 방법중 하나이다. 이러한 결과를 보여주는 이유는, 다양한 이미지의 "특징"(feature)들을 학습했기 때문이다. 일반적으로 네트워크가 깊어질 수록, 서로 다른 종류들의 피처들을 학습한다고 알려져있는데, 낮은 층에서 학습되는 feature를 low-le..
CNN 을 활용하여 MNIST 분류 모델을 구현해보자. 우선, CNN에 대한 개념 정리를 다시 보면, 1. filter(==kernel) 개념 - 실제로 각 필터는, 특정한 (feature)를 인식하기 위한 목적으로 사용된다. - 각 필터는 특징이 반영된 특징 맵(feature map)을 생성한다. - 얕은 층에서는 local feature, 깊은 층에서는 global feature를 인식하는 경향이 있다. 2. Pooling 개념 합성곱 계층의 출력데이터를 입력으로 받아, 출력 데이터의 크기를 줄이거나, 특정 데이터를 강조하는 용도로 사용 stride 가 2인 경우의 예시임. 3. Padding 개념 패딩이 필요한 이유 -> 이미지 데이터의 축소를 막기 위해(해상도를 유지하기 위해) -> Edge pi..
https://arxiv.org/abs/1509.01626 Character-level Convolutional Networks for Text Classification This article offers an empirical exploration on the use of character-level convolutional networks (ConvNets) for text classification. We constructed several large-scale datasets to show that character-level convolutional networks could achieve state-of-the arxiv.org 원본 논문은 여기에서 볼 수 있다! CharCNN 논문은, 텍스..