일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
- 데이터분석
- filtering
- CV
- 선형회귀
- 머신러닝
- 플러터
- 앱개발
- mnist
- Flutter
- 지정헌혈
- 인공지능
- 회귀
- RNN
- 모델
- AI
- 피플
- 크롤러
- 크롤링
- 파이썬
- Regression
- 코딩애플
- 42경산
- 42서울
- 유데미
- Computer Vision
- 자연어처리
- 딥러닝
- pytorch
- 선형대수학
- map
- Today
- Total
목록분류 전체보기 (110)
David의 개발 이야기!

OpenCV 는 영상처리와 컴퓨터 비전을 위한 오프소스 라이브러리이다. C, C++, Python 등에서 사용 가능하다. [관련함수 소개] 1. cv2.imread(file_name, flag) 2. cv2.imwrite(file_name, flag) 3. cv2.resize(image, dsize, fx, fy, interpolation) 4. cv2.warpAffine(image, M, dsize) 4. cv2.getRotationMatrix2D(center, angle, scale) 5. cv2.add() * Saturation 연산 -> 두개의 이미지를 각각의 픽셀 단위로 덧셈을 한 후, 255보다 큰 경우 255를 픽셀 값으로 설정 (250 + 7 = 257 -> 255) * Modulo 연산 ..

인공지능(데이터분석)을 공부할때, 반드시 사용하게 되는 라이브러리 4대장이 있다. Numpy : 벡터, 행렬 연산 라이브러리 Pandas : 쉽게 말하면, 그냥 엑셀 OpenCV : 이미지 처리 라이브러리 Matplotlib : 시각화 도구(그래프 그려주는 거) 이걸 하나하나 정리해보려고 한다! 사용법에 대한 간략한 정리니, 한번 훑어봐보자. 0. 벡터와 행렬 - 컴퓨터에서 벡터를 표현할때, 1차원 배열을 사용한다. - 행렬(Matrix)란, N행, M열로 나열된 실수의 2차원 배열이다. => 벡터와 행렬을 다루기 쉽게 도와주는 라이브러리가 Numpy 이다!! 1. 리스트와 numpy 는 서로 상호변환이 가능하다 - size, dtype import numpy as np array = np.array([..

"랜.골.디"(랜덤 골드 디펜스)를 목표로 백준 문제를 풀어보려고 한다. 코테에서 가장 빈번히 출제되는 유형 위주로 포스팅하려고 한다! 백준 24479 번은 DFS의 기초중에 기초적인 문제로, 해당 포멧을 잘 기억해두고, 다른 문제에서 베이스라인으로 사용하기 유용하다. 24479번 문제는 다음과 같다. 0. DFS (Depth-First Search) 개념 - DFS 는 깊이 우선 탐색이라고 부르며, 그래프에서 깊은 부분은 우선적으로 탐색하는 알고리즘이다. - DFS는 스택 자료구조(혹은 재귀함수)를 이용하며, 구체적인 동작과정은 아래와 같다. 1. 탐색 시작 노드를 스택에 삽입하고 방문처리 2. 스택의 최상단 노드에 방문하지 않은 인접한 노드가 하나라도 있으면, 그 노드를 스택에 넣고 방문처리. 방문하..

인스타그램을 통한 데이터수집을 위한 크롤러를 만들어보려고 한다. 머신러닝과목들을 수강하면서, 캐글이나, 데이터허브 같은 곳의 데이터가 아닌, 직접 데이터를 수집해서, 가공하는 경우가 가끔 있다. 최근에 진행한 중고차 예측 프로젝트 또한, 그렇게 "보배드림"이라는 사이트에서 일일히 사진과 관련 정보를 수집해서 학습을 시키고 예측하는 모델을 만들었는데, 이번에는, 인스타에서 이미지를 수집해서 향후 CNN이나, 이미지 분류 등의 모델학습때 요긴하게 사용해보고자 한다. 우선 로직은 다음과 같다. 1. 웹에서 인스타그램 자동로그인 2. #{태그명} 검색페이지 이동 3. 첫 사진 클릭 4. 이미지 저장 5. 다음 버튼으로 누르기 6. 4,5번 반복 해당 포스트에서는 간단한 베이스라인만을 작성해 공개하며, 본 베이스..
백만개의 데이터를 수집한다고 가정해보자 url 하나 수집하는데, 0.1초가 걸린다고 하면, 대략적으로 10만초, 27시간이 걸린다. 해결책은, 멀티프로세싱 또는 멀티스레드를 사용하면된다. 파이썬 실행창 프로세스를 여러개 띄우는 멀티프로세스를 쓰거나, PC에 내장된 CPU 를 스레드 여러개로 작업을 나눠서 시키면 된다. 해당 예제에서는, mulitprocessing.Pool.map 이라는 함수를 사용해서 구현했다. 1. 기본 내장 라이브러리 불러오기 ( 멀티스레딩 하는 코드임. 멀티프로세스를 원한다면, .dummy를 제거하면 됌) 2. ThreadPool() 에다가 몇개의 프로세스/스레드 로 동시에 작업을 시킬지 숫자로 적음 3. map(적용시킬 함수, 리스트) 4. close(), join() 을 차례로..
import time print(time.time()) #1 현재시간 출력 #코드코드코드 a = time.time() #코드코드코드 b = time.time() print(b - a) # 2 현재 epoch 시간 출력하는 방법 #2 현재 ctime 출력하는 방법 & 인간이 읽을 수 있는 시간 시간 = time.time() 시간 = time.ctime(시간) #3. localtime() 으로 세부 항목만 출력하기 time2 = time.localtime() print(time2.tm_year, time2.tm_mon) print(time.strftime('%Y year %m month'), time2) #4. 시간 출력하고 싶은데, 복잡한 생각이 싫다면 import datetime a = datetime...