메인메뉴로 이동 본문으로 이동

컨텐츠 내용

  1. 수강신청
  2. 과정정보
과정 이미지
pytorch 기반의 실전 문제풀이 딥러닝 과정
pytorch 기반의 실전 문제풀이 딥러닝 과정 과정정보
신청기간 2020.09.27 - 2020.10.16
교육기간 2020.10.31 - 2021.01.30
교육시간 112시간
수강료 무료
과정소개

과정 소개


본 과정은 Public Cloud Service Provider(AWS, Azure, GCP )에서 제공하는 무료 크레딧과 환경(google colab)을 사용, 교육생의 

   비용부담을 최소화하여 진행하는 교육입니다.

이론 수업도 병행하나, 각 주제마다 교육생들이 직접 자신의 환경에서 주어진 문제를 풀어 보는 핸즈온(Hands-on)이 핵심입니다.

현재 tensorflow와 더불어 딥러닝 프레임워크의 대세라 할 수 있는 pytorch를 사용하여, 가급적 넓은 범위의 주제를 다루고자 했습니다.  주말과정으로 준비했으며매 토요일마다 8시간씩 교육하여 총 14주간 학습하는 일정입니다.

교육생은 본인의 노트북을 지참하여 Public Cloud 상에서 딥러닝 환경을 구축하고 강사의 가이드에 따라 주어진 문제들을 직접 풀어보게 됩니다.

14주라는 짧은 기간안에 딥러닝의 모든 부문에 대해서 충분히 교육할 수는 없겠지만, 최소한 교육생들이 pytorch와 딥러닝이라는 주제에 대해 스스로 학습할 수 있는 수준까지 끌어올리는 것을 목표로 합니다.

 

강사 소개


이 름: 노 규 남

주요경력

<약력>

2018~ 과기부 SW마에스트로 10/11기 멘토

2020. 3 ~ 국방통합데이터센터 자문위원

2019. 3 ~ 케이아이엔엑스 CTO

2018~2019. 2 가비아 CTO

2017~2018 KISA 개인정보보호 모의재판 출제위원

2017. 9 클라우드보안협의회 초대 위원

2017. 8 에스피소프트 CTO 겸임

2014. 1~2019 .1 가비아 최고정보보호책임자(CISO)

2013. 11 ()에버뷰 대표이사

2009~2010 한국직업능력개발원 ETPL 선정 심사위원

2009. 6 밸류스타 이사

2004. 8 ~ 2005. 8 퍼니넷 CTO

2002. 9 ~ 2004. 6 리드텍 부설연구소장 역

2001. 1 프로그램세계 기획자문위원 위촉

2000. 9 SoftBank 웹인스티튜트 전임연구위원 위촉

 

<주요집필/기고>

 

2019.11~2020. 3 전자신문 '실용주의 클라우드 컴퓨팅' 컬럼 연재

2018. 2 보안뉴스 특별기고 'CPU 취약점 종합보고서'

Q&A로 배우는 안드로이드 프로그래밍 개발자 노트 / 2012 / 노규남 / 출판

FLEX 3 핵심 노트 / 2008 / 노규남 / 출판

풀면서 배우는 C언어의 실전 999/ 2007 / BohYoh Shibata / 번역

예제가 풍부한 C언어의 정석 / 2007 / BohYoh Shibata / 번역

프로젝트를 성공시키는 SE / 2004 / Masao Yasui / 감역

프로젝트는 왜 실패하는가 / 2004 / Kentaro Ito / 감역

성공과 실패를 결정하는 1%의 컴퓨터 원리 / 2003 / 야자와 히사오 / 감역

아파치 서버 / 2001 / 노규남 / 출판

Visual Basic 5.0 / 1997 / 노규남 / 출판

 

과정 구성


이 과정은 서비스로 보면 AI 분야에 해당하며, 직무로는 머신러닝/AI, 언어와 프레임워크는 python & pytorch를 사용합니다. 이 과정을 듣는 교육생은 python에 대한 기본적인 문법과 pytorch 프레임워크의 사용법, 그리고 google colabjupyter notebook에서 개발 및 디버깅하는 방법을 학습하게 되며, Classification, Clustering, Regression 기능을 어떻게 구현하는지도 배우게 됩니다

 

딥러닝도 세부적으로 보면 여러 가지 분야가 있으나, 이 과정에서는 특히 영상처리에 특화되어 있는 CNN과 자연어 처리에 적합한 BERT, 그리고 Perfect Information Game 문제를 푸는데 유용한 DQN에 대해서 몇 가지의 구체적인 과제를 주고 학습할 수 있도록 하고자 합니다.


교육일정


교육일정: 10. 31()부터 14(112시간)

- 매주 토요일 : 09~ 18(8시간)

* 코로나19가 지속 확산 시에는 온라인 강의 등으로 변경될 수 있습니다.

 

교육장소: 싹 영등포 캠퍼스

- 영등포구 문래동621(선유로930) *문래역 도보 10분 거리

 

모집개요


모집대상

- 수강신청일 기준 만 15세 이상의 서울시민(주소지 등록기준)으로, 기초지식 (레벨)을 갖추고 개발자로 진출하고자 하는 분 중에 

 개발과 학습에 대한 의지가 강하신 분

모집규모: 10

신청기간: 2020. 10. 23.()까지

선발방법: 기초지식(레벨)테스트와 면접 등을 통해 선발합니다.

- 리눅스에 대한 기본 지식과 한가지 이상의 개발언어 습득이 교육을 받기 위한 최소 필요조건입니다. 

면접과 테스트는 Zoom 화상회의로 진행하며, 신청시 입력하신 연락처로 이후 진행사항을 알려드리니 정확하게 입력해주세요.

 

❍ 수강신청

1. 수강신청서 * 링크(https://forms.gle/s4fJv1mvTj4Ur69f7)를 먼저 작성 후 

2. 페이지 상단의 '수강신청하기' 버튼을 눌러서 수강신청 해주세요.


교육비

- 무료. , 예치금 4만원을 선납하고, 수료(교육 시간의 80% 이상을 이수 또는 교육시간의 30% 이상을 이수한 이후 조기 취업한 경우)후 반환

* 수료 기준에 미달하는 경우 예치금은 반환되지 않음

 

교육생 관리

- 강사와 교육생들이 공유하는 git repo를 운영, 교육생들은 이 repo에 과제를 commit하게 되며 강사는 이 repo를 사용해 과정의 

  각 주제에 대한 baseline code를 공유하게 됨

 

과정문의: bardroh@empas.com

강의목차
차시 일시 강의명
Public Cloud & docker 기반의 python 개발환경 구축, python 문법 기초 교육
1차시 2020-10-31 09:00~10:00 학습효과 측정용 테스트
2차시 2020-10-31 10:00~11:00 AWS/Azure/GCP 가입, VM 생성, docker 설치, docker 기본 조작법
3차시 2020-10-31 11:00~12:00 dockerhub 가입 및 사용방법, torch 설치 후 이미지 커밋, jupyter notebook 실행방법
4차시 2020-10-31 13:00~14:00 terminal 및 jupyter notebook에서의 python(*.py) 및 notebook(*.ipynb) 실행 방법
5차시 2020-10-31 14:00~15:00 git, github 활용, commit, pull request, branch, merge 등 명령어, GIST, markdown, github page 활용 정적 웹페이지
6차시 2020-10-31 15:00~16:00 변수타입과 연산 - Numbers, Strings, variables, operator, typecasting, regular expression, 부동소수점 문제
7차시 2020-10-31 16:00~17:00 제어문, 함수와 입출력 - if, for, range, break, def, global, 가변인자, recursion, format
8차시 2020-10-31 17:00~18:00 리스트와 딕셔너리, 튜플, 모듈, 예외처리, 클래스, 람다함수
머신러닝 & 딥러닝 개괄, Perceptron, Back Propagation, Gradient Descent Algorithm
9차시 2020-11-07 09:00~10:00 인공지능의 정의와 역사, 발전흐름
10차시 2020-11-07 10:00~11:00 지식&규칙기반 시스템에서 머신러닝으로의 전환
11차시 2020-11-07 11:00~12:00 머신러닝의 개념, 특징공간(Feature Space)
12차시 2020-11-07 13:00~14:00 데이터에 대한 이해와 모델링
13차시 2020-11-07 14:00~15:00 모델선택의 한계와 해결책
14차시 2020-11-07 15:00~16:00 Perceptron과 인공신경망(Artificial Neural Network)
15차시 2020-11-07 16:00~17:00 Back Propagation: 어떻게 작동하는가?
16차시 2020-11-07 17:00~18:00 Gradient Descent Algorithm
google colab을 이용한 jupyter notebook 실행, Public Cloud에서의 jupyter notebook 사용법, Gradient Boosting #1
17차시 2020-11-14 09:00~10:00 google colab 가입, github 연동, jupyter notebook 실행
18차시 2020-11-14 09:00~11:00 numpy, pandas
19차시 2020-11-14 11:00~12:00 scikit-learn
20차시 2020-11-14 13:00~14:00 Scipy, matplotlib
21차시 2020-11-14 14:00~15:00 의사결정 트리
22차시 2020-11-14 15:00~16:00 랜덤 포레스트
23차시 2020-11-14 16:00~17:00 Support Vector Machine 분류
24차시 2020-11-14 17:00~18:00 k-means 클러스터링
google colab을 이용한 jupyter notebook 실행, Public Cloud에서의 jupyter notebook 사용법, Gradient Boosting #2
25차시 2020-11-21 09:00~10:00 단일 선형 회귀 분석
26차시 2020-11-21 10:00~11:00 다중 선형 회귀 분석
27차시 2020-11-21 11:00~12:00 Iris 데이터를 이용한 랜덤 포레스트 예측
28차시 2020-11-21 13:00~14:00 앙상블 학습 - Bagging, Stacking
29차시 2020-11-21 14:00~15:00 앙상블 학습 - Boosting
30차시 2020-11-21 15:00~16:00 xgboost - classification, regression
31차시 2020-11-21 16:00~17:00 lightGBM -classification, regression
32차시 2020-11-21 17:00~18:00 Kaggle 문제 분석 - 산탄데르 은행 고객 서비스 예측
pytorch 기본 프레임워크 사용법, Classification, Regression #1
33차시 2020-11-28 09:00~10:00 텐서 다루기 기본: 차원(Rank)과 Shape
34차시 2020-11-28 10:00~11:00 텐서 연산과 행렬곱
35차시 2020-11-28 11:00~12:00 autograd
36차시 2020-11-28 13:00~14:00 기본 신경망 모델 구현하기
37차시 2020-11-28 14:00~15:00 pytorch 어플리케이션의 기본 구조
38차시 2020-11-28 15:00~16:00 pytorch 어플리케이션의 학습 방법 #1
39차시 2020-11-28 16:00~17:00 pytorch 어플리케이션의 학습 방법 #2
40차시 2020-11-28 17:00~18:00 모델의 저장 및 복원
pytorch 기본 프레임워크 사용법, Classification, Regression #2
41차시 2020-12-05 09:00~10:00 pytorch Classification #1
42차시 2020-12-05 10:00~11:00 pytorch Classification #2
43차시 2020-12-05 11:00~12:00 분류 예제: Iris 데이터를 pytorch로 분류 #1
44차시 2020-12-05 13:00~14:00 분류 예제: Iris 데이터를 pytorch로 분류 #2
45차시 2020-12-05 14:00~15:00 pytorch Regresssion #1
46차시 2020-12-05 15:00~16:00 pytorch Regresssion #2
47차시 2020-12-05 16:00~17:00 회귀 예제: 시계열 데이터를 pytorch로 예측 #1
48차시 2020-12-05 17:00~18:00 회귀 예제: 시계열 데이터를 pytorch로 예측 #2
Convolutional Neural Network로 구현하는 영상처리, CNN 모델의 발전 과정 #1
49차시 2020-12-12 09:00~10:00 Fully-Connected Layer 영상 인식
50차시 2020-12-12 10:00~11:00 이미지 처리: torchvision.transforms. 크기 변경, Tensor로 전환, 차원 변환
51차시 2020-12-12 11:00~12:00 Convolutional Neural Network: 구조와 원리
52차시 2020-12-12 13:00~14:00 필터 시각화: 필터가 학습하는 내용을 확인
53차시 2020-12-12 14:00~15:00 MNIST 숫자 모델 분류
54차시 2020-12-12 15:00~16:00 Fashion MNIST 영상 분류
55차시 2020-12-12 16:00~17:00 CIFAR10 영상 분류
56차시 2020-12-12 17:00~18:00 이미지 처리: TrashNet
Convolutional Neural Network로 구현하는 영상처리, CNN 모델의 발전 과정 #2
57차시 2020-12-19 09:00~10:00 데이터 모으기 & 라벨링: crawler 작성
58차시 2020-12-19 10:00~11:00 데이터 모으기 & 라벨링: AI Hub 가입 및 데이터 추출
59차시 2020-12-19 11:00~12:00 Data Augumentation #1
60차시 2020-12-19 13:00~14:00 Data Augumentation #2
61차시 2020-12-19 14:00~15:00 VGG-Net #1
62차시 2020-12-19 15:00~16:00 VGG-Net #2
63차시 2020-12-19 16:00~17:00 GoogLeNet #1
64차시 2020-12-19 17:00~18:00 GoogLeNet #2
Convolutional Neural Network로 구현하는 영상처리, CNN 모델의 발전 과정 #3
65차시 2020-12-26 08:00~10:00 ResNet #1
66차시 2020-12-26 10:00~11:00 ResNet #2
67차시 2020-12-26 11:00~12:00 Transfer Learning #1
68차시 2020-12-26 13:00~14:00 Transfer Learning #2
69차시 2020-12-26 14:00~15:00 탐지 알고리즘
70차시 2020-12-26 15:00~16:00 Object Detection
71차시 2020-12-26 16:00~17:00 YOLO 알고리즘
72차시 2020-12-26 17:00~18:00 CNN 모델의 발전 흐름
BERT를 사용하는 자연어 처리기법 #1
73차시 2021-01-02 09:00~10:00 자연어 처리 기초
74차시 2021-01-02 10:00~11:00 자연어 처리에 필요한 기본 배경 지식
75차시 2021-01-02 11:00~12:00 자연어를 표시하기 위한 Vector
76차시 2021-01-02 13:00~14:00 자연어 처리 기본 딥러닝 모델
77차시 2021-01-02 14:00~15:00 Word2Vec과 GloVe 벡터 활용
78차시 2021-01-02 15:00~16:00 Sequence Tagging
79차시 2021-01-02 16:00~17:00 Neural Machine Translation
80차시 2021-01-02 17:00~18:00 word embedding
BERT를 사용하는 자연어 처리기법 #2
81차시 2021-01-09 09:00~10:00 RNN(Recurrent Neural Network)
82차시 2021-01-09 10:00~11:00 LSTM(Long Short-Term Memory)
83차시 2021-01-09 11:00~12:00 예제: RNN을 이용한 영화 리뷰 예측 모델 #1
84차시 2021-01-09 13:00~14:00 예제: RNN을 이용한 영화 리뷰 예측 모델 #2
85차시 2021-01-09 14:00~15:00 GRU(Gated Recurrent Unit)
86차시 2021-01-09 15:00~16:00 seq2seq로 단어를 번역하는 모델
87차시 2021-01-09 16:00~17:00 예제: RNN을 이용해 IMDB 데이터로 텍스트 감정 분석 #1
88차시 2021-01-09 17:00~18:00 예제: RNN을 이용해 IMDB 데이터로 텍스트 감정 분석 #2
BERT를 사용하는 자연어 처리기법 #3
89차시 2021-01-16 09:00~09:00 Attention
90차시 2021-01-16 10:00~11:00 Transformer
91차시 2021-01-16 11:00~12:00 예제: 1D-CNN으로 욕설을 판단하는 모델 #1
92차시 2021-01-16 13:00~14:00 예제: 1D-CNN으로 욕설을 판단하는 모델 #2
93차시 2021-01-16 14:00~15:00 자연어 처리의 연구 흐름
94차시 2021-01-16 15:00~16:00 BERT(Bidirectional Encoder Representation from Transformers)
95차시 2021-01-16 16:00~17:00 예제: BERT로 QA 쌍에서 원하는 답을 찾는 모델 #1
96차시 2021-01-16 17:00~18:00 예제: BERT로 QA 쌍에서 원하는 답을 찾는 모델 #2
DQN(Deep Q-Network)과 OpenAI로 구현하는 강화학습 에이전트 #1
97차시 2021-01-23 09:00~10:00 강화학습 Introduction
98차시 2021-01-23 10:00~11:00 Markov Decision Process
99차시 2021-01-23 11:00~12:00 Q-Table과 Q-Learning
100차시 2021-01-23 13:00~14:00 Deep Q-Network와 ReplayBuffer
101차시 2021-01-23 14:00~15:00 Double Q-Learning, Dueling Q-Learning
102차시 2021-01-23 15:00~16:00 OpenAI 환경 구축
103차시 2021-01-23 16:00~17:00 OpenAI gym 테스트 및 설명
104차시 2021-01-23 17:00~18:00 pytorch DQN baseline 코드 설명
DQN(Deep Q-Network)과 OpenAI로 구현하는 강화학습 에이전트 #2
105차시 2021-01-30 09:00~10:00 Cartpole 예제 학습 #1
106차시 2021-01-30 10:00~11:00 Cartpole 예제 학습 #2
107차시 2021-01-30 11:00~12:00 과일받기 게임 예제 학습 #1
108차시 2021-01-30 13:00~14:00 과일받기 게임 예제 학습 #2
109차시 2021-01-30 14:00~15:00 OpenAI gym 수퍼마리오 환경 구축 및 예제 학습 #1
110차시 2021-01-30 15:00~16:00 OpenAI gym 수퍼마리오 환경 구축 및 예제 학습 #2
111차시 2021-01-30 16:00~17:00 OpenAI gym 수퍼마리오 환경 구축 및 예제 학습 #3
112차시 2021-01-30 17:00~18:00 학습효과 측정용 테스트