컨텐츠 내용
- 수강신청
- 과정정보

과정소개
과정 소개 |
❍ 본 과정은 Public Cloud Service Provider(AWS, Azure, GCP 등)에서 제공하는 무료 크레딧과 환경(google colab)을 사용, 교육생의
비용부담을 최소화하여 진행하는 교육입니다.
❍ 이론 수업도 병행하나, 각 주제마다 교육생들이 직접 자신의 환경에서 주어진 문제를 풀어 보는 핸즈온(Hands-on)이 핵심입니다.
❍ 현재 tensorflow와 더불어 딥러닝 프레임워크의 대세라 할 수 있는 pytorch를 사용하여, 가급적 넓은 범위의 주제를 다루고자 했습니다. 주말과정으로 준비했으며, 매 토요일마다 8시간씩 교육하여 총 14주간 학습하는 일정입니다.
❍ 교육생은 본인의 노트북을 지참하여 Public Cloud 상에서 딥러닝 환경을 구축하고 강사의 가이드에 따라 주어진 문제들을 직접 풀어보게 됩니다.
❍ 14주라는 짧은 기간안에 딥러닝의 모든 부문에 대해서 충분히 교육할 수는 없겠지만, 최소한 교육생들이 pytorch와 딥러닝이라는 주제에 대해 스스로 학습할 수 있는 수준까지 끌어올리는 것을 목표로 합니다.
강사 소개 |
❍ 이 름: 노 규 남
❍ 주요경력
<약력>
2018~ 과기부 SW마에스트로 10/11기 멘토
2020. 3 ~ 국방통합데이터센터 자문위원
2019. 3 ~ ㈜케이아이엔엑스 CTO
2018~2019. 2 ㈜가비아 CTO
2017~2018 KISA 개인정보보호 모의재판 출제위원
2017. 9 클라우드보안협의회 초대 위원
2017. 8 ㈜에스피소프트 CTO 겸임
2014. 1~2019 .1 ㈜가비아 최고정보보호책임자(CISO)
2013. 11 (주)에버뷰 대표이사
2009~2010 한국직업능력개발원 ETPL 선정 심사위원
2009. 6 ㈜ 밸류스타 이사
2004. 8 ~ 2005. 8 ㈜ 퍼니넷 CTO 역
2002. 9 ~ 2004. 6 리드텍 부설연구소장 역
2001. 1 프로그램세계 기획자문위원 위촉
2000. 9 SoftBank 웹인스티튜트 전임연구위원 위촉
<주요집필/기고>
2019.11~2020. 3 전자신문 '실용주의 클라우드 컴퓨팅' 컬럼 연재
2018. 2 보안뉴스 특별기고 'CPU 취약점 종합보고서'
Q&A로 배우는 안드로이드 프로그래밍 개발자 노트 / 2012 / 노규남 / 출판
FLEX 3 핵심 노트 / 2008 / 노규남 / 출판
풀면서 배우는 C언어의 실전 – 999제 / 2007 / BohYoh Shibata / 번역
예제가 풍부한 C언어의 정석 / 2007 / BohYoh Shibata / 번역
프로젝트를 성공시키는 SE / 2004 / Masao Yasui 등 / 감역
프로젝트는 왜 실패하는가 / 2004 / Kentaro Ito / 감역
성공과 실패를 결정하는 1%의 컴퓨터 원리 / 2003 / 야자와 히사오 / 감역
아파치 서버 / 2001 / 노규남 / 출판
Visual Basic 5.0 / 1997 / 노규남 / 출판
과정 구성 |
이 과정은 서비스로 보면 AI 분야에 해당하며, 직무로는 머신러닝/AI, 언어와 프레임워크는 python & pytorch를 사용합니다. 이 과정을 듣는 교육생은 python에 대한 기본적인 문법과 pytorch 프레임워크의 사용법, 그리고 google colab과 jupyter notebook에서 개발 및 디버깅하는 방법을 학습하게 되며, Classification, Clustering, Regression 기능을 어떻게 구현하는지도 배우게 됩니다.
딥러닝도 세부적으로 보면 여러 가지 분야가 있으나, 이 과정에서는 특히 영상처리에 특화되어 있는 CNN과 자연어 처리에 적합한 BERT, 그리고 Perfect Information Game 문제를 푸는데 유용한 DQN에 대해서 몇 가지의 구체적인 과제를 주고 학습할 수 있도록 하고자 합니다.
교육일정 |
❍ 교육일정: 10. 31(토)부터 14주(112시간)
- 매주 토요일 : 09시 ~ 18시 (일 8시간)
* 코로나19가 지속 확산 시에는 온라인 강의 등으로 변경될 수 있습니다.
❍ 교육장소: 싹 영등포 캠퍼스
- 영등포구 문래동6가 21(선유로9길 30) *문래역 도보 10분 거리
모집개요 |
❍ 모집대상
- 수강신청일 기준 만 15세 이상의 서울시민(주소지 등록기준)으로, 기초지식 (레벨)을 갖추고 개발자로 진출하고자 하는 분 중에
개발과 학습에 대한 의지가 강하신 분
❍ 모집규모: 10명
❍ 신청기간: 2020. 10. 23.(금)까지
❍ 선발방법: 기초지식(레벨)테스트와 면접 등을 통해 선발합니다.
- 리눅스에 대한 기본 지식과 한가지 이상의 개발언어 습득이 교육을 받기 위한 최소 필요조건입니다.
면접과 테스트는 Zoom 화상회의로 진행하며, 신청시 입력하신 연락처로 이후 진행사항을 알려드리니 정확하게 입력해주세요.
❍ 수강신청
1. 수강신청서 * 링크(https://forms.gle/s4fJv1mvTj4Ur69f7)를 먼저 작성 후
2. 페이지 상단의 '수강신청하기' 버튼을 눌러서 수강신청 해주세요.
❍ 교육비
- 무료. 단, 예치금 4만원을 선납하고, 수료(교육 시간의 80% 이상을 이수 또는 교육시간의 30% 이상을 이수한 이후 조기 취업한 경우)후 반환
* 수료 기준에 미달하는 경우 예치금은 반환되지 않음
❍ 교육생 관리
- 강사와 교육생들이 공유하는 git repo를 운영, 교육생들은 이 repo에 과제를 commit하게 되며 강사는 이 repo를 사용해 과정의
각 주제에 대한 baseline code를 공유하게 됨
❍ 과정문의: bardroh@empas.com
차시 | 일시 | 강의명 |
---|---|---|
Public Cloud & docker 기반의 python 개발환경 구축, python 문법 기초 교육 | ||
1차시 | 2020-10-31 09:00~10:00 | 학습효과 측정용 테스트 |
2차시 | 2020-10-31 10:00~11:00 | AWS/Azure/GCP 가입, VM 생성, docker 설치, docker 기본 조작법 |
3차시 | 2020-10-31 11:00~12:00 | dockerhub 가입 및 사용방법, torch 설치 후 이미지 커밋, jupyter notebook 실행방법 |
4차시 | 2020-10-31 13:00~14:00 | terminal 및 jupyter notebook에서의 python(*.py) 및 notebook(*.ipynb) 실행 방법 |
5차시 | 2020-10-31 14:00~15:00 | git, github 활용, commit, pull request, branch, merge 등 명령어, GIST, markdown, github page 활용 정적 웹페이지 |
6차시 | 2020-10-31 15:00~16:00 | 변수타입과 연산 - Numbers, Strings, variables, operator, typecasting, regular expression, 부동소수점 문제 |
7차시 | 2020-10-31 16:00~17:00 | 제어문, 함수와 입출력 - if, for, range, break, def, global, 가변인자, recursion, format |
8차시 | 2020-10-31 17:00~18:00 | 리스트와 딕셔너리, 튜플, 모듈, 예외처리, 클래스, 람다함수 |
머신러닝 & 딥러닝 개괄, Perceptron, Back Propagation, Gradient Descent Algorithm | ||
9차시 | 2020-11-07 09:00~10:00 | 인공지능의 정의와 역사, 발전흐름 |
10차시 | 2020-11-07 10:00~11:00 | 지식&규칙기반 시스템에서 머신러닝으로의 전환 |
11차시 | 2020-11-07 11:00~12:00 | 머신러닝의 개념, 특징공간(Feature Space) |
12차시 | 2020-11-07 13:00~14:00 | 데이터에 대한 이해와 모델링 |
13차시 | 2020-11-07 14:00~15:00 | 모델선택의 한계와 해결책 |
14차시 | 2020-11-07 15:00~16:00 | Perceptron과 인공신경망(Artificial Neural Network) |
15차시 | 2020-11-07 16:00~17:00 | Back Propagation: 어떻게 작동하는가? |
16차시 | 2020-11-07 17:00~18:00 | Gradient Descent Algorithm |
google colab을 이용한 jupyter notebook 실행, Public Cloud에서의 jupyter notebook 사용법, Gradient Boosting #1 | ||
17차시 | 2020-11-14 09:00~10:00 | google colab 가입, github 연동, jupyter notebook 실행 |
18차시 | 2020-11-14 09:00~11:00 | numpy, pandas |
19차시 | 2020-11-14 11:00~12:00 | scikit-learn |
20차시 | 2020-11-14 13:00~14:00 | Scipy, matplotlib |
21차시 | 2020-11-14 14:00~15:00 | 의사결정 트리 |
22차시 | 2020-11-14 15:00~16:00 | 랜덤 포레스트 |
23차시 | 2020-11-14 16:00~17:00 | Support Vector Machine 분류 |
24차시 | 2020-11-14 17:00~18:00 | k-means 클러스터링 |
google colab을 이용한 jupyter notebook 실행, Public Cloud에서의 jupyter notebook 사용법, Gradient Boosting #2 | ||
25차시 | 2020-11-21 09:00~10:00 | 단일 선형 회귀 분석 |
26차시 | 2020-11-21 10:00~11:00 | 다중 선형 회귀 분석 |
27차시 | 2020-11-21 11:00~12:00 | Iris 데이터를 이용한 랜덤 포레스트 예측 |
28차시 | 2020-11-21 13:00~14:00 | 앙상블 학습 - Bagging, Stacking |
29차시 | 2020-11-21 14:00~15:00 | 앙상블 학습 - Boosting |
30차시 | 2020-11-21 15:00~16:00 | xgboost - classification, regression |
31차시 | 2020-11-21 16:00~17:00 | lightGBM -classification, regression |
32차시 | 2020-11-21 17:00~18:00 | Kaggle 문제 분석 - 산탄데르 은행 고객 서비스 예측 |
pytorch 기본 프레임워크 사용법, Classification, Regression #1 | ||
33차시 | 2020-11-28 09:00~10:00 | 텐서 다루기 기본: 차원(Rank)과 Shape |
34차시 | 2020-11-28 10:00~11:00 | 텐서 연산과 행렬곱 |
35차시 | 2020-11-28 11:00~12:00 | autograd |
36차시 | 2020-11-28 13:00~14:00 | 기본 신경망 모델 구현하기 |
37차시 | 2020-11-28 14:00~15:00 | pytorch 어플리케이션의 기본 구조 |
38차시 | 2020-11-28 15:00~16:00 | pytorch 어플리케이션의 학습 방법 #1 |
39차시 | 2020-11-28 16:00~17:00 | pytorch 어플리케이션의 학습 방법 #2 |
40차시 | 2020-11-28 17:00~18:00 | 모델의 저장 및 복원 |
pytorch 기본 프레임워크 사용법, Classification, Regression #2 | ||
41차시 | 2020-12-05 09:00~10:00 | pytorch Classification #1 |
42차시 | 2020-12-05 10:00~11:00 | pytorch Classification #2 |
43차시 | 2020-12-05 11:00~12:00 | 분류 예제: Iris 데이터를 pytorch로 분류 #1 |
44차시 | 2020-12-05 13:00~14:00 | 분류 예제: Iris 데이터를 pytorch로 분류 #2 |
45차시 | 2020-12-05 14:00~15:00 | pytorch Regresssion #1 |
46차시 | 2020-12-05 15:00~16:00 | pytorch Regresssion #2 |
47차시 | 2020-12-05 16:00~17:00 | 회귀 예제: 시계열 데이터를 pytorch로 예측 #1 |
48차시 | 2020-12-05 17:00~18:00 | 회귀 예제: 시계열 데이터를 pytorch로 예측 #2 |
Convolutional Neural Network로 구현하는 영상처리, CNN 모델의 발전 과정 #1 | ||
49차시 | 2020-12-12 09:00~10:00 | Fully-Connected Layer 영상 인식 |
50차시 | 2020-12-12 10:00~11:00 | 이미지 처리: torchvision.transforms. 크기 변경, Tensor로 전환, 차원 변환 |
51차시 | 2020-12-12 11:00~12:00 | Convolutional Neural Network: 구조와 원리 |
52차시 | 2020-12-12 13:00~14:00 | 필터 시각화: 필터가 학습하는 내용을 확인 |
53차시 | 2020-12-12 14:00~15:00 | MNIST 숫자 모델 분류 |
54차시 | 2020-12-12 15:00~16:00 | Fashion MNIST 영상 분류 |
55차시 | 2020-12-12 16:00~17:00 | CIFAR10 영상 분류 |
56차시 | 2020-12-12 17:00~18:00 | 이미지 처리: TrashNet |
Convolutional Neural Network로 구현하는 영상처리, CNN 모델의 발전 과정 #2 | ||
57차시 | 2020-12-19 09:00~10:00 | 데이터 모으기 & 라벨링: crawler 작성 |
58차시 | 2020-12-19 10:00~11:00 | 데이터 모으기 & 라벨링: AI Hub 가입 및 데이터 추출 |
59차시 | 2020-12-19 11:00~12:00 | Data Augumentation #1 |
60차시 | 2020-12-19 13:00~14:00 | Data Augumentation #2 |
61차시 | 2020-12-19 14:00~15:00 | VGG-Net #1 |
62차시 | 2020-12-19 15:00~16:00 | VGG-Net #2 |
63차시 | 2020-12-19 16:00~17:00 | GoogLeNet #1 |
64차시 | 2020-12-19 17:00~18:00 | GoogLeNet #2 |
Convolutional Neural Network로 구현하는 영상처리, CNN 모델의 발전 과정 #3 | ||
65차시 | 2020-12-26 08:00~10:00 | ResNet #1 |
66차시 | 2020-12-26 10:00~11:00 | ResNet #2 |
67차시 | 2020-12-26 11:00~12:00 | Transfer Learning #1 |
68차시 | 2020-12-26 13:00~14:00 | Transfer Learning #2 |
69차시 | 2020-12-26 14:00~15:00 | 탐지 알고리즘 |
70차시 | 2020-12-26 15:00~16:00 | Object Detection |
71차시 | 2020-12-26 16:00~17:00 | YOLO 알고리즘 |
72차시 | 2020-12-26 17:00~18:00 | CNN 모델의 발전 흐름 |
BERT를 사용하는 자연어 처리기법 #1 | ||
73차시 | 2021-01-02 09:00~10:00 | 자연어 처리 기초 |
74차시 | 2021-01-02 10:00~11:00 | 자연어 처리에 필요한 기본 배경 지식 |
75차시 | 2021-01-02 11:00~12:00 | 자연어를 표시하기 위한 Vector |
76차시 | 2021-01-02 13:00~14:00 | 자연어 처리 기본 딥러닝 모델 |
77차시 | 2021-01-02 14:00~15:00 | Word2Vec과 GloVe 벡터 활용 |
78차시 | 2021-01-02 15:00~16:00 | Sequence Tagging |
79차시 | 2021-01-02 16:00~17:00 | Neural Machine Translation |
80차시 | 2021-01-02 17:00~18:00 | word embedding |
BERT를 사용하는 자연어 처리기법 #2 | ||
81차시 | 2021-01-09 09:00~10:00 | RNN(Recurrent Neural Network) |
82차시 | 2021-01-09 10:00~11:00 | LSTM(Long Short-Term Memory) |
83차시 | 2021-01-09 11:00~12:00 | 예제: RNN을 이용한 영화 리뷰 예측 모델 #1 |
84차시 | 2021-01-09 13:00~14:00 | 예제: RNN을 이용한 영화 리뷰 예측 모델 #2 |
85차시 | 2021-01-09 14:00~15:00 | GRU(Gated Recurrent Unit) |
86차시 | 2021-01-09 15:00~16:00 | seq2seq로 단어를 번역하는 모델 |
87차시 | 2021-01-09 16:00~17:00 | 예제: RNN을 이용해 IMDB 데이터로 텍스트 감정 분석 #1 |
88차시 | 2021-01-09 17:00~18:00 | 예제: RNN을 이용해 IMDB 데이터로 텍스트 감정 분석 #2 |
BERT를 사용하는 자연어 처리기법 #3 | ||
89차시 | 2021-01-16 09:00~09:00 | Attention |
90차시 | 2021-01-16 10:00~11:00 | Transformer |
91차시 | 2021-01-16 11:00~12:00 | 예제: 1D-CNN으로 욕설을 판단하는 모델 #1 |
92차시 | 2021-01-16 13:00~14:00 | 예제: 1D-CNN으로 욕설을 판단하는 모델 #2 |
93차시 | 2021-01-16 14:00~15:00 | 자연어 처리의 연구 흐름 |
94차시 | 2021-01-16 15:00~16:00 | BERT(Bidirectional Encoder Representation from Transformers) |
95차시 | 2021-01-16 16:00~17:00 | 예제: BERT로 QA 쌍에서 원하는 답을 찾는 모델 #1 |
96차시 | 2021-01-16 17:00~18:00 | 예제: BERT로 QA 쌍에서 원하는 답을 찾는 모델 #2 |
DQN(Deep Q-Network)과 OpenAI로 구현하는 강화학습 에이전트 #1 | ||
97차시 | 2021-01-23 09:00~10:00 | 강화학습 Introduction |
98차시 | 2021-01-23 10:00~11:00 | Markov Decision Process |
99차시 | 2021-01-23 11:00~12:00 | Q-Table과 Q-Learning |
100차시 | 2021-01-23 13:00~14:00 | Deep Q-Network와 ReplayBuffer |
101차시 | 2021-01-23 14:00~15:00 | Double Q-Learning, Dueling Q-Learning |
102차시 | 2021-01-23 15:00~16:00 | OpenAI 환경 구축 |
103차시 | 2021-01-23 16:00~17:00 | OpenAI gym 테스트 및 설명 |
104차시 | 2021-01-23 17:00~18:00 | pytorch DQN baseline 코드 설명 |
DQN(Deep Q-Network)과 OpenAI로 구현하는 강화학습 에이전트 #2 | ||
105차시 | 2021-01-30 09:00~10:00 | Cartpole 예제 학습 #1 |
106차시 | 2021-01-30 10:00~11:00 | Cartpole 예제 학습 #2 |
107차시 | 2021-01-30 11:00~12:00 | 과일받기 게임 예제 학습 #1 |
108차시 | 2021-01-30 13:00~14:00 | 과일받기 게임 예제 학습 #2 |
109차시 | 2021-01-30 14:00~15:00 | OpenAI gym 수퍼마리오 환경 구축 및 예제 학습 #1 |
110차시 | 2021-01-30 15:00~16:00 | OpenAI gym 수퍼마리오 환경 구축 및 예제 학습 #2 |
111차시 | 2021-01-30 16:00~17:00 | OpenAI gym 수퍼마리오 환경 구축 및 예제 학습 #3 |
112차시 | 2021-01-30 17:00~18:00 | 학습효과 측정용 테스트 |