it21-machine-learning

it21-machine-learning

Hwanjo Yu / POSTECH
http://hwanjoyu.org (웹페이지 안열림)

feature, generaliztion
80분/ 슬라이드 교체함
딥러닝, 컴퓨터 비전, 사물 인식,
조명, 각도가 바뀌면 못알아본다. → 문제점
사람이 인식하는 하이레벨 피처를 알아본다. 인간처럼
이미지 인식은 인간보다 더 잘한다.
what current systems recoginze in below images

자연어 처리/ Sentiment Analysis
문맥을 본다.
Machine Translations

1997: Deep Blue (chess)
2011: IBM Watson (Jeopardy!)
2016: AlphaGo
머신러닝 모델링의 싸움

본능.
사람은 비합리적인 판단을 한다. 본능이 있기 때문에

2가지 공통점
인공지능 과제

AlphaGo
NVIDIA Auto Driving
Google Translation

Big Data + Hardware + Machine Learning Algorithm

real-world task → modeling → formal task → algoritms → programs

가중치를 구해주는것이 머신러닝
가중치를 자동으로 학습.

모델링/
피처를 잘 고르고, 잘 연결
틀을 만든다.
weight parameter 는 머신러닝을 통해 얻는다.

what do we need to learn?

  • Type of models…
  • Art of Modeling…
  • Developing Algorithms…

어떤 모델들이 있는가

가장 단순한 모델
Reflex
Sentiment Analysis
cliches
단어가 들어 있는지 확인 하여 분류. 단어 하나로 결정
단어 여러개를 본다. 부정적이면 -10, 긍정적이면 +5, 스코어를 결정한다.

가장 기본이 되는 단위, linear classifier
learning parameter, weight

Training examples → Learning algorithm → Simple Program with

Generalization

Reflex 모델
State-based model

state :
디자인 후, 옵티멀한 경로를 찾아가는 것

응용되는 곳
Search Problem

스스로 학습

Variable-based Models
CSP Constrain
Event Scheduling
Topic Modeling

확률그래프 모델링, 그래픽컬 모델링, 베이지안 네트워크

Logic
High-level Intelligence

모두 Optimization Problems 으로 바뀐다.

Optimization

  • Models are optimization problems
  • Discrete optimization (dynamic programming)
  • Continuous optimization (gradient descent)

Roadmap

  • loss minimization
  • Features & Neural Network
  • Generalization

GAN
데이터를 genrate
https://tensorflow.blog/2016/11/24/gan-pixelcnn/

피처가 왜 중요하나
Linear Prediction

redidual 을 최소화 한다.
Feature extraction

피처를 어떻게 정의해야 하는가
데이터를 넣어서 얼마나 건강한가 판단

제곱을 디자인할 수도 있다.
새로운 피처 스페이스에서는 넌리니어가 된다.

joint learning

Neural Network 는 피처를 learning 하는 것이다.
구조화 되지 않은 데이터에 머신러닝이 좋다.

데이터가 많이 필요한 것이 머신러닝의 단점이다.

Generalization

어떻게 Generalization을 할 수 있는가
오버피팅을 피하려면
데이터를 많이 모은다.

Autoencoder

Loss minimization

  • Design lossw ell to reflect what you really want

Features & neural Network

  • Design features well to reduce data…
  • Desing NN well to learn high-level features…

Generalization

  • Regularize well to generalize
  • Think about generalization when you do all above
공유하기