μ˜€λŠ˜μ€ λ”₯λŸ¬λ‹μ΄ 무엇인가에 κ΄€ν•œ λ‚΄μš©μ„ 적어볼 것이닀.
ν•™λΆ€μƒν™œμ„ ν•˜λ©΄μ„œ λ”₯λŸ¬λ‹μ„ μ—¬λŸ¬λ²ˆ λ°°μ›Œμ˜€κΈ΄ ν–ˆμ§€λ§Œ λͺ¨λΈμ„ λ§Œλ“€κ³  μ½”λ“œλ₯Ό 지 λ•Œλ„ 깊게 λ“€μ–΄κ°€λ³Έ 적이 μ—†λŠ” 것 κ°™μ•„
λ”₯λŸ¬λ‹μ„ μ‹€μŠ΅ ν•˜λ©΄μ„œλ„ 이게 λ§žλŠ” 건가 의문이 λ“€ λ•Œκ°€ λ§Žμ•˜λ‹€. μ΄λ²ˆκΈ°νšŒμ— λ”₯λŸ¬λ‹μ΄ 무엇인지 μ •ν™•νžˆ μ•Œκ³  써먹어야 κ² λ‹€λŠ” 생각을 ν–ˆκ³ , κ·Έ ν›„μ—λŠ” λ”₯λŸ¬λ‹κ³Ό κ΄€λ ¨λœ μ—¬λŸ¬ ν”„λ‘œμ νŠΈλ₯Ό 진행할 μ˜ˆμ •μ΄λ‹€.


μ˜€λŠ˜μ€ λ”₯λŸ¬λ‹μ— λŒ€ν•˜μ—¬ μ•„μ£Ό κ°€λ³κ²Œ μ•Œμ•„λ³΄λŠ” μ‹œκ°„μœΌλ‘œ λ”₯λŸ¬λ‹μ˜ κ°œλ…κ³Ό 원리에 λŒ€ν•œ λ‚΄μš©μ„ ν¬μŠ€νŒ… 할것이닀.
(패슀트 캠퍼슀의 κ°•μ˜λ‚΄μš© + 개인적인 μžλ£Œμ‘°μ‚¬ 의 도움을 λ°›μ•˜λ‹€ + 개인적인 의견)




  • λ”₯λŸ¬λ‹ λ„μž…μ˜ 초μž₯κΈ° μ‹œμ ˆ

패캠 κ°•μ˜μ—μ„œ λ”₯λŸ¬λ‹ 기사λ₯Ό λ„£μ–΄λ†“μœΌμ‹  κ±Έ 보고 λ‚˜λ„ 직접 기사λ₯Ό μ°Ύμ•„λ΄€λ‹€. λ”₯λŸ¬λ‹μ„ 치고 였래된 순으둜 μ •λ ¬ν•΄λ³΄λ‹ˆ 2013년이 κ°€μž₯ 첫 κΈ°μ‚¬μ˜€λ‹€. 2014λ…„ κ²½ λΆ€ν„°λŠ” λ”₯λŸ¬λ‹μ— κ΄€ν•œ 긍정적인 기사듀이 λ§Žμ•˜λ‹€. λ”₯λŸ¬λ‹μ΄ λͺ¨λ“  문제의 ν•΄κ²°λ°©μ•ˆμ΄ λ κ²ƒμ΄λΌλŠ” κΈ°λŒ€κ°μ΄ μžˆμ—ˆμœΌλ©° μ–Έλ‘ μ—μ„œλ„ κ·Έλ ‡κ²Œ μ†Œκ°œλ₯Ό ν–ˆλ‹€κ³  ν•œλ‹€. μ΄λ•ŒκΉŒμ§€λ§Œ 해도 λ”₯λŸ¬λ‹μ€ 좔상적인 κ°œλ…μ΄μ—ˆκ³ , λ”₯λŸ¬λ‹μ΄ λ¬΄μ—‡μΈμ§€λŠ” 잘 μ•Œλ €μ Έμžˆμ§€ μ•Šμ•˜μœΌλ‚˜ 점점 μ΄μŠˆκ°€ 되고 있고 μ™Έκ΅­μ—μ„œ μ‚¬μš©ν•˜κ³  있기 λ•Œλ¬Έμ— 이 κΈ°μˆ μ„ κΌ­ μ‚¬μš©ν•΄μ•Όλ§Œ ν•œλ‹€λŠ” λŠλ‚ŒμœΌλ‘œ μ‘°λͺ…을 λ°›μ•˜λ‹€κ³  ν•œλ‹€. κ³Όκ±° νΌμ…‰νŠΈλ‘ κ³Ό 같은 λ‰΄λŸ΄λ„·μ΄ 망해본 적이 μžˆμ—ˆκΈ°μ— λ‹Ήμ‹œ λͺ‡λͺ‡μ˜ 일뢀 ν˜„μ—… κ°œλ°œμžλ“€μ€ λ°˜μ‹ λ°˜μ˜ ν•˜λ©° 거리λ₯Ό 쑰금 두기도 ν–ˆλ‹€κ³  ν•œλ‹€.


κ·Έλ‘œλΆ€ν„° 5 - 6λ…„ λ’€ μ΅œκ·Όμ—λŠ” μ΄λŸ¬ν•œ λ”₯λŸ¬λ‹ κΈ°μˆ μ„ λ„μž…ν•˜μ—¬ μ‹œμž₯을 λ§Œλ“€μ–΄λ‚΄κ³  있고 μ—¬λŸ¬ μ„±κ³Όλ₯Ό κ±°λ‘μ—ˆμœΌλ©°, μ—¬λŸ¬ 연ꡬ사둀듀이 μ‘΄μž¬ν•˜κ²Œ λ˜μ–΄ 이제 μš°λ¦¬λ‚˜λΌλ„ 좔상적인 κ°œλ…μ—μ„œ 점점 싀체화, ꡬ체화 λ˜μ–΄κ°€κ³  μžˆλŠ” 좔세이닀. μ‹€μ œλ‘œ ν˜„μž¬λŠ” λ”₯λŸ¬λ‹ 기술둜 μŒμ„±μΈμ‹, λ‰΄μŠ€λΆ„μ„ λ“± λŒ€κΈ°μ—…μ—μ„œλ„ 주둜 μ‚¬μš©ν•˜λŠ” 기술이 λ˜μ—ˆμœΌλ‹ˆ 과거처럼 망할 일은 μ—†κ² λ‹€! 취업문은 아직 λ„“λ‹€κ³  ν•  μˆ˜λŠ” μ—†λ‹€κ³  ν•˜μ§€λ§Œ ν•«ν•œ 뢄야인 건 ν™•μ‹€ν•˜λ‹€.


ν˜„μž¬μ˜ λ”₯λŸ¬λ‹μ— 이λ₯΄κΈ° κΉŒμ§€μ˜ μ—¬λŸ¬ 방법듀. neural network(1960λ…„λŒ€ perceptron λ¬Έμ œκ°€ μƒκ²¨μ„œ 망함, 이 ν›„MLPλŠ” perceptron을 λͺ¨λ°©ν•˜μ˜€μ§€λ§Œ λ¬Έμ œκ°€ λ‹€μ‹œ 생김 -> κ·Έ ν›„ ν˜„μž¬ λ”₯λŸ¬λ‹), decision Tree(효과적으둜 ifλ¬Έ μ‚¬μš©, ν˜„μž¬λ„ 잘 λ‚˜κ°€κ³  있음 ), Support Vector Machine(κ°•λ ₯ν•œ λͺ¨λΈμž„), Logistic Regression λ“±λ“± 정말 λ§Žλ‹€.





  • κ·Έλž˜μ„œ λ”₯λŸ¬λ‹μ΄ 뭘까

지식백과 : 닀측ꡬ쑰 ν˜•νƒœμ˜ 신경망을 기반으둜 ν•˜λŠ” λ¨Έμ‹  λŸ¬λ‹μ˜ ν•œ λΆ„μ•Όλ‘œ, λ‹€λŸ‰μ˜ λ°μ΄ν„°λ‘œλΆ€ν„° 높은 μˆ˜μ€€μ˜ 좔상화 λͺ¨λΈμ„ κ΅¬μΆ•ν•˜κ³ μž ν•˜λŠ” 기법이닀.

인곡지λŠ₯ >>> λ¨Έμ‹ λŸ¬λ‹ >>> λ”₯λŸ¬λ‹


인곡지λŠ₯이 κ°€μž₯ 큰 κ°œλ…, κ·Έλ‹€μŒ λ¨Έμ‹ λŸ¬λ‹, κ·Έλ‹€μŒ λ”₯λŸ¬λ‹
μ—„λ°€νžˆ λ§ν•˜μžλ©΄ λ”₯λŸ¬λ‹μ€ 인곡지λŠ₯의 μΌλΆ€μ΄λ©΄μ„œ λ¨Έμ‹ λŸ¬λ‹μ˜ μ—¬λŸ¬ κΈ°λ²•μ€‘μ˜ ν•˜λ‚˜μ΄λ‹€.


그러면 λ„λŒ€μ²΄ λ¨Έμ‹ λŸ¬λ‹μ΄ 뭔데 μ–΄λ– ν•œ μ›λ¦¬λ‘œ 기계 ν•™μŠ΅μ„ ν•œλ‹€λŠ” 건지?

*** κ°„λ‹¨ν•œ λ”₯λŸ¬λ‹μ˜ 원리 *** (이건 λ‹€μŒ 글에 μžμ„Έν•˜κ²Œ)
ML (Machine Learning) : 주어진 λ°μ΄ν„°λ‚˜ κ³Όκ±° μš©λ‘€λ₯Ό ν†΅ν•˜μ—¬ λ¬Έμ œμ— λŒ€ν•œ ν•΄κ²° μ„±λŠ₯을 μ΅œλŒ€ν™” ν•˜λŠ” 것
Role of Statistics : Inference from samples
Role of Computer Science : μ΅œμ ν™” 문제 ν•΄κ²°, 좔둠을 μœ„ν•œ λͺ¨λΈμ„ κ΅¬μ„±ν•˜κ³  평가
----> κ·ΈλŸ¬λ‹ˆκΉŒ 과거의 데이터λ₯Ό μ΄μš©ν•΄μ„œ 기계λ₯Ό ν•™μŠ΅μ‹œν‚€λŠ” 것이닀! 톡계 + 컴퓨터 μ‚¬μ΄μ–ΈμŠ€μΈλ°, ν†΅κ³„μ˜ 역할은 μƒ˜ν”Œμ„ μΆ”λ‘ ν•˜λŠ” 것, 컴퓨터 μ‚¬μ΄μ–ΈμŠ€μ˜ 역할은 λͺ¨λΈμ„ μ–΄λ–»κ²Œ μ΅œμ ν™”μ‹œν‚¬ 것인지λ₯Ό ν•΄κ²°ν•˜κ³ , 좔둠을 ν•˜κΈ° μœ„ν•΄μ„œ λͺ¨λΈμ„ κ΅¬ν˜„ν•΄λ‚΄λŠ” 것이닀. λ‚˜λŠ” λ¨Έμ‹ λŸ¬λ‹μ΄λΌλŠ” 것을 데이터셋을 μ΄μš©ν•˜μ—¬ μ΅œμ ν™”λœ λͺ¨λΈ(μ•Œκ³ λ¦¬μ¦˜)을 λ§Œλ“€μ–΄λ‚΄λŠ” 것? μ°Ύμ•„λ‚΄λŠ” 것? μ •λ„λ‘œ μ΄ν•΄ν•˜κ³  μžˆλ‹€.


inputs -> computation -> outputs

쑰금 더 λ§ν•˜λ©΄ μš°λ¦¬κ°€ ν•΄μ•Όν•  것은 computation을 μ–΄λ–»κ²Œ κ΅¬ν˜„ν•΄ λ‚΄λŠ”κ°€ 이닀.
μ—¬κΈ°μ„œ computation -> μ†μœΌλ‘œ 8을 μ“°λ©΄ μ‚¬λžŒμ€ 숫자 8이닀! 라며 μ•Œμ•„λ³΄μ§€λ§Œ μ»΄ν“¨ν„°λŠ” μ•Œμ•„λ³΄μ§€ λͺ»ν•œλ‹€. μ—¬κΈ°μ„œ μ–΄λ–€ computation을 μ·¨ν•΄μ•Ό 컴퓨터가 인식을 ν•  수 μžˆλŠ”κ°€? 이걸 ν•΄κ²°ν•˜κ³  싢은 것이닀.



μ΄λ•Œ computation 을 κ΅¬ν˜„ν•˜λŠ” 데 μžˆμ–΄μ„œ ν”„λ‘œκ·Έλž˜λ° vs λ”₯λŸ¬λ‹
-> ν”„λ‘œκ·Έλž˜λ° : κ·œμΉ™μ„ μ½”λ”©ν•œλ‹€. (if문을 μ—„μ²­ λ³΅μž‘ν•˜κ²Œμ¨μ•Όν•¨. ) ex. λ§Œμ•½ μœ„μ—λ„ λ‘₯그런 λͺ¨μ–‘ 밑에도 λ™κ·ΈλŸ° λͺ¨μ–‘이면 -> 3λ˜λŠ” 8 ,,,, μ΄λŸ°μ‹μœΌλ‘œ! 이 rule을 μœ μ§€λ³΄μˆ˜ν•˜κ³  λ°©λŒ€ν•œ μ–‘μ˜ if문을 μ‚¬μš©ν•΄μ•Ό ν•˜κΈ°μ— 기각.
-> λ”₯λŸ¬λ‹ : λͺ¨λΈμ„ λ””μžμΈν•œλ‹€. λͺ¨λΈμ„ λ§Œλ“€μ–΄λ‚΄κ³ , 이 λͺ¨λΈμ— input(데이터)이 λ“€μ–΄κ°€μ„œ λͺ¨λΈμ„ 거치면 output(μ˜ˆμΈ‘κ°’)이 λ‚˜μ˜¨λ‹€.





*** λ”₯λŸ¬λ‹μ΄ 주둜 λ‹€λ£¨λŠ” λ¬Έμ œλ“€ ***
λ”₯λŸ¬λ‹μ΄ 주둜 λ‹€λ£¨λŠ” λ¬Έμ œλ“€μ— λŒ€ν•˜μ—¬ μ•Œμ•„λ³΄μž.

Association Rule Mining
- μ΄λ¦„λŒ€λ‘œ μ—°κ΄€ κ·œμΉ™μ„ μ°Ύμ•„μ£ΌλŠ” 기법이닀. ex, ν•Έλ“œν°μ„ κ΅¬μž…ν•˜λŠ” μ‚¬λžŒμ€ ν•Έλ“œν° μΌ€μ΄μŠ€λ„ ν•¨κ»˜ μ£Όλ¬Έν•˜μ§€ μ•Šμ„κΉŒ. μˆ μ„ 사면 μ•ˆμ£Όλ„ ν•¨κ»˜ 사지 μ•Šμ„κΉŒ. 와 같은 λŠλ‚Œ. 연관이 μžˆμ§€λ§Œ μš°λ¦¬κ°€ 미처 λ°œκ²¬ν•˜μ§€ λͺ»ν–ˆλ˜ 그런 κ·œμΉ™μ„ μ°Ύμ•„λ‚΄λŠ” 방법이닀.

Supervised Learning
- ν•™μŠ΅μ…‹μ΄ 주어짐
- ν•™μŠ΅μ…‹μ— 정닡이 labeledλ˜μ–΄μžˆμŒ
- 주어진 ν•™μŠ΅μ…‹μ„ 근거둜 ν•™μŠ΅
- μƒˆλ‘œμš΄ 데이터가 λ“€μ–΄μ˜€λ©΄ 정닡을 예츑

----> λ¬Έμ œμ™€ 정닡이 ν•¨κ»˜ μ£Όμ–΄μ§€λŠ” 것이닀!
λŒ€ν‘œμ μœΌλ‘œ - classification (λΆ„λ₯˜/ μ•žμ„œ λ§ν–ˆλ˜ 숫자 8을 μ˜ˆμΈ‘ν•˜λŠ” κ²ƒμ²˜λŸΌ μΉ΄ν…Œμ½”λ¦¬μ»¬ν•œ 데이터)
- Regression (νšŒκ·€/보톡 연속적인 값을 λ§žμΆ”λ €κ³  ν•  λ•Œ)

Unsupervised Learning
- 데이터가 주어짐 (unlabeled, labelled)
- 주어진 λ°μ΄ν„°μ˜ 정보λ₯Ό ν™œμš©, νŒ¨ν„΄μ„ μΆ”μΆœν•˜κ±°λ‚˜ 관계λ₯Ό ꡬ성
- λͺ…ν™•ν•˜κ²Œ 정해진 정닡은 μ—†μŒ

----> 문제 자체둜 ν•™μŠ΅, 정닡을 μ°Έμ‘°ν•˜μ§€ μ•ŠλŠ”λ‹€!
λŒ€ν‘œμ μœΌλ‘œ - Clustering
- Feature Extraction -> λ¬Έμ œκ°€ μ£Όμ–΄μ§ˆλ•Œ 문제의 핡심 μš”μ†Œλ“€μ΄ 무엇인지 μΆ”μΆœ
- Dimensionality Reduction -> 차원을 쀄여쀀닀

Reinforcement Learning
: κ³Όκ±° λ¨Έμ‹ λŸ¬λ‹μ΄ λͺ»ν–ˆλ˜ 것이며, ν˜„μž¬ λ”₯λŸ¬λ‹μ΄ μž˜ν•˜λŠ” 기법, μ΅œκ·Όμ— μ•ŒνŒŒκ³ μ— μ μš©λ˜μ—ˆλ˜ 기술둜 μ‘°λͺ…λ°›μŒ!
- Unsupervised Learning 의 일쒅
- κ·ΈλŸ¬λ‚˜ 정해진 데이터에 μ˜ν•΄ ν•™μŠ΅λ˜μ–΄μ§€λŠ” 것은 μ•„λ‹˜
- 보상/ 벌점의 κ°œλ…μ„ λͺ¨λΈλ§
- κ·Έ ν›„ λͺ¨λΈμ˜ ν–‰μœ„μ— 맞게 μΌμ–΄λ‚˜λŠ” κ²½ν—˜μ„ ν•™μŠ΅

----> Agentκ°€ Action을 ν•˜λ©΄ λ³€ν™”λœ Environmentλ₯Ό 보고 μž˜ν–ˆλ‹€ λͺ»ν–ˆλ‹€ ν‰κ°€ν•΄μ„œ 보상(reward)을 μ£ΌλŠ”κ²ƒ λ°˜λ³΅ν•˜μ—¬ ν•™μŠ΅








+ Recent posts