λ³Έλ¬Έ λ°”λ‘œκ°€κΈ°
IT-Engineering/A.I.

μ΄ˆμ΄ˆλ³΄λ„ μ΄ν•΄ν•˜λŠ” λ”₯λŸ¬λ‹ 3탄 : 신경망, ν™œμ„±ν™” ν•¨μˆ˜

by 🧞‍♂️ 2020. 4. 3.
λ°˜μ‘ν˜•

2020/03/31 - [IT-Engineering/A.I.] - μ΄ˆμ΄ˆλ³΄λ„ μ΄ν•΄ν•˜λŠ” λ”₯λŸ¬λ‹ 1탄 : 인곡지λŠ₯, λ¨Έμ‹ λŸ¬λ‹, λ”₯λŸ¬λ‹

 

μ΄ˆμ΄ˆλ³΄λ„ μ΄ν•΄ν•˜λŠ” λ”₯λŸ¬λ‹ 1탄 : 인곡지λŠ₯, λ¨Έμ‹ λŸ¬λ‹, λ”₯λŸ¬λ‹

μ΄ˆλ³΄λ³΄λ‹€ ν•œλ‹¨κ³„ 더 초보λ₯Ό '초초보'라고 μ •μ˜ν•˜κ² λ‹€. ν•„μžκ°€ 초초보이고, ν•„μžκ°€ μ΄ν•΄ν•œ κ²ƒλ§Œ 적기 λ•Œλ¬Έμ— μ΄ˆμ΄ˆλ³΄λ„ 이해할 수 μžˆλ‹€κ³  μƒκ°ν•˜μ—¬ 제λͺ©μ„ μœ„μ™€ 같이 μ •ν•΄λ³΄μ•˜λ‹€. 제λͺ©μ„ 잘 보면 μˆœμ„œκ°€ μžˆλ‹€. 인곡..

gentlesark.tistory.com

2020/03/31 - [IT-Engineering/A.I.] - μ΄ˆμ΄ˆλ³΄λ„ μ΄ν•΄ν•˜λŠ” λ”₯λŸ¬λ‹ 2탄 : νΌμ…‰νŠΈλ‘ (Perceptron)

 

μ΄ˆμ΄ˆλ³΄λ„ μ΄ν•΄ν•˜λŠ” λ”₯λŸ¬λ‹ 2탄 : νΌμ…‰νŠΈλ‘ (Perceptron)

νΌμ…‰νŠΈλ‘ (Perceptron)은 λ”₯λŸ¬λ‹μ„ μ‹œμž‘ν•  λ•Œ 처음 λ“±μž₯ν•˜λŠ” κ°œλ…μ΄λ‹€. λ”₯λŸ¬λ‹μ€ μ•„μ£Ό μ΅œκ·Όμ— λ“±μž₯ν•œ κ²ƒμ²˜λŸΌ λ³΄μ΄μ§€λ§Œ, μ‹€μ œλ‘œ 이 κ°œλ…μ€ 1957λ…„ ν”„λž‘ν¬ λ‘œμ  λΈ”λΌνŠΈ(Frank Rosenblatt)λΌλŠ” μ‚¬λžŒμ΄ κ³ μ•ˆν•œ μ•Œκ³ λ¦¬μ¦˜..

gentlesark.tistory.com

슀슀둜 κ³΅λΆ€ν•œ κ±° μ •λ¦¬ν•˜λŠ” μš©λ„λ‘œ μ‹œμž‘ν–ˆλŠ”λ°,
λ„ˆλ¬΄ λŒ€μΆ© μ μžλ‹ˆ λ³΄λŠ” μ‚¬λžŒλ“€μ—κ²Œ 민폐인 것 κ°™κ³ ,
λ„ˆλ¬΄ μ—΄μ‹¬νžˆ μ μžλ‹ˆ 배보닀 배꼽이 클 것 같은 상황이닀.

μ–΄μ°Œλκ±΄, μ΄ˆμ΄ˆλ³΄λ„ μ΄ν•΄ν•˜λŠ” λ”₯λŸ¬λ‹ 3탄을 κ°€λ³Έλ‹€.

μ§€λ‚œ μ‹œκ°„μ—λŠ” νΌμ…‰νŠΈλ‘ μ— λŒ€ν•΄μ„œ κ°„λž΅ν•˜κ²Œ μ •λ¦¬ν•΄λ³΄μ•˜λ‹€.

이번 μ‹œκ°„μ—λŠ” λ”₯λŸ¬λ‹μ˜ μ‹œμž‘μ΄λΌκ³  ν•  수 μžˆλŠ” 신경망(neural network)에 λŒ€ν•΄ μ•Œμ•„λ³΄κ² λ‹€.

신경망에 λŒ€ν•΄μ„œ λ“€μ–΄λ³Έ μ‚¬λžŒμ€ λŒ€λž΅ λ‹€μŒκ³Ό 같은 그림을 보기도 ν–ˆμ„ 것이고, λ³Έ λŠλ‚Œμ΄λΌλ„ μžˆμ„ 수 μžˆλ‹€.

신경망(Neural network)의 ꡬ쑰(좜처: Wikimedia Commons)

신경망은 μœ„μ™€κ°™μ΄ μž…λ ₯μΈ΅(input layer), 은닉측(hidden layer), 좜λ ₯μΈ΅(output layer)둜 κ΅¬μ„±λœλ‹€.

그림을 λ³΄μ•˜μ„ λ•ŒλŠ” μ•žμ„œ μ‚΄νŽ΄λ³Έ λ‹€μΈ΅ νΌμ…‰νŠΈλ‘ (multi-layer perceptron)κ³Ό λ³„λ‘œ λ‹€λ₯Έκ²Œ 없어보인닀. 

μ–΄λ–€ 차이가 μžˆμ„κΉŒ?

κ²°λ‘ λΆ€ν„° λ§ν•˜μžλ©΄ μ°¨μ΄λŠ” ν™œμ„±ν™” ν•¨μˆ˜μ˜ 차이닀.

그런데 ν™œμ„±ν™” ν•¨μˆ˜λΌκ³ ?

아직 μš°λ¦¬λŠ” ν™œμ„±ν™” ν•¨μˆ˜μ— λŒ€ν•΄ λ…Όν•œλ°”κ°€ μ—†λ‹€. 그러면 ν™œμ„±ν™” ν•¨μˆ˜κ°€ 무엇인지 μ•Œμ•„λ³΄μž.

ν™œμ„±ν™” ν•¨μˆ˜(activation function)에 λŒ€ν•΄μ„œ μ•Œμ•„λ³΄κΈ° μœ„ν•΄μ„œ νΌμ…‰νŠΈλ‘ μ„ μž μ‹œ λ³΅μŠ΅ν•΄λ³΄μž.

 

단측 νΌμ…‰νŠΈλ‘ μ˜ μž…λ ₯ 좜λ ₯ 관계λ₯Ό λ‹€μŒκ³Ό 같은 μˆ˜μ‹μœΌλ‘œ ν‘œν˜„ν•œ λ°” μžˆμ—ˆλ‹€.

μœ„ μ‹μ—μ„œ b+w1x1+w2x2λ₯Ό f둜 λ‚˜νƒ€λ‚Έλ‹€λ©΄ yλŠ” 0κ³Ό 1μ΄λΌλŠ” 좜λ ₯이 λ‚˜μ˜€λŠ” y=h(f)λΌλŠ” ν•¨μˆ˜λ‘œ ν‘œν˜„ν•  수 μžˆλ‹€.

μˆ˜μ‹κ³Ό 그림으둜 ν‘œν˜„ν•˜λ©΄ μ•„λž˜μ˜ ν˜•νƒœκ°€ λœλ‹€.

단측 νΌμ…‰νŠΈλ‘ μ˜ μˆ˜ν•™μ  ν‘œν˜„

μœ„μ™€ 같은 hλΌλŠ” ν•¨μˆ˜λ₯Ό κ³„λ‹¨ν˜•νƒœλΌκ³  ν•˜μ—¬ κ³„λ‹¨ν•¨μˆ˜(step function)이라고 λΆ€λ₯Έλ‹€.

μ—¬κΈ°μ„œ 이 ν•¨μˆ˜ hκ°€ λ°”λ‘œ μ•Œμ•„λ³΄κ³ μž ν–ˆλ˜ ν™œμ„±ν™” ν•¨μˆ˜μ΄λ‹€!

νΌμ…‰νŠΈλ‘ μ—μ„œλŠ” ν™œμ„±ν™” ν•¨μˆ˜λ‘œ κ³„λ‹¨ν•¨μˆ˜κ°€ μ“°μ΄λŠ” 것이닀.

신경망과 νΌμ…‰νŠΈλ‘ μ˜ μ°¨μ΄λŠ” μ—¬κΈ°μ„œ λ‚˜νƒ€λ‚˜λŠ”λ°, 신경망은 λ‹€μΈ΅ νΌμ…‰νŠΈλ‘ μ—μ„œ ν™œμ„±ν™” ν•¨μˆ˜λ₯Ό 계단 ν•¨μˆ˜μ—μ„œ λ‹€λ₯Έ ν•¨μˆ˜λ‘œ λ³€κ²½ν•˜λŠ” 것이닀.

* μ£Όμ˜μ‚¬ν•­

일반적으둜 λ‹¨μˆœ νΌμ…‰νŠΈλ‘ μ€ 단측 λ„€νŠΈμ›Œν¬μ—μ„œ 계단 ν•¨μˆ˜(μž„κ³„κ°’μ„ κ²½κ³„λ‘œ 좜λ ₯이 λ°”λ€ŒλŠ” ν•¨μˆ˜)λ₯Ό ν™œμ„±ν™” ν•¨μˆ˜λ‘œ μ‚¬μš©ν•œ λͺ¨λΈμ„ 가리킀고 λ‹€μΈ΅ νΌμ…‰νŠΈλ‘ μ€ 신경망(μ—¬λŸ¬ 측으둜 κ΅¬μ„±λ˜κ³  μ‹œκ·Έλͺ¨μ΄λ“œ ν•¨μˆ˜ λ“±μ˜ λ§€λˆν•œ ν™œμ„±ν™” ν•¨μˆ˜λ₯Ό μ‚¬μš©ν•˜λŠ” λ„€νŠΈμ›Œν¬)을 κ°€λ¦¬ν‚΅λ‹ˆλ‹€.

- λ°‘λ°”λ‹₯λΆ€ν„° μ‹œμž‘ν•˜λŠ” λ”₯λŸ¬λ‹

λŒ€ν‘œμ μΈ ν™œμ„±ν™” ν•¨μˆ˜λ‘œλŠ” μ‹œκ·Έλͺ¨μ΄λ“œ(sigmoid), 렐루(ReLU)ν•¨μˆ˜κ°€ μžˆλ‹€. 

λ‹€μŒ μ‹œκ°„μ—λŠ” ν™œμ„±ν™” ν•¨μˆ˜λ₯Ό 더 μžμ„Ένžˆ μ•Œμ•„λ³΄λ„λ‘ ν•˜κ² λ‹€.

λ°˜μ‘ν˜•

λŒ“κΈ€