λ³Έλ¬Έ λ°”λ‘œκ°€κΈ°
IT-Engineering/A.I.

μ΄ˆμ΄ˆλ³΄λ„ μ΄ν•΄ν•˜λŠ” λ”₯λŸ¬λ‹ 2탄 : νΌμ…‰νŠΈλ‘ (Perceptron)

by 🧞‍♂️ 2020. 3. 31.
λ°˜μ‘ν˜•

νΌμ…‰νŠΈλ‘ (Perceptron)은 λ”₯λŸ¬λ‹μ„ μ‹œμž‘ν•  λ•Œ 처음 λ“±μž₯ν•˜λŠ” κ°œλ…μ΄λ‹€.

λ”₯λŸ¬λ‹μ€ μ•„μ£Ό μ΅œκ·Όμ— λ“±μž₯ν•œ κ²ƒμ²˜λŸΌ λ³΄μ΄μ§€λ§Œ, μ‹€μ œλ‘œ 이 κ°œλ…μ€ 1957λ…„ ν”„λž‘ν¬ λ‘œμ  λΈ”λΌνŠΈ(Frank Rosenblatt)λΌλŠ” μ‚¬λžŒμ΄ κ³ μ•ˆν•œ μ•Œκ³ λ¦¬μ¦˜μ΄λ‹€.

νΌμ…‰νŠΈλ‘ μ€ μ—¬λŸ¬κ°œμ˜ μ‹ ν˜Έλ₯Ό μž…λ ₯(Input)으둜 λ°›μ•„ ν•˜λ‚˜μ˜ μ‹ ν˜Έλ₯Ό 좜λ ₯(Output)ν•œλ‹€.

도식과 μˆ˜μ‹μœΌλ‘œ ν‘œν˜„ν•΄λ³΄λ©΄ μ•„λž˜μ™€ κ°™λ‹€.

νΌμ…‰νŠΈλ‘ (Perceptron)의 도식과 μˆ˜μ‹

λ‘κ°œμ˜ μž…λ ₯(x1, x2)이 μžˆλ‹€κ³  κ°€μ •ν•  λ•Œ λ‘κ°œμ˜ μž…λ ₯에 κ°€μ€‘μΉ˜(w1, w2)λ§ŒνΌμ„ κ³±ν•˜μ—¬ κ·Έ μ‘°ν•©μ˜ 합이 μž„κ³„κ°’μ„ λ„˜μ—ˆμ„ 경우 1μ΄λΌλŠ” λ°˜μ‘μ„ ν•˜κ±°λ‚˜ 그렇지 μ•Šμ€ 경우 0μ΄λΌλŠ” λ¬΄λ°˜μ‘μ„ λ³΄μ΄λŠ” 것이 νΌμ…‰νŠΈλ‘ μ˜ κ°œλ…μ΄λ‹€.

이λ₯Ό μˆ˜μ‹μœΌλ‘œ λ‚˜νƒ€λ‚Έ 것이 μœ„ 그림의 였λ₯Έμͺ½ λΆ€λΆ„μ˜ μˆ˜μ‹μΈλ°, μž„κ³„μΉ˜(θ)λ₯Ό 편ν–₯(b)μ΄λΌλŠ” κ°œλ…μœΌλ‘œ λ°”κΎΈμ–΄ μ’Œλ³€μœΌλ‘œ μ΄λ™μ‹œν‚¨ 것이 μ•„λž˜μ˜ μˆ˜μ‹μ΄λ‹€.

이λ₯Ό 잘 μ‘°ν•©ν•˜λ©΄ μ»΄ν“¨ν„°μ˜ 논리연산도 κ°€λŠ₯ν•œλ°, μž…λ ₯이 0, 1만 μ£Όμ–΄μ§ˆ λ•Œ

예λ₯Όλ“€μ–΄ (w1, w2, θ) 각각을 (0.5, 0.5, 0.8)이라고 ν•˜λ©΄ AND연산을 (0.5, 0.5, 0.4)라고 ν•˜λ©΄ OR 연산이 κ°€λŠ₯해진닀. λ‹€λ§Œ 이 κ΅¬μ‘°μ—μ„œλŠ” NANDμ—°μ‚°κΉŒμ§€λ„ κ°€λŠ₯ν•˜μ§€λ§Œ XOR연산은 λΆˆκ°€λŠ₯ν•˜λ‹€.

μ΄μœ λŠ” ν•œμΈ΅μ˜ νΌμ…‰νŠΈλ‘ λ§ŒμœΌλ‘œλŠ” μ„ ν˜•κ΅¬μ‘°(직선 ꡬ쑰)λ§Œμ„ λ‚˜νƒ€λ‚Ό 수 있기 λ•Œλ¬ΈμΈλ°,

νΌμ…‰νŠΈλ‘ μ„ μ€‘μ²©μ‹œμΌœ λ‹€μΈ΅ νΌμ…‰νŠΈλ‘ μ„ κ΅¬ν˜„ν•˜κ²Œλ˜λ©΄ XORκ³Ό 같은 연산도 κ°€λŠ₯ν•œ λ‹€μΈ΅ νΌμ…‰νŠΈλ‘ (multi-layer perceptron)을 κ΅¬ν˜„ν•  수 μžˆλ‹€.

λ‹€μΈ΅ νΌμ…‰νŠΈλ‘ (multi-layer perceptron)

 

μ΄λ ‡κ²Œ ν•œ 측을 더 μŒ“μ€ κ²ƒλ§ŒμœΌλ‘œλ„ μ»΄ν“¨ν„°μ˜ κΈ°λ³Έ 논리연산은 λͺ¨λ‘ κ°€λŠ₯ν•˜κ²Œ λœλ‹€.

 

μ—¬λŸ¬ μž…λ ₯에 λŒ€ν•˜μ—¬ μ΄λŸ¬ν•œ νΌμ…‰νŠΈλ‘ μ„ μ—¬λŸ¬μΈ΅μœΌλ‘œ μŒ“λŠ” κ°œλ…μ΄ λ”₯λŸ¬λ‹μ˜ 좜발 κ°œλ…μ΄λΌκ³  ν•  수 μžˆκ² λ‹€.

λ‹€μŒ λ²ˆμ—λŠ” 신경망에 λŒ€ν•΄μ„œ μ•Œμ•„λ³΄λ„λ‘ ν•˜κ² λ‹€.

λ°˜μ‘ν˜•

λŒ“κΈ€