๐Ÿ”ฅ ๊ธฐ์ˆ 

๐Ÿ“Œ ๊ธฐ์–ต์žฅ์น˜(๋ฉ”๋ชจ๋ฆฌ) ํ• ๋‹น ๊ธฐ๋ฒ• ์ •๋ฆฌ ๐Ÿ–ฅ๏ธโœจ๊ธฐ์–ต์žฅ์น˜(๋ฉ”๋ชจ๋ฆฌ) ํ• ๋‹น์€ ์šด์˜์ฒด์ œ๊ฐ€ ํ”„๋กœ์„ธ์Šค์—๊ฒŒ ํšจ์œจ์ ์œผ๋กœ ๋ฉ”๋ชจ๋ฆฌ๋ฅผ ๋ฐฐ๋ถ„ํ•˜๋Š” ๋ฐฉ๋ฒ•์ž…๋‹ˆ๋‹ค.ํฌ๊ฒŒ ์—ฐ์† ํ• ๋‹น ๋ฐฉ์‹๊ณผ ๋น„์—ฐ์† ํ• ๋‹น ๋ฐฉ์‹์œผ๋กœ ๋‚˜๋‰ฉ๋‹ˆ๋‹ค. ๊ฐœ๋…์— ๋Œ€ํ•ด์„œ ์„ค๋ช…ํ•˜๊ธฐ ์ „์— ์™ธ๋ถ€๋‹จํŽธํ™”์™€ ๋‚ด๋ถ€ ๋‹จํŽธํ™”์˜ ์ •์˜์— ๋Œ€ํ•ด์„œ ์„ค๋ช…ํ•˜๊ฒ ์Šต๋‹ˆ๋‹ค. 0๏ธโƒฃ ์™ธ๋ถ€ ๋‹จํŽธํ™” (External Fragmentation) , ๋‚ด๋ถ€๋‹จํŽธํ™” (Internal Fragmentation)(1) ๋‚ด๋ถ€ ๋‹จํŽธํ™”i(Internal Fragmentation)โœ” ๋ฉ”๋ชจ๋ฆฌ ๋ธ”๋ก์ด ํ”„๋กœ์„ธ์Šค๋ณด๋‹ค ํด ๋•Œ, ๋‚จ๋Š” ๊ณต๊ฐ„์ด ๋ฐœ์ƒํ•˜๋Š” ๋ฌธ์ œโœ” ํ• ๋‹น๋œ ๋ธ”๋ก ๋‚ด๋ถ€์—์„œ ์‚ฌ์šฉ๋˜์ง€ ์•Š๋Š” ๊ณต๊ฐ„์ด ๋‚จ์•„ ๋ฉ”๋ชจ๋ฆฌ ๋‚ญ๋น„ ๋ฐœ์ƒโœ” ๊ณ ์ • ํฌ๊ธฐ ๋ฉ”๋ชจ๋ฆฌ ํ• ๋‹น ๋ฐฉ์‹(Fixed Partitioning)์—์„œ ์ž์ฃผ ๋ฐœ์ƒ๐Ÿ“Œ ์˜ˆ์‹œ100KB ํฌ๊ธฐ์˜ ๋ธ”๋ก์„ ํ• ๋‹นํ•ด..
โ˜๏ธ ํด๋ผ์šฐ๋“œ๊ฐ€ ์™œ ์ค‘์š”ํ•œ๊ฐ€?์˜ค๋Š˜๋‚  IT ํ™˜๊ฒฝ์€ ๋น ๋ฅด๊ฒŒ ๋ณ€ํ™”ํ•˜๊ณ  ์žˆ์œผ๋ฉฐ, ๊ธฐ์—…๊ณผ ๊ฐœ๋ฐœ์ž๋“ค์€ ๋”์šฑ ํšจ์œจ์ ์ด๊ณ  ํ™•์žฅ ๊ฐ€๋Šฅํ•œ ์‹œ์Šคํ…œ์„ ํ•„์š”๋กœ ํ•˜๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค. ์ด๋Ÿฌํ•œ ์š”๊ตฌ๋ฅผ ์ถฉ์กฑ์‹œํ‚ค๊ธฐ ์œ„ํ•ด ํด๋ผ์šฐ๋“œ ์ปดํ“จํŒ…์ด ๋“ฑ์žฅํ•˜์˜€์œผ๋ฉฐ, ์ด์ œ๋Š” ๊ฑฐ์˜ ๋ชจ๋“  ์‚ฐ์—…์—์„œ ํ•ต์‹ฌ ๊ธฐ์ˆ ๋กœ ์ž๋ฆฌ ์žก๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค. ์ด ๊ธ€์—์„œ๋Š” ํด๋ผ์šฐ๋“œ์˜ ํ•ต์‹ฌ ๊ฐœ๋…๊ณผ ํ•„์ˆ˜ ์šฉ์–ด๋“ค์„ ์„ค๋ช…ํ•˜์—ฌ, ํด๋ผ์šฐ๋“œ ๊ธฐ์ˆ ์„ ๋” ๊นŠ์ด ์ดํ•ดํ•  ์ˆ˜ ์žˆ๋„๋ก ๋•๊ฒ ์Šต๋‹ˆ๋‹ค. ์•ž์œผ๋กœ ์ด ๋ธ”๋กœ๊ทธ์—์„œ๋Š” ํด๋ผ์šฐ๋“œ ์ปดํ“จํŒ…์˜ ๊ฐœ๋…, ์•„ํ‚คํ…์ฒ˜, ํ™œ์šฉ ์‚ฌ๋ก€, ๊ทธ๋ฆฌ๊ณ  ์ตœ์‹  ๊ธฐ์ˆ  ํŠธ๋ Œ๋“œ๊นŒ์ง€ ํญ๋„“๊ฒŒ ๋‹ค๋ฃฐ ์˜ˆ์ •์ด๋‹ˆ ๋งŽ์€ ๊ด€์‹ฌ ๋ถ€ํƒ๋“œ๋ฆฝ๋‹ˆ๋‹ค! ๐Ÿš€โ˜๏ธ ํด๋ผ์šฐ๋“œ ์„œ๋น„์Šค์˜ ํƒ„์ƒ ๋ฐฐ๊ฒฝ๊ณผ ๋ฐœ์ „ ๊ณผ์ •๐Ÿ”น ๊ธฐ์กด ์˜จํ”„๋ ˆ๋ฏธ์Šค ํ™˜๊ฒฝ์˜ ํ•œ๊ณ„๊ณผ๊ฑฐ์—๋Š” ๊ธฐ์—…์ด IT ์ธํ”„๋ผ๋ฅผ ์ง์ ‘ ๊ตฌ๋งคํ•˜๊ณ  ์šด์˜ํ•˜๋Š” ์˜จํ”„๋ ˆ๋ฏธ์Šค(On-Premises) ๋ฐฉ์‹์ด..
โ–ถโ–ถโ–ถ์ด์ „๊ธ€ ๋ณด๊ธฐ : [ํด๋ผ์šฐ๋“œ ๊ฐœ๋… 1] ํด๋ผ์šฐ๋“œ ๊ธฐ๋ณธ ์šฉ์–ด, ๊ฐœ๋… ์ •๋ฆฌ | ํด๋ผ์šฐ๋“œ, ์˜จํ”„๋ ˆ์Šค, IaaS, PaaS, SaaS, ์ปดํ“จํŒ…, ๋กœ๋“œ๋ฐธ๋Ÿฐ์‹ฑ, VPC?https://steady-effort-23.tistory.com/73   โ˜๏ธ ํด๋ผ์šฐ๋“œ ๋„ค์ดํ‹ฐ๋ธŒ(Cloud Native)๋ž€?**ํด๋ผ์šฐ๋“œ ๋„ค์ดํ‹ฐ๋ธŒ(Cloud Native)**๋Š” ์• ํ”Œ๋ฆฌ์ผ€์ด์…˜์„ ํด๋ผ์šฐ๋“œ ํ™˜๊ฒฝ์—์„œ ์ตœ์ ํ™”๋œ ๋ฐฉ์‹์œผ๋กœ ๊ฐœ๋ฐœํ•˜๊ณ  ์šด์˜ํ•˜๋Š” ์ ‘๊ทผ ๋ฐฉ์‹์„ ์˜๋ฏธํ•ฉ๋‹ˆ๋‹ค.๊ธฐ์กด์—๋Š” ์˜จํ”„๋ ˆ๋ฏธ์Šค(์ž์ฒด ์„œ๋ฒ„)์— ์„ค์น˜ํ•˜๋˜ ์†Œํ”„ํŠธ์›จ์–ด๋ฅผ ํด๋ผ์šฐ๋“œ์—์„œ ์‚ฌ์šฉํ•  ์ˆ˜ ์žˆ๋„๋ก ๋‹จ์ˆœํžˆ ์ด์ „ํ•˜๋Š” ๊ฒƒ์ด ์•„๋‹ˆ๋ผ, ํด๋ผ์šฐ๋“œ์˜ ์žฅ์ ์„ ์ตœ๋Œ€ํ•œ ํ™œ์šฉํ•  ์ˆ˜ ์žˆ๋„๋ก ์„ค๊ณ„ํ•˜๋Š” ๊ฒƒ์ด ํ•ต์‹ฌ์ž…๋‹ˆ๋‹ค.1๏ธโƒฃ ํด๋ผ์šฐ๋“œ ๋„ค์ดํ‹ฐ๋ธŒ์˜ ํ•ต์‹ฌ ๊ฐœ๋…ํด๋ผ์šฐ๋“œ ๋„ค์ดํ‹ฐ๋ธŒ ์• ํ”Œ๋ฆฌ์ผ€์ด์…˜์€ ๋‹ค์Œ๊ณผ ๊ฐ™์€ ํŠน์ง•์„ ๊ฐ€์ง‘๋‹ˆ๋‹ค.โœ…..
์ž๋ฐ”์Šคํฌ๋ฆฝํŠธ๋Š” ๋™๊ธฐ์ (Synchronous)์ธ ์–ธ์–ด์ด๋‹ค? ์ž๋ฐ”์Šคํฌ๋ฆฝํŠธ๋Š” ๋‹ค์Œ๊ณผ ๊ฐ™์€ ์ฝ”๋“œ๋ฅผ ์–ด๋–ป๊ฒŒ ์ฒ˜๋ฆฌํ• ๊นŒ? ์‰ฝ๊ฒŒ ๊ฒฐ๊ณผ๋ฅผ ๋– ์˜ฌ๋ ธ์„ ๊ฒƒ์ด๋‹ค. ๋‹ค์Œ๊ณผ ๊ฐ™์ด ์ถœ๋ ฅ๋œ๋‹ค. ์‰ฝ๊ฒŒ ๋งํ•ด์„œ ์œ„์—์„œ๋ถ€ํ„ฐ ์ฝ”๋“œ๋ฅผ ์ฝ๊ณ  ์ฒ˜๋ฆฌํ•œ๋‹ค. ์ด์ฒ˜๋Ÿผ ์ฝ”๋“œ๊ฐ€ ์œ„์—์„œ๋ถ€ํ„ฐ ์•„๋ž˜๋กœ ๋‚ด๋ ค์˜ค๋ฉด์„œ ํ•˜๋‚˜๊ฐ€ ๋๋‚˜๋ฉด ๋‹ค์Œ ์ฝ”๋“œ๊ฐ€ ์‹คํ–‰๋˜๋Š” ๋ฐฉ์‹์„ ๋™๊ธฐ์  ์ฒ˜๋ฆฌ(Synchronous)๋ผ๊ณ  ํ•œ๋‹ค. ์œ„์˜ ๊ฒฐ๊ณผ๋กœ ์•Œ ์ˆ˜ ์žˆ๋“ฏ, ์ž๋ฐ”์Šคํฌ๋ฆฝํŠธ๋Š” ๋™๊ธฐ์ ์ธ ์–ธ์–ด์ด๋‹ค. ์ž๋ฐ”์Šคํฌ๋ฆฝํŠธ๋Š” ๋น„๋™๊ธฐ์ (Asynchronous)์ธ ์–ธ์–ด์ด๋‹ค? ๊ทธ๋ ‡๋‹ค๋ฉด ๋‹ค์Œ๊ณผ ๊ฐ™์€ ์ฝ”๋“œ๋Š” ์–ด๋–ค ์ˆœ์„œ๋Œ€๋กœ ์‹คํ–‰๋ ๊นŒ? ์ˆœ์„œ๋Œ€๋กœ ์ฝ”๋“œ๊ฐ€ ์‹คํ–‰๋˜์ง€ ์•Š๊ณ  1, 3, 2๊ฐ€ ์ˆœ์„œ๋Œ€๋กœ ์ฐํ˜”๋‹ค. ์ด๋ ‡๊ฒŒ ์ˆœ์„œ๋Œ€๋กœ ์ง„ํ–‰๋˜์ง€ ์•Š๋Š” ์ฒ˜๋ฆฌ ๋ฐฉ์‹์„ ๋น„๋™๊ธฐ์  ์ฒ˜๋ฆฌ(Asynchronous)๋ผ๊ณ  ํ•œ๋‹ค. ๊ทธ ์ด์œ ๋Š” ์ž๋ฐ”์Šคํฌ๋ฆฝํŠธ์˜ ๋™์ž‘ ๋ฐฉ์‹ ๋•Œ..
1๊ฐ•. ์˜๋ฅ˜์‚ฌ์ง„ ๊ตฌ๋ถ„ AI ๋งŒ๋“ค๊ธฐ : ๋”ฅ๋Ÿฌ๋‹์œผ๋กœ ์ด๋ฏธ์ง€๋ฅผ ํ•™์Šต์‹œํ‚ค๋ ค๋ฉด ํ”„๋กœ์ ํŠธ ๋ชฉ์  : ์˜๋ฅ˜๋ฅผ ๋ณด๊ณ  ํ•˜์˜/์ƒ์˜ ๋“ฑ์„ ๊ตฌ๋ถ„ํ•  ์ˆ˜ ์žˆ๋Š” ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ๋งŒ๋“ค๊ธฐ. ex. ์†๊ธ€์”จ๋ฅผ ํ•™์Šต์‹œ์ผœ์„œ, ์†๊ธ€์”จ๋ฅผ ๋ณด๊ณ  a, b๋“ฑ์„ ํŒŒ์•…ํ•  ์ˆ˜ ์žˆ๋Š” ๋ชจ๋ธ ex. ์‹ค์‹œ๊ฐ„ ์‚ฌ๋ฌผ์ธ์‹ ๊ธฐ์ˆ ์„ ์ด์šฉํ•œ ์ž์œจ์ฃผํ–‰ ex. ์œ ๋ฐฉํ•จ ์ง„๋‹จ. (๊ตฌ๊ธ€ LYNA ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์˜ ์ •ํ™•๋„ : 99%) ex. ํ‰๋ถ€์‚ฌ์ง„์œผ๋กœ ์•…์„ฑ ํ๊ฒฐ์ ˆ ์ง„๋‹จํ•˜๊ธฐ (๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ์ •ํ™•๋„ : ์˜์‚ฌ 16๋ช… ์ •ํ™•๋„) Q) ์ด๋ฏธ์ง€๋Š” ์–ด๋–ป๊ฒŒ ๋ชจ๋ธ์— ์ง‘์–ด๋„ฃ๋‚˜์š”? A) ๋‰ด๋Ÿด ๋„คํŠธ์›Œํฌ์— ์ง‘์–ด๋„ฃ์„ ์ˆ˜ ์žˆ๋Š”๊ฑด ๋ฌด์กฐ๊ฑด ์ˆซ์ž์ž…๋‹ˆ๋‹ค. ์ด๋ฏธ์ง€ -> ํ”ฝ์…€๋ณ„ ๊ฐ๊ฐ rgb๊ฐ’(์ˆซ์ž)๋กœ ๋‰ด๋Ÿด ๋„คํŠธ์›Œํฌ์— ๋„ฃ์œผ๋ฉด ๋จ. ํ‘๋ฐฑ ์‚ฌ์ง„์€ [], ์ปฌ๋Ÿฌ ์‚ฌ์ง„์€ [r, g, b] ์ฝ”๋“œ์งœ๊ธฐ tf.keras.datasets.fashio..
๋ฌธ์ œ : gre, gpa, rank๋ฅผ ๋ฐ”ํƒ•์œผ๋กœ admit์„ ์˜ˆ์ธกํ•˜์ž. keras : tensorflow ์•ˆ์— ์žˆ๋Š” ์œ ์šฉํ•œ ๋„๊ตฌ. ์ผ€๋ผ์Šค๋Š” ์œ ์ €๊ฐ€ ์†์‰ฝ๊ฒŒ ๋”ฅ ๋Ÿฌ๋‹์„ ๊ตฌํ˜„ํ•  ์ˆ˜ ์žˆ๋„๋ก ๋„์™€์ฃผ๋Š” ์ƒ์œ„ ๋ ˆ๋ฒจ์˜ ์ธํ„ฐํŽ˜์ด์Šค๋กœ ๋”ฅ ๋Ÿฌ๋‹์„ ์‰ฝ๊ฒŒ ๊ตฌํ˜„ํ•  ์ˆ˜ ์žˆ๋„๋ก ํ•ด์คŒ. optimizer : ๊ฒฝ์‚ฌํ•˜๊ฐ•๋ฒ•์—์„œ ๋นผ๋Š” ๊ฐ’์„ ์กฐ์ •ํ•ด์คŒ. ๊ธฐ๋ณธ์ ์œผ๋กœ๋Š” adam ์‚ฌ์šฉํ•˜๋ฉด ๋จ. loss : ์†์‹คํ•จ์ˆ˜. ๊ฐ’์„ ์˜ˆ์ธกํ•  ๋•Œ ๋ฐ์ดํ„ฐ์— ๋Œ€ํ•œ ์˜ˆ์ธก๊ฐ’๊ณผ ์‹ค์ œ์˜ ๊ฐ’์„ ๋น„๊ตํ•˜๋Š” ํ•จ์ˆ˜. ex) binary_crossentropy - ๊ฒฐ๊ณผ๊ฐ€ 0๊ณผ 1 ์‚ฌ์ด์˜ ๋ถ„๋ฅ˜/ํ™•๋ฅ ๋ฌธ์ œ์—์„œ ์‚ฌ์šฉํ•œ๋‹ค. pandas : R์˜ dataframe์„ ์ฐธ๊ณ ํ•˜์—ฌ ๋งŒ๋“  ํŒŒ์ด์ฌ ํŒจํ‚ค์ง€๋กœ, ๋ฐ์ดํ„ฐ ๋ถ„์„์„ ์œ„ํ•œ ๋ผ์ด๋ธŒ๋Ÿฌ๋ฆฌ์ด๋‹ค. ๋ฐ์ดํ„ฐ ์ „์ฒ˜๋ฆฌ๊ฐ€ ํ•„์š”ํ•œ ์ด์œ  : .csvํŒŒ์ผ์„ ์—ด์–ด๋ณด๋ฉด ๊ฐ’์ด ๋“ค์–ด..
11. Tensorflow2 ๋น ๋ฅธ ๊ธฐ์ดˆ 2 : ํ‚ค์™€ ๋ชธ๋ฌด๊ฒŒ๋ฅผ ์˜ˆ์ธกํ•˜๋ ค๋ฉด (Linear Regression) ํ‚ค๋กœ ์‹ ๋ฐœ์‚ฌ์ด์ฆˆ ์ถ”๋ก ํ•ด๋ณด๊ธฐ #ํ‚ค๋กœ ์‹ ๋ฐœ์‚ฌ์ด์ฆˆ๋ฅผ ์ถ”๋ก ํ•ด๋ณด์ž import tensorflow as tf ํ‚ค = 170 ์‹ ๋ฐœ = 260 #์‹ ๋ฐœ = ํ‚ค * a + b a = tf.Variable(0.1) #w๊ฐ’์„ ์ž„์˜๋กœ ์ •์˜๋‚ด๋ฆฐ ๊ฒƒ. b = tf.Variable(0.2) def ์†์‹คํ•จ์ˆ˜() : ์˜ˆ์ธก๊ฐ’ = ํ‚ค * a + b return tf.square(260 - ์˜ˆ์ธก๊ฐ’) #์˜ค์ฐจ(์‹ค์ œ๊ฐ’ - ์˜ˆ์ธก๊ฐ’)๋Š” ์ œ๊ณฑ์œผ๋กœ ๋ฆฌํ„ดํ•จ. opt = tf.keras.optimizers.Adam(learning_rate=0.1) #๊ฒฝ์‚ฌํ•˜๊ฐ•๋ฒ•์œผ๋กœ a, b๋ฅผ ์ž๋™์œผ๋กœ ์—…๋ฐ์ดํŠธ ํ•˜๋Š” ๊ฒƒ. #gradient๋ฅผ ์•Œ์•„์„œ ์Šค๋งˆํŠธํ•˜๊ฒŒ ๋ฐ”๊ฟ”์ฃผ๋Š” ..
์ž์Œ ๋ชจ์Œ ๋ถ„๋ฆฌ ํ˜„์ƒ์˜ ์ฃผ ์›์ธ์ด window+h๋ฒ„ํŠผ์„ ์ž˜๋ชป ๋ˆŒ๋Ÿฌ ์Œ์„ฑ ๊ธฐ๋Šฅ์ด ์ž˜๋ชป ์ผœ์ง„๊ฒƒ์ด๋ผ๊ณ  ํ•œ๋‹ค. ๊ทธ๋Ÿฌ๋‚˜ ๋‚˜์˜ ๊ฒฝ์šฐ์—๋Š” ์ธํ„ฐ๋„ท์— ํ•ด๋‹น๋˜๋Š” ๋Œ€๋ถ€๋ถ„์˜ ํ•ด๊ฒฐ ๋ฐฉ๋ฒ•์œผ๋กœ ํ•ด๊ฒฐ์ด ๋˜์ง€ ์•Š์•˜๋‹ค. window + .์„ ์ด์šฉํ•ด ์ด๋ชจ์ง€๋ฅผ ํด๋ฆญํ•˜๋Š” ๋ฐฉ๋ฒ• ์ž‘์—…๊ด€๋ฆฌ์ž๋ฅผ ์—ด์–ด์„œ ์‹คํ–‰ ํ”„๋กœ์„ธ์Šค๋ฅผ ๊ฐ•์ œ ์ข…๋ฃŒํ•˜๋Š” ๋ฐฉ๋ฒ• ๋ชจ๋‘ ํ†ตํ•˜์ง€ ์•Š์•˜๋‹ค. ๊ทธ๋Ÿฌ๋‹ค ์ฐพ์€ ํ•ด๊ฒฐ ๋ฐฉ๋ฒ•์€ ํ•˜๋‹จ๋ฐ”์— ์žˆ๋Š” ์ € ํ•œ๊ธ€ ๋ชจ์–‘์„ ๋ˆ„๋ฅด๋Š” ๊ฒƒ์ด๋‹ค. ์ •ํ™•ํ•œ ์›์ธ์€ ๋ชจ๋ฅด๊ฒ ์œผ๋‚˜ ๋‚˜๋Š” ์บก์ฒ˜๋ฅผ ํ•˜๊ธฐ ์œ„ํ•ด์„œ ์ง€์ •๋œ ๋‹จ์ถ•ํ‚ค๋ฅผ ๋ˆ„๋ฅด๊ณ  ๋ณต์‚ฌ ๋ถ™์—ฌ๋„ฃ๊ธฐ๋ฅผ ํ•˜๋ฉด ๋Š˜ ์ž์Œ๋ชจ์Œ ๋ถ„๋ฆฌ ํ˜„์ƒ์ด ์ผ์–ด๋‚ฌ๋‹ค. (window+h๋ฅผ ๋ˆŒ๋Ÿฌ์„œ ์ƒ๊ธด ์˜ค๋ฅ˜๊ฐ€ ์•„๋‹˜) ์ด๋Ÿด ๋•Œ ํ•ด๊ฒฐ๋ฒ•์€ ์ € ๋ฒ„ํŠผ์„ ๋ˆŒ๋Ÿฌ์„œ ํ•œ์ปด์ž…๋ ฅ๊ธฐ๋กœ ์„ค์ •๋˜์–ด์žˆ๋Š” ์žํŒ ๋ฐฐ์—ด์„ Microsoft ์ž…๋ ฅ๊ธฐ๋กœ ๋ณ€๊ฒฝํ•ด์ฃผ๋Š” ๊ฒƒ์ด๋‹ค.
7. ํ•˜์ง€๋งŒ ํ™œ์„ฑํ•จ์ˆ˜๊ฐ€ ์—†์œผ๋ฉด ๋‰ด๋Ÿด๋„คํŠธ์›Œํฌ๊ฐ€ ์•„๋‹˜(Activation Function) - ๊ฒฐํ•จ: ๋ ˆ์ด์–ด๊ฐ€ ์žˆ๋‚˜ ์—†๋‚˜ ๊ฒฐ๊ณผ๋Š” ๋น„์Šทํ•จ - ํ•ด๊ฒฐ ๋ฐฉ๋ฒ• : activation function ํžˆ๋“  ๋ ˆ์ด์–ด์— ์žˆ๋Š” ๊ฐ’์„ ํ™œ์„ฑ ํ•จ์ˆ˜๋ฅผ ํ†ตํ•ด ํ•œ ๋ฒˆ ๋ณ€ํ˜•์‹œํ‚จ๋‹ค. ๋Œ€ํ‘œ์ ์ธ ํ™œ์„ฑ ํ•จ์ˆ˜ 1) sigmoid 2) Hyperboic tangent 3) Rectified Linear Units - ํ™œ์„ฑ ํ•จ์ˆ˜๋ฅผ ๊ฑฐ์น˜๊ณ  ๋‚˜๋ฉด, ๋ ˆ์ด์–ด๊ฐ€ ์—ญํ• ์„ ํ•˜๊ฒŒ ๋จ. - ํ™œ์„ฑ ํ•จ์ˆ˜๊ฐ€ ํ•„์š”ํ•œ ์ด์œ ๋Š” non-linearity ์˜ˆ์ธก์„ ํ•˜๊ธฐ ์œ„ํ•ด์„œ์ž„. ๋น„์„ ํ˜•์ ์ด๊ณ , ๋ณต์žกํ•œ ์˜ˆ์ธก์ด ๊ฐ€๋Šฅํ•จ. - activation function์ด ์—†์œผ๋ฉด ๋”ฅ๋Ÿฌ๋‹์ด ์•„๋‹˜. - activation function์€ ๋ชจ๋“  ๋ ˆ์ด์–ด์— ์žˆ์œผ๋ฉด ์ข‹์ง€๋งŒ, ์ถœ๋ ฅ์ธต์—๋Š” ์—†์„ ์ˆ˜ ์žˆ์Œ. 8...
PISON
'๐Ÿ”ฅ ๊ธฐ์ˆ ' ์นดํ…Œ๊ณ ๋ฆฌ์˜ ๊ธ€ ๋ชฉ๋ก