๐Ÿ”ฅ ๊ธฐ์ˆ /์ธ๊ณต์ง€๋Šฅ ๋ฐ ๋ฐ์ดํ„ฐ ์‚ฌ์ด์–ธ์Šค(AI, ์ปดํ“จํ„ฐ ๋น„์ „, ๋”ฅ๋Ÿฌ๋‹)

1๊ฐ•. ์˜๋ฅ˜์‚ฌ์ง„ ๊ตฌ๋ถ„ AI ๋งŒ๋“ค๊ธฐ : ๋”ฅ๋Ÿฌ๋‹์œผ๋กœ ์ด๋ฏธ์ง€๋ฅผ ํ•™์Šต์‹œํ‚ค๋ ค๋ฉด ํ”„๋กœ์ ํŠธ ๋ชฉ์  : ์˜๋ฅ˜๋ฅผ ๋ณด๊ณ  ํ•˜์˜/์ƒ์˜ ๋“ฑ์„ ๊ตฌ๋ถ„ํ•  ์ˆ˜ ์žˆ๋Š” ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ๋งŒ๋“ค๊ธฐ. ex. ์†๊ธ€์”จ๋ฅผ ํ•™์Šต์‹œ์ผœ์„œ, ์†๊ธ€์”จ๋ฅผ ๋ณด๊ณ  a, b๋“ฑ์„ ํŒŒ์•…ํ•  ์ˆ˜ ์žˆ๋Š” ๋ชจ๋ธ ex. ์‹ค์‹œ๊ฐ„ ์‚ฌ๋ฌผ์ธ์‹ ๊ธฐ์ˆ ์„ ์ด์šฉํ•œ ์ž์œจ์ฃผํ–‰ ex. ์œ ๋ฐฉํ•จ ์ง„๋‹จ. (๊ตฌ๊ธ€ LYNA ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์˜ ์ •ํ™•๋„ : 99%) ex. ํ‰๋ถ€์‚ฌ์ง„์œผ๋กœ ์•…์„ฑ ํ๊ฒฐ์ ˆ ์ง„๋‹จํ•˜๊ธฐ (๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ ์ •ํ™•๋„ : ์˜์‚ฌ 16๋ช… ์ •ํ™•๋„) Q) ์ด๋ฏธ์ง€๋Š” ์–ด๋–ป๊ฒŒ ๋ชจ๋ธ์— ์ง‘์–ด๋„ฃ๋‚˜์š”? A) ๋‰ด๋Ÿด ๋„คํŠธ์›Œํฌ์— ์ง‘์–ด๋„ฃ์„ ์ˆ˜ ์žˆ๋Š”๊ฑด ๋ฌด์กฐ๊ฑด ์ˆซ์ž์ž…๋‹ˆ๋‹ค. ์ด๋ฏธ์ง€ -> ํ”ฝ์…€๋ณ„ ๊ฐ๊ฐ rgb๊ฐ’(์ˆซ์ž)๋กœ ๋‰ด๋Ÿด ๋„คํŠธ์›Œํฌ์— ๋„ฃ์œผ๋ฉด ๋จ. ํ‘๋ฐฑ ์‚ฌ์ง„์€ [], ์ปฌ๋Ÿฌ ์‚ฌ์ง„์€ [r, g, b] ์ฝ”๋“œ์งœ๊ธฐ tf.keras.datasets.fashio..
๋ฌธ์ œ : gre, gpa, rank๋ฅผ ๋ฐ”ํƒ•์œผ๋กœ admit์„ ์˜ˆ์ธกํ•˜์ž. keras : tensorflow ์•ˆ์— ์žˆ๋Š” ์œ ์šฉํ•œ ๋„๊ตฌ. ์ผ€๋ผ์Šค๋Š” ์œ ์ €๊ฐ€ ์†์‰ฝ๊ฒŒ ๋”ฅ ๋Ÿฌ๋‹์„ ๊ตฌํ˜„ํ•  ์ˆ˜ ์žˆ๋„๋ก ๋„์™€์ฃผ๋Š” ์ƒ์œ„ ๋ ˆ๋ฒจ์˜ ์ธํ„ฐํŽ˜์ด์Šค๋กœ ๋”ฅ ๋Ÿฌ๋‹์„ ์‰ฝ๊ฒŒ ๊ตฌํ˜„ํ•  ์ˆ˜ ์žˆ๋„๋ก ํ•ด์คŒ. optimizer : ๊ฒฝ์‚ฌํ•˜๊ฐ•๋ฒ•์—์„œ ๋นผ๋Š” ๊ฐ’์„ ์กฐ์ •ํ•ด์คŒ. ๊ธฐ๋ณธ์ ์œผ๋กœ๋Š” adam ์‚ฌ์šฉํ•˜๋ฉด ๋จ. loss : ์†์‹คํ•จ์ˆ˜. ๊ฐ’์„ ์˜ˆ์ธกํ•  ๋•Œ ๋ฐ์ดํ„ฐ์— ๋Œ€ํ•œ ์˜ˆ์ธก๊ฐ’๊ณผ ์‹ค์ œ์˜ ๊ฐ’์„ ๋น„๊ตํ•˜๋Š” ํ•จ์ˆ˜. ex) binary_crossentropy - ๊ฒฐ๊ณผ๊ฐ€ 0๊ณผ 1 ์‚ฌ์ด์˜ ๋ถ„๋ฅ˜/ํ™•๋ฅ ๋ฌธ์ œ์—์„œ ์‚ฌ์šฉํ•œ๋‹ค. pandas : R์˜ dataframe์„ ์ฐธ๊ณ ํ•˜์—ฌ ๋งŒ๋“  ํŒŒ์ด์ฌ ํŒจํ‚ค์ง€๋กœ, ๋ฐ์ดํ„ฐ ๋ถ„์„์„ ์œ„ํ•œ ๋ผ์ด๋ธŒ๋Ÿฌ๋ฆฌ์ด๋‹ค. ๋ฐ์ดํ„ฐ ์ „์ฒ˜๋ฆฌ๊ฐ€ ํ•„์š”ํ•œ ์ด์œ  : .csvํŒŒ์ผ์„ ์—ด์–ด๋ณด๋ฉด ๊ฐ’์ด ๋“ค์–ด..
11. Tensorflow2 ๋น ๋ฅธ ๊ธฐ์ดˆ 2 : ํ‚ค์™€ ๋ชธ๋ฌด๊ฒŒ๋ฅผ ์˜ˆ์ธกํ•˜๋ ค๋ฉด (Linear Regression) ํ‚ค๋กœ ์‹ ๋ฐœ์‚ฌ์ด์ฆˆ ์ถ”๋ก ํ•ด๋ณด๊ธฐ #ํ‚ค๋กœ ์‹ ๋ฐœ์‚ฌ์ด์ฆˆ๋ฅผ ์ถ”๋ก ํ•ด๋ณด์ž import tensorflow as tf ํ‚ค = 170 ์‹ ๋ฐœ = 260 #์‹ ๋ฐœ = ํ‚ค * a + b a = tf.Variable(0.1) #w๊ฐ’์„ ์ž„์˜๋กœ ์ •์˜๋‚ด๋ฆฐ ๊ฒƒ. b = tf.Variable(0.2) def ์†์‹คํ•จ์ˆ˜() : ์˜ˆ์ธก๊ฐ’ = ํ‚ค * a + b return tf.square(260 - ์˜ˆ์ธก๊ฐ’) #์˜ค์ฐจ(์‹ค์ œ๊ฐ’ - ์˜ˆ์ธก๊ฐ’)๋Š” ์ œ๊ณฑ์œผ๋กœ ๋ฆฌํ„ดํ•จ. opt = tf.keras.optimizers.Adam(learning_rate=0.1) #๊ฒฝ์‚ฌํ•˜๊ฐ•๋ฒ•์œผ๋กœ a, b๋ฅผ ์ž๋™์œผ๋กœ ์—…๋ฐ์ดํŠธ ํ•˜๋Š” ๊ฒƒ. #gradient๋ฅผ ์•Œ์•„์„œ ์Šค๋งˆํŠธํ•˜๊ฒŒ ๋ฐ”๊ฟ”์ฃผ๋Š” ..
7. ํ•˜์ง€๋งŒ ํ™œ์„ฑํ•จ์ˆ˜๊ฐ€ ์—†์œผ๋ฉด ๋‰ด๋Ÿด๋„คํŠธ์›Œํฌ๊ฐ€ ์•„๋‹˜(Activation Function) - ๊ฒฐํ•จ: ๋ ˆ์ด์–ด๊ฐ€ ์žˆ๋‚˜ ์—†๋‚˜ ๊ฒฐ๊ณผ๋Š” ๋น„์Šทํ•จ - ํ•ด๊ฒฐ ๋ฐฉ๋ฒ• : activation function ํžˆ๋“  ๋ ˆ์ด์–ด์— ์žˆ๋Š” ๊ฐ’์„ ํ™œ์„ฑ ํ•จ์ˆ˜๋ฅผ ํ†ตํ•ด ํ•œ ๋ฒˆ ๋ณ€ํ˜•์‹œํ‚จ๋‹ค. ๋Œ€ํ‘œ์ ์ธ ํ™œ์„ฑ ํ•จ์ˆ˜ 1) sigmoid 2) Hyperboic tangent 3) Rectified Linear Units - ํ™œ์„ฑ ํ•จ์ˆ˜๋ฅผ ๊ฑฐ์น˜๊ณ  ๋‚˜๋ฉด, ๋ ˆ์ด์–ด๊ฐ€ ์—ญํ• ์„ ํ•˜๊ฒŒ ๋จ. - ํ™œ์„ฑ ํ•จ์ˆ˜๊ฐ€ ํ•„์š”ํ•œ ์ด์œ ๋Š” non-linearity ์˜ˆ์ธก์„ ํ•˜๊ธฐ ์œ„ํ•ด์„œ์ž„. ๋น„์„ ํ˜•์ ์ด๊ณ , ๋ณต์žกํ•œ ์˜ˆ์ธก์ด ๊ฐ€๋Šฅํ•จ. - activation function์ด ์—†์œผ๋ฉด ๋”ฅ๋Ÿฌ๋‹์ด ์•„๋‹˜. - activation function์€ ๋ชจ๋“  ๋ ˆ์ด์–ด์— ์žˆ์œผ๋ฉด ์ข‹์ง€๋งŒ, ์ถœ๋ ฅ์ธต์—๋Š” ์—†์„ ์ˆ˜ ์žˆ์Œ. 8...
PISON
'๐Ÿ”ฅ ๊ธฐ์ˆ /์ธ๊ณต์ง€๋Šฅ ๋ฐ ๋ฐ์ดํ„ฐ ์‚ฌ์ด์–ธ์Šค(AI, ์ปดํ“จํ„ฐ ๋น„์ „, ๋”ฅ๋Ÿฌ๋‹)' ์นดํ…Œ๊ณ ๋ฆฌ์˜ ๊ธ€ ๋ชฉ๋ก