Why Not SW CAMP 5기
-
[3월 3주차-3/17(4)]Fashion MNIST 데이터셋을 학습하는 인공신경망(ANN) 모델 만들기Why Not SW CAMP 5기/수업 기록 2025. 3. 17. 17:47
📌 1. Fashion MNIST 데이터셋 임포트import tensorflow as tffrom tensorflow import kerasimport numpy as npimport matplotlib.pyplot as plt# Fashion MNIST 데이터셋 로드fashion_mnist = keras.datasets.fashion_mnist(train_images, train_labels), (test_images, test_labels) = fashion_mnist.load_data()✅ 하는 일TensorFlow의 Keras에서 Fashion MNIST 데이터셋을 불러옴(60000, 28, 28) 크기의 훈련 데이터 60,000개와 (10000, 28, 28) 크기의 테스트 데이터 10,000..
-
[3월 3주차-3/17(3)]한국어 Word2Vec: 네이버 영화 리뷰 데이터로 학습하기Why Not SW CAMP 5기/수업 기록 2025. 3. 17. 17:39
Word2Vec은 단어를 벡터로 변환하여 의미를 반영한 연산을 가능하게 하는 기법입니다. 이번 글에서는 네이버 영화 리뷰 데이터를 이용해 한국어 Word2Vec 모델을 학습하는 과정을 단계별로 설명하겠습니다.1️⃣ 데이터 준비 및 전처리먼저, 네이버 영화 리뷰 데이터를 다운로드하여 불러옵니다.import pandas as pdimport urllib.request# 네이버 영화 리뷰 데이터 다운로드urllib.request.urlretrieve("https://raw.githubusercontent.com/e9t/nsmc/master/ratings.txt", filename="ratings.txt")# 데이터 불러오기train_data = pd.read_table('ratings.txt')✅ 하는 일네이..
-
[3월 3주차-3/17(2)]Word2Vec: 단어를 숫자로 표현하는 방법Why Not SW CAMP 5기/수업 기록 2025. 3. 17. 17:16
🔹 Word2Vec이란?Word2Vec은 단어를 벡터(숫자 배열)로 변환하는 기법으로, 단어 간의 의미적 관계를 수치적으로 표현할 수 있도록 돕는 딥러닝 기반 단어 임베딩(embedding) 모델입니다.이 모델을 사용하면 단어들 간의 유사도를 측정하거나, 의미를 반영한 연산을 할 수 있습니다.🔹 Word2Vec의 핵심 개념Word2Vec은 "비슷한 문맥에서 자주 등장하는 단어들은 의미적으로 가깝다"는 아이디어를 기반으로 학습됩니다.💡 예시"고양이"와 "강아지"는 유사한 문장에서 등장할 가능성이 높습니다.반면, "고양이"와 "자동차"는 함께 등장할 가능성이 낮습니다.따라서 Word2Vec은 "고양이"와 "강아지"의 벡터를 더 가깝게, "고양이"와 "자동차"의 벡터를 멀게 학습합니다.🔹 Word2Ve..
-
[3월 3주차-3/17(1)]인공 신경망 학습과 과적합 방지 방법 정리Why Not SW CAMP 5기/수업 기록 2025. 3. 17. 16:53
🔹 순전파 (Forward Propagation)인공 신경망에서 입력 데이터를 받아 출력값을 계산하는 과정입니다. 데이터가 입력층 → 은닉층 → 출력층 방향으로 한 방향으로 전달되면서 연산이 진행됩니다.💡 예시: 숫자 이미지(입력)를 넣었을 때, 모델이 "이 숫자가 5인지 아닌지" 예측하는 과정입니다.🔹 역전파 (Backpropagation)신경망이 학습하는 핵심 과정으로, 모델이 예측한 값과 실제 정답(레이블) 간의 오차를 줄이기 위해 가중치를 조정하는 과정입니다.1️⃣ 출력값과 정답의 차이(오차)를 계산2️⃣ 오차가 발생한 원인을 거꾸로 추적하여 가중치를 업데이트3️⃣ 오차가 최소화될 때까지 이 과정을 반복이를 통해 신경망은 점점 더 정확한 예측을 할 수 있도록 학습됩니다.🔹 과적합 (Over..
-
[3월 2주차-3/13]딥러닝 기초 개념 정리Why Not SW CAMP 5기/수업 기록 2025. 3. 13. 17:16
퍼셉트론(Perceptron)이란?퍼셉트론은 인공 신경망(Artificial Neural Network, ANN)의 가장 기본적인 단위로, 인간의 뉴런(Neuron)을 모방한 구조입니다. 이 개념이 확장되면서 오늘날의 딥러닝(Deep Learning)이 발전하게 되었습니다.1. 단층 퍼셉트론 (Single-layer Perceptron)입력층(Input layer)과 출력층(Output layer)만으로 구성된 가장 기본적인 인공 신경망.AND, OR 같은 선형적으로 구분 가능한 문제는 해결할 수 있지만,XOR 같은 비선형 문제는 해결할 수 없음.2. 다층 퍼셉트론 (Multi-layer Perceptron, MLP)XOR 문제를 해결하기 위해 등장.입력층 - 은닉층 - 출력층 구조.은닉층(Hidden ..
-
[3월 2주차-3/12(3)]다중 클래스 분류 - 아이리스 품종 분류Why Not SW CAMP 5기/수업 기록 2025. 3. 12. 16:50
머신러닝에서는 단순한 이진 분류(Binary Classification)뿐만 아니라 세 개 이상의 선택지 중 하나를 고르는 다중 클래스 분류(Multi-class Classification) 문제를 해결해야 하는 경우가 많습니다. 이번 포스트에서는 아이리스(Iris) 데이터셋을 활용하여 다중 클래스 분류 모델을 구현하는 과정을 정리하겠습니다.1. 아이리스 데이터셋 개요아이리스 데이터셋은 붓꽃(Iris)의 세 가지 품종을 꽃받침과 꽃잎의 길이/너비를 기준으로 분류하는 유명한 데이터셋입니다.🔹 데이터 구성150개 샘플 (각 품종별 50개 샘플)4가지 특성 (연속형 변수)SepalLengthCm (꽃받침 길이)SepalWidthCm (꽃받침 너비)PetalLengthCm (꽃잎 길이)PetalWidthCm ..
-
[3월 2주차-3/12(2)]머신러닝 개념 총정리 - 지도학습, 선형 회귀, 로지스틱 회귀Why Not SW CAMP 5기/수업 기록 2025. 3. 12. 15:12
1. 머신러닝이란?머신러닝은 데이터가 주어지면, 기계가 스스로 데이터로부터 규칙성을 찾는 것에 집중하는 학문입니다. 머신러닝의 주요 학습 방식은 다음과 같이 세 가지로 나뉩니다.🔹 머신러닝의 학습 방식지도학습(Supervised Learning)정답(레이블)이 있는 데이터를 학습하여 예측 모델을 생성합니다.예제: 분류(Classification), 회귀(Regression)비지도학습(Unsupervised Learning)정답(레이블) 없이 패턴을 찾아내는 방법입니다.예제: 군집화(Clustering), 변환(Transform), 연관규칙(Association)강화학습(Reinforcement Learning)보상을 기반으로 최적의 행동을 학습하는 방법입니다.예제: 알파고, 자율 주행🔹 머신러닝 데이..
-
[3월 2주차-3/12(1)]코사인 유사도, 유클리드 거리, 자카드 유사도 - 차이점과 활용법Why Not SW CAMP 5기/수업 기록 2025. 3. 12. 11:31
벡터의 유사도데이터 간의 관계를 이해하고, 비슷한 것끼리 묶고, 차이를 구별하는 데 유사도 개념이 핵심 역할을 합니다.코사인 유사도 (Cosine Similarity)두 벡터가 이루는 각도를 기반으로 유사도를 측정합니다.값의 크기보다는 방향이 중요한 경우에 유용합니다.-1 이상 1 이하의 값을 가지며, 값이 1에 가까울수록 유사도가 높습니다.TF-IDF 벡터와 함께 많이 활용됩니다.코사인 유사도는 유사도를 구할 때 벡터의 방향 패턴에 초점을 두므로 문서의 길이가 다른 상황에서도 비교적 공정한 비교를 할 수 있도록 해줍니다.유사도를 이용한 추천 시스템 구현: TF-IDF와 코사인 유사도import pandas as pdfrom sklearn.feature_extraction.text import Tfidf..