Pudding

말랑말랑말랑 곰도리 푸딩 한 입에 먹기 챌린지

Machine Learning 6

[혼공머신] 6주차_인공 신경망 / 심층 신경망 / 손실 곡선, 드롭아웃, 모델 저장, 콜백

6주차Ch. 07 딥러닝을 시작합니다     ㄴ 07-1 인공 신경망     ㄴ 07-2 심층 신경망     ㄴ 07-3 신경망 모델 훈련07-1 인공 신경망✅입력층 : 픽셀값 자체✅뉴런(유닛) : z값을 계산하는 단위✅출력층 : 계산한 z값을 바탕으로 클래스 예측 인공 신경망은 기본적으로 이렇게 이루어져 잇대여.이제 모델을 만듭시다.인공 신경망에서는 교차 검증 대신 검증 세트를 사용하기 때문에훈련 데이터, 검증 데이터로 나누어 줍니다그리고 가장 기본적으로 dense 층을 만드러요.dense층은 다 연결 되어 있기 때문에 fully connected layer라고 합니다.뉴런 개수는 10개, 소프트맥스로 활성화 하도록 설정 햇어염✌️활성화 함수로 많이 사용하는건 보통 시그모이드, 소프트맥스, ReLU, ..

Machine Learning 2025.02.23

[혼공머신] 5주차_군집 알고리즘 / k-평균, 이너셔 / PCA

5주차Ch. 06 비지도 학습     ㄴ 06-1 군집 알고리즘     ㄴ 06-2 k-평균     ㄴ 06-3 주성분 분석06-1 군집 알고리즘드디어..! 드디어 비지도 학습이다 우하하사실 모든 데이터에 타깃이 있진 않잖아요..?내가 머라고하지 않아도. 스스로. 알아서. 자기주도학습을 하다니정말 awesome한 모델이잖아...🫰이번엔 과일 사진 데이터를 사용하는데,왼쪽의 넘파이 배열이 오른쪽의 사과를 저장한 것이라는 점....일단 난 사진을 배열로 저장한다는 것부터 몰.랐.어. (...)✅맷플롯립의 imshow() : 넘파이 배열로 저장된 이미지 출력> cmap : 'gray' → 흑백 이미지   cmap : 'gray_r' → 흑백 반전⚠️넘파이 배열에 저장될 때에는 반전되어 저장됨> gray_r로..

Machine Learning 2025.02.16

[혼공머신] 4주차_결정 트리 / 교차 검증 / 앙상블 기법

4주차Ch. 05 트리 알고리즘     ㄴ 05-1 결정 트리     ㄴ 05-2 교차 검증과 그리드 서치     ㄴ 05-3 트리의 앙상블05-1 결정 트리✅info() : 데이터프레임의 각 열의 데이터 타입과 누락된 데이터 확인✅describe() : 열에 대한 평균, 표준편차, 최소, 최대, 중간값, 1사분위수, 3사분위수 출력 이번에 쓸 데이터를 예시로 보면. 이러합니다 하하 데이터 준비는 간단히 보면~~캐글의 red wine quality 데이터셋의 일부를 사용하규.데이터 - alcohol, sugar, pH  /  타깃 - class 이렇게 설정.훈련/테스트셋 비율8:2로 설정하고 StandardScaler로 표준화까지 잇겟네여.그리고 로지스틱회귀에 학습시키고 정확도 확인 & 계수 확인까지 햇..

Machine Learning 2025.02.09

[혼공머신] 3주차_로지스틱 회귀, 시그모이드, 소프트맥스 / 확률적 경사 하강법

3주차Ch. 04 다양한 분류 알고리즘     ㄴ 04-1 로지스틱 회귀     ㄴ 04-2 확률적 경사 하강법04-1 로지스틱 회귀데이터 준비 과정은 간단히 보자!타깃 데이터로 species 열, 이외의 5개 열은 입력 데이터로 사용하고,StandardScaler 클래스를 사용해서 표준화 전처리를 마쳤다. 모델 학습과 점수는 [8]셀에서 확인할 수 있다.[9]셀에서는 클래스를 출력해보면 정렬된 타깃값이 알파벳 순이라는 점을 알 수 있다.테스트 셋의 처음 5개의 샘플으로 예측한 값과 그 확률을 확인해보았다.✅predict_proba() : 클래스별 확률값 반환✅round()의 decimals : 소수점 자릿수 지정 확률의 각 열은 이전의 알파벳 순으로 정렬된 클래스 순서이다.아래에는 세 번째 샘플의 이웃..

Machine Learning 2025.01.26

[혼공머신] 2주차_회귀 / 특성 공학 / 변환기(Transformer)

2주차Ch. 03 회귀 알고리즘과 모델 규제03-1 k-최근접 이웃 회귀지도학습 알고리즘은 크게 분류와 회귀로 나뉜다.분류는 ch.2에서 해본 내용이고, 회귀는 어떤 숫자를 예측하는 것이다!k-최근접 이웃은 회귀에도 사용할 수 있는데, 가까운 샘플 k개의 수치의 평균으로 예측해준다.k-최근접 이웃 분류와 k-최근접 이웃 회귀 모두 fit(), score(), predict()를 사용할 수 있다.하지만 다른점은! 회귀에서 score()를 사용하면 정확도가 아닌 결정계수 값이 나온다.✅회귀에서의 score() : 결정계수 값- 0에 가까울 때 > 타깃의 평균 정도 예측- 1에 가까울 때 > 예측이 타깃에 아주 가까워 짐결정계수 대신 sklearn.metrics패키지의 mean_absolute_error를 사..

Machine Learning 2025.01.19

[혼공머신] 1주차_훈련, 테스트 셋 / 데이터 전처리

머신러닝 책을 검색하다가 우연히 혼공학습단을 알게 되었다.그리고 당장 신청함!!이유 : 나는 진짜 유명한 작심삼일의 의인화임 사실 처음 알게 되어서신청하면서 안될 수도 있겠다고 생각했다하지만 내가 해냄 열심히!!보다는그저 내가 끝까지.. 남아있길... 간절히 바라고 있다.1주차 : Ch.01 ~ Ch.021-1 인공지능과 머신러닝, 딥러닝가장 처음 소단원에는 인공지능의 역사에 대한 내용이 담겨있었다.불과 저번학기에 수강했던 내용이라 기억이 새록새록 떠오르는 느낌..(PTSD일지도..) 인공일반지능/강인공지능은 처음 알게 되었는데,사람과 구분하기 어려울 정도로 지능이 높은 친구들이라고 한다. 반면 아직 현실에서 볼 수 있는 친구들은 대부분 약인공지능으로,특정 분야에 한해서만 전문가이거나, 보조 역할만 가능..

Machine Learning 2025.01.07