"이 포스팅은 쿠팡 파트너스 활동의 일환으로, 이에 따른 일정액의 수수료를 제공받습니다."


핸즈 온 머신러닝 3판
728x90

 

머신러닝의 교과서라 할 수 있는 오렐리앙 제롱의 저서, 핸즈 온 머신러닝 (Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow)의 3판이 출간되었습니다.

머신러닝 관련 업무를 처음으로 맡았을 때 2판으로 공부를 시작했었던 기억이 있어서 3판도 기대감을 갖고 읽어봤습니다. 

 

핸즈 온 머신러닝 3판 목차

1장 한눈에 보는 머신러닝
1.1 머신러닝이란?
1.2 왜 머신러닝을 사용하나요?
1.3 애플리케이션 사례
1.4 머신러닝 시스템의 종류
1.5 머신러닝의 주요 도전 과제
1.6 테스트와 검증

2장 머신러닝 프로젝트 처음부터 끝까지
2.1 실제 데이터로 작업하기
2.2 큰 그림 보기
2.3 데이터 가져오기
2.4 데이터 이해를 위한 탐색과 시각화
2.5 머신러닝 알고리즘을 위한 데이터 준비
2.6 모델 선택과 훈련
2.7 모델 미세 튜닝
2.8 론칭, 모니터링, 시스템 유지 보수
2.9 직접 해보세요!

3장 분류
3.1 MNIST
3.2 이진 분류기 훈련
3.3 성능 측정
3.4 다중 분류
3.5 오류 분석
3.6 다중 레이블 분류
3.7 다중 출력 분류

4장 모델 훈련
4.1 선형 회귀
4.2 경사 하강법
4.3 다항 회귀
4.4 학습 곡선
4.5 규제가 있는 선형 모델
4.6 로지스틱 회귀

5장 서포트 벡터 머신
5.1 선형 SVM 분류
5.2 비선형 SVM 분류
5.3 SVM 회귀
5.4 SVM 이론
5.5 쌍대 문제

6장 결정 트리
6.1 결정 트리 학습과 시각화
6.2 예측
6.3 클래스 확률 추정
6.4 CART 훈련 알고리즘
6.5 계산 복잡도
6.6 지니 불순도 또는 엔트로피?
6.7 규제 매개변수
6.8 회귀
6.9 축 방향에 대한 민감성
6.10 결정 트리의 분산 문제

7장 앙상블 학습과 랜덤 포레스트
7.1 투표 기반 분류기
7.2 배깅과 페이스팅
7.3 랜덤 패치와 랜덤 서브스페이스
7.4 랜덤 포레스트
7.5 부스팅
7.5.1 AdaBoost

8장 차원 축소
8.1 차원의 저주
8.2 차원 축소를 위한 접근법
8.3 주성분 분석
8.4 랜덤 투영
8.5 지역 선형 임베딩
8.6 다른 차원 축소 기법

9장 비지도 학습
9.1 군집
9.2 가우스 혼합

10장 케라스를 사용한 인공 신경망 소개
10.1 생물학적 뉴런에서 인공 뉴런까지
10.2 케라스로 다층 퍼셉트론 구현하기
10.3 신경망 하이퍼파라미터 튜닝하기

11장 심층 신경망 훈련
11.1 그레이디언트 소실과 폭주 문제
11.2 사전 훈련된 층 재사용하기
11.3 고속 옵티마이저
11.4 규제를 사용해 과대적합 피하기
11.5 요약 및 실용적인 가이드라인

12장 텐서플로를 사용한 사용자 정의 모델과 훈련
12.1 텐서플로 훑어보기
12.2 넘파이처럼 텐서플로 사용하기
12.3 사용자 정의 모델과 훈련 알고리즘
12.4 텐서플로 함수와 그래프

13장 텐서플로를 사용한 데이터 적재와 전처리
13.1 데이터 API
13.2 TFRecord 포맷
13.3 케라스의 전처리 층
13.5 텐서플로 데이터셋 프로젝트

14장 합성곱 신경망을 사용한 컴퓨터 비전
14.1 시각 피질 구조
14.2 합성곱 층
14.3 풀링 층
14.4 케라스로 풀링 층 구현하기
14.5 CNN 구조
14.6 케라스로 ResNet-34 CNN 구현하기
14.7 케라스의 사전 훈련 모델 사용하기
14.8 사전 훈련된 모델을 사용한 전이 학습
14.9 분류와 위치 추정
14.10 객체 탐지
14.11 객체 추적
14.12 시맨틱 분할

15장 RNN과 CNN을 사용한 시퀀스 처리
15.1 순환 뉴런과 순환 층
15.2 RNN 훈련하기
15.3 시계열 예측하기
15.4 긴 시퀀스 다루기

16장 RNN과 어텐션을 사용한 자연어 처리
16.1 Char-RNN으로 셰익스피어 문체 생성하기
16.2 감성 분석
16.3 신경망 기계 번역을 위한 인코더-디코더 네트워크
16.4 어텐션 메커니즘
16.5 언어 모델 분야의 최근 혁신
16.6 비전 트랜스포머
16.7 허깅 페이스의 트랜스포머스 라이브러리

17장 오토인코더, GAN 그리고 확산 모델
17.1 효율적인 데이터 표현
17.2 과소완전 선형 오토인코더로 PCA 수행하기
17.3 적층 오토인코더
17.4 합성곱 오토인코더
17.5 잡음 제거 오토인코더
17.6 희소 오토인코더
17.7 변이형 오토인코더
17.8 생성적 적대 신경망
17.9 확산 모델

18장 강화 학습
18.1 보상을 최적화하기 위한 학습
18.2 정책 탐색
18.3 OpenAI Gym
18.4 신경망 정책
18.5 행동 평가: 신용 할당 문제
18.6 정책 그레이디언트
18.7 마르코프 결정 과정
18.8 시간차 학습
18.9 Q-러닝
18.10 심층 Q-러닝 구현
18.11 심층 Q-러닝의 변형
18.12 다른 강화 학습 알고리즘

19장 대규모 텐서플로 모델 훈련과 배포
19.1 텐서플로 모델 서빙

 

핸즈 온 머신러닝 3판에서 바뀐점

2판의 대부분의 내용이 그대로 있으면서 3판에서는 새로운 라이브러리 사용법과 NLP, 이미지처리, 생성형AI 관련된 딥러닝 최신 트렌드에 대해 업데이트가 되었습니다. 그 중 두가지 모델이 제 관심을 끌었습니다.

 

DistillBERT

사전 학습된 BERT모델에 단점인 제한된 리소스로 모델을 실행하기 어려운 점을 더 작고 빠른 BERT모델로 만들었습니다. 한국어로 번역하면 증류 BERT모델이라 불리는 이것은 사전 학습된 대형 BERT 모델을 선생님이라 생각하고 그곳에서 나온 지식을 학생에게 가르치는 느낌으로 지식을 이전하여 소형BERT모델을 만드는 방법입니다. 이로써 모델은 대형 BERT 모델에 비해 60% 속도향상, 40% 메모리 축소하였고 성능치는 97%수준으로 유지할 수 있습니다.

 

Vision Transformer

이미지 데이터를 N*N 작은 정사각형 모양으로 나눠 각각의 정사각형에 위치,순서정보를 기억하여 마치 텍스트의 시퀀스처럼 취급하며 사용하는 트랜스포머 모델입니다. 이 모델로 이미지의 문맥, 예를 들어 하늘에 떠 있는 비행기 사진을 보고 '비행기' 라고 검출하는 것이 아닌 '하늘에서 운행중인 비행기'라는 결과를 얻을 수 있습니다.

 

이상 핸즈 온 머신러닝 3판의 후기를 마칩니다.

 

"한빛미디어 <나는 리뷰어다> 활동을 위해서 책을 제공받아 작성된 서평입니다."

 

 

 

 

 

728x90
728x90
LIST