본문 바로가기
Life/Book

데이터 분석 관련 책

by Wikinist 2023. 8. 15.

1. 데이터 분석

1. 데이터 과학자의 일

저자 : 박준석

출판사 : 휴머니스트

더보기
1장 통계학, 가장 오래된 데이터 과학
2장 인공지능, 머신러닝, 딥러닝의 차이는 무엇일까?
3장 핀테크와 테크핀이 경쟁하는 시대의 금융
4장 게임, 가장 풍부한 데이터가 뛰노는 세상
5장 야구에서 출루율이 중요해진 데이터 과학적 이유
6장 데이터 과학으로 서비스를 보호하는 방법 
7장 병원, 의학 정보를 다루는 데이터 센터가 되다 
8장 사람을 더 똑똑하게 만드는 인공지능 교육
9장 예비 데이터 과학자를 위한 취업 분투기
10장 머신러닝 서비스에 엔지니어가 필요한 이유
11장 공백 속에 숨은 놀라운 이야기, 결측데이터

2. 데이터 과학자 되는 법

저자 : 재클린 놀리스,에밀리 로빈슨 (지은이)

옮긴이 : 이창화

출판사 : 한빛미디어

더보기
[PART 1 데이터 과학 시작하기]

CHAPTER 1 데이터 과학이란?
1.1 데이터 과학이란 무엇인가
1.2 여러 가지 데이터 과학 업무
1.3 자신만의 길 정하기
1.4 로버트 창 인터뷰
1.5 마치며

CHAPTER 2 데이터 과학 기업
2.1 MTC: IT 대기업
2.2 HandbagLOVE: 소매 업체
2.3 Seg-Metra: 스타트업
2.4 Videory: 중견기업
2.5 Global Aerospace Dynamics: 공공조달 대기업
2.6 다섯 개의 가상 기업 정리
2.7 랜디 우 인터뷰
2.8 마치며

CHAPTER 3 기술 익히기
3.1 데이터 과학 학위 취득하기
3.2 부트캠프 참여하기
3.3 본인 회사에서 데이터 과학 업무 보기
3.4 독학하기
3.5 선택하기
3.6 줄리아 실기 인터뷰
3.7 마치며

CHAPTER 4 포트폴리오 작성하기
4.1 프로젝트 만들기
4.2 블로그 시작하기
4.3 프로젝트 예시
4.4 데이비드 로빈슨 인터뷰
4.5 마치며
1부 참고 자료

[PART 2 데이터 과학 직무 찾기]

CHAPTER 5 탐색: 본인에게 적합한 직무 찾기
5.1 직무 찾기
5.2 지원할 직무 결정하기
5.3 제시 모스티팍 인터뷰
5.4 마치며

CHAPTER 6 지원: 이력서와 커버레터
6.1 이력서의 기본
6.2 커버레터의 기본
6.3 다듬기
6.4 추천서
6.5 크리스틴 케러 인터뷰
6.6 마치며

CHAPTER 7 면접: 어떻게 대처할 것인가
7.1 기업이 원하는 것은 무엇인가
7.2 1단계: 1차 전화 면접
7.3 2단계: 대면 면접
7.4 3단계: 케이스 면접
7.5 4단계: 최종 면접
7.6 제안
7.7 라이언 윌리엄스 인터뷰
7.8 마치며

CHAPTER 8 제안: 수락 내용 인지하기
8.1 제안 과정
8.2 제안 받아들이기
8.3 협상
8.4 협상 전략
8.5 두 개의 ‘좋은’ 제안 중 무엇을 선택해야 할까?
8.6 브룩 왓슨 마두부온우 인터뷰
8.7 마치며
2부 참고 자료

[PART 3 데이터 과학자로 자리잡기]

CHAPTER 9 회사에서의 첫 달
9.1 첫 달
9.2 생산적인 업무
9.3 회사에서 첫 번째 데이터 과학자인 경우
9.4 직무가 기대와 다를 때
9.5 자비스 밀러 인터뷰
9.6 마치며

CHAPTER 10 효과적으로 분석하기
10.1 요청
10.2 분석 계획
10.3 분석하기
10.4 꾸미기
10.5 힐러리 파커 인터뷰
10.6 마치며

CHAPTER 11 모델을 제품으로 배포하기
11.1 제품을 배포하는 것이란?
11.2 제품 생산 시스템 만들기
11.3 시스템 실행을 유지하기
11.4 정리
11.5 헤더 놀리스 인터뷰
11.6 마치며

CHAPTER 12 이해관계자와 협업하기
12.1 이해관계자의 유형
12.2 이해관계자와 협업하기
12.3 업무 우선순위 정하기
12.4 정리
12.5 사드 스노든 아킨툰드 인터뷰
12.6 마치며
3부 참고 자료

[PART 4 데이터 과학자로 성장하기]

CHAPTER 13 데이터 과학 프로젝트를 실패할 때
13.1 데이터 과학 프로젝트를 실패하는 이유
13.2 리스크 관리
13.3 프로젝트를 실패했을 때 해야 할 것
13.4 미셸 케임 인터뷰
13.5 마치며

CHAPTER 14 데이터 과학 커뮤니티 참여하기
14.1 포트폴리오 관리하기
14.2 콘퍼런스 참석하기
14.3 강연하기
14.4 오픈 소스에 기여하기
14.5 번아웃을 인지하고 극복하기
14.6 러네이 티테 인터뷰
14.7 마치며

CHAPTER 15 품위 있게 퇴사하기
15.1 퇴사 결정하기
15.2 첫 회사를 구할 때와의 차이
15.3 현재 회사에서 새로운 직무 찾기
15.4 조언
15.5 어맨다 카사리 인터뷰
15.6 마치며

CHAPTER 16 한 단계 올라가기
16.1 관리자의 길
16.2 수석 데이터 과학자의 길
16.3 독립 컨설턴트의 길
16.4 커리어 맵 정하기
16.5 앤절라 바사 인터뷰
16.6 마치며
4부 참고 자료

APPENDIX A 면접 질문
A.1 코딩과 소프트웨어 개발
A.2 SQL과 데이터베이스
A.3 통계와 머신러닝
A.4 인성
A.5 사고력이 필요한 질문

3. 파이썬 라이브러리를 활용한 데이터 분석

저자 : 웨스 맥키니 

옮긴이 : 김영근

출판사 : 한빛미디어

더보기

CHAPTER 1 시작하기 전에
__1.1 이 책에서 다루는 내용
__1.2 왜 데이터 분석에 파이썬을 사용하나
__1.3 필수 파이썬 라이브러리
__1.4 설치 및 설정
__1.5 커뮤니티와 컨퍼런스
__1.6 이 책을 살펴보는 방법

CHAPTER 2 파이썬 언어의 기본, IPython, 주피터 노트북
__2.1 파이썬 인터프리터
__2.2 IPython 기초
__2.3 파이썬 기초

CHAPTER 3 내장 자료구조, 함수, 파일
__3.1 자료구조와 순차 자료형
__3.2 함수
__3.3 파일과 운영체제
__3.4 마치며

CHAPTER 4 NumPy 기본: 배열과 벡터 연산
__4.1 NumPy ndarray: 다차원 배열 객체
__4.2 유니버설 함수: 배열의 각 원소를 빠르게 처리하는 함수
__4.3 배열을 이용한 배열지향 프로그래밍
__4.4 배열 데이터의 파일 입출력
__4.5 선형대수
__4.6 난수 생성
__4.7 계단 오르내리기 예제
__4.8 마치며

CHAPTER 5 pandas 시작하기
__5.1 pandas 자료구조 소개
__5.2 핵심 기능
__5.3 기술 통계 계산과 요약
__5.4 마치며

CHAPTER 6 데이터 로딩과 저장, 파일 형식
__6.1 텍스트 파일에서 데이터를 읽고 쓰는 법
__6.2 이진 데이터 형식
__6.3 웹 API와 함께 사용하기
__6.4 데이터베이스와 함께 사용하기
__6.5 마치며

CHAPTER 7 데이터 정제 및 준비
__7.1 누락된 데이터 처리하기
__7.2 데이터 변형
__7.3 문자열 다루기
__7.4 마치며

CHAPTER 8 데이터 준비하기: 조인, 병합, 변형
__8.1 계층적 색인
__8.2 데이터 합치기
__8.3 재형성과 피벗
__8.4 마치며

CHAPTER 9 그래프와 시각화
__9.1 matplotlib API 간략하게 살펴보기
__9.2 pandas에서 seaborn으로 그래프 그리기
__9.3 다른 파이썬 시각화 도구
__9.4 마치며

CHAPTER 10 데이터 집계와 그룹 연산
__10.1 GroupBy 메카닉
__10.2 데이터 집계
__10.3 Apply: 일반적인 분리-적용-병합
__10.4 피벗테이블과 교차일람표
__10.5 마치며

CHAPTER 11 시계열
__11.1 날짜, 시간 자료형, 도구
__11.2 시계열 기초
__11.3 날짜 범위, 빈도, 이동
__11.4 시간대 다루기
__11.5 기간과 기간 연산
__11.6 리샘플링과 빈도 변환
__11.7 이동창 함수
__11.8 마치며

CHAPTER 12 고급 pandas
__12.1 Categorical 데이터
__12.2 고급 GroupBy 사용
__12.3 메서드 연결 기법
__12.4 마치며

CHAPTER 13 파이썬 모델링 라이브러리
__13.1 pandas와 모델 코드의 인터페이스
__13.2 Patsy를 이용해서 모델 생성하기
__13.3 statsmodels 소개
__13.4 scikit-learn 소개
__13.5 더 공부하기

CHAPTER 14 데이터 분석 예제
__14.1 Bit.ly의 1.USA.gov 데이터
__14.2 MovieLens의 영화 평점 데이터
__14.3 신생아 이름
__14.4 미국농무부 영양소 정보
__14.5 2012년 연방선거관리위원회 데이터베이스
__14.6 마치며

APPENDIX A 고급 NumPy
__A.1 ndarray 객체 구조
__A.2 고급 배열 조작 기법
__A.3 브로드캐스팅
__A.4 고급 ufunc 사용법 .
__A.5 구조화된 배열과 레코드 배열
__A.6 정렬에 관하여
__A.7 umba를 이용하여 빠른 NumPy 함수 작성하기
__A.8 고급 배열 입출력
__A.9 성능 팁

APPENDIX B IPython 시스템 더 알아보기
__B.1 명령어 히스토리 사용하기
__B.2 운영체제와 함께 사용하기
__B.3 소프트웨어 개발 도구
__B.4 IPython을 이용한 생산적인 코드 개발에 관한 팁
__B.5 IPython 고급 기능
__B.6 마치며

4. 직장인을 위한 데이터 분석 실무 with 파이썬

저자 : 이형석,장남수,전상환,정상욱 

출판사 : 위키북스

더보기

▣ 01장: 준비하기
1.1 실습 자료 내려받기
1.2 파이썬 준비
____1.2.1 아나콘다 내려받기
____1.2.2 아나콘다 설치
____1.2.3 주피터 노트북 준비
____1.2.4 주피터 노트북 시작하기
____1.2.5 주피터 노트북 사용하기
1.3 파이썬 맛보기
____1.3.1 파이썬 코드 입력 및 실행
____1.3.2 값 입력 및 출력
____1.3.3 리스트
____1.3.4 반복문
____1.3.5 문자열
____1.3.6 조건문
____1.3.7 함수

▣ 02장: 데이터 분석 기초
2.1 pandas 기초
____2.1.1 pandas란?
____2.1.2 데이터 불러오기(read_excel)
____2.1.3 데이터 선택 ① - 칼럼 기준
____2.1.4 데이터 선택 ② - 로우 기준
____2.1.5 데이터 통합 ① - 옆으로 통합(merge)
____2.1.6 데이터 통합 ② - 아래로 통합(append)
____2.1.7 데이터 저장(to_excel)
____2.1.8 데이터 집계(pivot_table)
2.2 웹 크롤링 기초
____2.2.1 selenium과 크롬드라이버 설치
____2.2.2 크롬드라이버 활용하기
____2.2.3 웹 페이지 접속
____2.2.4 웹 페이지(HTML) 다운로드
____2.2.5 HTML 구조 살펴보기
____2.2.6 크롬 브라우저에서 웹 페이지의 HTML 살펴보기
____2.2.7 BeautifulSoup을 이용한 정보 찾기
____2.2.8 HTML 정보 찾기 ① - 태그 속성 활용
____2.2.9 HTML 정보 찾기 ② - 상위 구조 활용
____2.2.10 정보 가져오기 ① - 태그 그룹에서 하나의 태그 선택하기
____2.2.11 정보 가져오기 ② - 선택한 태그에서 정보 가져오기
____2.2.12 멜론 노래 순위 정보 크롤링
____2.2.13 selenium을 활용한 크롤링

▣ 03장: 데이터 분석 맛보기
3.1 여러 음원 서비스의 순위 수집/정리하기
____3.1.1 멜론 크롤링 결과를 엑셀로 저장하기
____3.1.2 벅스 크롤링 결과를 엑셀 파일로 저장하기
____3.1.3 지니 크롤링 결과를 엑셀 파일로 저장하기
____3.1.4 멜론, 벅스, 지니 크롤링 엑셀 파일 통합하기
3.2 유튜브 랭킹 데이터 수집과 시각화
____3.2.1 유튜브 랭킹 데이터 수집하기
____3.2.2 유튜브 랭킹 데이터 시각화하기
____3.2.3 결론

▣ 04장: 코로나 바이러스(COVID19)의 영향으로 중국인 관광객이 얼마나 줄었을까
4.1 외국인 출입국 통계 데이터 구하기
4.2 데이터 불러오기 및 전처리
____4.2.1 불러올 데이터의 형태 파악
____4.2.2 파이썬에서 엑셀 데이터 불러오기
____4.2.3 데이터 전처리
____4.2.4 데이터 전처리 과정을 함수로 만들기
____4.2.5 반복문을 통해 다수의 엑셀 데이터를 불러와서 합치기
____4.2.6 통합 데이터를 엑셀 파일로 저장하기
____4.2.7 국적별 필터링된 데이터를 엑셀 파일로 저장하기
4.3 데이터 시각화
____4.3.1 데이터 시각화의 중요성
____4.3.2 시계열 그래프 그리기
____4.3.3 히트맵 그래프 그리기
4.4 시각화 해석하기
4.5 정리

▣ 05장: 가장 뜨는 제주도 핫플레이스는 어디일까?
5.1 인스타그램 크롤링
____5.1.1 크롤링 과정
____5.1.2 인스타그램 접속 후 로그인하기
____5.1.3 인스타그램 검색 결과 URL을 만들어 접속하기
____5.1.4 첫 번째 게시글 열기
____5.1.5 게시글 정보 가져오기
____5.1.6 다음 게시글 열기
____5.1.7 여러 게시글 정보 수집하기
____5.1.8 수집 데이터 저장
____5.1.9 여러 엑셀 파일의 중복을 제거한 후 통합 저장
5.2 워드 클라우드
____5.2.1 워드 클라우드를 만드는 과정
____5.2.2 해시태그 데이터 불러오기
____5.2.3 해시태그 출현 빈도 집계
____5.2.4 막대차트로 해시태그 살펴보기
____5.2.5 워드 클라우드 그리기
5.3 지도 시각화
____5.3.1 지도 시각화 과정
____5.3.2 데이터 준비
____5.3.3 카카오 검색 API 가입
____5.3.4 카카오 로컬 API를 활용한 장소 검색
____5.3.5 위치 정보별 인스타 게시량 정리
____5.3.6 folium을 이용한 지도 시각화 ① - 개별 표시
____5.3.7 folium을 이용한 지도 시각화 ② - 그룹으로 표시
5.4 특정 단어를 포함한 게시글 찾기
____5.4.1 원하는 게시글 찾기
____5.4.2 데이터 준비하기
____5.4.3 단어 선택하기
5.5 정리

▣ 06장: 왜 우리 동네에는 스타벅스가 없을까?
6.1 데이터 수집
____6.1.1 크롤링을 이용한 서울시 스타벅스 매장 목록 데이터 생성
____6.1.2 서울열린데이터광장의 OPEN API를 활용한 공공데이터 수집
6.2 데이터 전처리
____6.2.1 서울시 스타벅스 매장 목록, 인구, 사업체 데이터에 시군구명, 시군구코드 추가
____6.2.2 스타벅스 분석 데이터 만들기
6.3 데이터 시각화
____6.3.1 스타벅스 매장분포 시각화
____6.3.2 시군구별 스타벅스 매장 수 시각화
____6.3.3 스타벅스 매장 수와 인구수 비교
____6.3.4 스타벅스 매장 수와 사업체 수 비교
6.4 정리

▣ 07장: 어떤 무선청소기가 인기가 좋을까?
7.1 데이터 수집 1 ? 한 페이지 크롤링
____7.1.1 다나와 소개
____7.1.2 다나와 검색 페이지 접속
____7.1.3 다나와 검색 웹 페이지에서 상품 정보 가져오기
7.2 데이터 수집 2 - 여러 페이지에 걸친 다나와 검색 페이지 크롤링
____7.2.1 다나와 검색 결과 페이지 URL 분석
____7.2.2 주피터 노트북의 진행표시줄 처리
____7.2.3 여러 페이지에 걸친 상품 정보 수집
____7.2.4 수집 데이터 저장
7.3 다나와 크롤링 데이터 전처리
____7.3.1 다나와 크롤링 데이터 불러오기
____7.3.2 회사명, 모델명 정리
____7.3.3 스펙 목록 데이터 살펴보기
____7.3.4 스펙 목록에서 카테고리, 사용시간, 흡입력을 추출해서 정리
____7.3.5 무선청소기 사용시간 단위 통일시키기
____7.3.6 무선 청소기 흡입력 단위 통일시키기
____7.3.7 다나와 전처리 결과를 엑셀로 저장
7.4 무선청소기 모델별 비교 분석
____7.4.1 데이터 살펴보기
____7.4.2 가성비 좋은 제품 살펴보기
____7.4.3 데이터 시각화
____7.4.4 인기 제품의 데이터 시각화
7.5 정리

2. 머신러닝 / 딥러닝

1. 혼자 공부하는 머신러닝 + 딥러닝

저자 : 박해선 

출판사 : 한빛미디어

더보기

Chapter 01 나의 첫 머신러닝 ▶️이 생선의 이름은 무엇인가요?
__ 01-1 인공지능과 머신러닝, 딥러닝 ▶️ 인공지능과 머신러닝, 딥러닝은 무엇일까요?
____ 인공지능이란
____ 머신러닝이란
____ 딥러닝이란
____ 키워드로 끝내는 핵심 포인트
____ 이 책에서 배울 것은
__ 01-2 코랩과 주피터 노트북 ▶️코랩과 주피터 노트북으로 손코딩 준비하기
____ 구글 코랩
____ 텍스트 셀
____ 코드 셀
____ 노트북
____ 키워드로 끝내는 핵심 포인트
____ 표로 정리하는 툴바와 마크다운
____ 확인 문제
__ 01-3 마켓과 머신러닝 ▶️마켓을 예로 들어 머신러닝을 설명합니다.
____ 생선 분류 문제
____ 첫 번째 머신러닝 프로그램
____ [문제해결 과정] 도미와 빙어 분류
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제

Chapter 02 데이터 다루기 ▶️수상한 생선을 조심하라!
__ 02-1 훈련 세트와 테스트 세트 ▶️ 모델을 훈련 시키는 훈련 세트와 검증하는 테스트 세트로 나누어 학습하기
____ 지도 학습과 비지도 학습
____ 훈련 세트와 테스트 세트
____ 샘플링 편향
____ 넘파이
____ 두 번째 머신러닝 프로그램
____ [문제해결 과정] 훈련 모델 평가
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제
__ 02-2 데이터 전처리 ▶️정교한 결과 도출을 위한 데이터 전처리 알아보기
____ 넘파이로 데이터 준비하기
____ 사이킷런으로 훈련 세트와 테스트 세트 나누기
____ 수상한 도미 한 마리
____ 기준을 맞춰라
____ 전처리 데이터로 모델 훈련하기
____ [문제해결 과정] 스케일이 다른 특성 처리
____ 키워드로 끝나는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제

Chapter 03 회귀 알고리즘과 모델 규제 ▶️농어의 무게를 예측하라!
__ 03-1 k-최근접 이웃 회귀 ▶️회귀 문제를 이해하고 k-최근접 이웃 알고리즘으로 풀어 보기
____ k-최근접 이웃 회귀
____ 데이터 준비
____ 결정계수(R2)
____ 과대적합 vs 과소적합
____ [문제해결 과정] 회귀 문제 다루기
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제
__ 03-2 선형 회귀 ▶️ 사이킷런으로 선형 회귀 모델 만들어 보기
____ k-최근접 이웃의 한계
____ 선형 회귀
____ 다항 회귀
____ [문제해결 과정] 선형 회귀로 훈련 세트 범위 밖의 샘플 예측
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제
__ 03-3 특성 공학과 규제 ▶️특성 공학과 규제 알아보기
____ 다중 회귀
____ 데이터 준비
____ 사이킷런의 변환기
____ 다중 회귀 모델 훈련하기
____ 규제
____ 릿지 회귀
____ 라쏘 회귀
____ [문제해결 과정] 모델의 과대적합을 제어하기
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제

Chapter 04 다양한 분류 알고리즘 ▶️럭키백의 확률을 계산하라!
__ 04-1 로지스틱 회귀 ▶️로지스틱 회귀 알고리즘을 배우고 이진 분류 문제에서 클래스 확률 예측하기
____ 럭키백의 확률
____ 로지스틱 회귀
____ [문제해결 과정] 로지스틱 회귀로 확률 예측
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제
__ 04-2 확률적 경사 하강법 ▶️경사 하강법 알고리즘을 이해하고 대량의 데이터에서 분류 모델을 훈련하기
____ 점진적인 학습
____ SGDClassifier
____ 에포크와 과대/과소적합
____ [문제해결 과정] 점진적 학습을 위한 확률적 경사 하강법
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제

Chapter 05 트리 알고리즘 ▶️화이트 와인을 찾아라!
__ 05-1 결정 트리 ▶️결정 트리 알고리즘을 사용해 새로운 분류 문제 다루기
____ 로지스틱 회귀로 와인 분류하기
____ 결정 트리
____ [문제해결 과정] 이해하기 쉬운 결정 트리 모델
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제
__ 05-2 교차 검증과 그리드 서치 ▶️검증 세트가 필요한 이유를 이해하고 교차 검증해 보기
____ 검증 세트
____ 교차 검증
____ 하이퍼파라미터 튜닝
____ [문제해결 과정] 최적의 모델을 위한 하이퍼파라미터 탐색
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제
__ 05-3 트리의 앙상블 ▶️ 앙상블 학습을 알고 실습해 보기
____ 정형 데이터와 비정형 데이터
____ 랜덤 포레스트
____ 엑스트라 트리
____ 그레이디언트 부스팅
____ 히스토그램 기반 그레이디언트 부스팅
____ [문제해결 과정] 앙상블 학습을 통한 성능 향상
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제

Chapter 06 비지도 학습 ▶️비슷한 과일끼리 모으자!
__ 06-1 군집 알고리즘 ▶️ 흑백 이미지 분류 방법과 비지도 학습, 군집 알고리즘 이해하기
____ 과일 사진 데이터 준비하기
____ 픽셀값 분석하기
____ 평균값과 가까운 사진 고르기
____ [문제해결 과정] 비슷한 샘플끼리 모으기
____ 키워드로 끝내는 핵심 포인트
____ 확인 문제
__ 06-2 k-평균 ▶️k-평균 알고리즘 작동 방식을 이해하고 비지도 학습 모델 만들기
____ k-평균 알고리즘 소개
____ KMeans 클래스
____ 클러스터 중심
____ 최적의 k 찾기
____ [문제해결 과정] 과일을 자동으로 분류하기
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제
__ 06-3 주성분 분석 ▶️차원을 알고 차원 축소 알고리즘 PC 모델 만들기
____ 차원과 차원 축소
____ 주성분 분석 소개
____ PCA 클래스
____ 원본 데이터 재구성
____ 설명된 분산
____ 다른 알고리즘과 함께 사용하기
____ [문제해결 과정] 주성분 분석으로 차원 축소
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제

Chapter 07 딥러닝을 시작합니다 ▶️패션 럭키백을 판매합니다!
__ 07-1 인공 신경망 ▶️ 텐서플로로 간단한 인공 신경망 모델 만들기
____ 패션 MNIST
____ 로지스틱 회귀로 패션 아이템 분류하기
____ 인공 신경망
____ 인공 신경망으로 모델 만들기
____ 인공 신경망으로 패션 아이템 분류하기
____ [문제해결 과정] 인공 신경망 모델로 성능 향상
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제
__ 07-2 심층 신경망 ▶️인공 신경망에 층을 추가하여 심층 신경망 만들어 보기
____ 2개의 층
____ 심층 신경망 만들기
____ 층을 추가하는 다른 방법
____ 렐루 활성화 함수
____ 옵티마이저
____ [문제해결 과정] 케라스 API를 활용한 심층 신경망
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제
__ 07-3 신경망 모델 훈련 ▶️인경 신경망 모델 훈련의 모범 사례 학습하기
____ 손실 곡선
____ 검증 손실
____ 드롭아웃
____ 모델 저장과 복원
____ 콜백
____ [문제해결 과정] 최상의 신경망 모델 얻기
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제

Chapter 08 이미지를 위한 인공 신경망 ▶️패션 럭키백의 정확도를 높입니다!
__ 08-1 합성곱 신경망의 구성 요소 ▶️합성곱 신경망의 개념과 동작 원리를 배우고 간단한 실습하기
____ 합성곱
____ 케라스 합성곱 층
____ 합성곱 신경망의 전체 구조
____ [문제해결 과정] 합성곱 층과 풀링 층 이해하기
____ 키워드로 끝내는 핵심 포인트
____ 확인 문제
__ 08-2 합성곱 신경망을 사용한 이미지 분류 ▶️케라스 API로 합성곱 신경망 모델 만들기
____ 패션 MNIST 데이터 불러오기
____ 합성곱 신경망 만들기
____ 모델 컴파일과 훈련
____ [문제해결 과정] 케라스 API로 합성곱 신경망 구현
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제
__ 08-3 합성곱 신경망의 시각화 ▶️신경망이 이미지에서 학습하는 게 무엇인지 이해하기
____ 가중치 시각화
____ 함수형 API
____ 특성 맵 시각화
____ [문제해결 과정]
____ 시각화로 이해하는 합성곱 신경망
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제

Chapter 09 텍스트를 위한 인공 신경망 ▶️한빛 마켓의 댓글을 분석하라!
__ 09-1 순차 데이터와 순환 신경망 ▶️순차 데이터의 특징과 개념 이해하기
____ 순차 데이터
____ 순환 신경망
____ 셀의 가중치와 입출력
____ [문제해결 과정] 순환 신경망으로 순환 데이터 처리
____ 키워드로 끝내는 핵심 포인트
____ 확인 문제
__ 09-2 순환 신경망으로 IMDB 리뷰 분류하기 ▶️텐서플로 순환 신경망으로 영화 리뷰 분류하기
____ IMDB 리뷰 데이터셋
____ 순환 신경망 만들기
____ 순환 신경망 훈련하기
____ 단어 임베딩을 사용하기
____ [문제해결 과정] 케라스 API로 순환 신경망 구현
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제
__ 09-3 LSTM과 GRU 셀 ▶️순환 신경망의 중요 기술을 사용해 모델 만들어 보기
____ LSTM 구조
____ LSTM 신경망 훈련하기
____ 순환층에 드롭아웃 적용하기
____ 2개의 층을 연결하기
____ GRU 구조
____ GRU 신경망 훈련하기
____ [문제해결 과정] LSTM과 GRU 셀로 훈련
____ 키워드로 끝내는 핵심 포인트
____ 핵심 패키지와 함수
____ 확인 문제

__ 부록 A 한발 더 나아가기
__ 부록 B 에필로그

____ 정답 및 해설
____ 찾아보기

2. 파이썬 머신러닝 완벽 가이드

저자 : 권철민 

출판사 : 위키북스

더보기

▣ 1장: 파이썬 기반의 머신러닝과 생태계 이해
머신러닝의 개념
__머신러닝의 분류
__데이터 전쟁
__파이썬과 R 기반의 머신러닝 비교
파이썬 머신러닝 생태계를 구성하는 주요 패키지
__파이썬 머신러닝을 위한 S/W 설치
넘파이
__넘파이 ndarray 개요
__ndarray의 데이터 타입
__ndarray를 편리하게 생성하기 - arange, zeros, ones
__ndarray의 차원과 크기를 변경하는 reshape( )
__넘파이의 ndarray의 데이터 세트 선택하기 - 인덱싱(Indexing)
__행렬의 정렬 - sort( )와 argsort( )
__선형대수 연산 - 행렬 내적과 전치 행렬 구하기
데이터 핸들링 - 판다스
__판다스 시작 - 파일을 DataFrame으로 로딩, 기본 API
__DataFrame과 리스트, 딕셔너리, 넘파이 ndarray 상호 변환
__DataFrame의 컬럼 데이터 세트 생성과 수정
__DataFrame 데이터 삭제
__Index 객체
__데이터 셀렉션 및 필터링
__정렬, Aggregation 함수, GroupBy 적용
__결손 데이터 처리하기
__apply lambda 식으로 데이터 가공
정리

▣ 2장: 사이킷런으로 시작하는 머신러닝
2.1. 사이킷런 소개와 특징
2.2. 첫 번째 머신러닝 만들어 보기 - 붓꽃 품종 예측하기
2.3. 사이킷런의 기반 프레임워크 익히기
__Estimator 이해 및 fit( ), predict( ) 메서드
__사이킷런의 주요 모듈
__내장된 예제 데이터 세트
2.4. Model Selection 모듈 소개
__학습/테스트 데이터 세트 분리 - train_test_split()
__교차 검증
__GridSearchCV - 교차 검증과 최적 하이퍼 파라미터 튜닝을 한 번에
2.5. 데이터 전처리
__데이터 인코딩
__피처 스케일링과 정규화
__StandardScaler
__MinMaxScaler
__학습 데이터와 테스트 데이터의 스케일링 변환 시 유의점
2.6. 사이킷런으로 수행하는 타이타닉 생존자 예측
2.7. 정리

▣ 3장: 평가
3.1. 정확도(Accuracy)
3.2. 오차 행렬
3.3. 정밀도와 재현율
__정밀도/재현율 트레이드오프
__정밀도와 재현율의 맹점
3.4. F1 스코어
3.5. ROC 곡선과 AUC
3.6. 피마 인디언 당뇨병 예측
3.7. 정리

▣ 4장: 분류
4.1. 분류(Classification)의 개요
4.2. 결정 트리
__결정 트리 모델의 특징
__결정 트리 파라미터
__결정 트리 모델의 시각화
__결정 트리 과적합(Overfitting)
__결정 트리 실습 - 사용자 행동 인식 데이터 세트
4.3. 앙상블 학습
__앙상블 학습 개요
__보팅 유형 - 하드 보팅(Hard Voting)과 소프트 보팅(Soft Voting)
__보팅 분류기(Voting Classifier)
4.4. 랜덤 포레스트
__랜덤 포레스트의 개요 및 실습
__랜덤 포레스트 하이퍼 파라미터 및 튜닝
4.5. GBM(Gradient Boosting Machine)
__GBM의 개요 및 실습
__GBM 하이퍼 파라미터 및 튜닝
4.6. XGBoost(eXtra Gradient Boost)
__XGBoost 개요
__XGBoost 설치하기
__파이썬 래퍼 XGBoost 하이퍼 파라미터
__파이썬 래퍼 XGBoost 적용 - 위스콘신 유방암 예측
__사이킷런 래퍼 XGBoost의 개요 및 적용
4.7. LightGBM
__LightGBM 설치
__LightGBM 하이퍼 파라미터
__하이퍼 파라미터 튜닝 방안
__파이썬 래퍼 LightGBM과 사이킷런 래퍼 XGBoost, LightGBM 하이퍼 파라미터 비교
__LightGBM 적용 - 위스콘신 유방암 예측
4.8. 분류 실습 - 캐글 산탄데르 고객 만족 예측
__데이터 전처리
__XGBoost 모델 학습과 하이퍼 파라미터 튜닝
__LightGBM 모델 학습과 하이퍼 파라미터 튜닝
4.9. 분류 실습 - 캐글 신용카드 사기 검출
__언더 샘플링과 오버 샘플링의 이해
__데이터 일차 가공 및 모델 학습/예측/평가
__데이터 분포도 변환 후 모델 학습/예측/평가
__이상치 데이터 제거 후 모델 학습/예측/평가
__SMOTE 오버 샘플링 적용 후 모델 학습/예측/평가
4.10. 스태킹 앙상블
__기본 스태킹 모델
__CV 세트 기반의 스태킹
4.11. 정리

▣ 5장: 회귀
5.1. 회귀 소개
5.2. 단순 선형 회귀를 통한 회귀 이해
5.3. 비용 최소화하기 - 경사 하강법(Gradient Descent) 소개
5.4. 사이킷런 LinearRegression을 이용한 보스턴 주택 가격 예측
__LinearRegression 클래스 - Ordinary Least Squares
__회귀 평가 지표
__LinearRegression을 이용해 보스턴 주택 가격 회귀 구현
5.5. 다항 회귀와 과(대)적합/과소적합 이해
__다항 회귀 이해
__다항 회귀를 이용한 과소적합 및 과적합 이해
__편향-분산 트레이드오프(Bias-Variance Trade off)
5.6. 규제 선형 모델 - 릿지, 라쏘, 엘라스틱넷
__규제 선형 모델의 개요
__릿지 회귀
__라쏘 회귀
__엘라스틱넷 회귀
__선형 회귀 모델을 위한 데이터 변환
5.7. 로지스틱 회귀
5.8. 회귀 트리
5.9. 회귀 실습 - 자전거 대여 수요 예측
__데이터 클렌징 및 가공
__로그 변환, 피처 인코딩과 모델 학습/예측/평가
5.10. 회귀 실습 - 캐글 주택 가격: 고급 회귀 기법
__데이터 사전 처리(Preprocessing)
__선형 회귀 모델 학습/예측/평가
__회귀 트리 모델 학습/예측/평가
__회귀 모델의 예측 결과 혼합을 통한 최종 예측
__스태킹 앙상블 모델을 통한 회귀 예측
5.11. 정리

▣ 6장: 차원 축소
6.1. 차원 축소(Dimension Reduction) 개요
6.2. PCA(Principal Component Analysis)
__PCA 개요
6.3. LDA(Linear Discriminant Analysis)
__LDA 개요
__붓꽃 데이터 세트에 LDA 적용하기
6.4. SVD(Singular Value Decomposition)
__SVD 개요
__사이킷런 TruncatedSVD 클래스를 이용한 변환
6.5. NMF(Non-Negative Matrix Factorization)
__NMF 개요
6.6. 정리

▣ 7장: 군집화
7.1. K-평균 알고리즘 이해
__사이킷런 KMeans 클래스 소개
__K-평균을 이용한 붓꽃 데이터 세트 군집화
__군집화 알고리즘 테스트를 위한 데이터 생성
7.2. 군집 평가(Cluster Evaluation)
__실루엣 분석의 개요
__붓꽃 데이터 세트를 이용한 군집 평가
__군집별 평균 실루엣 계수의 시각화를 통한 군집 개수 최적화 방법
7.3. 평균 이동
__평균 이동(Mean Shift)의 개요
7.4. GMM(Gaussian Mixture Model)
__GMM(Gaussian Mixture Model) 소개
__GMM을 이용한 붓꽃 데이터 세트 군집화
__GMM과 K-평균의 비교
7.5. DBSCAN
__DBSCAN 개요
__DBSCAN 적용하기 - 붓꽃 데이터 세트
__DBSCAN 적용하기 - make_circles( ) 데이터 세트
7.6. 군집화 실습 - 고객 세그먼테이션
__고객 세그먼테이션의 정의와 기법
__데이터 세트 로딩과 데이터 클렌징
__RFM 기반 데이터 가공
__RFM 기반 고객 세그먼테이션
7.7. 정리

▣ 8장: 텍스트 분석
NLP이냐 텍스트 분석이냐?
8.1. 텍스트 분석 이해
__텍스트 분석 수행 프로세스
__파이썬 기반의 NLP, 텍스트 분석 패키지
8.2. 텍스트 사전 준비 작업(텍스트 전처리) - 텍스트 정규화
__클렌징
__텍스트 토큰화
__스톱 워드 제거
__Stemming과 Lemmatization
8.3. Bag of Words - BOW
__BOW 피처 벡터화
__사이킷런의 Count 및 TF-IDF 벡터화 구현: CountVectorizer, TfidfVectorizer
__BOW 벡터화를 위한 희소 행렬
__희소 행렬 - COO 형식
__희소 행렬 - CSR 형식
8.4. 텍스트 분류 실습 - 20 뉴스그룹 분류
__텍스트 정규화
__피처 벡터화 변환과 머신러닝 모델 학습/예측/평가
__사이킷런 파이프라인(Pipeline) 사용 및 GridSearchCV와의 결합
8.5. 감성 분석
__감성 분석 소개
__지도학습 기반 감성 분석 실습 - IMDB 영화평
__비지도학습 기반 감성 분석 소개
__SentiWordNet을 이용한 감성 분석
__VADER를 이용한 감성 분석
8.6. 토픽 모델링(Topic Modeling) - 20 뉴스그룹
8.7. 문서 군집화 소개와 실습(Opinion Review 데이터 세트)
__문서 군집화 개념
__Opinion Review 데이터 세트를 이용한 문서 군집화 수행하기
__군집별 핵심 단어 추출하기
8.8. 문서 유사도
__문서 유사도 측정 방법 - 코사인 유사도
__두 벡터 사잇각
__Opinion Review 데이터 세트를 이용한 문서 유사도 측정
8.9. 한글 텍스트 처리 - 네이버 영화 평점 감성 분석
__한글 NLP 처리의 어려움
__KoNLPy 소개
__데이터 로딩
8.10. 텍스트 분석 실습-캐글 Mercari Price Suggestion Challenge
__데이터 전처리
__피처 인코딩과 피처 벡터화
__릿지 회귀 모델 구축 및 평가
__LightGBM 회귀 모델 구축과 앙상블을 이용한 최종 예측 평가
8.11. 정리

▣ 9장: 추천 시스템
9.1. 추천 시스템의 개요와 배경
__추천 시스템의 개요
__온라인 스토어의 필수 요소, 추천 시스템
__추천 시스템의 유형
9.2. 콘텐츠 기반 필터링 추천 시스템
9.3. 최근접 이웃 협업 필터링
9.4. 잠재 요인 협업 필터링
__잠재 요인 협업 필터링의 이해
__행렬 분해의 이해
__확률적 경사 하강법을 이용한 행렬 분해
9.5. 콘텐츠 기반 필터링 실습 - TMDB 5000 영화 데이터 세트
__장르 속성을 이용한 영화 콘텐츠 기반 필터링
__데이터 로딩 및 가공
__장르 콘텐츠 유사도 측정
__장르 콘텐츠 필터링을 이용한 영화 추천
9.6. 아이템 기반 최근접 이웃 협업 필터링 실습
__데이터 가공 및 변환
__영화 간 유사도 산출
__아이템 기반 최근접 이웃 협업 필터링으로 개인화된 영화 추천
9.7. 행렬 분해를 이용한 잠재 요인 협업 필터링 실습
9.8. 파이썬 추천 시스템 패키지 - Surprise
__Surprise 패키지 소개
__Surprise를 이용한 추천 시스템 구축
__Surprise 주요 모듈 소개
__Surprise 추천 알고리즘 클래스
__베이스라인 평점
__교차 검증과 하이퍼 파라미터 튜닝
__Surprise를 이용한 개인화 영화 추천 시스템 구축
9.9. 정리

3. XGBoost와 사이킷런을 활용한 그레이디언트 부스팅

저자 : 코리 웨이드

옮긴이 : 박해선

출판사 : 한빛미디어

더보기

CHAPTER 0 코딩 환경 설정
0.1 아나콘다
0.2 주피터 노트북 사용하기
0.3 XGBoost
0.4 버전

PART 1 배깅과 부스팅

CHAPTER 1 머신러닝 개요
1.1 XGBoost 소개
1.2 데이터 랭글링
1.3 회귀 모델 만들기
1.4 분류 모델 만들기
1.5 마치며

CHAPTER 2 결정 트리
2.1 결정 트리 소개
2.2 결정 트리 알고리즘
2.3 분산과 편향
2.4 결정 트리 하이퍼파라미터 튜닝
2.5 심장 질환 예측하기 - 사례 연구
2.6 마치며

CHAPTER 3 배깅과 랜덤 포레스트
3.1 배깅 앙상블
3.2 랜덤 포레스트 살펴보기
3.3 랜덤 포레스트 매개변수
3.4 랜덤 포레스트 성능 높이기 ? 사례 연구
3.5 마치며

CHAPTER 4 그레이디언트 부스팅에서 XGBoost까지
4.1 배깅에서 부스팅까지
4.2 그레이디언트 부스팅 작동 방식
4.3 그레이디언트 부스팅 매개변수 튜닝
4.4 빅 데이터 다루기 - 그레이디언트 부스팅 vs XGBoost
4.5 마치며

PART 2 XGBoost

CHAPTER 5 XGBoost 소개
5.1 XGBoost 구조
5.2 XGBoost 파라미터 최적화
5.3 XGBoost 모델 만들기
5.4 힉스 보손 찾기 ? 사례 연구
5.5 마치며

CHAPTER 6 XGBoost 하이퍼파라미터
6.1 데이터와 기준 모델 준비
6.2 XGBoost 하이퍼파라미터 튜닝
6.3 조기 종료 적용
6.4 하이퍼파라미터 결합
6.5 하이퍼파라미터 조정
6.6 마치며

CHAPTER 7 XGBoost로 외계 행성 찾기
7.1 외계 행성 찾기
7.2 오차 행렬 분석하기
7.3 불균형 데이터 리샘플링
7.4 XGBClassifier 튜닝
7.5 마치며

PART 3 고급 XGBoost

CHAPTER 8 XGBoost 기본 학습기
8.1 여러 가지 기본 학습기
8.2 gblinear 적용하기
8.3 dart 비교하기
8.4 XGBoost 랜덤 포레스트
8.5 마치며

CHAPTER 9 캐글 마스터에게 배우기
9.1 캐글 대회 둘러보기
9.2 특성 공학
9.3 상관관계가 낮은 앙상블 만들기
9.4 스태킹
9.5 마치며

CHAPTER 10 XGBoost 모델 배포
10.1 혼합 데이터 인코딩
10.2 사용자 정의 사이킷런 변환기
10.3 XGBoost 모델 만들기
10.4 머신러닝 파이프라인 구성하기
10.5 마치며

APPENDIX A (한국어판 부록) 다른 그레이디언트 부스팅 라이브러리
A.1 LightGBM
A.2 사이킷런의 히스토그램 기반 그레이디언트 부스팅
A.3 CatBoost

4. 데이터가 뛰어노는 AI 놀이터, 캐글

저자 : 가도와키 다이스케,사카타 류지,호사카 게이스케,히라마쓰 유지 

옮긴이 : 대니얼WJ

출판사 : 한빛미디어

더보기

CHAPTER 1 경진 대회
1.1 경진 대회란?
1.2 경진 대회 플랫폼
1.3 경진 대회 참가부터 종료까지
1.4 경진 대회의 참가 의미
1.5 상위권 진입의 중요 팁

CHAPTER 2 경진 대회의 평가지표
2.1 경진 대회의 종류
2.2 경진 대회의 데이터셋
2.3 평가지표
2.4 평가지표와 목적함수
2.5 평가지표의 최적화
2.6 평가지표 최적화 사례
2.7 데이터 정보 누출

CHAPTER 3 특징 생성
3.1 이 장의 구성
3.2 모델과 특징
3.3 결측값 처리
3.4 수치형 변수 변환
3.5 범주형 변수 변환
3.6 날짜 및 시간변수 변환
3.7 변수의 조합
3.8 다른 정형 데이터와의 결합
3.9 집약하여 통계량 구하기
3.10 시계열 데이터 처리
3.11 차원축소와 비지도 학습의 특징
3.12 기타 기법
3.13 경진 대회의 특징 사례

CHAPTER 4 모델 구축
4.1 모델의 기본 이해
4.2 경진 대회에서 사용하는 모델
4.3 GBDT
4.4 신경망
4.5 선형 모델
4.6 기타 모델
4.7 모델의 기타 팁과 테크닉

CHAPTER 5 모델 평가
5.1 모델 평가란?
5.2 검증 방법
5.3 시계열 데이터의 검증 방법
5.4 검증 포인트와 기술

CHAPTER 6 모델 튜닝
6.1 매개변수 튜닝
6.2 특징 선택과 중요도
6.3 편중된 클래스 분포의 대응

CHAPTER 7 앙상블 기법
7.1 앙상블이란?
7.2 간단한 앙상블 기법
7.3 스태킹
7.4 앙상블 대상 모델의 선택 기준
7.5 경진 대회의 앙상블 사례

5. 핸즈온 머신러닝

저자 : 오렐리앙 제롱

옮긴이 : 박해선

출판사 : 한빛미디어

더보기

[PART 1 머신러닝]

CHAPTER 1 한눈에 보는 머신러닝
1.1 머신러닝이란?
1.2 왜 머신러닝을 사용하는가?
1.3 애플리케이션 사례
1.4 머신러닝 시스템의 종류
1.5 머신러닝의 주요 도전 과제
1.6 테스트와 검증
1.7 연습문제

CHAPTER 2 머신러닝 프로젝트 처음부터 끝까지
2.1 실제 데이터로 작업하기
2.2 큰 그림 보기
2.3 데이터 가져오기
2.4 데이터 이해를 위한 탐색과 시각화
2.5 머신러닝 알고리즘을 위한 데이터 준비
2.6 모델 선택과 훈련
2.7 모델 세부 튜닝
2.8 론칭, 모니터링, 그리고 시스템 유지 보수
2.9 직접 해보세요!
2.10 연습문제

CHAPTER 3 분류
3.1 MNIST
3.2 이진 분류기 훈련
3.3 성능 측정
3.4 다중 분류
3.5 에러 분석
3.6 다중 레이블 분류
3.7 다중 출력 분류
3.8 연습문제

CHAPTER 4 모델 훈련
4.1 선형 회귀
4.2 경사 하강법
4.3 다항 회귀
4.4 학습 곡선
4.5 규제가 있는 선형 모델
4.6 로지스틱 회귀
4.7 연습문제

CHAPTER 5 서포트 벡터 머신
5.1 선형 SVM 분류
5.2 비선형 SVM 분류
5.3 SVM 회귀
5.4 SVM 이론
5.5 연습문제

CHAPTER 6 결정 트리
6.1 결정 트리 학습과 시각화
6.2 예측하기
6.3 클래스 확률 추정
6.4 CART 훈련 알고리즘
6.5 계산 복잡도
6.6 지니 불순도 또는 엔트로피?
6.7 규제 매개변수
6.8 회귀
6.9 불안정성
6.10 연습문제

CHAPTER 7 앙상블 학습과 랜덤 포레스트
7.1 투표 기반 분류기
7.2 배깅과 페이스팅
7.3 랜덤 패치와 랜덤 서브스페이스
7.4 랜덤 포레스트
7.5 부스팅
7.6 스태킹
7.7 연습문제

CHAPTER 8 차원 축소
8.1 차원의 저주
8.2 차원 축소를 위한 접근 방법
8.3 PCA
8.4 커널 PCA
8.5 LLE
8.6 다른 차원 축소 기법
8.7 연습문제

CHAPTER 9 비지도 학습
9.1 군집
9.2 가우시안 혼합
9.3 연습문제

[PART 2 신경망과 머신러닝]

CHAPTER 10 케라스를 사용한 인공 신경망 소개
10.1 생물학적 뉴런에서 인공 뉴런까지
10.2 케라스로 다층 퍼셉트론 구현하기
10.3 신경망 하이퍼파라미터 튜닝하기
10.4 연습문제

CHAPTER 11 심층 신경망 훈련하기
11.1 그레이디언트 소실과 폭주 문제
11.2 사전훈련된 층 재사용하기
11.3 고속 옵티마이저
11.4 규제를 사용해 과대적합 피하기
11.5 요약 및 실용적인 가이드라인
11.6 연습문제

CHAPTER 12 텐서플로를 사용한 사용자 정의 모델과 훈련
12.1 텐서플로 훑어보기
12.2 넘파이처럼 텐서플로 사용하기
12.3 사용자 정의 모델과 훈련 알고리즘
12.4 텐서플로 함수와 그래프
12.5 연습문제

CHAPTER 13 텐서플로에서 데이터 적재와 전처리하기
13.1 데이터 API
13.2 TFRecord 포맷
13.3 입력 특성 전처리
13.4 TF 변환
13.5 텐서플로 데이터셋 (TFDS) 프로젝트
13.6 연습문제

CHAPTER 14 합성곱 신경망을 사용한 컴퓨터 비전
14.1 시각 피질의 구조
14.2 합성곱 층
14.3 풀링 층
14.4 CNN 구조
14.5 케라스를 사용해 ResNet-34 CNN 구현하기
14.6 케라스에서 제공하는 사전훈련된 모델 사용하기
14.7 사전훈련된 모델을 사용한 전이 학습
14.8 분류와 위치 추정
14.9 객체 탐지
14.10 시맨틱 분할
14.11 연습문제

CHAPTER 15 RNN과 CNN을 사용해 시퀀스 처리하기
15.1 순환 뉴런과 순환 층
15.2 RNN 훈련하기
15.3 시계열 예측하기
15.4 긴 시퀀스 다루기
15.5 연습문제

CHAPTER 16 RNN과 어텐션을 사용한 자연어 처리
16.1 Char-RNN을 사용해 셰익스피어 같은 텍스트 생성하기
16.2 감성 분석
16.3 신경망 기계 번역을 위한 인코더-디코더 네트워크
16.4 어텐션 메커니즘
16.5 언어 모델 분야의 최근 혁신
16.6 연습문제

CHAPTER 17 오토인코더와 GAN을 사용한 표현 학습과 생성적 학습
17.1 효율적인 데이터 표현
17.2 과소완전 선형 오토인코더로 PCA 수행하기
17.3 적층 오토인코더
17.4 합성곱 오토인코더
17.5 순환 오토인코더
17.6 잡음 제거 오토인코더
17.7 희소 오토인코더
17.8 변이형 오토인코더
17.9 생성적 적대 신경망
17.10 연습문제

CHAPTER 18 강화 학습
18.1 보상을 최적화하기 위한 학습
18.2 정책 탐색
18.3 OpenAI 짐
18.4 신경망 정책
18.5 행동 평가: 신용 할당 문제
18.6 정책 그레이디언트
18.7 마르코프 결정 과정
18.8 시간차 학습
18.9 Q-러닝
18.10 심층 Q-러닝 구현하기
18.11 심층 Q-러닝의 변종
18.12 TF-Agents 라이브러리
18.13 그 외 유명한 강화 학습 알고리즘
18.14 연습문제

CHAPTER 19 대규모 텐서플로 모델 훈련과 배포
19.1 텐서플로 모델 서빙
19.2 모바일 또는 임베디드 장치에 모델 배포하기
19.3 계산 속도를 높이기 위해 GPU 사용하기
19.4 다중 장치에서 모델 훈련하기
19.5 연습문제

[PART 3 부록]

부록 A 연습문제 정답
부록 B 머신러닝 프로젝트 체크리스트
부록 C SVM 쌍대 문제
부록 D 자동 미분
부록 E 유명한 다른 인공 신경망 구조
부록 F 특수한 데이터 구조
부록 G 텐서플로 그래프

6. 밑바닥부터 시작하는 딥러닝

저자 : 사이토 고키 

옮긴이 : 개앞맵시

출판사 : 한빛미디어

더보기

1장 헬로 파이썬
1.1 파이썬이란?
1.2 파이썬 설치하기
__1.2.1 파이썬 버전
__1.2.2 사용하는 외부 라이브러리
__1.2.3 아나콘다 배포판
1.3 파이썬 인터프리터
__1.3.1 산술 연산
__1.3.2 자료형
__1.3.3 변수
__1.3.4 리스트
__1.3.5 딕셔너리
__1.3.6 bool
__1.3.7 if 문
__1.3.8 for 문
__1.3.9 함수
1.4 파이썬 스크립트 파일
__1.4.1 파일로 저장하기
__1.4.2 클래스
1.5 넘파이
__1.5.1 넘파이 가져오기
__1.5.2 넘파이 배열 생성하기
__1.5.3 넘파이의 산술 연산
__1.5.4 넘파이의 N차원 배열
__1.5.5 브로드캐스트
__1.5.6 원소 접근
1.6 matplotlib
__1.6.1 단순한 그래프 그리기
__1.6.2 pyplot의 기능
__1.6.3 이미지 표시하기
1.7 정리

2장 퍼셉트론
2.1 퍼셉트론이란?
2.2 단순한 논리 회로
__2.2.1 AND 게이트
__2.2.2 NAND 게이트와 OR 게이트
2.3 퍼셉트론 구현하기
__2.3.1 간단한 구현부터
__2.3.2 가중치와 편향 도입
__2.3.3 가중치와 편향 구현하기
2.4 퍼셉트론의 한계
__2.4.1 도전! XOR 게이트
__2.4.2 선형과 비선형
2.5 다층 퍼셉트론이 출동한다면
__2.5.1 기존 게이트 조합하기
__2.5.2 XOR 게이트 구현하기
2.6 NAND에서 컴퓨터까지
2.7 정리

3장 신경망
3.1 퍼셉트론에서 신경망으로
__3.1.1 신경망의 예
__3.1.2 퍼셉트론 복습
__3.1.3 활성화 함수의 등장
3.2 활성화 함수
__3.2.1 시그모이드 함수
__3.2.2 계단 함수 구현하기
__3.2.3 계단 함수의 그래프
__3.2.4 시그모이드 함수 구현하기
__3.2.5 시그모이드 함수와 계단 함수 비교
__3.2.6 비선형 함수
__3.2.7 ReLU 함수
3.3 다차원 배열의 계산
__3.3.1 다차원 배열
__3.3.2 행렬의 내적
__3.3.3 신경망의 내적
3.4 3층 신경망 구현하기
__3.4.1 표기법 설명
__3.4.2 각 층의 신호 전달 구현하기
__3.4.3 구현 정리
3.5 출력층 설계하기
__3.5.1 항등 함수와 소프트맥스 함수 구현하기
__3.5.2 소프트맥스 함수 구현 시 주의점
__3.5.3 소프트맥스 함수의 특징
__3.5.4 출력층의 뉴런 수 정하기
3.6 손글씨 숫자 인식
__3.6.1 MNIST 데이터셋
__3.6.2 신경망의 추론 처리
__3.6.3 배치 처리
3.7 정리

4장 신경망 학습
4.1 데이터에서 학습한다!
__4.1.1 데이터 주도 학습
__4.1.2 훈련 데이터와 시험 데이터
4.2 손실 함수
__4.2.1 평균 제곱 오차
__4.2.2 교차 엔트로피 오차
__4.2.3 미니배치 학습
__4.2.4 (배치용) 교차 엔트로피 오차 구현하기
__4.2.5 왜 손실 함수를 설정하는가?
4.3 수치 미분
__4.3.1 미분
__4.3.2 수치 미분의 예
__4.3.3 편미분
4.4 기울기
__4.4.1 경사법(경사 하강법)
__4.4.2 신경망에서의 기울기
4.5 학습 알고리즘 구현하기
__4.5.1 2층 신경망 클래스 구현하기
__4.5.2 미니배치 학습 구현하기
__4.5.3 시험 데이터로 평가하기
4.6 정리

5장 오차역전파법
5.1 계산 그래프
__5.1.1 계산 그래프로 풀다
__5.1.2 국소적 계산
__5.1.3 왜 계산 그래프로 푸는가?
5.2 연쇄법칙
__5.2.1 계산 그래프에서의 역전파
__5.2.2 연쇄법칙이란?
__5.2.3 연쇄법칙과 계산 그래프
5.3 역전파
__5.3.1 덧셈 노드의 역전파
__5.3.2 곱셈 노드의 역전파
__5.3.3 사과 쇼핑의 예
5.4 단순한 계층 구현하기
__5.4.1 곱셈 계층
__5.4.2 덧셈 계층
5.5 활성화 함수 계층 구현하기
__5.5.1 ReLU 계층
__5.5.2 Sigmoid 계층
5.6 Affine/Softmax 계층 구현하기
__5.6.1 Affine 계층
__5.6.2 배치용 Affine 계층
__5.6.3 Softmax-with-Loss 계층
5.7 오차역전파법 구현하기
__5.7.1 신경망 학습의 전체 그림
__5.7.2 오차역전파법을 적용한 신경망 구현하기
__5.7.3 오차역전파법으로 구한 기울기 검증하기
__5.7.4 오차역전파법을 사용한 학습 구현하기
5.8 정리

6장 학습 관련 기술들
6.1 매개변수 갱신
__6.1.1 모험가 이야기
__6.1.2 확률적 경사 하강법(SGD)
__6.1.3 SGD의 단점
__6.1.4 모멘텀
__6.1.5 AdaGrad
__6.1.6 Adam
__6.1.7 어느 갱신 방법을 이용할 것인가?
__6.1.8 MNIST 데이터셋으로 본 갱신 방법 비교
6.2 가중치의 초깃값
__6.2.1 초깃값을 0으로 하면?
__6.2.2 은닉층의 활성화 분포
__6.2.3 ReLU를 사용할 때의 가중치 초깃값
__6.2.4 MNIST 데이터셋으로 본 가중치 초깃값 비교
6.3 배치 정규화
__6.3.1 배치 정규화 알고리즘
__6.3.2 배치 정규화의 효과
6.4 바른 학습을 위해
__6.4.1 오버피팅
__6.4.2 가중치 감소
__6.4.3 드롭아웃
6.5 적절한 하이퍼파라미터 값 찾기
__6.5.1 검증 데이터
__6.5.2 하이퍼파라미터 최적화
__6.5.3 하이퍼파라미터 최적화 구현하기
6.6 정리

7장 합성곱 신경망(CNN)
7.1 전체 구조
7.2 합성곱 계층
__7.2.1 완전연결 계층의 문제점
__7.2.2 합성곱 연산
__7.2.3 패딩
__7.2.4 스트라이드
__7.2.5 3차원 데이터의 합성곱 연산
__7.2.6 블록으로 생각하기
__7.2.7 배치 처리
7.3 풀링 계층
__7.3.1 풀링 계층의 특징
7.4 합성곱/풀링 계층 구현하기
__7.4.1 4차원 배열
__7.4.2 im2col로 데이터 전개하기
__7.4.3 합성곱 계층 구현하기
__7.4.4 풀링 계층 구현하기
7.5 CNN 구현하기
7.6 CNN 시각화하기
__7.6.1 1번째 층의 가중치 시각화하기
__7.6.2 층 깊이에 따른 추출 정보 변화
7.7 대표적인 CNN
__7.7.1 LeNet
__7.7.2 AlexNet
7.8 정리

8장 딥러닝
8.1 더 깊게
__8.1.1 더 깊은 네트워크로
__8.1.2 정확도를 더 높이려면
__8.1.3 깊게 하는 이유
8.2 딥러닝의 초기 역사
__8.2.1 이미지넷
__8.2.2 VGG
__8.2.3 GoogLeNet
__8.2.4 ResNet
8.3 더 빠르게(딥러닝 고속화)
__8.3.1 풀어야 할 숙제
__8.3.2 GPU를 활용한 고속화
__8.3.3 분산 학습
__8.3.4 연산 정밀도와 비트 줄이기
8.4 딥러닝의 활용
__8.4.1 사물 검출
__8.4.2 분할
__8.4.3 사진 캡션 생성
8.5 딥러닝의 미래
__8.5.1 이미지 스타일(화풍) 변환
__8.5.2 이미지 생성
__8.5.3 자율 주행
__8.5.4 Deep Q-Network(강화학습)
8.6 정리

부록 A Softmax-with-Loss 계층의 계산 그래프
A.1 순전파
A.2 역전파
A.3 정리


참고

 

 

내 마음대로 선정한 머신러닝/딥러닝 학습 추천 서적

내 마음대로 선정한 머신러닝/딥러닝 학습 추천 서적 추천시스템 개발로 연명했던 어느 개발자의 학습 기록 입니다. 누군가는 하면 된다고 하지만 막상 해보면 되는게 없던 그 시절을 떠올리면

www.sangkon.com