자료검색 > 상세페이지

저자

발행처

발행년도

KDC : 005.133
도서 C++로 배우는 딥러닝
  • ㆍ저자사항 후지타 타케시 지음;
  • ㆍ발행사항 서울: BM성안당, 2018
  • ㆍ형태사항 261 p.: 삽화; 24 cm
  • ㆍ일반노트 원저자명: 藤田毅
  • ㆍISBN 9788931555660
  • ㆍ주제어/키워드 C 딥러닝 소프트웨어 프로그래밍언어
  • ㆍ소장기관 논산열린도서관

소장정보

소장정보
등록번호 낱권정보 자료실 / 청구기호 / ISBN 자료상태 반납예정일 예약 상호대차서비스
NE0000012300 [열린]종합자료실
005.133-후851ㅅ
예약불가 - 예약불가 상호대차신청

상세정보

<입문자와 소프트웨어 엔지니어를 위한 딥러닝과 신경망의 모든 것! 신경망의 기본부터 합성곱 신경망(CNN), 재귀형 신경망(RNN)까지 총 망라!요즘 생활어가 된 인공지능을 구현하기 위해서는 머신러닝, 좀 더 세부적으로는 딥러닝으로 범위를 좁혀서 딥러닝의 기초가 되는 신경망을 공부해야 한다....

도서정보 상세보기[NAVER 제공]

목차

C++로 배우는 딥러닝 - 후지타 타케시 지음, 김성훈 옮김
신경망의 기본부터 합성곱 신경망(CNN), 재귀형 신경망(RNN)까지 딥러닝과 신경망의 모든 것을 알려준다. 먼저 신경망 구축에 필요한 최소한의 C++ 프로그래밍, 병렬 프로그래밍의 중요성과 그에 관한 지식과 행렬 연산을 설명한 뒤 신경망에 관한 깊이 있는 내용으로 이어진다.

http://www.aladin.co.kr/shop/wproduct.aspx?ItemId=152516250&copyPaper=1&ttbkey=ttbhcr98061138004&start=api

Chapter 01 딥러닝 개론
1-1 딥러닝
1-1-1 딥러닝이란
1-1-2 딥러닝의 배경
1-1-3 딥러닝이 할 수 있는 일
1-1-4 딥러닝의 응용 예
1-1-5 이 책이 대상으로 하는 독자
1-1-6 이 책의 구성
1-1-7 이 책에서 제공하는 소스 코드에 대해서
1-2 학습에 필요한 C++ 언어의 기능
1-2-1 포인터
1-2-2 공유 포인터
1-2-3 vector
1-2-4 map
1-2-5 리스트 구조
1-2-6 트리 구조

Chapter 02 신경망을 위한 행렬 연산과 병렬 프로그래밍
2-1 GPU 활용하기
2-1-1 병렬 프로그래밍의 중요성
2-1-2 GPU와 딥러닝
2-2-3 GPU 이용하기
2-2 CUDA 프로그래밍
2-2-1 CUDA 커널
2-2-2 스레드 구성
2-2-3 CPU 메모리와 GPU 메모리
2-3 행렬 연산
2-3-1 행렬 연산의 프레임워크화
2-3-2 cuBLAS
2-3-3 행렬사칙연산 이외의 예
2-3-4 연산자 정의

Chapter 03 신경망
3-1 단순 퍼셉트론
3-1-1 단순 퍼셉트론 모델
3-1-2 단순 퍼셉트론이 할 수 있는 일
3-1-3 단순 퍼셉트론의 학습 과정
3-2 다층 퍼셉트론
3-2-1 다층 퍼셉트론 모델
3-2-2 활성화 함수
3-2-3 회귀 문제에서 다층 퍼셉트론 학습
3-2-4 분류 문제에서 다층 퍼셉트론 학습
3-3 신경망의 매개변수 추정
3-3-1 확률적 경사 하강법(Stochastic Gradient Descent, SGD)
3-3-2 미니배치(mini-batch)
3-3-3 가중치 초기화

Chapter 04 오차역전파
4-1 순방향 계산
4-1-1 계산 그래프
4-1-2 미니배치 행렬 표현
4-2 미분의 연쇄법칙
4-2-1 합성함수의 미분
4-2-2 미분의 연쇄법칙
4-2-3 다층 신경망에서의 각 매개변수 미분
4-2-4 연쇄법칙의 시각적 표현
4-3 기울기 소실 문제
4-3-1 기울기 소실 문제란?
4-3-2 기울기 소실 문제에 관한 대처

Chapter 05 C++를 이용한 신경망 구현
5-1 역방향 자동 미분 구현
5-1-1 변수
5-1-2 함수의 기반 클래스
5-1-3 활성화 함수의 정의
5-1-4 선형함수의 정의
5-1-5 교차 엔트로피 오차함수
5-1-6 역전파
5-2 함수 래퍼
5-3 모델
5-3-1 모델의 정의
5-3-2 모델의 저장과 복원
5-4 옵티마이저
5-4-1 옵티마이저의 기반 클래스.
5-4-2 옵티마이저의 예
5-5 MNIST를 예로 든 학습과 평가
5-5-1 MNIST 데이터 셋 구하기
5-5-2 MNIST 데이터 형식
5-5-3 분류 모델
5-6 Iris를 예로 한 학습과 평가
5-6-1 Iris의 데이터 형식
5-6-2 분류 모델

Chapter 06 학습 최적화와 오버피팅
6-1 학습 최적화
6-1-1 모멘텀 SGD
6-1-2 NAG
6-1-3 AdaGrad
6-1-4 RMSprop
6-1-5 AdaDelta
6-1-6 Adam
6-1-7 Adam의 구현
6-2 오버피팅 대책
6-2-1 정규화
6-2-2 드롭아웃
6-2-3 드롭아웃 구현
6-2-4 배치 정규화
6-2-5 배치 정규화 구현

Chapter 07 사전 학습
7-1 오토인코더와 사전 학습
7-1-1 오토인코더
7-1-2 희소 오토인코더(sparse autoencoder)
7-1-3 은닉층의 가중치
7-1-4 디노이징 오토인코더
7-1-5 사전 학습
7-2 오토인코더 구현
7-2-1 은닉층
7-2-2 은닉층의 래퍼
7-2-3 오토인코더 구축과 학습

Chapter 08 합성곱 신경망
8-1 합성곱
8-1-1 이미지
8-1-2 이미지 필터
8-1-3 패딩
8-1-4 풀링
8-2 합성곱층
8-2-1 합성곱층 계산
8-2-2 합성곱층 계산 연구.
8-2-3 필터 계수 초기화
8-2-4 합성곱층 구현
8-2-5 풀링층 구현
8-2-6 전결합층

8-3 CIFAR-10을 사용한 이미지 인식
8-3-1 CIFAR-10의 라벨
8-3-2 파일 형식
8-3-3 분류 모델

Chapter 09 재귀형 신경망
9-1 폭넓게 응용할 수 있는 재귀형 신경망
9-1-1 재귀형 신경망 모델
9-1-2 재귀형 신경망의 역전파
9-1-3 역전파 세부 사항
9-2 재귀형 신경망의 문제점과 해결책
9-2-1 LSTM
9-2-2 LSTM의 오차역전파
9-2-3 LSTM 구현
9-2-4 GRU
9-2-5 GRU의 구현
9-2-6 잘린 BPTT(Truncated BPTT)
9-2-7 숫자 기억하기
9-2-8 사인파 재현
9-3 단어의 벡터 표현
9-3-1 벡터 표현
9-3-2 벡터 표현의 구현
9-4 번역 모델·어텐션 모델
9-4-1 인코더·디코더 모델
9-4-2 패딩
9-4-3 어텐션 모델
9-5 자동 번역 구현
9-5-1 번역 코퍼스
9-5-2 인코더·디코더 모델을 사용한 네트워크 훈련.
9-5-3 인코더·디코더 모델을 사용한 번역(추정)
9-5-4 실행 결과의 고찰
참고 문헌
INDEX


[인터넷서점 알라딘 제공]

내가 찾은 검색어

천안시도서관

본 웹사이트에 게시된 이메일 주소는 자동수집을 거부하며 이를 위반시 정보통신망법에 의해 처벌됨을 유념하시기 바랍니다.

(31127) 충남 천안시 동남구 중앙로 118 / Tel : 041-521-3721~2

Copyrightⓒ Cheonan-Si. All rights reserved.

Libropia QR code