본문내용 바로가기

KYOBO 교보문고

금/토/일 주말특가
긴급재난지원금매장사용
[톡소다]천재소독비
교보문고 북데이
  • 교보 손글씨 2019 무료 폰트
  • 손글씨스타
  • 손글쓰기캠페인 메인
  • 손글씨풍경
파이썬과 케라스로 배우는 강화학습(위키북스 데이터 사이언스 시리즈 4)
* 중고장터 판매상품은 판매자가 직접 등록/판매하는 상품으로 판매자가 해당상품과 내용에 모든 책임을 집니다. 우측의 제품상태와 하단의 상품상세를 꼭 확인하신 후 구입해주시기 바랍니다.
372쪽 | 규격外
ISBN-10 : 1158390726
ISBN-13 : 9791158390723
파이썬과 케라스로 배우는 강화학습(위키북스 데이터 사이언스 시리즈 4) 중고
저자 이웅원 | 출판사 위키북스
정가
27,000원
판매가
15,000원 [44%↓, 12,000원 할인]
배송비
3,500원 (판매자 직접배송)
지금 주문하시면 3일 이내 출고 가능합니다.
토/일, 공휴일을 제외한 영업일 기준으로 배송이 진행됩니다.
2017년 7월 31일 출간
제품상태
상태 상급 외형 상급 내형 상급
이 상품 최저가
14,000원 다른가격더보기
  • 14,000원 소망도서 특급셀러 상태 최상 외형 최상 내형 상급
  • 15,000원 책들과함께 특급셀러 상태 상급 외형 상급 내형 상급
  • 19,900원 취중불문 우수셀러 상태 최상 외형 최상 내형 최상
새 상품
24,300원 [10%↓, 2,700원 할인] 새상품 바로가기
안내 :

중고장터에 등록된 판매 상품과 제품의 상태는 개별 오픈마켓 판매자들이 등록, 판매하는 것으로 중개 시스템만을 제공하는
인터넷 교보문고에서는 해당 상품과 내용에 대해 일체 책임을 지지 않습니다.

교보문고 결제시스템을 이용하지 않은 직거래로 인한 피해 발생시, 교보문고는 일체의 책임을 지지 않습니다.

중고책 추천 (판매자 다른 상품)

더보기

판매자 상품 소개

※ 해당 상품은 교보문고에서 제공하는 정보를 활용하여 안내하는 상품으로제품 상태를 반드시 확인하신 후 구입하여주시기 바랍니다.

판매자 배송 정책

  • 토/일, 공휴일을 제외한 영업일 기준으로 배송이 진행됩니다.

더보기

구매후기 목록
NO 구매후기 구매만족도 ID 등록일
1,565 잘 받았습니다. 고맙습니다. 5점 만점에 5점 hyuk9*** 2020.07.09
1,564 잘 받았습니다. 만족합니다. 5점 만점에 5점 prhan*** 2020.07.07
1,563 책이 깨끗하고 잘 받았습니다. 5점 만점에 5점 chi*** 2020.07.04
1,562 잘받았습니다 별다섯개 드려요 5점 만점에 5점 ehdgh*** 2020.06.27
1,561 도서 상태 배송관련 등 만족합니다 5점 만점에 5점 kang7*** 2020.06.23

이 책의 시리즈

책 소개

상품구성 목록
상품구성 목록

“강화학습을 쉽게 이해하고 코드로 구현하기” 강화학습의 기초부터 최근 알고리즘까지 친절하게 설명한다! ‘알파고’로부터 받은 신선한 충격으로 많은 사람들이 강화학습에 관심을 가지기 시작했다. 하지만 처음 강화학습을 공부하는 분들을 위한 쉬운 자료나 강의를 찾아보기 어려웠다. 외국 강의를 통해 어렵게 이론을 공부하더라도 강화학습을 구현하는 데는 또 다른 장벽이 있었다. 이 책은 강화학습을 처음 공부하는 데 어려움을 겪는 독자를 위해 이론부터 코드 구현까지의 가이드를 제시한다.

저자소개

저자 : 이웅원
저자 이웅원은 연세대학교 기계공학과를 졸업했다. '모두의연구소'에서 개최한 강화학습 스터디에 참여해 공부하면서 강화학습 관련 깃북(https://www.gitbook.com/book/dnddnjs/rl)을 작성했다. 현재는 제이마플에서 딥러닝을 사용해 소리를 인식하는 작업을 하고 있다.

저자 : 양혁렬
저자 양혁렬은 한양대학교에서 경영학과 컴퓨터 공학을 다중전공하고 있다. 현재는 음악/오디오 신호처리와 기계학습을 결합한 분야에 관심을 가지고 서울대학교 융합과학기술대학원의 음악 오디오 연구실에서 연구원으로 참여하고 있다.

저자 : 김건우
저자 김건우는 뉴욕대학교 컴퓨터 과학과에 재학 중이며 DeepCoding 그룹에서 딥러닝을 코딩에 적용하는 연구를 진행 중이다. 현재는 우버 샌프란시스코에서 소프트웨어 엔지니어 인턴으로 일하고 있다.

저자 : 이영무
저자 이영무는 중앙대학교 컴퓨터 공학과에 재학 중이며 '모두의연구소'에서 개최한 강화학습 스터디에서 공부했다. 현재 머신러닝, 딥러닝에 관련된 공부를 지속하고 있다.

저자 : 이의령
저자 이의령은 세종대학교에서 응용통계학과 경영학을 전공하고 졸업 후 스타트업에서 서버 개발 인턴으로 근무했다. 현재 '모두의연구소'에서 신호처리 관련 프로젝트를 진행하면서 머신러닝과 관련된 다양한 경험을 쌓고 있다.

목차

[1부] 강화학습 소개

▣ 1장: 강화학습 개요
강화학습의 개념
___스키너의 강화 연구
___우리 주변에서의 강화
___머신러닝과 강화학습
___스스로 학습하는 컴퓨터, 에이전트
강화학습 문제
___순차적 행동 결정 문제
___순차적 행동 결정 문제의 구성 요소
___방대한 상태를 가진 문제에서의 강화학습
강화학습의 예시: 브레이크아웃
___딥마인드에 의해 다시 빛을 본 아타리 게임
___브레이크아웃의 MDP와 학습 방법
정리
___강화학습의 개념
___강화학습 문제
___강화학습의 예시: 브레이크아웃

[2부] 강화학습 기초

▣ 2장: 강화학습 기초 1 - MDP와 벨만 방정식
MDP
___상태
___행동
___보상함수
___상태 변환 확률
___감가율
___정책
가치함수
___가치함수
___큐함수
벨만 방정식
___벨만 기대 방정식
___벨만 최적 방정식
정리
___MDP
___가치함수
___벨만 방정식

▣ 3장: 강화학습 기초 2 - 그리드월드와 다이내믹 프로그래밍
다이내믹 프로그래밍과 그리드월드
___순차적 행동 결정 문제
___다이내믹 프로그래밍
___격자로 이뤄진 간단한 예제: 그리드월드
다이내믹 프로그래밍 1: 정책 이터레이션
___강화학습 알고리즘의 흐름
___정책 이터레이션
___정책 평가
___정책 발전
___RLCode 깃허브 저장소
___정책 이터레이션 코드 설명
___정책 이터레이션 코드 실행
다이내믹 프로그래밍 2: 가치 이터레이션
___명시적인 정책과 내재적인 정책
___벨만 최적 방정식과 가치 이터레이션
___가치 이터레이션 코드 설명
___가치 이터레이션 코드 실행
다이내믹 프로그래밍의 한계와 강화학습
___다이내믹 프로그래밍의 한계
___모델 없이 학습하는 강화학습
정리
___다이내믹 프로그래밍과 그리드월드
___다이내믹 프로그래밍 1: 정책 이터레이션
___다이내믹 프로그래밍 2: 가치 이터레이션
___다이내믹 프로그래밍의 한계와 강화학습

▣ 4장: 강화학습 기초 3 - 그리드월드와 큐러닝
강화학습과 정책 평가 1: 몬테카를로 예측
___사람의 학습 방법과 강화학습의 학습 방법
___강화학습의 예측과 제어
___몬테카를로 근사의 예시
___샘플링과 몬테카를로 예측
강화학습과 정책 평가 2: 시간차 예측
___시간차 예측
강화학습 알고리즘 1: 살사
___살사
___살사 코드 설명
___살사 코드의 실행 및 결과
강화학습 알고리즘 2: 큐러닝
___살사의 한계
___큐러닝 이론
___큐러닝 코드 설명
___큐러닝 코드의 실행 결과
정리
___강화학습과 정책 평가 1: 몬테카를로 예측
___강화학습과 정책 평가 2: 시간차 예측
___강화학습 알고리즘 1: 살사
___강화학습 알고리즘 2: 큐러닝

[3부] 강화학습 심화

▣ 5장: 강화학습 심화 1 - 그리드월드와 근사함수
근사함수
___몬테카를로, 살사, 큐러닝의 한계
___근사함수를 통한 가치함수의 매개변수화
인공신경망
___인공신경망 1: 인공신경망의 개념
___인공신경망 2: 노드와 활성함수
___인공신경망 3: 딥러닝
___인공신경망 4: 신경망의 학습
인공신경망 라이브러리: 케라스
___케라스 소개
___간단한 케라스 예제
딥살사
___딥살사 이론
___딥살사 코드 설명
___딥살사의 실행 및 결과
폴리시 그레이디언트
___정책 기반 강화학습
___폴리시 그레이디언트
___REINFORCE 코드 설명
___REINFORCE의 실행 및 결과
정리
___근사함수
___인공신경망
___인공신경망 라이브러리: 케라스
___딥살사
___폴리시 그레이디언트

▣ 6장: 강화학습 심화 2 - 카트폴
알고리즘 1: DQN
___카트폴 예제의 정의
___DQN 이론
___DQN 코드 설명
___DQN 실행 및 결과
알고리즘 2: 액터-크리틱
___액터-크리틱 이론 소개
___액터-크리틱 코드 설명
___액터-크리틱 실행 및 결과
정리
___알고리즘 1: DQN
___알고리즘 2: 액터-크리틱

▣ 7장: 강화학습 심화 3 - 아타리
브레이크아웃 DQN
___아타리: 브레이크아웃
___컨볼루션 신경망(CNN)이란?
___브레이크아웃의 컨볼루션 신경망
___DQN 학습 전 준비 사항
___DQN 코드 설명
___텐서보드 사용법
___브레이크아웃 DQN 실행 및 결과
브레이크아웃 A3C
___DQN의 한계
___A3C란?
___멀티스레딩 소개
___브레이크아웃 A3C 코드 설명
___브레이크아웃 A3C 실행 결과
___브레이크아웃 DQN, A3C의 저장된 모델 플레이
정리
___브레이크아웃 DQN
___브레이크아웃 A3C

▣ 부록A: 학습결과 업로드
___오픈에이아이 짐의 다양한 예제
___오픈에이아이 짐에 학습 결과를 업로드

책 속으로

출판사 서평

★ 이 책에서 다루는 내용 ★ ◎ 강화학습의 배경과 개념 ◎ 강화학습의 기초 이론: MDP, 벨만 방정식, 다이내믹 프로그래밍 ◎ 고전 강화학습 알고리즘: 몬테카를로, 살사, 큐러닝 ◎ 인공신경망을 이용한 강화학습 알고리즘: 딥살사, REI...

[출판사서평 더 보기]

★ 이 책에서 다루는 내용 ★

◎ 강화학습의 배경과 개념
◎ 강화학습의 기초 이론: MDP, 벨만 방정식, 다이내믹 프로그래밍
◎ 고전 강화학습 알고리즘: 몬테카를로, 살사, 큐러닝
◎ 인공신경망을 이용한 강화학습 알고리즘: 딥살사, REINFORCE, DQN, 액터-크리틱, A3C
◎ 강화학습 알고리즘 구현: 그리드월드, 카트폴, 아타리게임

[출판사서평 더 보기 닫기]

책 속 한 문장

회원리뷰

  • 머신 러닝 분야 중에서도 강화학습만 따로 잘 정리된 책인것 같습니다.  기존의 다른 머신러닝 책들이 지도학습...
    머신 러닝 분야 중에서도 강화학습만 따로 잘 정리된 책인것 같습니다. 

    기존의 다른 머신러닝 책들이 지도학습, 비지도학습, 회귀, PCM, 오토 인코더,  RBM, MNIST.....

    여러가지 내용들을 저자 마다 다르게 설명하고 있습니다. 

    또한 유명하신 교수님들의 번역서들도 별로 만족하기 어려웠습니다. 


    그런데 이책은 저자 들의 언어로, 한글로 쉽게 잘 설명하고 있습니다

    강화학습을 해보갖 하시는 분이라면, 특히 입문자라면 추천합니다. 

    조금 부족한 부분들이 몇군데 있습니다. 이런 부분은 이웅원 저자가 따로 

    페이스북등에 공개한 pdf자료를 읽어서 보충해야 합니다.  이책과 접근이 다른 부분이 있습니다. 

    즉 이책에서 다 할수 없었던 내용들은 pdf로 보충하셔야 합니다. 

    예제도 굉장히 깔끔하게 잘 코딩되어 있습니다. 

    ------------------------

    큰 흐름을 요약하면, 순차적 의사 결정을 하기 위해 최적정책을 어떻게 구하는지 큰 순서대로 설명하고 있습니다. 

    먼저 Markov Decision Process로 문제 정의를 합니다. value function을 도입해서 Bellman Expectation Equation과 

    Bellman Optimality Equation을 세웁니다. 

    이를 계산하기 위해서 Optimal Control Theory 에서 배운 Dynamic Programming을 

    이용하여 Bellman Equation을 value-iteration, Policy Iteration 등으로 풀게 됩니다. 

    그런데 여기서 차원의 저주, 환경에 대한 완전한 모델 필요와 같은 문제가 발생합니다. 

    이를 해결 하기 위해 강화학습이 등장합니다. Monte-Carlo, Temporal-difference, SARSA.등이 여기에 해당합니다. 


    여전히 문제점이 있습니다. 그것을 함수근사 라는 방법으로 해결하게 되는데, 

    요즘 주목받고 있는 인공 신경망이 이 함수 근사를 대신하게 됩니다. 

  • 강화학습과 관련된 한글 책이 거의 없는 환경에서 이러한 책이 나와서 기쁘게 생각합니다. 지금까지 다른 인공지능, 딥러닝 책에...

    강화학습과 관련된 한글 책이 거의 없는 환경에서 이러한 책이 나와서 기쁘게 생각합니다.

    지금까지 다른 인공지능, 딥러닝 책에서는 강화학습이 있다고 하더라도 정말 향기만 남기고 간 수준이었고

    제대로 공부하기 위해서 서튼의 책을 보는순간...절망했던 적이 강화학습을 공부하셨던 분들이라면 한번쯤 있을 것입니다.

     

    이 책은 강화학습에 입문하기에 가장 적합한 책입니다.

    최대한 수식은 간결하게 / 문장으로 개념을 잡고가는 컨셉으로 머신러닝을 깊게 공부하지 않으신 분들이라도 쉽게 읽을 수 있습니다. 다만 개인적으로는 저자들이 예전에 작성했던 위키문서 수준의 내용까지 다뤘으면 했는데 몇몇 부분 빠진것이 있어서 조금 아쉬웠습니다. 개인적으로 좀더 깊은 부분까지 다뤄도 좋았을 것이라 생각합니다.

     

    후반부의 DQN, A3C로 가면 확실히 설명은 매우 간략해 지고 코드리뷰를 하는 느낌이 강해집니다. 이러한 내용을 한정된 지면에서 설명하기가 애초에 쉽지 않겠지만 조금 아쉬운 부분입니다. 또한 코드자체가 너무 덤프되어있는 느낌이 있습니다. 다음번에 개정본을 낸다면 좀 더 깜끔하게 정리되고 더 높은 퍼포먼스를 보일수 있는 코드를 제시하면 좋겠습니다.

     

    확실히 읽다보면 아쉬운 부분이 종종보이지만 그래도 저자들의 노력으로 인해 강화학습을 시작하는 사람들이 쉽게 접할수 있도록 이러한 책을 완성시킨 것이 감사의 말을 보냅니다. 

교환/반품안내

※ 상품 설명에 반품/교환 관련한 안내가 있는 경우 그 내용을 우선으로 합니다. (업체 사정에 따라 달라질 수 있습니다.)

교환/반품안내
반품/교환방법

[판매자 페이지>취소/반품관리>반품요청] 접수
또는 [1:1상담>반품/교환/환불], 고객센터 (1544-1900)

※ 중고도서의 경우 재고가 한정되어 있으므로 교환이 불가할 수 있으며, 해당 상품의 경우 상품에 대한 책임은 판매자에게 있으며 교환/반품 접수 전에 반드시 판매자와 사전 협의를 하여주시기 바랍니다.

반품/교환가능 기간

변심반품의 경우 수령 후 7일 이내, 상품의 결함 및 계약내용과 다를 경우 문제점 발견 후 30일 이내

※ 중고도서의 경우 판매자와 사전의 협의하여주신 후 교환/반품 접수가 가능합니다.

반품/교환비용 변심 혹은 구매착오로 인한 반품/교환은 반송료 고객 부담
반품/교환 불가 사유

소비자의 책임 있는 사유로 상품 등이 손실 또는 훼손된 경우(단지 확인을 위한 포장 훼손은 제외)

소비자의 사용, 포장 개봉에 의해 상품 등의 가치가 현저히 감소한 경우 예) 화장품, 식품, 가전제품 등

복제가 가능한 상품 등의 포장을 훼손한 경우 예) 음반/DVD/비디오, 소프트웨어, 만화책, 잡지, 영상 화보집

소비자의 요청에 따라 개별적으로 주문 제작되는 상품의 경우 ((1)해외주문도서)

디지털 컨텐츠인 eBook, 오디오북 등을 1회 이상 다운로드를 받았을 경우

시간의 경과에 의해 재판매가 곤란한 정도로 가치가 현저히 감소한 경우

전자상거래 등에서의 소비자보호에 관한 법률이 정하는 소비자 청약철회 제한 내용에 해당되는 경우

1) 해외주문도서 : 이용자의 요청에 의한 개인주문상품이므로 단순 변심 및 착오로 인한 취소/교환/반품 시 해외주문 반품/취소 수수료 고객 부담 (해외주문 반품/취소 수수료는 판매정가의 20%를 적용

2) 중고도서 : 반품/교환접수없이 반송하거나 우편으로 접수되어 상품 확인이 어려운 경우

소비자 피해보상
환불지연에 따른 배상

- 상품의 불량에 의한 교환, A/S, 환불, 품질보증 및 피해보상 등에 관한 사항은 소비자분쟁해결 기준 (공정거래위원회 고시)에 준하여 처리됨

- 대금 환불 및 환불지연에 따른 배상금 지급 조건, 절차 등은 전자상거래 등에서의 소비자 보호에 관한 법률에 따라 처리함

판매자
책들과함께
판매등급
특급셀러
판매자구분
사업자
구매만족도
5점 만점에 5점
평균 출고일 안내
2일 이내
품절 통보율 안내
3%

바로가기

최근 본 상품