Tóm tắt nội dung
Hướng dẫn toàn diện đầu tiên về học tăng cường phân phối, cung cấp một hình thức toán học mới để suy nghĩ về các quyết định theo quan điểm xác suất. Học tăng cường phân phối là một hình thức toán học mới để suy nghĩ về các quyết định. Vượt ra ngoài cách tiếp cận thông thường đối với học tăng cường và các giá trị kỳ vọng, nó tập trung vào tổng phần thưởng hoặc lợi nhuận thu được do hậu quả của các lựa chọn của tác nhân - cụ thể là cách lợi nhuận này hoạt động theo quan điểm xác suất. Trong hướng dẫn toàn diện đầu tiên này về học tăng cường phân phối, Marc G. Bellemare, Will Dabney và Mark Rowland, những người đi đầu trong sự phát triển của lĩnh vực này, trình bày các khái niệm chính của nó và xem xét một số ứng dụng của nó. Họ chứng minh sức mạnh của nó trong việc giải thích nhiều hiện tượng phức tạp, thú vị phát sinh từ các tương tác với môi trường của một người. Các tác giả trình bày các ý tưởng cốt lõi từ học tăng cường cổ điển để ngữ cảnh hóa các chủ đề phân phối và bao gồm các bằng chứng toán học liên quan đến các kết quả chính được thảo luận trong văn bản. Họ hướng dẫn người đọc thông qua một loạt các phát triển thuật toán và toán học, lần lượt mô tả, tính toán, ước tính và đưa ra quyết định dựa trên lợi nhuận ngẫu nhiên. Các học viên trong nhiều lĩnh vực khác nhau như tài chính (quản lý rủi ro), khoa học thần kinh tính toán, tâm thần học tính toán, tâm lý học, kinh tế vĩ mô và robot học hiện đang sử dụng phương pháp học tăng cường phân phối, mở đường cho các ứng dụng mở rộng của phương pháp này trong tài chính toán học, kỹ thuật và khoa học sự sống. Hơn cả một phương pháp tiếp cận toán học, phương pháp học tăng cường phân phối đại diện cho một góc nhìn mới về cách các tác nhân thông minh đưa ra dự đoán và quyết định.
Abstract:
The first comprehensive guide to distributional reinforcement learning, providing a new mathematical formalism for thinking about decisions from a probabilistic perspective.Distributional reinforcement learning is a new mathematical formalism for thinking about decisions. Going beyond the common approach to reinforcement learning and expected values, it focuses on the total reward or return obtained as a consequence of an agent's choices - specifically, how this return behaves from a probabilistic perspective. In this first comprehensive guide to distributional reinforcement learning, Marc G. Bellemare, Will Dabney, and Mark Rowland, who spearheaded development of the field, present its key concepts and review some of its many applications. They demonstrate its power to account for many complex, interesting phenomena that arise from interactions with one's environment.The authors present core ideas from classical reinforcement learning to contextualize distributional topics and include mathematical proofs pertaining to major results discussed in the text. They guide the reader through a series of algorithmic and mathematical developments that, in turn, characterize, compute, estimate, and make decisions on the basis of the random return. Practitioners in disciplines as diverse as finance (risk management), computational neuroscience, computational psychiatry, psychology, macroeconomics, and robotics are already using distributional reinforcement learning, paving the way for its expanding applications in mathematical finance, engineering, and the life sciences. More than a mathematical approach, distributional reinforcement learning represents a new perspective on how intelligent agents make predictions and decisions.
Sử dụng ứng dụng Libol Bookworm quét QRCode này để mượn và đọc tài liệu)
(Lưu ý: Sử dụng ứng dụng Bookworm để xem đầy đủ tài liệu. Bạn đọc có thể tải Bookworm từ App Store hoặc Google play với từ khóa "Libol Bookworm”)