Principles of Catastrophic Forgetting for Continual Semantic Segmentation in Automated Driving

Loại tài liệu: Tài liệu số - Tài nguyên giáo dục mở / Bộ sưu tập: Công nghệ thông tin

Tác giả: Kalb, Tobias Michael

Nhà xuất bản: KIT Scientific Publishing

Năm xuất bản: 2024

Tải ứng dụng tại các liên kết sau để xem đầy đủ tài liệu.

Tóm tắt nội dung

Học sâu rất giỏi trong việc trích xuất các mẫu phức tạp nhưng lại phải đối mặt với việc quên thảm khốc khi được tinh chỉnh trên dữ liệu mới. Cuốn sách này nghiên cứu cách học gia tăng theo lớp và theo miền ảnh hưởng đến mạng nơ-ron thần kinh để lái xe tự động, xác định các thay đổi ngữ nghĩa và thay đổi tính năng là các yếu tố chính. Các công cụ để đo lường việc quên định lượng được lựa chọn và sử dụng để chỉ ra cách các chiến lược như tăng cường hình ảnh, đào tạo trước và điều chỉnh kiến ​​trúc làm giảm việc quên thảm khốc.

Abstract:

Deep learning excels at extracting complex patterns but faces catastrophic forgetting when fine-tuned on new data. This book investigates how class- and domain-incremental learning affect neural networks for automated driving, identifying semantic shifts and feature changes as key factors. Tools for quantitatively measuring forgetting are selected and used to show how strategies like image augmentation, pretraining, and architectural adaptations mitigate catastrophic forgetting.

Ngôn ngữ:eng
Tác giả:Kalb, Tobias Michael
Thông tin nhan đề:Principles of Catastrophic Forgetting for Continual Semantic Segmentation in Automated Driving
Nhà xuất bản:KIT Scientific Publishing
Loại hình:Tài nguyên giáo dục mở / Bộ sưu tập: Công nghệ thông tin
Bản quyền:https://creativecommons.org/licenses/by-sa/4.0/
Nguồn gốc:https://directory.doabooks.org/handle/20.500.12854/147393
Mô tả vật lý:236p.
Năm xuất bản:2024

Sử dụng ứng dụng Libol Bookworm quét QRCode này để mượn và đọc tài liệu)

(Lưu ý: Sử dụng ứng dụng Bookworm để xem đầy đủ tài liệu. Bạn đọc có thể tải Bookworm từ App Store hoặc Google play với từ khóa "Libol Bookworm”)