Khám phá cách các lớp bỏ học ngăn chặn hiện tượng quá khớp trong mạng nơ-ron bằng cách cải thiện khả năng khái quát hóa, tính mạnh mẽ và hiệu suất mô hình.
Một lớp dropout là một kỹ thuật chính quy hóa được sử dụng trong mạng nơ-ron để ngăn chặn tình trạng overfitting, một vấn đề phổ biến khi một mô hình hoạt động tốt trên dữ liệu đào tạo nhưng kém trên dữ liệu chưa biết. Trong giai đoạn đào tạo, lớp dropout ngẫu nhiên "dropout" hoặc vô hiệu hóa một tỷ lệ phần trăm nơ-ron nhất định trong mạng. Quá trình này buộc mạng phải học các tính năng mạnh mẽ hơn không phụ thuộc vào sự hiện diện của các nơ-ron cụ thể, do đó cải thiện khả năng khái quát hóa của mô hình đối với dữ liệu mới, chưa biết.
Trong một mạng nơ-ron chuẩn, mỗi nơ-ron trong một lớp được kết nối với mọi nơ-ron trong lớp trước đó. Trong quá trình đào tạo, các kết nối này được tăng cường hoặc suy yếu dựa trên dữ liệu mà mạng xử lý. Tuy nhiên, điều này có thể dẫn đến việc mạng trở nên quá chuyên biệt đối với dữ liệu đào tạo, thu thập nhiễu và các mẫu cụ thể không tổng quát hóa tốt với dữ liệu mới.
Một lớp dropout giải quyết vấn đề này bằng cách ngẫu nhiên thiết lập một phần các neuron trong một lớp thành 0 tại mỗi lần lặp lại đào tạo. Phần các neuron bị loại bỏ là một siêu tham số, thường được thiết lập giữa 0,2 và 0,5. Điều này có nghĩa là 20% đến 50% neuron trong lớp sẽ bị vô hiệu hóa trong mỗi lần truyền tới và truyền lui. Việc lựa chọn neuron nào bị loại bỏ thay đổi theo mỗi lần lặp lại, đảm bảo rằng mạng không phụ thuộc quá nhiều vào bất kỳ neuron riêng lẻ nào.
Các lớp bỏ học mang lại một số lợi thế trong việc đào tạo các mô hình học sâu:
Các lớp dropout được sử dụng rộng rãi trong nhiều ứng dụng học sâu khác nhau. Sau đây là hai ví dụ cụ thể:
Dropout là một trong số nhiều kỹ thuật chính quy hóa được sử dụng trong học máy (ML) . Sau đây là cách nó so sánh với một số phương pháp phổ biến khác:
Các lớp dropout thường được chèn giữa các lớp được kết nối đầy đủ hoặc sau các lớp tích chập trong mạng nơ-ron. Chúng có thể dễ dàng được tích hợp vào các mô hình bằng cách sử dụng các khuôn khổ học sâu phổ biến như TensorFlow và PyTorch . Tỷ lệ dropout, xác định tỷ lệ tế bào thần kinh bị vô hiệu hóa, là một siêu tham số có thể được điều chỉnh để tối ưu hóa hiệu suất mô hình. Để biết các kỹ thuật tối ưu hóa mô hình nâng cao hơn, hãy khám phá điều chỉnh siêu tham số .
Khi triển khai dropout, điều quan trọng cần lưu ý là lớp dropout hoạt động khác nhau trong quá trình đào tạo và suy luận. Trong quá trình đào tạo, các neuron bị loại bỏ ngẫu nhiên như đã mô tả. Tuy nhiên, trong quá trình suy luận, tất cả các neuron đều hoạt động, nhưng đầu ra của chúng được thu nhỏ theo tỷ lệ dropout để duy trì độ lớn đầu ra mong đợi. Việc thu nhỏ này đảm bảo rằng các dự đoán của mô hình nhất quán giữa quá trình đào tạo và suy luận.
Để đọc thêm, bạn có thể khám phá bài báo nghiên cứu gốc về dropout của Srivastava và cộng sự, trong đó cung cấp phân tích chuyên sâu về phương pháp và hiệu quả của nó: Dropout: A Simple Way to Prevent Neural Networks from Overfitting . Bạn cũng có thể tìm hiểu thêm về các khái niệm liên quan như chuẩn hóa và chính quy hóa theo lô để hiểu sâu hơn về các kỹ thuật được sử dụng để cải thiện hiệu suất của mạng nơ-ron.