Yolo Tầm nhìn Thâm Quyến
Thâm Quyến
Tham gia ngay
Bảng chú giải thuật ngữ

Chính quy hóa

Khám phá cách chuẩn hóa giúp ngăn ngừa hiện tượng quá khớp trong học máy. Tìm hiểu cách triển khai dropout và weight decay bằng cách sử dụng Ultralytics Sử dụng YOLO26 để cải thiện khả năng khái quát hóa của mô hình.

Chuẩn hóa (Regularization) là một tập hợp các kỹ thuật được sử dụng trong học máy để ngăn chặn các mô hình trở nên quá phức tạp và cải thiện khả năng khái quát hóa của chúng đối với dữ liệu mới, chưa được nhìn thấy. Trong quá trình huấn luyện, một mô hình cố gắng giảm thiểu lỗi của nó, thường bằng cách học các mẫu phức tạp trong dữ liệu huấn luyện . Tuy nhiên, nếu không có các ràng buộc, mô hình có thể bắt đầu ghi nhớ nhiễu và các giá trị ngoại lai - một vấn đề được gọi là quá khớp (overfitting ). Chuẩn hóa giải quyết vấn đề này bằng cách thêm một hình phạt vào hàm mất mát của mô hình, từ đó ngăn chặn hiệu quả các giá trị tham số cực đoan và buộc thuật toán phải học các mẫu mượt mà hơn, mạnh mẽ hơn.

Khái niệm và kỹ thuật cốt lõi

Nguyên tắc điều chỉnh thường được so sánh với nguyên tắc dao cạo Occam , cho thấy giải pháp đơn giản nhất thường là giải pháp đúng. Bằng cách ràng buộc mô hình, các nhà phát triển đảm bảo mô hình tập trung vào các đặc điểm quan trọng nhất của dữ liệu thay vì các mối tương quan ngẫu nhiên.

Có một số phương pháp phổ biến được sử dụng để triển khai chuẩn hóa trong các khung học sâu hiện đại:

  • Chuẩn hóa L1 và L2: Các kỹ thuật này thêm một hệ số phạt dựa trên độ lớn của trọng số mô hình. Chuẩn hóa L2, còn được gọi là Hồi quy Ridge hoặc suy giảm trọng số, sẽ phạt nặng các trọng số lớn, khuyến khích chúng nhỏ và phân tán. Chuẩn hóa L1, hay Hồi quy Lasso , có thể đưa một số trọng số về 0, thực hiện chọn lọc đặc trưng một cách hiệu quả.
  • Dropout: Được sử dụng đặc biệt trong mạng nơ-ron , lớp dropout sẽ ngẫu nhiên vô hiệu hóa một tỷ lệ nhất định các nơ-ron trong quá trình huấn luyện. Điều này buộc mạng phải phát triển các đường dẫn dự phòng để xác định các đặc điểm, đảm bảo không có nơ-ron nào trở thành nút thắt cổ chai cho một dự đoán cụ thể.
  • Tăng cường dữ liệu: Mặc dù chủ yếu là một bước tiền xử lý, tăng cường dữ liệu hoạt động như một công cụ điều chỉnh mạnh mẽ. Bằng cách mở rộng tập dữ liệu một cách nhân tạo với các phiên bản hình ảnh đã được chỉnh sửa (xoay, lật, thay đổi màu sắc), mô hình được tiếp xúc với nhiều biến thể hơn, ngăn nó ghi nhớ các ví dụ tĩnh ban đầu.
  • Dừng sớm: Điều này bao gồm việc giám sát hiệu suất của mô hình trên dữ liệu kiểm chứng trong quá trình huấn luyện. Nếu lỗi kiểm chứng bắt đầu tăng trong khi lỗi huấn luyện giảm, quá trình sẽ bị dừng lại để ngăn mô hình học nhiễu.

Các Ứng dụng Thực tế

Chuẩn hóa dữ liệu là yếu tố không thể thiếu trong việc triển khai các hệ thống AI đáng tin cậy trên nhiều ngành công nghiệp khác nhau, nơi dữ liệu có tính biến động cao.

  1. Lái xe tự hành : Trong lĩnh vực trí tuệ nhân tạo dành cho các giải pháp ô tô , các mô hình thị giác máy tính phải... detect Người đi bộ và biển báo giao thông trong các điều kiện thời tiết khác nhau. Nếu không có chuẩn hóa, mô hình có thể ghi nhớ các điều kiện ánh sáng cụ thể từ tập dữ liệu huấn luyện và thất bại trong thế giới thực. Các kỹ thuật như giảm trọng số đảm bảo hệ thống phát hiện có khả năng khái quát hóa tốt đối với mưa, sương mù hoặc chói mắt, điều này rất quan trọng đối với sự an toàn trong xe tự hành .
  2. Hình ảnh y tế : Khi thực hiện phân tích hình ảnh y tế , các tập dữ liệu thường bị hạn chế về kích thước do lo ngại về quyền riêng tư hoặc sự hiếm gặp của các bệnh lý. Hiện tượng quá khớp (overfitting) là một rủi ro đáng kể ở đây. Các phương pháp điều chỉnh (regularization) giúp các mô hình được huấn luyện để... detect Các bất thường trên phim X-quang hoặc MRI vẫn chính xác trên dữ liệu bệnh nhân mới, hỗ trợ kết quả chẩn đoán tốt hơn trong trí tuệ nhân tạo y tế .

Thực hiện trong Python

Các thư viện hiện đại giúp việc áp dụng chuẩn hóa trở nên dễ dàng hơn thông qua các siêu tham số. Ví dụ sau đây minh họa cách áp dụng. dropoutweight_decay khi huấn luyện YOLO26 người mẫu.

from ultralytics import YOLO

# Load the latest YOLO26 model
model = YOLO("yolo26n.pt")

# Train with regularization hyperparameters
# 'dropout' adds randomness, 'weight_decay' penalizes large weights to prevent overfitting
model.train(data="coco8.yaml", epochs=100, dropout=0.5, weight_decay=0.0005)

Việc quản lý các thí nghiệm này và theo dõi tác động của các giá trị điều chỉnh khác nhau đến hiệu suất có thể được thực hiện một cách liền mạch thông qua Nền tảng Ultralytics , cung cấp các công cụ để ghi nhật ký và so sánh các lần chạy huấn luyện.

Chính quy hóa so với các khái niệm liên quan

Sẽ rất hữu ích khi phân biệt chính quy hóa với các thuật ngữ tối ưu hóa và tiền xử lý khác:

  • Chuẩn hóa so với Chuẩn hóa : Chuẩn hóa liên quan đến việc điều chỉnh dữ liệu đầu vào theo một phạm vi chuẩn để tăng tốc độ hội tụ. Mặc dù các kỹ thuật như Chuẩn hóa Hàng loạt có thể có tác dụng chuẩn hóa nhẹ, mục đích chính của chúng là ổn định động lực học, trong khi chuẩn hóa rõ ràng là hạn chế độ phức tạp.
  • Điều chỉnh tham số (Regularization) so với tinh chỉnh siêu tham số (Hyperparameter Tuning ): Các tham số điều chỉnh (như tỷ lệ dropout hoặc hình phạt L2) bản thân chúng là các siêu tham số. Tinh chỉnh siêu tham số là quá trình rộng hơn nhằm tìm kiếm các giá trị tối ưu cho các thiết lập này, thường là để cân bằng sự đánh đổi giữa độ lệch và phương sai .
  • Chính quy hóa so với Học tập tổng hợp : Phương pháp tổng hợp kết hợp các dự đoán từ nhiều mô hình để giảm phương sai và cải thiện khả năng khái quát hóa. Mặc dù đạt được mục tiêu tương tự như chính quy hóa, nhưng nó thực hiện điều này bằng cách tổng hợp các mô hình đa dạng thay vì hạn chế việc học của một mô hình duy nhất.

Tham gia Ultralytics cộng đồng

Tham gia vào tương lai của AI. Kết nối, hợp tác và phát triển cùng với những nhà đổi mới toàn cầu

Tham gia ngay