Mở khóa sức mạnh của việc học chuyển giao để tiết kiệm thời gian, tăng cường hiệu suất AI và giải quyết các nhiệm vụ mới với dữ liệu hạn chế bằng cách sử dụng các mô hình được đào tạo trước.
Học chuyển giao là một kỹ thuật Học máy (ML) trong đó một mô hình được phát triển cho một tác vụ được sử dụng lại làm điểm khởi đầu cho một mô hình trên tác vụ thứ hai có liên quan. Thay vì xây dựng một mô hình từ đầu, học chuyển giao tận dụng kiến thức (tính năng, trọng số) học được từ tác vụ nguồn, giúp giảm đáng kể thời gian đào tạo, yêu cầu dữ liệu và tài nguyên tính toán cần thiết cho tác vụ mục tiêu. Cách tiếp cận này đặc biệt có lợi khi tác vụ mục tiêu có dữ liệu được gắn nhãn hạn chế.
Quá trình này thường bắt đầu bằng một mô hình được đào tạo trước trên một tập dữ liệu chung lớn, chẳng hạn như ImageNet cho các tác vụ hình ảnh hoặc các tập hợp văn bản lớn cho Xử lý ngôn ngữ tự nhiên (NLP) . Quá trình đào tạo trước này cho phép mô hình, thường là mô hình Học sâu (DL) như Mạng nơ-ron tích chập (CNN) hoặc Transformer , học các tính năng chung—cạnh, kết cấu, mẫu trong hình ảnh hoặc ngữ pháp và ngữ nghĩa trong văn bản.
Đối với nhiệm vụ mục tiêu mới, mô hình được đào tạo trước này được điều chỉnh. Các chiến lược phổ biến bao gồm:
Áp dụng phương pháp học chuyển giao mang lại một số lợi thế quan trọng:
Học chuyển giao được áp dụng rộng rãi trong nhiều lĩnh vực khác nhau:
Các nền tảng như Ultralytics HUB đơn giản hóa quá trình áp dụng học chuyển giao bằng cách cung cấp các mô hình được đào tạo trước ( YOLOv8 , YOLOv11 ) và các công cụ để đào tạo tùy chỉnh dễ dàng trên các tập dữ liệu cụ thể của người dùng. Các khuôn khổ như PyTorch và TensorFlow cũng cung cấp hỗ trợ và hướng dẫn mở rộng cho học chuyển giao. Để tìm hiểu sâu hơn, hãy khám phá các tài nguyên như tổng quan về Stanford CS231n hoặc các cuộc khảo sát học thuật như " Khảo sát về Học chuyển giao sâu ".