Thuật ngữ

Chuyển giao học tập

Mở khóa sức mạnh của việc học chuyển giao để tiết kiệm thời gian, tăng cường hiệu suất AI và giải quyết các nhiệm vụ mới với dữ liệu hạn chế bằng cách sử dụng các mô hình được đào tạo trước.

Xe lửa YOLO mô hình đơn giản
với Ultralytics TRUNG TÂM

Tìm hiểu thêm

Học chuyển giao là một kỹ thuật học máy (ML) trong đó một mô hình được phát triển cho một tác vụ cụ thể được sử dụng lại làm điểm khởi đầu cho một mô hình trên tác vụ thứ hai có liên quan. Thay vì xây dựng một mô hình từ đầu, đòi hỏi dữ liệu và tài nguyên tính toán đáng kể, học chuyển giao tận dụng kiến thức (các tính năng, mẫu và trọng số) học được từ một tác vụ nguồn để cải thiện việc học trên một tác vụ mục tiêu. Cách tiếp cận này đặc biệt có lợi khi tác vụ mục tiêu có dữ liệu được gắn nhãn hạn chế, giúp tăng tốc đáng kể quá trình đào tạo và thường dẫn đến hiệu suất tốt hơn so với việc chỉ đào tạo trên tập dữ liệu mục tiêu.

Học chuyển giao hoạt động như thế nào

Ý tưởng cốt lõi đằng sau việc học chuyển giao là một mô hình được đào tạo trên một tập dữ liệu lớn và chung, như ImageNet cho các tác vụ hình ảnh hoặc một kho văn bản khổng lồ cho Xử lý ngôn ngữ tự nhiên (NLP) , học các tính năng chung hữu ích cho nhiều tác vụ liên quan khác. Ví dụ, trong thị giác máy tính (CV) , các lớp ban đầu của Mạng nơ-ron tích chập (CNN) có thể học cách phát hiện các cạnh, kết cấu và hình dạng đơn giản, là các yếu tố trực quan cơ bản áp dụng cho nhiều vấn đề nhận dạng hình ảnh khác nhau.

Khi áp dụng học chuyển giao, bạn thường bắt đầu với một mô hình được đào tạo trước. Tùy thuộc vào mức độ tương đồng giữa các tác vụ nguồn và mục tiêu và kích thước của tập dữ liệu mục tiêu, bạn có thể:

  1. Sử dụng Mô hình được đào tạo trước làm Trình trích xuất tính năng: Đóng băng trọng số của các lớp ban đầu ( xương sống ) và chỉ đào tạo các lớp phân loại hoặc phát hiện cuối cùng trên tập dữ liệu mới. Điều này phổ biến khi tập dữ liệu mục tiêu nhỏ. Một ví dụ là sử dụng YOLOv5 bằng cách đóng băng các lớp .
  2. Tinh chỉnh Mô hình được đào tạo trước: Giải phóng một số hoặc tất cả các lớp được đào tạo trước và tiếp tục đào tạo chúng trên tập dữ liệu mới, thường với tốc độ học thấp hơn. Điều này cho phép mô hình điều chỉnh các tính năng đã học cụ thể hơn theo sắc thái của tác vụ mục tiêu. Đây là một chiến lược phổ biến khi tập dữ liệu mục tiêu lớn hơn. Tinh chỉnh thường được coi là một loại học chuyển giao cụ thể.

Chuyển giao học tập so với các khái niệm liên quan

  • Tinh chỉnh : Mặc dù có liên quan chặt chẽ và thường được sử dụng thay thế cho nhau trong một số bối cảnh, tinh chỉnh cụ thể đề cập đến quá trình giải đông và đào tạo thêm trọng số của mô hình được đào tạo trước trên một nhiệm vụ mới. Đây là phương pháp phổ biến được sử dụng trong chiến lược rộng hơn về học chuyển giao.
  • Đào tạo từ đầu: Điều này bao gồm việc khởi tạo trọng số mô hình một cách ngẫu nhiên và đào tạo toàn bộ mô hình chỉ trên tập dữ liệu mục tiêu. Nó đòi hỏi một lượng lớn dữ liệu và sức mạnh tính toán, mà việc học chuyển giao nhằm mục đích giảm thiểu.
  • Zero-Shot Learning & Few-Shot Learning : Các kỹ thuật này nhằm mục đích cho phép các mô hình thực hiện các nhiệm vụ với rất ít hoặc không có ví dụ nào từ các lớp mục tiêu, thường tận dụng kiến thức đã học được trong quá trình đào tạo trước theo những cách phức tạp hơn so với học chuyển giao tiêu chuẩn hoặc tinh chỉnh. Các mô hình như CLIP là ví dụ được sử dụng trong các tình huống như vậy.

Ứng dụng trong thế giới thực

Học chuyển giao được áp dụng rộng rãi trong nhiều lĩnh vực khác nhau:

  • Tầm nhìn máy tính:
  • Xử lý ngôn ngữ tự nhiên (NLP):
    • Phân tích tình cảm : Tinh chỉnh các mô hình ngôn ngữ lớn như BERT hoặc GPT , được đào tạo trước trên lượng lớn dữ liệu văn bản, để phân loại tình cảm của các loại văn bản cụ thể (ví dụ: đánh giá sản phẩm, bài đăng trên mạng xã hội). Hugging Face Transformers cung cấp nhiều mô hình được đào tạo trước như vậy.
    • Nhận dạng thực thể được đặt tên (NER) : Điều chỉnh các mô hình ngôn ngữ được đào tạo trước để xác định các thực thể cụ thể (như tên, vị trí, tổ chức) trong các văn bản theo từng lĩnh vực cụ thể (ví dụ: tài liệu pháp lý, hồ sơ y tế).
    • Chatbot : Sử dụng các mô hình ngôn ngữ được đào tạo trước làm cơ sở để xây dựng các tác nhân đàm thoại có khả năng hiểu và phản hồi các truy vấn của người dùng trong các lĩnh vực cụ thể.

Công cụ và Khung

Các nền tảng như Ultralytics HUB đơn giản hóa quy trình áp dụng học chuyển giao bằng cách cung cấp các mô hình được đào tạo trước (như Ultralytics YOLOv8YOLO11 ) và các công cụ để dễ dàng đào tạo tùy chỉnh trên các tập dữ liệu cụ thể của người dùng. Các khuôn khổ như PyTorchTensorFlow cũng cung cấp hỗ trợ và hướng dẫn mở rộng để triển khai quy trình học chuyển giao. Để hiểu sâu hơn về mặt lý thuyết, các nguồn tài nguyên như tổng quan về học chuyển giao của Stanford CS231n hoặc các cuộc khảo sát học thuật như " Khảo sát về học chuyển giao sâu " cung cấp những hiểu biết có giá trị.

Đọc tất cả