Thuật ngữ

Điều chỉnh hiệu quả tham số (PEFT)

Khám phá Parameter-Efficient Fine-Tuning (PEFT): điều chỉnh các mô hình AI lớn một cách hiệu quả với nguồn lực tối thiểu. Tối ưu hóa các tác vụ trong NLP, tầm nhìn, v.v.!

Xe lửa YOLO mô hình đơn giản
với Ultralytics TRUNG TÂM

Tìm hiểu thêm

Parameter-Efficient Fine-Tuning (PEFT) là một phương pháp học máy được thiết kế để điều chỉnh các mô hình được đào tạo trước lớn cho các tác vụ mới với chi phí tính toán tối thiểu. Bằng cách chỉ tinh chỉnh một tập hợp con nhỏ các tham số, các kỹ thuật PEFT làm cho quá trình tinh chỉnh hiệu quả hơn, giảm yêu cầu về tài nguyên và giữ lại kiến thức chung được mã hóa trong mô hình được đào tạo trước.

Tầm quan trọng của PEFT

Tinh chỉnh truyền thống liên quan đến việc cập nhật tất cả các tham số của mô hình, có thể tốn kém về mặt tính toán và bộ nhớ, đặc biệt là đối với các mô hình lớn như kiến trúc dựa trên máy biến áp. PEFT giải quyết vấn đề này bằng cách chỉ sửa đổi một phần nhỏ các tham số trong khi vẫn giữ nguyên phần lớn mô hình được đào tạo trước. Cách tiếp cận này đặc biệt có lợi khi tài nguyên tính toán bị hạn chế hoặc khi xử lý nhiều tác vụ đòi hỏi phải tùy chỉnh mà không cần đào tạo lại toàn bộ mô hình mỗi lần.

Các kỹ thuật PEFT phù hợp với nhu cầu ngày càng tăng về các giải pháp tiết kiệm tài nguyên trong AI, cho phép ứng dụng thực tế các mô hình lớn trong nhiều ngành công nghiệp khác nhau, chẳng hạn như chăm sóc sức khỏe, nông nghiệp và bán lẻ.

Các kỹ thuật chính trong PEFT

Một số phương pháp đã được phát triển để tinh chỉnh hiệu quả các tham số:

  • Thích ứng hạng thấp (LoRA) : LoRA đưa các bản cập nhật hạng thấp dành riêng cho tác vụ vào mô hình, chỉ tối ưu hóa các tham số bổ sung này để thích ứng với các tác vụ mới.
  • Lớp bộ điều hợp: Đây là các mô-đun mạng nơ-ron nhỏ được chèn vào kiến trúc của mô hình, thường là giữa các lớp, để tìm hiểu các điều chỉnh cụ thể cho từng tác vụ.
  • Điều chỉnh nhắc nhở: Phương pháp này chỉ điều chỉnh các nhắc nhở đầu vào được đưa vào mô hình, giữ nguyên các tham số mô hình. Tìm hiểu thêm về Điều chỉnh nhắc nhở .
  • Điều chỉnh tiền tố: Tương tự như điều chỉnh nhắc nhở, điều chỉnh tiền tố tối ưu hóa chuỗi các tham số cụ thể cho tác vụ đóng vai trò như tiền tố cho dữ liệu đầu vào.

Mỗi phương pháp đều hướng đến mục tiêu giảm thời gian đào tạo và sử dụng tài nguyên trong khi vẫn duy trì hiệu suất mạnh mẽ ở các tác vụ tiếp theo.

Ứng dụng của PEFT

PEFT đã được ứng dụng trong nhiều lĩnh vực AI và học máy, đặc biệt là khi hạn chế về nguồn lực hoặc tính đa dạng của nhiệm vụ là những cân nhắc chính.

Ví dụ 1: Xử lý ngôn ngữ tự nhiên (NLP)

Trong NLP, các kỹ thuật PEFT được sử dụng rộng rãi để điều chỉnh các mô hình ngôn ngữ lớn như GPT-3 hoặc GPT-4 cho các tác vụ cụ thể, chẳng hạn như phân tích tình cảm, tóm tắt hoặc trả lời câu hỏi theo miền cụ thể. Ví dụ, LoRA có thể được áp dụng để tinh chỉnh GPT-3 cho phân tích văn bản y khoa, cho phép dự đoán chính xác trong khi giảm thiểu nhu cầu tính toán.

Ví dụ 2: Vision AI

Trong thị giác máy tính, PEFT được sử dụng để tinh chỉnh các mô hình được đào tạo trước như Ultralytics YOLO cho các tác vụ cụ thể, chẳng hạn như phát hiện các đối tượng hiếm trong các tập dữ liệu chuyên biệt. Bằng cách tinh chỉnh chỉ một phần nhỏ trọng số của mô hình, các tổ chức có thể nhanh chóng triển khai các giải pháp phù hợp cho các tác vụ như giám sát động vật hoang dã hoặc kiểm soát chất lượng công nghiệp mà không cần đào tạo lại nhiều.

Lợi ích của PEFT

  1. Hiệu quả sử dụng tài nguyên : Giảm yêu cầu về tính toán và bộ nhớ, giúp triển khai dễ dàng trên các thiết bị biên hoặc trong môi trường có tài nguyên hạn chế.
  2. Tính linh hoạt của nhiệm vụ : Tạo điều kiện thích ứng nhanh chóng với nhiều nhiệm vụ tiếp theo mà không cần đào tạo lại toàn bộ mô hình, điều này đặc biệt hữu ích cho các ngành như chăm sóc sức khỏe và sản xuất.
  3. Hiệu quả về chi phí : Giảm chi phí tinh chỉnh các mô hình lớn bằng cách tập trung vào một tập hợp con nhỏ các tham số.
  4. Bảo tồn kiến thức chung : Giữ nguyên khả năng chung của mô hình được đào tạo trước đồng thời bổ sung thêm chuyên môn cụ thể cho từng nhiệm vụ.

Sự khác biệt so với tinh chỉnh truyền thống

Trong tinh chỉnh truyền thống, toàn bộ mô hình được cập nhật, có thể tốn kém về mặt tính toán và dễ bị quá khớp, đặc biệt là với các tập dữ liệu nhỏ. Mặt khác, PEFT tập trung vào việc tối ưu hóa số lượng tham số tối thiểu, đạt được kết quả tương đương với chi phí tính toán giảm đáng kể.

PEFT cũng khác với Transfer Learning , trong đó mô hình được đào tạo trước được điều chỉnh cho một nhiệm vụ mới bằng cách đào tạo lại một số hoặc tất cả các lớp. Trong khi transfer learning có thể liên quan đến việc đào tạo lại toàn bộ mô hình, PEFT được thiết kế rõ ràng để giảm thiểu các bản cập nhật tham số.

Tác động thực tế

Việc áp dụng PEFT đã cho phép phổ biến các giải pháp AI trong các bối cảnh hạn chế về tài nguyên. Ví dụ, trong nông nghiệp, PEFT có thể tinh chỉnh các mô hình thị giác để phát hiện bệnh cây trồng một cách chính xác trong khi vận hành trên các thiết bị công suất thấp. Tương tự như vậy, trong chăm sóc sức khỏe, PEFT tạo điều kiện thuận lợi cho việc điều chỉnh các mô hình cho các nhiệm vụ như phát hiện khối u bằng cách sử dụng các tập dữ liệu chuyên biệt, như được nêu bật trong các giải pháp chăm sóc sức khỏe Ultralytics .

PEFT cũng được tích hợp vào các công cụ như Ultralytics HUB , giúp đơn giản hóa việc đào tạo và triển khai các mô hình tùy chỉnh, đảm bảo người dùng có thể điều chỉnh hiệu quả các mô hình được đào tạo trước theo nhu cầu riêng của họ.

Kết thúc

Parameter-Efficient Fine-Tuning (PEFT) là một bước tiến đáng kể trong việc giúp AI dễ tiếp cận và thích ứng hơn. Bằng cách cho phép điều chỉnh hiệu quả các mô hình lớn cho các tác vụ mới, PEFT trao quyền cho các ngành công nghiệp tận dụng toàn bộ tiềm năng của AI trong khi giảm chi phí và nhu cầu tính toán. Với các ứng dụng trải dài trên NLP, thị giác máy tính và hơn thế nữa, PEFT tiếp tục đóng vai trò quan trọng trong việc thúc đẩy các công nghệ AI.

Đọc tất cả