Thuật ngữ

Điều chỉnh nhanh chóng

Tối ưu hóa các mô hình ngôn ngữ lớn một cách hiệu quả với Prompt Tuning—giảm chi phí, tiết kiệm tài nguyên và đạt được khả năng thích ứng theo từng tác vụ một cách dễ dàng.

Prompt Tuning là một kỹ thuật mạnh mẽ và hiệu quả để điều chỉnh các mô hình lớn đã được đào tạo trước, chẳng hạn như Mô hình Ngôn ngữ Lớn (LLM) , cho các tác vụ mới mà không làm thay đổi trọng số của mô hình gốc. Đây là một dạng của PEFT (Điều chỉnh Tinh chỉnh Hiệu quả Tham số) giúp giữ nguyên hàng tỷ tham số trong mô hình cơ sở và thay vào đó, học một tập hợp nhỏ các "lời nhắc mềm" dành riêng cho tác vụ. Những lời nhắc mềm này không phải là văn bản mà con người có thể đọc được mà là các nhúng có thể học được được thêm vào đầu vào, giúp mô hình đóng băng tạo ra đầu ra mong muốn cho một tác vụ hạ nguồn cụ thể. Cách tiếp cận này giúp giảm đáng kể chi phí tính toán và lưu trữ cần thiết cho việc điều chỉnh theo tác vụ cụ thể, như đã được ghi lại trong bài nghiên cứu AI gốc của Google .

Ý tưởng cốt lõi là chỉ huấn luyện vài nghìn hoặc hàng triệu tham số bổ sung (lời nhắc mềm) cho mỗi tác vụ, thay vì phải huấn luyện lại hoặc tinh chỉnh toàn bộ mô hình, vốn có thể chứa hàng tỷ tham số. Điều này cho phép tạo ra nhiều "mô-đun lời nhắc" chuyên biệt cho một mô hình được huấn luyện trước, mỗi mô hình được thiết kế riêng cho một tác vụ khác nhau, mà không cần tạo ra các bản sao mô hình đầy đủ. Phương pháp này cũng giúp giảm thiểu hiện tượng quên thảm khốc (disaster forget ), khi một mô hình quên thông tin đã học trước đó khi được huấn luyện cho một tác vụ mới.

Ứng dụng trong thế giới thực

Tính năng Prompt Tuning cho phép tùy chỉnh các mô hình nền móng mạnh mẽ cho nhiều ứng dụng chuyên biệt.

  • Phân tích cảm xúc tùy chỉnh : Một công ty muốn phân tích phản hồi của khách hàng về các sản phẩm cụ thể của mình. Một mô hình phân tích cảm xúc đa năng có thể không hiểu được thuật ngữ chuyên ngành. Sử dụng tính năng điều chỉnh lời nhắc, công ty có thể điều chỉnh một mô hình lớn như BERT bằng cách huấn luyện một tập hợp nhỏ các lời nhắc mềm dựa trên các đánh giá của khách hàng được gắn nhãn riêng. Mô hình kết quả có thể phân loại phản hồi chính xác mà không cần huấn luyện mô hình đầy đủ, cung cấp những hiểu biết sâu sắc hơn.
  • Chatbot Y khoa Chuyên biệt : Một tổ chức chăm sóc sức khỏe đặt mục tiêu xây dựng một chatbot trả lời các câu hỏi của bệnh nhân về các tình trạng bệnh lý cụ thể. Việc đào tạo đầy đủ một chương trình Thạc sĩ Y khoa (LLM) quy mô lớn đòi hỏi nhiều nguồn lực. Thay vào đó, họ có thể sử dụng tính năng điều chỉnh nhanh trên một mô hình được đào tạo sẵn như GPT-4 . Bằng cách đào tạo một lời nhắc cụ thể cho từng tác vụ trên một tập dữ liệu y khoa được chọn lọc, chatbot sẽ học cách cung cấp câu trả lời chính xác, phù hợp với ngữ cảnh cho lĩnh vực đó, giúp AI mạnh mẽ trong chăm sóc sức khỏe dễ tiếp cận hơn.

Điều chỉnh nhanh so với các khái niệm liên quan

Điều quan trọng là phải phân biệt Prompt Tuning với các kỹ thuật tương tự:

  • Tinh chỉnh : Phương pháp này cập nhật một phần lớn, hoặc thậm chí toàn bộ, các tham số của mô hình đã được đào tạo trước trên một tập dữ liệu mới. Phương pháp này tốn nhiều tài nguyên tính toán hơn nhưng đôi khi có thể đạt hiệu suất cao hơn bằng cách điều chỉnh sâu các biểu diễn bên trong của mô hình. Các mẹo đào tạo mô hình thường đề cập đến các khía cạnh của tinh chỉnh.
  • Kỹ thuật Gợi ý : Kỹ thuật này tập trung vào việc thiết kế thủ công các gợi ý dựa trên văn bản hiệu quả (gợi ý cứng) để hướng dẫn một mô hình đã được đào tạo trước. Kỹ thuật này bao gồm việc tạo hướng dẫn và ví dụ ngay trong văn bản đầu vào và không liên quan đến việc đào tạo bất kỳ tham số mới nào. Các kỹ thuật như gợi ý chuỗi suy nghĩ thuộc loại này.
  • Làm giàu lời nhắc : Kỹ thuật này tự động cải thiện lời nhắc của người dùng bằng cách thêm ngữ cảnh, ví dụ, sử dụng Retrieval-Augmented Generation (RAG) trước khi gửi đến mô hình AI. Không giống như điều chỉnh lời nhắc, kỹ thuật này tinh chỉnh truy vấn đầu vào mà không cần huấn luyện các tham số mới.
  • LoRA (Thích ứng bậc thấp) : Một kỹ thuật PEFT khác đưa các ma trận bậc thấp nhỏ, có thể huấn luyện được vào các lớp hiện có (như cơ chế chú ý ) của mô hình đã được huấn luyện trước. Kỹ thuật này cập nhật các phần khác nhau của mô hình so với Prompt Tuning, vốn chỉ tập trung vào nhúng đầu vào. Cả hai thường được tìm thấy trong các thư viện như thư viện PEFT Hugging Face .

Trong khi Prompt Tuning chủ yếu được áp dụng cho LLM trong Xử lý ngôn ngữ tự nhiên (NLP) , nguyên tắc cốt lõi của việc thích ứng hiệu quả có liên quan đến Trí tuệ nhân tạo (AI) . Trong Thị giác máy tính (CV) , trong khi việc tinh chỉnh hoàn toàn các mô hình như Ultralytics YOLO trên các tập dữ liệu tùy chỉnh là phổ biến đối với các tác vụ như phát hiện đối tượng , các phương pháp PEFT đang ngày càng được ưa chuộng, đặc biệt là đối với các mô hình đa phương thức lớn. Các nền tảng như Ultralytics HUB hợp lý hóa quy trình đào tạo và triển khai nhiều mô hình AI khác nhau, có khả năng kết hợp các kỹ thuật hiệu quả như vậy trong tương lai.

Tham gia cộng đồng Ultralytics

Tham gia vào tương lai của AI. Kết nối, cộng tác và phát triển với những nhà đổi mới toàn cầu

Tham gia ngay
Liên kết đã được sao chép vào clipboard