Thuật ngữ

LoRA (Thích ứng bậc thấp)

Tối ưu hóa các mô hình lớn một cách hiệu quả với LoRA! Giảm chi phí, thích ứng nhanh hơn và triển khai thông minh hơn với các kỹ thuật tinh chỉnh có thể mở rộng và cấp thấp.

Xe lửa YOLO mô hình đơn giản
với Ultralytics TRUNG TÂM

Tìm hiểu thêm

LoRA (Low-Rank Adaptation) là một kỹ thuật được thiết kế để tối ưu hóa quá trình tinh chỉnh của các mô hình học máy lớn bằng cách đưa các ma trận hạng thấp vào kiến trúc của chúng. Phương pháp này làm giảm đáng kể các yêu cầu về tính toán và lưu trữ liên quan đến tinh chỉnh truyền thống, khiến nó trở thành lựa chọn hiệu quả và tiết kiệm chi phí để điều chỉnh các mô hình được đào tạo trước cho các tác vụ cụ thể.

LoRA hoạt động như thế nào

LoRA sửa đổi trọng số của mô hình được đào tạo trước bằng cách đưa các ma trận hạng thấp vào các lớp cụ thể. Thay vì cập nhật tất cả các tham số của mô hình trong quá trình tinh chỉnh, chỉ một tập hợp con nhỏ các tham số—những tham số nằm trong các ma trận hạng thấp này—được tối ưu hóa. Phương pháp này giữ lại phần lớn cấu trúc mô hình ban đầu trong khi điều chỉnh nó cho các tác vụ mới. Các trọng số được đào tạo trước vẫn được đóng băng, giúp bảo toàn kiến thức của mô hình ban đầu.

Bằng cách tập trung vào các bản cập nhật cấp thấp, LoRA làm giảm số lượng tham số có thể đào tạo, dẫn đến đào tạo nhanh hơn và sử dụng bộ nhớ thấp hơn. Điều này làm cho nó đặc biệt có lợi cho việc triển khai các mô hình ngôn ngữ lớn (LLM) và các kiến trúc phức tạp khác trong môi trường hạn chế về tài nguyên.

Lợi ích của LoRA

  • Hiệu quả : LoRA giảm chi phí tính toán khi tinh chỉnh các mô hình lớn bằng cách tập trung vào các bản cập nhật cấp thấp thay vì sửa đổi tất cả các tham số.
  • Tính linh hoạt : Cho phép tái sử dụng một mô hình được đào tạo trước cho nhiều tác vụ với chi phí tối thiểu.
  • Khả năng mở rộng : LoRA có thể được áp dụng cho nhiều loại kiến trúc khác nhau, bao gồm máy biến áp và mạng nơ-ron tích chập (CNN).

Để hiểu sâu hơn về các kỹ thuật tinh chỉnh, bạn có thể khám phá Tinh chỉnh hiệu quả tham số (PEFT) .

Ứng dụng thực tế của LoRA

1. Xử lý ngôn ngữ tự nhiên (NLP)

LoRA đã được sử dụng rộng rãi trong các tác vụ NLP để tinh chỉnh các mô hình ngôn ngữ lớn như GPT và BERT cho các ứng dụng cụ thể theo miền. Ví dụ:

  • Chatbot : Tinh chỉnh mô hình ngôn ngữ đa năng để tạo ra chatbot hỗ trợ khách hàng cho một ngành cụ thể.
  • Phân tích tình cảm : Cho phép phân loại tình cảm cho các tập dữ liệu thích hợp mà không cần đào tạo lại toàn bộ mô hình.

Tìm hiểu thêm về cách mô hình hóa ngôn ngữtinh chỉnh góp phần vào sự tiến bộ của NLP.

2. Tầm nhìn máy tính

Trong thị giác máy tính, LoRA đã được sử dụng để điều chỉnh các mô hình lớn như Vision Transformers (ViT) cho các tác vụ như phân loại hình ảnh, phát hiện đối tượng và phân đoạn. Ví dụ:

  • Chụp ảnh y tế : Tinh chỉnh mô hình được đào tạo trước để phát hiện các bất thường trong hình ảnh quét y tế bằng cách sử dụng tập dữ liệu có kích thước hạn chế.
  • Phân tích bán lẻ : Tùy chỉnh mô hình thị giác máy tính để phát hiện các sản phẩm cụ thể trong môi trường bán lẻ.

Tìm hiểu thêm về phát hiện đối tượngphân đoạn hình ảnh để hiểu tác động của nó.

So sánh với các kỹ thuật khác

LoRA so với tinh chỉnh đầy đủ

Tinh chỉnh truyền thống cập nhật tất cả các tham số của mô hình, có thể tốn kém về mặt tính toán và bộ nhớ. Ngược lại, LoRA cập nhật có chọn lọc một tập hợp con nhỏ các tham số, làm cho nó nhẹ hơn và có khả năng mở rộng hơn.

LoRA so với điều chỉnh nhanh

Trong khi LoRA sửa đổi trọng số mô hình nội bộ, điều chỉnh nhắc nhở tập trung vào việc tối ưu hóa các nhắc nhở đầu vào. Cả hai phương pháp đều hiệu quả nhưng phục vụ cho các trường hợp sử dụng khác nhau—điều chỉnh nhắc nhở thường được sử dụng để tạo văn bản, trong khi LoRA linh hoạt hơn trong các tác vụ.

Tích hợp với Ultralytics

Ultralytics hỗ trợ nhiều tác vụ học máy và thị giác máy tính trong đó các nguyên tắc của LoRA có thể được áp dụng. Người dùng có thể tận dụng các công cụ như Ultralytics HUB để đào tạo và triển khai các mô hình tùy chỉnh một cách hiệu quả. Với các giải pháp tiên tiến như Ultralytics YOLO , việc tích hợp các kỹ thuật lấy cảm hứng từ LoRA vào quy trình làm việc có thể tối ưu hóa hiệu suất mô hình cho các ứng dụng thời gian thực.

Tài nguyên để khám phá thêm

  • Khám phá Blog Ultralytics để biết thêm thông tin chi tiết về các kỹ thuật tiên tiến trong AI và học máy.
  • Tìm hiểu về vai trò của việc học chuyển giao trong việc điều chỉnh các mô hình được đào tạo trước cho các nhiệm vụ mới.
  • Tìm hiểu sâu hơn về Explainable AI (XAI) để hiểu cách các phương pháp tinh chỉnh như LoRA có thể góp phần tạo ra các mô hình dễ hiểu hơn.

LoRA minh họa cách các kỹ thuật cải tiến có thể giúp máy học tiên tiến dễ tiếp cận và hiệu quả hơn, thúc đẩy các giải pháp có tác động trên khắp các ngành.

Đọc tất cả