Tối ưu hóa các mô hình lớn một cách hiệu quả với LoRA! Giảm chi phí, thích ứng nhanh hơn và triển khai thông minh hơn với các kỹ thuật tinh chỉnh có thể mở rộng và cấp thấp.
LoRA (Low-Rank Adaptation) là một kỹ thuật được thiết kế để tối ưu hóa quá trình tinh chỉnh của các mô hình học máy lớn bằng cách đưa các ma trận hạng thấp vào kiến trúc của chúng. Phương pháp này làm giảm đáng kể các yêu cầu về tính toán và lưu trữ liên quan đến tinh chỉnh truyền thống, khiến nó trở thành lựa chọn hiệu quả và tiết kiệm chi phí để điều chỉnh các mô hình được đào tạo trước cho các tác vụ cụ thể.
LoRA sửa đổi trọng số của mô hình được đào tạo trước bằng cách đưa các ma trận hạng thấp vào các lớp cụ thể. Thay vì cập nhật tất cả các tham số của mô hình trong quá trình tinh chỉnh, chỉ một tập hợp con nhỏ các tham số—những tham số nằm trong các ma trận hạng thấp này—được tối ưu hóa. Phương pháp này giữ lại phần lớn cấu trúc mô hình ban đầu trong khi điều chỉnh nó cho các tác vụ mới. Các trọng số được đào tạo trước vẫn được đóng băng, giúp bảo toàn kiến thức của mô hình ban đầu.
Bằng cách tập trung vào các bản cập nhật cấp thấp, LoRA làm giảm số lượng tham số có thể đào tạo, dẫn đến đào tạo nhanh hơn và sử dụng bộ nhớ thấp hơn. Điều này làm cho nó đặc biệt có lợi cho việc triển khai các mô hình ngôn ngữ lớn (LLM) và các kiến trúc phức tạp khác trong môi trường hạn chế về tài nguyên.
Để hiểu sâu hơn về các kỹ thuật tinh chỉnh, bạn có thể khám phá Tinh chỉnh hiệu quả tham số (PEFT) .
LoRA đã được sử dụng rộng rãi trong các tác vụ NLP để tinh chỉnh các mô hình ngôn ngữ lớn như GPT và BERT cho các ứng dụng cụ thể theo miền. Ví dụ:
Tìm hiểu thêm về cách mô hình hóa ngôn ngữ và tinh chỉnh góp phần vào sự tiến bộ của NLP.
Trong thị giác máy tính, LoRA đã được sử dụng để điều chỉnh các mô hình lớn như Vision Transformers (ViT) cho các tác vụ như phân loại hình ảnh, phát hiện đối tượng và phân đoạn. Ví dụ:
Tìm hiểu thêm về phát hiện đối tượng và phân đoạn hình ảnh để hiểu tác động của nó.
Tinh chỉnh truyền thống cập nhật tất cả các tham số của mô hình, có thể tốn kém về mặt tính toán và bộ nhớ. Ngược lại, LoRA cập nhật có chọn lọc một tập hợp con nhỏ các tham số, làm cho nó nhẹ hơn và có khả năng mở rộng hơn.
Trong khi LoRA sửa đổi trọng số mô hình nội bộ, điều chỉnh nhắc nhở tập trung vào việc tối ưu hóa các nhắc nhở đầu vào. Cả hai phương pháp đều hiệu quả nhưng phục vụ cho các trường hợp sử dụng khác nhau—điều chỉnh nhắc nhở thường được sử dụng để tạo văn bản, trong khi LoRA linh hoạt hơn trong các tác vụ.
Ultralytics hỗ trợ nhiều tác vụ học máy và thị giác máy tính trong đó các nguyên tắc của LoRA có thể được áp dụng. Người dùng có thể tận dụng các công cụ như Ultralytics HUB để đào tạo và triển khai các mô hình tùy chỉnh một cách hiệu quả. Với các giải pháp tiên tiến như Ultralytics YOLO , việc tích hợp các kỹ thuật lấy cảm hứng từ LoRA vào quy trình làm việc có thể tối ưu hóa hiệu suất mô hình cho các ứng dụng thời gian thực.
LoRA minh họa cách các kỹ thuật cải tiến có thể giúp máy học tiên tiến dễ tiếp cận và hiệu quả hơn, thúc đẩy các giải pháp có tác động trên khắp các ngành.