용어집

LoRA(낮은 순위 적응)

LoRA가 YOLO 같은 대규모 AI 모델을 효율적으로 미세 조정하여 비용을 절감하고 최소한의 리소스로 엣지 배포를 가능하게 하는 방법을 알아보세요.

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

LoRA, 즉 낮은 순위 적응은 대규모 언어 모델, 더 나아가 컴퓨터 비전에 사용되는 모델을 포함한 기타 대규모 AI 모델 분야에서 특히 유용한 매개변수 효율적인 미세 조정 기법입니다. 기본적으로 LoRA를 사용하면 계산 비용과 시간이 많이 소요되는 전체 모델을 재학습할 필요 없이 사전 학습된 모델을 특정 작업이나 데이터 세트에 효율적으로 적용할 수 있습니다.

LoRA란 무엇인가요?

LoRA는 사전 학습된 모델을 새로운 작업에 적용하는 데 필요한 변경 사항이 저차원 하위 공간에 있는 경우가 많다는 점에 착안했습니다. LoRA는 대규모 모델의 모든 파라미터를 업데이트하는 대신 사전 학습된 모델 가중치를 동결하고 "로우랭크" 행렬이라고 하는 적은 수의 새로운 파라미터를 Transformer 아키텍처의 각 계층에 주입합니다. 미세 조정 중에는 이렇게 새로 추가된 낮은 순위 행렬만 학습되므로 학습 가능한 매개변수의 수가 크게 줄어듭니다. 이 접근 방식은 계산 비용과 메모리 요구 사항을 대폭 줄이면서도 전체 미세 조정과 비슷한 성능을 달성합니다.

이 방법은 모델의 크기가 커서 완전한 미세 조정이 비현실적일 수 있는 대규모 언어 모델(LLM)이나 Ultralytics YOLO 모델과 같은 대규모 비전 모델과 같은 모델을 작업할 때 특히 유용합니다. 연구자와 실무자는 LoRA를 사용하여 제한된 리소스로 특정 애플리케이션에 맞게 이러한 강력한 모델을 효율적으로 사용자 지정할 수 있습니다.

LoRA의 관련성 및 적용

LoRA의 가장 큰 장점은 효율성에 있습니다. 소비자급 GPU 또는 엣지 디바이스에서 사전 학습된 대규모 모델을 미세 조정할 수 있어 고급 AI에 대한 접근성을 높일 수 있습니다. 이는 다양한 애플리케이션에 걸쳐 광범위한 영향을 미칩니다:

  • 개인화된 모델: LoRA를 사용하면 개별 사용자의 선호도나 특정 요구사항에 맞춘 개인화된 AI 모델을 만들 수 있습니다. 예를 들어, 개인화된 추천 시스템이나 맞춤형 콘텐츠 생성에서 LoRA는 일반적인 모델을 개별 사용자 데이터에 효율적으로 적용할 수 있습니다. 이는 AI 기반 가상 비서를 통해 사용자 경험을 향상시키거나 크리에이티브 분야에서 맞춤형 콘텐츠를 제작하는 등의 애플리케이션에서 특히 유용할 수 있습니다.

  • 효율적인 도메인 적응: 의료 이미지 분석이나 특수 산업 애플리케이션과 같이 사전 학습된 모델을 매우 특정한 도메인에 적용해야 하는 시나리오에서 LoRA를 사용하면 대규모 재학습 없이도 모델을 효율적으로 미세 조정할 수 있습니다. 예를 들어, 매우 특정한 제조 결함 감지 작업을 위해물체 감지 모델( Ultralytics YOLO )을 조정할 때 LoRA를 사용하면 신속하게 조정할 수 있습니다. 이러한 효율성은 전문 분야의 신속한 배포와 반복에 매우 중요합니다.

  • 엣지 배포: LoRA 적용 모델은 완전히 미세 조정된 모델에 비해 크기가 작기 때문에 스마트폰이나 임베디드 시스템과 같이 컴퓨팅 리소스가 제한된 엣지 컴퓨팅 장치에 배포하기에 더 적합합니다. 따라서 실시간 추론과 온디바이스 AI 처리가 용이해져 리소스가 제한된 하드웨어에서 실시간 물체 감지 또는 효율적인 모바일 애플리케이션과 같은 애플리케이션의 가능성을 열어줍니다.

LoRA 대 전체 미세 조정

기존의 미세 조정에는 사전 학습된 모델의 모든 파라미터를 업데이트하는 작업이 포함됩니다. 이 방법은 우수한 결과를 얻을 수 있지만 계산 비용이 많이 들고 미세 조정된 각 모델에 상당한 저장 공간이 필요합니다. LoRA는 다음과 같은 강력한 대안을 제공합니다:

  • 계산 비용 절감: 낮은 순위의 행렬만 학습하면 계산 횟수가 크게 줄어듭니다. 따라서 미세 조정이 더 빠르고 리소스 집약적입니다.
  • 메모리 사용량 감소: LoRA는 전체 원본 모델이 아닌 하위 순위 행렬만 추가되고 학습되므로 훨씬 더 작은 규모의 미세 조정된 모델을 생성합니다. 이는 특히 메모리가 제한된 환경에서 저장 및 배포에 유용합니다.
  • 더 빠른 실험: LoRA의 효율성 덕분에 다양한 작업과 데이터 세트를 더 빠르게 실험할 수 있어 AI 애플리케이션의 개발 및 배포 주기가 빨라집니다.

경우에 따라 최고의 정확도를 달성하기 위해서는 여전히 완전한 미세 조정이 선호될 수 있지만, LoRA는 효율적인 적응을 위한 강력하고 실용적인 접근 방식을 제공하여 성능과 리소스 활용 간의 균형을 맞추고 고급 AI 기술을 보다 광범위하게 활용할 수 있도록 합니다. Ultralytics HUB와 같은 도구는 LoRA 적응 모델을 관리하고 배포하는 프로세스를 더욱 간소화하여 이 효율적인 미세 조정 기술을 활용할 수 있는 사용자 친화적인 플랫폼을 제공합니다.

모두 보기