Yolo 비전 선전
선전
지금 참여하기
용어집

어텐션 메커니즘

주의 메커니즘이 인간의 집중력을 모방하여 AI를 어떻게 혁신하는지 살펴보세요. 쿼리, 키, 값 구성 요소가 Ultralytics 정확도를 어떻게 주도하는지 알아보세요.

주의 메커니즘은 인공지능(AI)의 핵심 기술로, 인간의 인지 능력인 특정 세부 사항에 집중하면서 관련 없는 정보를 무시하는 능력을 모방합니다. 딥 러닝(DL) 딥 러닝(DL), 이 메커니즘은 신경망(NN)이 가 입력 데이터의 서로 다른 부분에 동적으로 다른 수준의 중요도, 즉 "가중치"를 할당할 수 있게 합니다. 전체 이미지나 문장을 동일한 강조로 처리하는 대신, 모델은 가장 중요한 특징에 주의를 기울이는 법을 학습합니다—예를 들어 문맥을 이해하기 위한 문장 내 특정 단어나 복잡한 시각적 장면 속 뚜렷한 객체와 같은 것들입니다. 이 혁신은 트랜스포머 아키텍처의 핵심 동력으로, 자연어 처리(NLP)부터 자연어 처리(NLP) 부터 고급 컴퓨터 비전(CV)에 이르기까지 다양한 분야에 혁명을 일으켰습니다.

어텐션 작동 방식

원래는 재귀 신경망(RNNs)의사라지는 기울기 문제를 해결합니다. 이 과정은 종종 세 가지 구성 요소인 쿼리(Queries), 키(Keys), 값(Values)을 포함한 검색 비유를 사용하여 설명됩니다.

  • 쿼리(Q): 모델이 현재 찾고 있는 것(예: 문장의 주어)을 나타냅니다.
  • 키(K): 입력에 포함된 정보의 식별자 역할을 합니다.
  • 값(V): 실제 정보 내용을 포함합니다.

모델은 쿼리를 다양한 키와 비교하여 어텐션 점수를 계산합니다. 이 점수는 출력을 형성하는 데 사용될 값의 양을 결정합니다. 이를 통해 모델은 장거리 의존성을 효과적으로 처리하고 효과적으로 처리할 수 있게 하여, 데이터 포인트 간 거리와 무관하게 그 관계를 이해할 수 있게 합니다.

실제 애플리케이션

주의 메커니즘은 현대 기술에서 가장 눈에 띄는 발전 중 일부를 가능하게 했다.

  • 기계 번역: Google 같은 Google 언어 간 단어 정렬을 위해 어텐션 메커니즘에 의존합니다. "The black cat"(English)을 "Le chat noir"(프랑스어)로 번역할 때 모델은 형용사-명사 순서를 전환해야 합니다. 어텐션은 디코더가 "noir"를 생성할 때 "black"에, "chat"을 생성할 때 "cat"에 집중하도록 하여 문법적 정확성을 보장합니다.
  • 의료 영상 분석: 의료 분야에서 어텐션 맵은 X선이나 MRI 스캔에서 의심스러운 부위를 강조하여 방사선과 의사에게 도움을 줍니다. 예를 들어, 뇌종양 데이터셋에서에서 모델은 종양 조직에 처리 능력을 집중시키면서 건강한 뇌 조직을 걸러내어 진단 정확도를 향상시킵니다.
  • 자율주행 차량: 자율주행 차량은 시각적 주의를 활용해 중요한 도로 요소를 우선순위화합니다. 혼잡한 도로에서 시스템은 보행자와 신호등을 고우선순위 신호로 간주하며 집중적으로 주의를 기울이는 반면, 하늘이나 건물 같은 정적 배경 요소에는 덜 주목합니다.

주의 vs. 합성

주의를 구분하는 것이 중요합니다 컨볼루션 신경망(CNN). CNN이 고정된 창(커널)을 사용하여 데이터를 국소적으로 처리해 detect 질감을 detect 반면, 어텐션은 데이터를 전역적으로 처리하여 입력의 모든 부분을 다른 모든 부분과 연관시킵니다.

  • 자기 주의(Self-Attention): 모델이 단일 시퀀스 내의 문맥을 이해하기 위해 스스로를 살펴보는 특정 유형의 주의.
  • 효율성: 순수 주의 모델은 계산 비용이 높을 수 있습니다(2차 복잡도). 현대적인 최적화 기법들, 예를 들어 플래시 어텐션GPU 를 더 효과적으로 활용하여 훈련 속도를 높입니다.

최첨단 모델들인 Ultralytics 최적화되어 있지만 실시간 추론을 위해 사용하는 고급 CNN 구조에 최적화되어 있는 반면, RT-DETR (실시간 탐지 트랜스포머) 명시적으로 어텐션을 활용하여 높은 정확도를 달성합니다. 두 유형의 모델 모두 Ultralytics 를 통해 쉽게 훈련 및 배포할 수 있습니다.

코드 예제

다음 Python 추론을 수행하는 방법을 보여줍니다. RT-DETR모델 아키텍처 기본적으로 어텐션 메커니즘에 의존하는 물체 감지.

from ultralytics import RTDETR

# Load a pre-trained RT-DETR model which uses attention mechanisms
# This model captures global context effectively compared to pure CNNs
model = RTDETR("rtdetr-l.pt")

# Perform inference on an image URL
results = model("https://ultralytics.com/images/bus.jpg")

# Print the number of detections found via transformer attention
print(f"Detected {len(results[0].boxes)} objects using attention-based detection.")

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기