Yolo 비전 선전
선전
지금 참여하기
용어집

프롬프트 체이닝

프롬프트 체이닝이 복잡한 AI 작업을 신뢰할 수 있는 워크플로로 분할하는 방법을 알아보세요. Ultralytics 대규모 언어 모델(LLM)과 통합하여 고급 AI 에이전트를 구축하는 방법을 탐구해 보세요.

프롬프트 체이닝은 인공지능(AI) 개발에서 복잡한 작업을 더 작고 관리 가능한 하위 작업들의 연속으로 분해하는 고급 아키텍처 패턴입니다. 이 워크플로우에서 한 단계의 출력(주로 대규모 언어 모델(LLM) 이나 컴퓨터 비전 시스템에서 생성됨)은 다음 단계의 입력으로 사용됩니다. 단일 모놀리식 프롬프트가 다각적인 문제를 한 번에 해결하려 시도하는 것과 달리, 체이닝은 개발자가 더 신뢰할 수 있고 테스트 가능하며 능력이 뛰어난 애플리케이션을 구축할 수 있게 합니다. 이 모듈식 접근법은 추론, 웹 검색, 물리적 환경과의 상호작용이 가능한 정교한 AI 에이전트를 만드는 데 필수적입니다.

연쇄의 메커니즘

프롬프트 체이닝의 핵심은 기초 모델의 컨텍스트 창과 추론 능력의 한계를 해결하는 데 있습니다. 프롬프트 체이닝은 파운데이션 모델의 컨텍스트 윈도우와 추론 능력의 한계를 해결합니다. 단일 요청에서 모델이 너무 많은 서로 다른 작업을 수행하도록 요구받을 때(예: "이 이미지를 분석하고, 텍스트를 추출하고, 스페인어로 번역하고, JSON 형식의 청구서로 포맷하라"), 오류 발생 확률이 증가합니다. 이를 파이프라인으로 분할함으로써 개발자는 각 단계의 정확성을 검증할 수 있습니다.

효과적인 체인은 종종 Python으로 작성된 "접착 코드"를 활용합니다. Python 또는 LangChain과 같은 오케스트레이션 라이브러리가 관리하는 글루 코드를 활용하여 단계 간 데이터 변환을 처리합니다. 이를 통해 물체 감지의 시각적 정확도와 생성형 텍스트 모델의 언어적 유창성 같은 서로 다른 기술을 통합할 수 있습니다.

실제 애플리케이션

프롬프트 체이닝은 서로 다른 데이터 모달리티 간의 격차를 해소하는 데 특히 강력하여 다중 모달 모델이 동적인 산업 및 상업 환경에서 작동할 수 있도록 합니다.

  1. 자동화된 시각적 보고: 스마트 제조에서 품질 관리 시스템은 비전 모델과 대규모 언어 모델(LLM)을 연동할 수 있습니다. 먼저, Ultralytics 고속 모델이 조립 라인 위의 부품을 스캔합니다. 구조화된 출력(예: "Class: Dented_Can, Confidence: 0.92")은 텍스트 문자열로 변환됩니다. 이 텍스트는 "이 결함을 바탕으로 유지보수 요청 초안을 작성하라"와 같은 프롬프트와 함께 언어 모델로 전달되어 현장 관리자가 읽을 수 있는 이메일을 생성합니다.
  2. 컨텍스트 인식 고객 지원: 지능형 챗봇은 복잡한 사용자 질의를 처리하기 위해 체이닝을 활용하는 경우가 많습니다. 체인 첫 번째 링크는 자연어 처리(NLP)를 활용해 classify 의도를 classify 수 있습니다. 기술적 의도일 경우 시스템은 검색 강화 생성(RAG)워크플로를 실행합니다: 질문에 대한 임베딩을 생성하고, 벡터 데이터베이스에서 문서를 검색한 후, 추출된 조각들을 유용한 답변으로 합성하도록 LLM에 프롬프트를 제공합니다.

비전-투-랭귀지 코드 예시

다음 예시는 체인의 첫 번째 "링크"를 보여줍니다: 컴퓨터 비전(CV) 을 사용하여 구조화된 데이터를 생성하고 이를 하류 프롬프트의 컨텍스트로 활용하는 것입니다.

from ultralytics import YOLO

# Load the YOLO26 model (natively end-to-end and highly efficient)
model = YOLO("yolo26n.pt")

# Step 1: Run inference to 'see' the environment
results = model("https://ultralytics.com/images/bus.jpg")

# Step 2: Format visual detections into a natural language string
det_names = [model.names[int(c)] for c in results[0].boxes.cls]
prompt_context = f"The scene contains: {', '.join(det_names)}. Please describe the likely activity."

# The 'prompt_context' variable is now ready to be sent to an LLM API
print(prompt_context)

관련 개념 구분하기

효과적인 머신 러닝(ML) 아키텍처를 구현하기 위해서는 AI 분야에서 유사한 용어들과 프롬프트 체이닝을 구분하는 것이 도움이 됩니다:

  • Vs. 사슬형 사고 유도: 사슬형 사고(CoT)는 단일 프롬프트 내에서 모델이 "계산 과정을 보여주는"(예: "단계별로 생각하라") 것을 장려하기 위해 사용되는 기법입니다. 프롬프트 체이닝은 여러 개의 별개의 API 호출을 포함하며, 단계 B의 입력은 단계 A의 출력에 의존합니다.
  • Vs. 프롬프트 엔지니어링: 프롬프트 엔지니어링은 모델 성능 향상을 위해 텍스트 입력을 최적화하는 포괄적인 분야입니다. 체이닝은 작업의 순차적 흐름과 논리 제어에 중점을 둔 특정 엔지니어링 패턴입니다.
  • Vs. 프롬프트 튜닝: 프롬프트 튜닝은 훈련 단계에서 학습 가능한 매개변수(소프트 프롬프트)를 업데이트하는 모델 최적화 기법입니다. 프롬프트 체이닝은 전적으로 실시간 추론 중에 발생하며 모델의 모델 가중치를 변경하지 않습니다.

프롬프트 체이닝을 활용함으로써 팀은 논리, 데이터 검색 및 행동 인식 기능을 통합한 강력한 애플리케이션을 구축할 수 있습니다. 이러한 체인을 구동하는 데이터셋 관리 및 비전 모델 훈련을 위해 Ultralytics 주석 작업, 훈련 및 배포를 위한 중앙 집중식 솔루션을 제공합니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기