프롬프트 체이닝이 복잡한 AI 작업을 신뢰할 수 있는 워크플로로 분할하는 방법을 알아보세요. Ultralytics 대규모 언어 모델(LLM)과 통합하여 고급 AI 에이전트를 구축하는 방법을 탐구해 보세요.
프롬프트 체이닝은 인공지능(AI) 개발에서 복잡한 작업을 더 작고 관리 가능한 하위 작업들의 연속으로 분해하는 고급 아키텍처 패턴입니다. 이 워크플로우에서 한 단계의 출력(주로 대규모 언어 모델(LLM) 이나 컴퓨터 비전 시스템에서 생성됨)은 다음 단계의 입력으로 사용됩니다. 단일 모놀리식 프롬프트가 다각적인 문제를 한 번에 해결하려 시도하는 것과 달리, 체이닝은 개발자가 더 신뢰할 수 있고 테스트 가능하며 능력이 뛰어난 애플리케이션을 구축할 수 있게 합니다. 이 모듈식 접근법은 추론, 웹 검색, 물리적 환경과의 상호작용이 가능한 정교한 AI 에이전트를 만드는 데 필수적입니다.
프롬프트 체이닝의 핵심은 기초 모델의 컨텍스트 창과 추론 능력의 한계를 해결하는 데 있습니다. 프롬프트 체이닝은 파운데이션 모델의 컨텍스트 윈도우와 추론 능력의 한계를 해결합니다. 단일 요청에서 모델이 너무 많은 서로 다른 작업을 수행하도록 요구받을 때(예: "이 이미지를 분석하고, 텍스트를 추출하고, 스페인어로 번역하고, JSON 형식의 청구서로 포맷하라"), 오류 발생 확률이 증가합니다. 이를 파이프라인으로 분할함으로써 개발자는 각 단계의 정확성을 검증할 수 있습니다.
효과적인 체인은 종종 Python으로 작성된 "접착 코드"를 활용합니다. Python 또는 LangChain과 같은 오케스트레이션 라이브러리가 관리하는 글루 코드를 활용하여 단계 간 데이터 변환을 처리합니다. 이를 통해 물체 감지의 시각적 정확도와 생성형 텍스트 모델의 언어적 유창성 같은 서로 다른 기술을 통합할 수 있습니다.
프롬프트 체이닝은 서로 다른 데이터 모달리티 간의 격차를 해소하는 데 특히 강력하여 다중 모달 모델이 동적인 산업 및 상업 환경에서 작동할 수 있도록 합니다.
다음 예시는 체인의 첫 번째 "링크"를 보여줍니다: 컴퓨터 비전(CV) 을 사용하여 구조화된 데이터를 생성하고 이를 하류 프롬프트의 컨텍스트로 활용하는 것입니다.
from ultralytics import YOLO
# Load the YOLO26 model (natively end-to-end and highly efficient)
model = YOLO("yolo26n.pt")
# Step 1: Run inference to 'see' the environment
results = model("https://ultralytics.com/images/bus.jpg")
# Step 2: Format visual detections into a natural language string
det_names = [model.names[int(c)] for c in results[0].boxes.cls]
prompt_context = f"The scene contains: {', '.join(det_names)}. Please describe the likely activity."
# The 'prompt_context' variable is now ready to be sent to an LLM API
print(prompt_context)
효과적인 머신 러닝(ML) 아키텍처를 구현하기 위해서는 AI 분야에서 유사한 용어들과 프롬프트 체이닝을 구분하는 것이 도움이 됩니다:
프롬프트 체이닝을 활용함으로써 팀은 논리, 데이터 검색 및 행동 인식 기능을 통합한 강력한 애플리케이션을 구축할 수 있습니다. 이러한 체인을 구동하는 데이터셋 관리 및 비전 모델 훈련을 위해 Ultralytics 주석 작업, 훈련 및 배포를 위한 중앙 집중식 솔루션을 제공합니다.