상담원이 시행착오를 통해 행동을 최적화하여 보상을 극대화하는 강화 학습에 대해 알아보세요. 개념, 적용 사례 및 이점을 살펴보세요!
강화 학습(RL)은 지능형 에이전트가 자신의 행동에 대해 받는 보상을 최대화하여 일련의 결정을 내리는 방법을 학습하는 머신 러닝(ML) 의 한 유형입니다. 레이블이 지정된 예제에서 학습하는 지도 학습이나 레이블이 지정되지 않은 데이터에서 패턴을 찾는 비지도 학습과 달리 RL은 환경과 상호 작용하여 시행착오를 통해 학습합니다. 에이전트는 자신이 취한 행동에 따라 보상 또는 페널티의 형태로 피드백을 받아 특정 목표를 달성하기 위한 학습 과정을 안내합니다.
강화 학습 시스템을 정의하는 몇 가지 주요 구성 요소가 있습니다:
에이전트는 잠재적으로 더 높은 보상을 얻기 위해 새로운 행동을 탐색하는 것(탐색)과 좋은 보상을 얻을 수 있는 것으로 알려진 행동( 착취)을 선택하는 것(착취)의 균형을 맞춰야 하는 것이 RL의 근본적인 과제입니다.
RL 프로세스는 일반적으로 반복적입니다. 에이전트는 환경의 현재 상태를 관찰하고, 현재 정책에 따라 작업을 선택하고, 작업을 수행한 후 환경으로부터 보상(또는 페널티)과 다음 상태를 받습니다. 이 피드백은 에이전트의 정책 또는 가치 함수를 업데이트하는 데 사용되어 시간이 지남에 따라 의사 결정을 개선합니다. 일반적인 RL 알고리즘에는 Q-러닝, SARSA 및 정책 그라데이션 방법이 있으며, 각 알고리즘은 정책을 학습하고 업데이트하는 데 서로 다른 전략을 사용합니다. 심층 강화 학습(DRL)은 신경망(NN) 을 사용하여 정책이나 가치 함수의 근사치를 구하는 딥 러닝 기술과 RL을 결합하여 이미지나 센서 데이터와 같은 복잡하고 고차원적인 상태 공간의 문제를 해결할 수 있게 해줍니다.
RL은 다른 ML 패러다임과 크게 다릅니다:
RL은 다양한 영역에서 혁신을 가능하게 했습니다:
강화 학습은 특히 복잡한 의사 결정을 내릴 수 있는 자율 시스템을 만드는 데 있어 광범위한 인공 지능(AI) 환경에서 중요한 구성 요소입니다. Ultralytics 같은 회사는 다음과 같은 비전 AI 모델을 전문으로 합니다. Ultralytics YOLO 와 같은 비전 AI 모델은 지도 학습을 이용한 객체 감지 및 인스턴스 세분화와 같은 작업에 특화되어 있지만, 이러한 모델에서 제공하는 인식 기능은 종종 RL 에이전트의 필수 입력(상태)입니다. 예를 들어, 로봇은 RL 정책에 따라 다음 동작을 결정하기 전에 Ultralytics HUB를 통해 배포된 객체 감지 모델을 사용하여 주변 환경을 이해할 수 있습니다. RL을 이해하면 고급 인식이 지능형 자율 시스템 구축에 어떻게 적합한지에 대한 컨텍스트를 제공하며, 종종 다음과 같은 프레임워크를 사용하여 개발됩니다. PyTorch 와 같은 프레임워크를 사용하여 개발되고 Gymnasium(이전의 OpenAI Gym)과 같은 시뮬레이션 환경에서 테스트되는 경우가 많습니다. 많은 실제 애플리케이션에는 지각(컴퓨터 비전)과 의사 결정(RL)의 통합이 포함됩니다.