순차적 데이터를 처리하고, RNN의 한계를 극복하고, NLP 및 예측과 같은 AI 작업을 지원하는 데 있어 LSTM(Long Short-Term Memory) 네트워크가 어떻게 탁월한지 알아보세요.
장단기 메모리(LSTM)는 장거리 종속성을 학습할 때 기존 RNN의 한계를 극복하기 위해 설계된 특수한 유형의 순환신경망(RNN) 아키텍처입니다. 1997년에 세프 호크라이터와 위르겐 슈미트후버가 소개한 LSTM은 텍스트, 음성, 시계열 등 데이터 시퀀스의 앞부분의 맥락이 뒷부분을 이해하는 데 중요한 데이터 시퀀스를 처리하는 데 특히 효과적입니다. 이러한 기능 덕분에 다양한 딥 러닝(DL) 애플리케이션의 초석 기술이 되었습니다.
기존 RNN은 시퀀스의 초기 단계의 정보가 네트워크를 통해 전파되면서 사라지는 소실 그라데이션 문제로 인해 긴 간격의 종속성을 학습하기 어렵습니다. LSTM은 메모리 셀과 게이트가 포함된 독특한 구조를 사용하여 이 문제를 해결합니다.
핵심 구성 요소는 컨베이어 벨트처럼 작동하는 메모리 셀로, 정보가 네트워크를 통해 비교적 변함없이 흐르도록 합니다. LSTM은 메모리 셀에 저장된 정보를 조절하기 위해 세 가지 주요 "게이트"를 사용합니다:
시그모이드 및 탄과 같은 활성화 함수를 사용하여 구현된 이러한 게이트는 각 시간 단계에서 어떤 정보를 유지하거나 폐기해야 하는지 학습하여 네트워크가 확장된 시퀀스에서 관련 컨텍스트를 유지할 수 있도록 합니다.
LSTM은 시퀀스 모델링이 필요한 수많은 도메인에 성공적으로 적용되었습니다:
LSTM은 강력하지만 더 광범위한 시퀀스 모델 제품군에 속합니다:
LSTM은 다음과 같은 널리 사용되는 딥 러닝 프레임워크를 사용하여 쉽게 구현할 수 있습니다. PyTorch ( PyTorch LSTM 설명서 참조) 및 TensorFlow ( TensorFlow LSTM 설명서 참조). Ultralytics 주로 다음과 같은 컴퓨터 비전(CV) 모델에 초점을 맞추고 있습니다. Ultralytics YOLO 와 같은 CV 모델을 객체 감지 및 인스턴스 세분화와 같은 작업에 주로 사용하지만, 특히 비디오 이해 또는 이미지 캡션과 같은 작업을 위해 NLP와 CV를 연결하는 연구가 진행됨에 따라 시퀀스 모델을 이해하는 것이 중요합니다. 다양한 ML 모델과 개념은 Ultralytics 설명서에서 자세히 살펴볼 수 있습니다. 다양한 모델의 훈련 및 배포 관리는 Ultralytics HUB와 같은 플랫폼을 사용하여 간소화할 수 있습니다. 호크라이터와 슈미드후버의 기초 LSTM 논문에서 원본 기술 세부 사항을 확인할 수 있습니다. DeepLearning.AI와 같은 리소스에서는 LSTM을 포함한 시퀀스 모델을 다루는 과정을 제공합니다.