Thuật ngữ

Truyền ngược

Tìm hiểu cách truyền ngược huấn luyện mạng nơ-ron, giảm tỷ lệ lỗi và cung cấp năng lượng hiệu quả cho các ứng dụng AI như nhận dạng hình ảnh và NLP.

Xe lửa YOLO mô hình đơn giản
với Ultralytics TRUNG TÂM

Tìm hiểu thêm

Backpropagation là một thuật toán cơ bản trong lĩnh vực học sâu (DL) được sử dụng để đào tạo mạng nơ-ron (NN) . Đây là phương pháp tinh chỉnh trọng số của mạng nơ-ron dựa trên tỷ lệ lỗi thu được trong kỷ nguyên trước đó (tức là lặp lại). Điều chỉnh trọng số thích hợp đảm bảo tỷ lệ lỗi thấp hơn, làm cho mô hình đáng tin cậy bằng cách tăng khả năng tổng quát hóa của nó. Nó hoạt động bằng cách tính toán độ dốc của hàm mất mát đối với trọng số mạng. Về cơ bản, sau mỗi lần truyền tiến qua mạng, backpropagation thực hiện một lần truyền lùi trong khi điều chỉnh các tham số của mô hình ( weights and biases ). Quá trình này rất quan trọng để mạng có thể học hỏi và cải thiện hiệu suất theo thời gian.

Cách thức hoạt động của Backpropagation

Thuật toán lan truyền ngược có hai giai đoạn chính: truyền tới và truyền ngược.

  1. Forward Pass : Trong quá trình forward pass, dữ liệu đầu vào được đưa vào mạng và mạng tạo ra dự đoán đầu ra. Sau đó, hàm mất mát so sánh dự đoán này với giá trị mục tiêu thực tế, tính toán lỗi.
  2. Backward Pass : Trong quá trình backward pass, thuật toán tính toán gradient của hàm mất mát đối với mỗi trọng số bằng cách áp dụng quy tắc chuỗi của phép tính. Sau đó, các trọng số được cập nhật theo hướng ngược lại của gradient, thường sử dụng thuật toán tối ưu hóa như gradient descent hoặc một trong các biến thể của nó. Bước này rất quan trọng để giảm thiểu lỗi trong các dự đoán tiếp theo.

Tầm quan trọng của sự lan truyền ngược

Truyền ngược là điều cần thiết để đào tạo các mô hình học sâu vì nó cung cấp một cách hiệu quả về mặt tính toán để tính toán các gradient cần thiết để cập nhật trọng số của mạng nơ-ron. Nếu không có truyền ngược, sẽ không thực tế khi đào tạo các mạng sâu với nhiều lớp, vì chi phí tính toán để tính toán gradient sẽ cao đến mức không thể chấp nhận được. Nó cho phép mạng học các mẫu và mối quan hệ phức tạp trong dữ liệu bằng cách điều chỉnh trọng số theo từng lần lặp để giảm thiểu lỗi.

Ứng dụng thực tế của truyền ngược

Backpropagation được sử dụng trong nhiều ứng dụng khác nhau trên nhiều miền khác nhau. Sau đây là hai ví dụ:

  1. Nhận dạng hình ảnh : Trong thị giác máy tính (CV) , truyền ngược được sử dụng để đào tạo mạng nơ-ron tích chập (CNN) cho các tác vụ như phân loại hình ảnhphát hiện đối tượng . Ví dụ, trong xe tự hành, CNN được đào tạo để nhận dạng các đối tượng như người đi bộ, các phương tiện khác và biển báo giao thông, cho phép xe đưa ra quyết định lái xe sáng suốt. Tìm hiểu thêm về xe tự hành .
  2. Xử lý ngôn ngữ tự nhiên (NLP) : Trong NLP, truyền ngược huấn luyện mạng nơ-ron hồi quy (RNN) và mô hình biến đổi cho các tác vụ như dịch ngôn ngữ, phân tích tình cảm và tạo văn bản. Ví dụ, truyền ngược giúp cải thiện độ chính xác của trợ lý ảo như Siri và Alexa bằng cách cho phép chúng hiểu và phản hồi tốt hơn các lệnh của người dùng. Khám phá thêm về xử lý ngôn ngữ tự nhiên (NLP) .

Các thuật ngữ liên quan

  • Gradient Descent : Một thuật toán tối ưu hóa được sử dụng để giảm thiểu hàm mất mát bằng cách điều chỉnh trọng số theo hướng dốc nhất của gradient. Tìm hiểu thêm về gradient descent .
  • Hàm mất mát : Một hàm đo lường sự khác biệt giữa đầu ra dự đoán và giá trị mục tiêu thực tế. Mục tiêu của việc đào tạo mạng nơ-ron là giảm thiểu hàm này. Tìm hiểu thêm về hàm mất mát .
  • Mạng nơ-ron : Một mạng lưới các nút được kết nối với nhau, hay "nơ-ron", được tổ chức theo từng lớp. Mạng nơ-ron được thiết kế để nhận dạng các mẫu và là thành phần cơ bản của học sâu. Khám phá mạng nơ-ron .
  • Hàm kích hoạt : Một hàm đưa tính phi tuyến tính vào đầu ra của một neuron. Các hàm kích hoạt phổ biến bao gồm ReLU , sigmoidtanh . Khám phá các hàm kích hoạt .
  • Epoch : Một lần duyệt toàn bộ tập dữ liệu đào tạo trong quá trình đào tạo. Nhiều epoch thường được yêu cầu để đào tạo mạng nơ-ron hiệu quả. Tìm hiểu về epoch .

Các thuật ngữ này có liên quan chặt chẽ đến backpropagation và rất cần thiết để hiểu cách mạng nơ-ron được đào tạo. Bằng cách hiểu backpropagation và các khái niệm liên quan, bạn có thể có được hiểu biết sâu sắc hơn về cơ chế học sâu và cách các mô hình như Ultralytics YOLO được đào tạo để thực hiện nhiều nhiệm vụ khác nhau.

Đọc tất cả