Thuật ngữ

Máy biến thế

Khám phá tác động của các mô hình Transformer trong AI với Ultralytics . Khám phá kiến trúc, các thành phần chính và ứng dụng của chúng trong NLP và tầm nhìn.

Xe lửa YOLO mô hình đơn giản
với Ultralytics TRUNG TÂM

Tìm hiểu thêm

Mô hình Transformer đã trở thành nền tảng trong lĩnh vực trí tuệ nhân tạo, đặc biệt là trong xử lý ngôn ngữ tự nhiên (NLP) và gần đây hơn là trong các tác vụ thị giác máy tính. Được giới thiệu lần đầu tiên trong bài báo "Attention is All You Need" của Vaswani và cộng sự vào năm 2017, kiến trúc Transformer đã thay đổi cơ bản cách máy móc xử lý và hiểu ngôn ngữ bằng cách tận dụng các cơ chế tự chú ý.

Hiểu về máy biến áp

Transformers được thiết kế để xử lý dữ liệu tuần tự linh hoạt hơn so với các mô hình trước đây như mạng nơ-ron hồi quy (RNN) và mạng nơ-ron tích chập (CNN). Không giống như RNN, xử lý dữ liệu tuần tự, Transformers cho phép song song hóa lớn hơn nhiều, giảm đáng kể thời gian đào tạo và nâng cao hiệu suất trên các tập dữ liệu lớn.

Trọng tâm của mô hình Transformer là cơ chế tự chú ý . Điều này cho phép mô hình cân nhắc tầm quan trọng của các từ khác nhau trong một câu, cung cấp sự hiểu biết theo ngữ cảnh và tạo ra ngôn ngữ. Đọc thêm về tự chú ý trong trang thuật ngữ Tự chú ý .

Các thành phần chính

  1. Cấu trúc Encoder-Decoder : Transformer được xây dựng trên cấu trúc Encoder-Decoder, trong đó Encoder xử lý văn bản đầu vào và Decoder tạo ra đầu ra. Mỗi cấu trúc bao gồm nhiều lớp chứa cơ chế tự chú ý và mạng nơ-ron truyền thẳng.

  2. Mã hóa vị trí : Vì Transformers không hiểu được thứ tự của các chuỗi nên mã hóa vị trí được thêm vào nhúng đầu vào để giúp mã hóa vị trí của các từ trong chuỗi.

  3. Cơ chế chú ý : Cơ chế chú ý đóng vai trò cốt lõi của Transformer, cơ chế này gán các mức độ quan trọng khác nhau cho từng phần của chuỗi đầu vào, cho phép tập trung vào các phần có liên quan trong khi tạo ra đầu ra.

Ứng dụng trong thế giới thực

Xử lý ngôn ngữ tự nhiên

Transformers đã thúc đẩy những tiến bộ lớn trong NLP. Các mô hình dựa trên kiến trúc Transformer, chẳng hạn như GPT-3 và BERT, đã thiết lập các chuẩn mực mới trong các tác vụ từ tạo văn bản đến phân tích tình cảm và dịch máy. Các mô hình này xử lý các tác vụ tốt hơn so với các mô hình tiền nhiệm của chúng bằng cách hiểu ngữ cảnh ở cấp độ sắc thái.

  • BERT được biết đến với các nhiệm vụ đòi hỏi phải hiểu cả ngữ cảnh bên trái và bên phải của từ thông qua cơ chế chú ý hai chiều của nó.

Thị giác máy tính

Mặc dù ban đầu được thiết kế cho NLP, Transformers ngày càng được áp dụng nhiều hơn cho các tác vụ thị giác máy tính. Các mô hình như ViT (Vision Transformer) sử dụng Transformers để đạt được kết quả tiên tiến trong phân loại hình ảnh, phân đoạn, v.v. Hãy đi sâu vào vai trò của Transformers trong các mô hình thị giác để hiểu tác động của chúng đối với thị giác máy tính.

Đối với những người quan tâm, Ultralytics HUB cung cấp các công cụ để tích hợp các mô hình Transformer vào nhiều dự án, nâng cao hiệu suất và khả năng mở rộng. Tìm hiểu thêm về việc triển khai các mô hình trong các ứng dụng thực tế với Ultralytics HUB .

Sự khác biệt từ các mô hình liên quan

  • RNN và LSTM : Không giống như RNN và LSTM, Transformers có thể xử lý các chuỗi song song, giúp đào tạo nhanh hơn và cải thiện hiệu quả trong việc nắm bắt các mối phụ thuộc tầm xa.

  • CNN : Trong khi CNN thường được sử dụng cho dữ liệu hình ảnh, Transformer đang chứng tỏ tính hiệu quả nhờ khả năng nắm bắt các mối quan hệ theo ngữ cảnh trong dữ liệu mà không bị hạn chế bởi hệ thống phân cấp không gian.

Khám phá thêm

Khám phá tiềm năng của Transformers trong AI bằng cách đọc bài báo "Attention is All You Need" và các tài liệu liên quan. Để biết thêm về sự phát triển của các kiến trúc này, hãy cân nhắc tìm hiểu về các biến thể mô hình như Transformer-XL và Longformer, giải quyết các hạn chế về trình tự trong các thiết kế Transformer ban đầu.

Transformers tiếp tục thúc đẩy sự đổi mới trên khắp các lĩnh vực AI, với các ứng dụng mở rộng từ NLP sang các lĩnh vực như chăm sóc sức khỏe, tài chính, v.v. Hãy cập nhật blog của Ultralytics để biết các xu hướng và tiến bộ mới nhất trong công nghệ Transformer.

Đọc tất cả