مسرد المصطلحات

BERT (تمثيلات التشفير ثنائي الاتجاه من المحولات)

اكتشف BERT، نموذج البرمجة اللغوية العصبية الثوري Google. تعرّف على كيفية تحويل فهم السياق ثنائي الاتجاه لمهام الذكاء الاصطناعي مثل البحث وروبوتات الدردشة.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

BERT, which stands for Bidirectional Encoder Representations from Transformers, is a landmark technique for Natural Language Processing (NLP) pre-training developed by researchers at Google AI Language. طُرحت هذه التقنية في عام 2018، وقد أحدثت ثورة في كيفية فهم الآلات للغة البشرية من خلال كونها أول تمثيل لغوي ثنائي الاتجاه وغير خاضع للإشراف، تم تدريبه مسبقًا باستخدام مجموعة نصوص عادية فقط. وهو يستفيد من بنية Transformer القوية، وتحديداً الجزء الخاص بالتشفير، لمعالجة الكلمات فيما يتعلق بجميع الكلمات الأخرى في الجملة، بدلاً من معالجتها بالتسلسل.

كيف يعمل بيرت

على عكس النماذج السابقة التي عالجت النص في اتجاه واحد (إما من اليسار إلى اليمين أو من اليمين إلى اليسار)، يعالج برنامج BERT تسلسل الكلمات بالكامل في وقت واحد. هذا النهج ثنائي الاتجاه يسمح له بفهم سياق الكلمة بناءً على الكلمات المحيطة بها، سواءً التي تسبقها أو تليها. تخيل أنك تحاول فهم معنى كلمة "بنك" في عبارة "ذهبت إلى البنك لإيداع المال" مقابل "جلست على ضفة النهر". تساعده ثنائية الاتجاه في BERT على التمييز بين هذه المعاني بفعالية. وهو يتعلم هذه العلاقات من خلال تدريبه مسبقًا على كميات هائلة من البيانات النصية، مثل ويكيبيديا، باستخدام تقنيات مثل نمذجة اللغة المقنعة (التنبؤ بالكلمات المخفية) والتنبؤ بالجملة التالية. يمكن بعد ذلك تكييف النموذج الناتج المُدرَّب مسبقًا، والذي يحتوي على تضمينات لغوية غنية، أو"ضبطه" بسرعة لمهام محددة في البرمجة اللغوية العصبية النهائية باستخدام مجموعات بيانات أصغر خاصة بالمهام.

الميزات والفوائد الرئيسية

  • السياق ثنائي الاتجاه: يفهم معنى الكلمة بناءً على سياق الجملة الكامل، مما يحسن الدقة في المهام التي تتطلب فهمًا لغويًا عميقًا.
  • التدريب المسبق والضبط الدقيق: يقدم نماذج قوية مُدرّبة مسبقًا تلتقط الفهم العام للغة، والتي يمكن تكييفها بسهولة لتطبيقات محددة مثل تحليل المشاعر أو الإجابة عن الأسئلة. وهذا يقلل بشكل كبير من الحاجة إلى مجموعات بيانات كبيرة مصنفة لكل مهمة.
  • أحدث أداء: حقّق نتائج رائدة عبر مجموعة واسعة من معايير البرمجة اللغوية العصبية عند إصداره، واضعًا معيارًا جديدًا لنماذج اللغة. يمكنك استكشاف البحث الأصلي في بحث BERT ArXiv.
  • تعدد الاستخدامات: يمكن تطبيقها على العديد من مهام البرمجة اللغوية العصبية، بما في ذلك تصنيف النصوص، والتعرف على الكيانات المسماة، والاستدلال على اللغة الطبيعية.

التطبيقات الواقعية

وقد أدت قدرة BERT على فهم الفروق اللغوية الدقيقة إلى تحسينات كبيرة في مختلف التطبيقات:

  1. محركات البحث: قامت Google بدمج BERT في محرك البحث الخاص بها لفهم استفسارات المستخدم بشكل أفضل. كما هو مفصّل في منشور مدونةGoogle للذكاء الاصطناعي حول BERT في محرك البحث، يساعد ذلك على تقديم نتائج بحث أكثر ملاءمة من خلال فهم السياق والنية وراء الاستعلامات المعقدة أو المحادثة.
  2. الذكاء الاصطناعي للمحادثة: يعمل الذكاء الاصطناعي للمحادثة على تحسين روبوتات الدردشة الآلية والمساعدين الافتراضيين من خلال تمكينهم من فهم طلبات المستخدمين بشكل أفضل، والحفاظ على السياق أثناء المحادثات، وتقديم ردود أكثر دقة ومفيدة. يؤدي ذلك إلى تفاعلات أكثر طبيعية وفعالية بين الإنسان والحاسوب.

وتشمل التطبيقات الأخرى تحسين أدوات تلخيص النصوص وتعزيز أنظمة الترجمة الآلية.

بيرت مقابل النماذج المماثلة

تركز BERT في المقام الأول على ترميز النص لفهم المهام. تتناقض طبيعته ثنائية الاتجاه مع النماذج الأحادية الاتجاه السابقة مثل الشبكات العصبية الأساسية المتكررة (RNNs). وعلى الرغم من استناده أيضًا إلى بنية المحولات، إلا أن BERT يختلف عن نماذج مثل GPT (المحول التوليدي المدرب مسبقًا)، والتي عادةً ما تكون مُحسّنة لتوليد النص بدلاً من مجرد ترميزه. كما تم تكييف بنية المحولات نفسها لمهام الرؤية الحاسوبية، كما رأينا في نماذج مثل محول الرؤية (ViT)، مما يدل على مرونة البنية التي تتجاوز حدود البرمجة اللغوية العصبية. العديد من نماذج BERT المدربة مسبقًا متاحة بسهولة من خلال منصات مثل Hugging Face ويمكن دمجها في مهام سير العمل باستخدام أدوات مثل Ultralytics HUB.

قراءة الكل