مسرد المصطلحات

BERT (تمثيلات التشفير ثنائي الاتجاه من المحولات)

اكتشف BERT، نموذج البرمجة اللغوية العصبية الثوري Google. تعرّف على كيفية تحويل فهم السياق ثنائي الاتجاه لمهام الذكاء الاصطناعي مثل البحث وروبوتات الدردشة.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

BERT، وهي اختصار لـ BERT، وهي اختصار لـ BERT، وهي اختصار لـ BERT، وهي عبارة عن تقنية بارزة في مجال التدريب المسبق لمعالجة اللغات الطبيعية (NLP) طورها باحثون في Google AI Language. طُرحت هذه التقنية في عام 2018 من خلال الورقة البحثية المؤثرة"BERT: التدريب المسبق للمحوّلات ثنائية الاتجاه العميقة لفهم اللغة"، وقد أحدثت ثورة في كيفية فهم الآلات للغة البشرية. كانت واحدة من أوائل التمثيلات اللغوية ثنائية الاتجاه العميقة غير الخاضعة للإشراف، والتي تم تدريبها مسبقًا باستخدام مجموعة نصوص عادية فقط مثل ويكيبيديا. تستفيد BERT من بنية Transformer القوية، وتحديدًا جزء التشفير، لمعالجة الكلمات فيما يتعلق بجميع الكلمات الأخرى في الجملة في وقت واحد، وليس بالتتابع. وهذا يسمح بفهم أعمق للسياق مقارنةً بالنماذج أحادية الاتجاه السابقة.

كيف يعمل بيرت

على عكس النماذج السابقة التي عالجت النص في اتجاه واحد (إما من اليسار إلى اليمين أو من اليمين إلى اليسار)، يعالج برنامج BERT تسلسل الكلمات بالكامل في وقت واحد باستخدام مشفر المحول وآلية الانتباه الذاتي. هذا النهج ثنائي الاتجاه يسمح له بفهم سياق الكلمة بناءً على الكلمات المحيطة بها، سواءً التي تسبقها أو تليها. على سبيل المثال، يستطيع برنامج BERT التفريق بين معنى كلمة "بنك" في عبارة "أحتاج للذهاب إلى البنك لسحب النقود" مقابل "كانت ضفة النهر موحلة" من خلال النظر في سياق الجملة بالكامل.

يتعلم برنامج BERT هذه العلاقات اللغوية المعقدة خلال مرحلة ما قبل التدريب على كميات هائلة من البيانات النصية. يتضمن ذلك مهمتين رئيسيتين غير خاضعتين للإشراف:

  1. نموذج اللغة المقنعة (MLM): يتم إخفاء نسبة معينة من الرموز المدخلة (كلمات أو كلمات فرعية) بشكل عشوائي (مخفية)، ويتعلم النموذج التنبؤ بهذه الرموز المقنعة بناءً على سياقها.
  2. التنبؤ بالجملة التالية (NSP): يتلقى النموذج أزواجًا من الجمل ويتعلم التنبؤ بما إذا كانت الجملة الثانية هي الجملة التالية الفعلية التي تلي الأولى في النص الأصلي، أو مجرد جملة عشوائية.

تكون نتيجة هذا التدريب المسبق نموذجًا ذا تضمينات لغوية غنية تلتقط بناء الجملة والدلالات. يمكن بعد ذلك تكييف نموذج BERT المدرب مسبقًا أو"ضبطه" بسرعة لمختلف مهام البرمجة اللغوية العصبية النهائية المحددة باستخدام مجموعات بيانات أصغر خاصة بالمهام. هذه العملية للاستفادة من المعرفة المدربة مسبقًا هي شكل من أشكال التعلّم التحويلي.

الميزات والفوائد الرئيسية

  • السياق العميق ثنائي الاتجاه: يتمثل الابتكار الأساسي لنموذج BERT في قدرته على فهم سياق الكلمة من خلال النظر إلى الكلمات التي تأتي قبلها وبعدها في آنٍ واحد. وهذا يؤدي إلى فهم أكثر ثراءً ودقةً للفروق اللغوية الدقيقة مقارنةً بالنماذج أحادية الاتجاه مثل الإصدارات الأولى من GPT.
  • أحدث أداء: عند إصداره، حقق BERT أحدث النتائج على مجموعة واسعة من معايير البرمجة اللغوية العصبية بما في ذلك الإجابة عن الأسئلة (مثل مجموعة بيانات SQuAD) ومهام فهم اللغة الطبيعية (NLU).
  • قوة تعلم التحويل: تُعد نماذج BERT المدربة مسبقاً بمثابة أساس قوي. من خلال ضبط BERT على مهام محددة مثل تحليل المشاعر أو التعرف على الكيانات المسماة (NER)، يمكن للمطورين تحقيق أداء عالٍ ببيانات ووقت تدريب أقل بكثير من البيانات الخاصة بالمهمة مقارنةً بتدريب نموذج من الصفر.
  • متاحة على نطاق واسع: يمكن الوصول بسهولة إلى نماذج BERT المدربة مسبقًا من خلال منصات مثل Hugging Face ويمكن استخدامها مع أطر التعلم العميق (DL) الشائعة مثل PyTorch و TensorFlow.

التطبيقات الواقعية

أدت قدرة BERT على فهم الفروق اللغوية الدقيقة إلى تحسينات كبيرة في العديد من تطبيقات الذكاء الاصطناعي في العالم الحقيقي:

  • محركات البحث: اشتهر محرك بحث Google بتضمين خاصية BERT لفهم استعلامات المستخدم بشكل أفضل، خاصةً الاستعلامات التحادثية أو المعقدة، مما يؤدي إلى نتائج بحث أكثر صلة. وكما هو موضّح في منشور مدونة الذكاء الاصطناعي من Google يساعد BERT على فهم القصد من وراء عمليات البحث مثل "هل يمكنك الحصول على دواء لصيدلية شخص ما" من خلال فهم أهمية حروف الجر مثل "من أجل" و"إلى".
  • روبوتات المحادثة والمساعدين الافتراضيين: تعزز BERT من قدرة روبوتات الدردشة الآلية والمساعدين الافتراضيين على فهم طلبات المستخدمين بدقة أكبر، والحفاظ على السياق في المحادثات، وتقديم ردود أكثر فائدة في خدمة العملاء وأنظمة الحجز واسترجاع المعلومات.
  • تحليل المشاعر: تستخدم الشركات النماذج القائمة على BERT لتحليل مراجعات العملاء وتعليقات وسائل التواصل الاجتماعي والردود على الاستبيانات لقياس الرأي العام وتعليقات العملاء على المنتجات بدقة أعلى.
  • تلخيص النصوص والإجابة على الأسئلة: يمكن ضبط BERT لإنشاء أنظمة تقوم تلقائيًا بتلخيص المستندات الطويلة(تلخيص النص) أو الإجابة عن الأسئلة بناءً على مقطع نصي معين.

على الرغم من استخدام BERT في المقام الأول في البرمجة اللغوية العصبية، إلا أن بنية المحولات التي شاع استخدامها ألهمت أيضًا التطورات في مجال الرؤية الحاسوبية، مثل محولات الرؤية (ViT) المستخدمة في نماذج مثل RT-DETR. تعمل منصات مثل Ultralytics HUB على تسهيل تدريب ونشر نماذج الذكاء الاصطناعي المختلفة، بما في ذلك النماذج المبنية على مبادئ المحولات.

قراءة الكل