Entdecke BERT, das revolutionäre NLP-Modell von Google. Erfahre, wie sein bidirektionales Kontextverständnis KI-Aufgaben wie Suche und Chatbots verändert.
BERT steht für Bidirectional Encoder Representations from Transformers und ist eine bahnbrechende Technik für das Pre-Training von Natural Language Processing (NLP), die von Forschern bei Google AI Language entwickelt wurde. BERT wurde 2018 in dem einflussreichen Papier"BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding" vorgestellt und revolutionierte die Art und Weise, wie Maschinen menschliche Sprache verstehen. Es war eine der ersten tiefen bidirektionalen, unüberwachten Sprachrepräsentationen, die nur mit einem einfachen Textkorpus wie Wikipedia trainiert wurden. BERT nutzt die leistungsstarke Transformer-Architektur, insbesondere den Encoder-Teil, um Wörter in Beziehung zu allen anderen Wörtern in einem Satz gleichzeitig und nicht nacheinander zu verarbeiten. Dies ermöglicht im Vergleich zu früheren unidirektionalen Modellen ein tieferes Verständnis des Kontexts.
Im Gegensatz zu früheren Modellen, die den Text in einer einzigen Richtung (entweder von links nach rechts oder von rechts nach links) verarbeitet haben, verarbeitet BERT mit seinem Transformer-Encoder und dem Selbstbeobachtungsmechanismus die gesamte Wortfolge auf einmal. Dieser bidirektionale Ansatz ermöglicht es ihm, den Kontext eines Wortes auf der Grundlage der umgebenden Wörter zu erfassen, sowohl der vorangehenden als auch der nachfolgenden. Zum Beispiel kann BERT die Bedeutung von "Bank" in "Ich muss zur Bank gehen, um Geld abzuheben" von "Das Flussufer war schlammig" unterscheiden, indem es den gesamten Satzkontext berücksichtigt.
BERT lernt diese komplexen sprachlichen Beziehungen in einer Pre-Trainingsphase anhand großer Mengen von Textdaten. Dies beinhaltet zwei wichtige unbeaufsichtigte Aufgaben:
Das Ergebnis dieses Vortrainings ist ein Modell mit umfangreichen Spracheinbettungen, die Syntax und Semantik erfassen. Dieses vortrainierte BERT-Modell kann dann mit kleineren, aufgabenspezifischen Datensätzen schnell für verschiedene nachgelagerte NLP-Aufgaben angepasst oder"feinabgestimmt" werden. Dieser Prozess der Nutzung von vortrainiertem Wissen ist eine Form des Transferlernens.
Die Fähigkeit des BERT, Sprachnuancen zu verstehen, hat zu erheblichen Verbesserungen in verschiedenen realen Anwendungen der Künstlichen Intelligenz (KI) geführt:
BERT wird zwar in erster Linie in der NLP eingesetzt, aber die von ihm entwickelte Transformer-Architektur hat auch zu Fortschritten in der Computer Vision (CV) geführt, z. B. zu den Vision Transformers (ViT), die in Modellen wie RT-DETR. Plattformen wie Ultralytics HUB erleichtern das Training und den Einsatz verschiedener KI-Modelle, einschließlich solcher, die auf Transformer-Prinzipien aufbauen.