Glossário

Embeddings

Aprende o que são embeddings e como potenciam a IA, capturando relações semânticas em dados para NLP, recomendações e visão computacional.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

No domínio da aprendizagem automática e da inteligência artificial, os embeddings são uma forma de representar dados - palavras, frases ou mesmo imagens - como pontos num espaço multidimensional, em que a localização de cada ponto reflecte o seu significado semântico ou caraterísticas. Estas representações são aprendidas por algoritmos que analisam grandes quantidades de dados, permitindo-lhes captar relações e padrões complexos. Os embeddings são fundamentais para permitir que as máquinas compreendam e processem a linguagem natural e outras formas de dados de forma mais eficaz.

O que são Embeddings?

Os embeddings são essencialmente representações vectoriais densas de dados. Ao contrário dos métodos tradicionais, que podem representar palavras ou itens como símbolos únicos e independentes, os embeddings captam as nuances do significado mapeando os pontos de dados para vectores de números reais num espaço de elevada dimensão. Este espaço é muitas vezes referido como o espaço de incorporação. A ideia-chave é que itens semelhantes terão embeddings semelhantes, o que significa que estarão localizados próximos uns dos outros neste espaço. Por exemplo, num modelo de incorporação de palavras, palavras com significados semelhantes, como "gato" e "gatinho", seriam representadas por vectores próximos uns dos outros.

Como funcionam os Embeddings

Os embeddings são normalmente gerados utilizando modelos de redes neuronais que são treinados em grandes conjuntos de dados. Por exemplo, um modelo pode ser treinado para prever uma palavra tendo em conta as palavras que a rodeiam numa frase. Durante este processo de treino, o modelo aprende a mapear cada palavra para um vetor de forma a captar o seu contexto semântico. As dimensões do espaço de incorporação são um hiperparâmetro do modelo, variando frequentemente entre algumas dezenas e várias centenas. Cada dimensão capta um aspeto diferente do significado ou das caraterísticas dos dados, embora estes aspectos nem sempre sejam diretamente interpretáveis pelos seres humanos.

Aplicações de Embeddings

Os embeddings têm uma vasta gama de aplicações em vários domínios da IA e da aprendizagem automática. Eis alguns exemplos notáveis:

Processamento de linguagem natural (PNL)

Na PNL, os word embeddings são utilizados para potenciar aplicações como a análise de sentimentos, a tradução automática e a classificação de textos. Ao representar as palavras como vectores, os modelos podem efetuar operações matemáticas para compreender e gerar texto. Por exemplo, a famosa equação "rei - homem + mulher = rainha" é muitas vezes demonstrada utilizando a incorporação de palavras para ilustrar como estes vectores podem captar relações semânticas.

Sistemas de recomendação

Os embeddings são utilizados para representar utilizadores e itens em sistemas de recomendação. Ao mapear utilizadores e itens para o mesmo espaço de incorporação, o sistema pode recomendar itens que estão próximos das preferências de um utilizador. Esta abordagem é utilizada por empresas como a Netflix e a Amazon para sugerir filmes ou produtos com base no comportamento do utilizador e nas caraterísticas do item.

Visão computacional

Embora menos comuns do que na PNL, os embeddings também podem ser utilizados na visão computacional. Por exemplo, as imagens podem ser mapeadas para um espaço de incorporação onde imagens semelhantes estão localizadas próximas umas das outras. Isto pode ser utilizado para tarefas como a recuperação de imagens ou o agrupamento. Ao tirar partido dos modelos Ultralytics YOLO , os utilizadores podem melhorar ainda mais a análise de imagens, integrando capacidades de deteção de objectos e segmentação de imagens, tornando os embeddings ainda mais informativos e úteis para aplicações específicas.

Conceitos-chave relacionados com as incrustações

Modelo de espaço vetorial

O modelo de espaço vetorial é um modelo matemático utilizado para representar documentos de texto ou quaisquer objectos como vectores de identificadores. É um conceito fundamental para os embeddings, em que cada dimensão do vetor corresponde a um termo ou caraterística distinta.

Redução da dimensionalidade

Técnicas como a análise de componentes principais (PCA) e a t-distributed Stochastic Neighbor Embedding (t-SNE) são muitas vezes utilizadas para visualizar as incorporações de alta dimensão num espaço de dimensão inferior (por exemplo, 2D ou 3D), preservando as distâncias relativas entre os pontos. A redução da dimensionalidade ajuda a compreender e a interpretar o espaço de incorporação.

Embeddings contextuais

Os word embeddings tradicionais, como o Word2Vec e o GloVe, fornecem uma representação estática para cada palavra. Em contraste, as incorporações contextuais, como as geradas pelo BERT (Bidirectional Encoder Representations from Transformers) e outros modelos Transformer, geram incorporações que variam com base no contexto em que a palavra aparece. Isto permite que o modelo capte diferentes significados de uma palavra em diferentes frases.

Embeddings vs. Outras Técnicas de Representação

Codificação de um ponto

A codificação de um ponto é uma forma simples de representar dados categóricos, em que cada categoria é representada como um vetor binário com um único "1" e os restantes "0". Ao contrário dos embeddings, os vectores one-hot são esparsos e não captam relações semânticas entre categorias.

Saco de palavras (BoW)

O modelo de saco de palavras representa o texto como a frequência de cada palavra, ignorando a gramática e a ordem das palavras. Embora simples, não capta o significado semântico das palavras da mesma forma que os embeddings.

TF-IDF

TF-IDF (Term Frequency-Inverse Document Frequency) é uma estatística numérica que reflecte a importância de uma palavra para um documento numa coleção ou corpus. Combina a frequência de uma palavra num documento com a sua raridade no corpus, fornecendo uma medida de relevância. Embora útil, TF-IDF não capta as relações semânticas tão eficazmente como os embeddings.

Conclusão

Os embeddings tornaram-se uma pedra angular da aprendizagem automática moderna, nomeadamente no domínio da PNL. Ao representar os dados como vectores densos num espaço multidimensional, os embeddings captam relações semânticas ricas e permitem um processamento e uma análise mais sofisticados. Quer se trate de compreender a linguagem natural, de alimentar sistemas de recomendação ou de melhorar as tarefas de visão por computador, os embeddings desempenham um papel crucial no avanço das capacidades dos sistemas de IA. À medida que a investigação progride, podemos esperar que os embeddings continuem a evoluir, conduzindo a representações de dados ainda mais poderosas e matizadas. Com ferramentas como o Ultralytics HUB, a gestão e a implementação destes modelos avançados tornam-se mais acessíveis, permitindo aos utilizadores treinar modelos YOLO de forma eficiente e integrar soluções de IA de ponta nas suas aplicações.

Lê tudo