Em processamento de linguagem natural, o modelo Skip-Gram é uma técnica popular para treinar word embeddings.
O treinamento do modelo Skip-Gram destaca-se de outras técnicas, como o Continuous Bag of Words (CBOW), por ter a seguinte característica:
utilizar contextos adjacentes para prever uma palavra-alvo.
focar em prever palavras de contexto a partir de uma palavra-alvo.
treinar cada palavra em uma janela de contexto separadamente.
gerar embeddings, baseados em dependências sintáticas.
empregar uma abordagem de bag-of-words para a geração de embeddings.