Utilisation de word2vec pour localiser les mots clés à exclure

Rechercher dans les moyens appropriés les requêtes de recherche de vos campagnes offre un fort potentiel d’optimisation de vos performances. Nous avons tendance à avoir des approches pour analyser les n-grammes des questions des utilisateurs et mapper tous les KPI pertinents comme la valeur par commandes, les taux de conversion, la valeur par clic, etc. Attendez un moment ! n-Grams, qu’est-ce que c’est? Disons que nous avons la requête de recherche suivante :Boutique en ligne Hugo Boss 1-Grams serait Hugo boss Onlineshop2-Grams: Hugo boss Hugo Onlineshop boss Onlineshop.

Lorsque vous faites cela sur des milliers de requêtes, vous trouverez des modèles accrocheurs qui fonctionnent complètement différemment. Disons que la performance est incroyablement malsaine. L’action serait de présenter des mots-clés négatifs pour ce modèle.

Cette approche fonctionne très bien si vous avez une taille d’échantillon suffisante (par exemple, Clics> 100) sur un modèle n-Gram – l’inconvénient est qu’il y a encore une grande quantité de sporadiques des mots partout où vous gaspillez beaucoup d’argent, mais il peut être long de les examiner tous. Cependant, aurons-nous tendance à modifier cela?Créer un modèle Word2Vec pour les recherches de similaritéWord2Vec a été fabriqué chez google et est des réseaux de neurones de victimisation pour constituer des modèles qui perçoivent le contexte des mots. Il existe des modèles pré-formés pour de nombreuses langues – dans notre cas, nous avons tendance à construire notre modèle avec toutes les requêtes de recherche proposées que nous avons tendance à acheter dans le passé.

disons que nous avons un compte AdWords contenant des mots clés pour toutes les marques de produits, par exemple + hugo + boss. Nous terminons en regardant l’analyse n-Gram que certaines personnes recherchent la marque du motif + l’emplacement. L’intention de la recherche est de faire des achats locaux et non en ligne.

C’est la raison pour laquelle des villes comme « Berlin » et « Hambourg » se dopent avec des CPO relativement élevés et des taux de conversion malsains s’ils apparaissent dans la requête de recherche. Ok, il est temps de remettre en question le modèle – utilisons « berlin » comme entrée et trouvons quelques mots similaires: Wow, des résultats assez spectaculaires ! La sortie affiche des mots similaires à côté de leur valeur de similarité. Pour ce cas, j’ai limité le développement aux 20 plus hauts.

Qu’est-ce que cela signifie maintenant pour ma liste de mots clés à exclure? Basé sur simplement 1 gramme ( » berlin « ), partout où nous avons suffisamment de données de clic, le modèle suggère un inventaire de mots terriblement similaires qui n’ont actuellement pas assez d’échantillons pour attirer notre attention en observant simplement la liste des n-grammes. Nous avons tendance à utiliser la sortie pour présenter une grande quantité des derniers mots clés à exclure qui empêchent d’acquérir de futures requêtes de recherche dont la conversion est peu probable.Donc, la méthode totale ressemble à ceci maintenant:

  • La classification des modèles de recherche négatifs a soutenu leurs connaissances en n-Gram partout où nous avons suffisamment de données
  • /li>

com.