L’intelligence artificielle (IA) pénètre chaque division de chaque entreprise, de l’automatisation du travail des installations de fabrication à l’amélioration des domaines auparavant considérés comme intouchables par les machines (comme les actifs humains). Mais en tant que vétéran du monde de la publicité et du marketing en ligne, je ne peux m’empêcher de laisser ma créativité vagabonder sur la façon dont l’IA et l’étude des machines vont influencer le monde du SEO (optimisation Web) – les méthodes utilisées par les organisations pour classer davantage dans les pages de résultats des moteurs de recherche (SERP).

– Publicité –

Déjà, nous assistons au début d’une révolution de l’IA à grande échelle dans l’optimisation du Web, et les entrepreneurs de la recherche se démènent pour maintenir le rythme des ajustements. Mais que se passera-t-il au cours des prochaines années? Et la décennie suivante?

La grande image

Nous disons «moteurs de recherche», mais la plupart du temps, nous parlons de Google. Bing, Yahoo !, DuckDuckGo et différents moteurs ne partagent qu’une fraction de la base de recherche des consommateurs, et la plupart de leurs techniques sont calquées sur celles de Google en premier lieu. Notre grande question est donc de savoir comment Google va-t-il inclure l’IA à l’avenir pour modifier le fonctionnement de la recherche pour le consommateur commun?

– Publicité –

Historiquement, Google a mis à jour ses algorithmes avec deux cibles principales en tête:

  • Améliorez l’expertise des consommateurs. Google a besoin que ses clients recherchent les solutions qu’ils recherchent et obtiennent un contenu correct et inestimable. Il s’agit d’une classe vitale et sophistiquée; pour s’en rendre compte, Google doit non seulement exceller dans les fonctionnalités de son moteur de recherche, mais également dans la façon dont il trouve, organise et évalue la haute qualité du contenu sur Internet.
  • Gardez les clients sur Google. Google fait de l’argent lorsque les individus l’utilisent et reste sur la plate-forme aussi longtemps que possible. Nous verrons pourquoi c’est essentiel dans une future partie.

Google utilise déjà l’étude des machines de quelques manières différentes, et ce n’est qu’une question de temps avant son avancée.

RankBrain et l’apprentissage automatique

Tout d’abord, prenons en compte RankBrain, une amélioration basée sur l’apprentissage automatique de l’algorithme Hummingbird de Google, qui a été lancé en 2015. Le Hummingbird remplace, à partir de 2013, les fonctionnalités de «recherche sémantique» initialement déployées. Il a été conçu pour juger le contexte des requêtes des consommateurs, raisonnablement par rapport au contenu réel; raisonnablement que de prioriser les phrases clés de correspondance réelles, Hummingbird a permis à Google d’envisager des synonymes, des phrases associées et d’autres. Il s’agissait d’une étape dans la bonne voie, car cela signifiait que les clients pouvaient découvrir des résultats plus élevés, et les optimiseurs de recherche ne pouvaient désormais plus s’en tirer avec le bourrage de phrases clés.

RankBrain était une modification qui a permis à Google d’examiner d’énormes parties des informations de recherche des consommateurs et d’améliorer mécaniquement son interprétation des phrases des consommateurs. Il était principalement ciblé sur des phrases longues, alambiquées ou difficiles à comprendre, à la fin, en les réduisant à une taille et à un degré de facilité que l’algorithme peut très simplement gérer. Depuis, il s’auto-met à jour et s’améliore.

Il s’agit d’une indication vitale de l’évolution de la recherche à l’avenir; Je suppose que raisonnablement, plutôt que de voir le remplacement du guide après le remplacement du guide, nous verrons des ajustements d’algorithme supplémentaires conçus pour s’auto-mettre à jour principalement en fonction de l’analyse des connaissances de la machine. C’est beaucoup plus tôt et plus rentable que d’avoir des gens qui font tout le travail.

Qualité du contenu et qualité des liens

Je pense que nous verrons en outre les principaux développements de l’IA utilisés pour mieux percevoir la haute qualité du contenu et des hyperliens produits par les optimiseurs de recherche.

Les liens et le contenu sont les facteurs focaux de la plupart des méthodes d’optimisation Web. Google recherche des hyperliens pour calculer l’autorité (ou la fiabilité) au niveau du domaine et de la page; généralement, les hyperliens supplémentaires qu’un site Web a pointés vers lui, et plus ces hyperliens sont élevés, plus il va se classer. De même, le contenu mieux écrit et plus connexe a tendance à augmenter dans les classements SERP et à attirer les clients Internet. Un meilleur contenu et des hyperliens plus élevés impliquent que vous vous retrouverez avec le prochain retour sur financement (ROI) sur votre technique d’optimisation Web.

Au fil des ans, Google est devenu plus performant dans l’analyse de la haute qualité du contenu et des hyperliens des sites Web; les entrepreneurs du Réseau de Recherche sont passés de la tentative de tromper l’algorithme de Google à la simple tentative de fournir leur meilleur travail absolu.

À l’heure actuelle, les stratégies de Google pour évaluer la «qualité» subjective du contenu et des hyperliens sont bonnes, mais elles peuvent toujours être plus élevées. Il pourrait être plus simple pour un agent d’intelligence artificielle d’étudier étape par étape ce qui rend un bon contenu «bon» que de dépendre d’un agent guide codant ces paramètres directement dans un système. J’imagine que Google fera des efforts supplémentaires pour automatiser une analyse de haute qualité dans un avenir proche.

Individualisation

Google a également déployé de grands efforts pour individualiser ses résultats de recherche. Si vous recherchez l’expression similaire à Phoenix, Arizona et Cleveland, Ohio, vous obtiendrez probablement des résultats radicalement différents. Vous pouvez également obtenir des résultats totalement différents, principalement basés sur le passé historique de votre recherche, et même sur les informations démographiques que Google «connaît» à votre sujet.

À l’heure actuelle, ces efforts d’individualisation sont spectaculaires, bien que limités. Nous ne sommes pas choqués que Google soit au courant de l’endroit où nous nous trouvons ou des précédents problèmes que nous avons recherchés. Mais dans un avenir proche, Google pourrait également réussir à utiliser l’IA pour faire des prédictions très intensives. Sur la base de vos recherches historiques et des informations de recherche de centaines de milliers de clients différents tels que vous, Google pourrait être en mesure de suggérer des recherches ou des résultats de recherche plus tôt que vous ne le pensiez.

Pour les entrepreneurs en recherche, c’est à la fois une chance et un risque. Si vous êtes en mesure de tirer parti des recherches prédictives, vous pouvez obtenir un avantage énorme sur les concurrents, mais encore une fois, si les stratégies algorithmiques de Google sont opaques, vous aurez du mal à comprendre comment et quand vos résultats semblent pour les clients.

Résultats intelligents

Au cours des dernières années, Google a intensifié ses efforts pour maintenir les clients sur les SERP, raisonnablement plutôt que de cliquer sur des hyperliens pour accéder à différents sites Web. Le Knowledge Graph et les riches extraits semblent désormais offrir des solutions rapides aux requêtes des consommateurs, empêchant le clic obligatoire sur tout autre élément. Étant donné que Google parviendra à disséquer les requêtes des consommateurs avec RankBrain et Hummingbird, et deviendra plus performant pour analyser Internet avec des algorithmes sensés, je pense que nous verrons beaucoup plus de ces entrées qui attirent l’attention des utilisateurs.

Pour les entrepreneurs en recherche, c’est encore une fois une chance et un risque. Si vous pouvez utiliser le système et faire en sorte que votre contenu s’affiche dans les SERP au-dessus de vos adversaires, vous obtiendrez une amélioration sérieuse de l’état de votre modèle. Mais en même temps, si les clients restent dans les SERPs, et n’y vont en aucun cas, vous manquerez une tonne de visiteurs du site naturel.

Changements en temps réel et adaptabilité

L’IA est remarquablement bonne pour analyser d’énormes quantités d’informations, et bien plus tôt que même un équipage humain qualifié. Historiquement, Google a apporté des mises à jour périodiques à son algorithme avec des ajustements d’algorithmes principaux et changeants qui ont chuté tous les quelques mois. Mais ces derniers temps, ces mises à jour d’algorithmes ont diminué au profit de mises à jour beaucoup plus petites et plutôt plus fréquentes.

Ce développement en développera sans aucun doute d’autres à l’avenir alors que les techniques d’intelligence artificielle de Google s’optimisent vers des analyses en temps réel. Il «apprendra» continuellement, à chaque nouvelle question de recherche, et lancera probablement de nouvelles mises à jour de son algorithme de séjour sur une base continue, ce qui rend difficile le maintien de son évolution itérative.

Production de contenu et optimisation sur site

Il est également intéressant de noter que l’IA n’est pas simplement exploitée par Google et différents moteurs de recherche comme Google et Yahoo. Nous verrons également la croissance et l’utilité de l’IA pour le compte des entrepreneurs en recherche. Les turbines de matériaux de contenu basées sur l’intelligence artificielle sont devenues très supérieures et très répandues; en fin de compte, les entrepreneurs du secteur de la recherche pourraient être en mesure de les utiliser pour fournir et distribuer du contenu permettant de « tromper » les algorithmes de Google. De là, cela peut sans aucun doute basculer dans une course aux armements entre les entrepreneurs de la recherche et les algorithmes de recherche – pas trop contrairement à ce que nous avons déjà.

En outre, des moteurs d’optimisation judicieux sur site peuvent considérablement simplifier les efforts techniques que les entrepreneurs en recherche doivent actuellement faire. Les plugins actuels et les instruments d’optimisation Web sur site sont utiles, mais incomplets; dans un avenir proche, l’intelligence artificielle et l’étude des machines pourraient rendre ces succès considérablement plus importants.

Dans l’ensemble, il est peu probable que nous assistions à une transformation si radicale que les SERP deviennent méconnaissables ou que l’optimisation Web disparaisse en tant que technique de publicité et de marketing Web. Cependant, les entrepreneurs et les clients du secteur de la recherche devront chacun apporter de sérieux changements au cas où ils resteraient liés alors que l’IA s’infiltrerait dans cette zone.

Nate Nead

Nate Nead est le PDG de Web Optimization.co/; une société d’optimisation Web à service complet et DEV.co/; une entreprise de croissance de programmes Internet et logiciels personnalisés. Pendant plus d’une décennie, Nate avait fourni une orientation stratégique sur l’expertise et les options de publicité et de marketing pour certains des fabricants en ligne les plus connus. Lui et son équipe conseillent les acheteurs de Fortune 500 et de PME sur les logiciels, la croissance et la publicité et le marketing en ligne. Nate et son équipage sont principalement basés à Seattle, Washington et West Palm Beach, Floride.