Ce n’est plus un secret, l’intelligence artificielle part à la conquête de nombreux domaines et, évidemment, le web n’est pas épargné. Google est d’ailleurs un acteur particulièrement impliqué et place le Machine Learning au cœur de ses moteurs de recherche. Pour le meilleur ou pour le pire ?
Le Machine Learning est une forme d’intelligence artificielle qui permet aux machines d’apprendre de manière autonome. Ces programmes informatiques sont capables d’évoluer en présence de nouvelles données. De la gestion des flux d’actualité Facebook aux voitures autonomes, en passant par la bioinformatique, ce concept fait de plus en plus parler de lui, mais penchons-nous sur ce qui nous intéresse : le référencement. C’est la volonté des programmateurs de permettre à leurs programmes d’évoluer et de s’adapter au fil du temps, plutôt que de ne répondre qu’à une intention prédéterminée. L’approche s’est ensuite enrichie de nouveaux concepts tels que les Big Data, qui nécessitent forcément de nouveaux moyens d’interprétation.
Alors pourquoi nous en soucier ? Tout simplement parce que quelle que soit l’évolution des algorithmes utilisés par les moteurs de recherche, apparaître en première page des résultats reste une priorité pour tous. Le Machine Learning joue un rôle de plus en plus important dans leur comportement, et cette évolution changera radicalement notre manière d’aborder le SEO à l’avenir. En tant qu’agence de webmarketing nous tenons à vous informer des tendances qui influenceront votre présence digitale. Celle-ci n’est pas des moindre.
Le Machine Learning fait déjà partie intégrante du référencement. C’est notamment l’implication de Google dans son développement qui le rend si important pour nous. Avec l’arrivée de Penguin puis de Phantom 2, les critères de référencement tendent de plus en plus à favoriser la qualité des sites. La course aux mots clés devient progressivement obsolète et les moteurs de recherche articulent l’indexation des sites autour de l’interprétation des requêtes. Or, le Machine Learning joue un rôle important dans ces évolutions.
Le récent changement de directeur du Search chez Google confirme par ailleurs leur intérêt croissant pour l’intelligence artificielle. John Giannandra, le successeur d’Amit Singhal, était auparavant chef de la division Machine Learning de Google. Cette tendance n’est pourtant pas nouvelle, puisqu’en 2013, Google a acquis DeepMind, une société d’intelligence artificielle dont le but était de créer une machine universelle capable de traiter toute information, d’où quelle vienne, et en toute autonomie. Amit Singhal ne soutenait pas l’idée d’intégrer une telle technologie dans les algorithmes de recherche, par peur de perdre la maîtrise du comportement de l’algorithme, et donc de la manière dont les sites sont indexés.
Pourtant, en 2015, Google intégrait RankBrain à ses algorithmes. Il s’agit d’un algorithme de Machine Learning qui met l’intelligence artificielle au profit des moteurs de recherche en leur permettant de deviner et d’interpréter le sens des mots ou expressions qu’ils ne connaissent pas. Or les requêtes non reconnues par Google représentent près de 15 % des recherches mondiales. C’est pour cela que RankBrain fait aujourd’hui partie des premiers critères de ranking. Google peut alors proposer des pages qui ne contiennent pas les mots clés de la requête mais qui traitent pourtant du sujet.
Il est néanmoins difficile de mesurer l’impact de RankBrain, dans la mesure ou il s’adapte de manière autonome. Si ces évolutions ne sont pour le moment qu’une tendance, le phénomène prend de l’ampleur et on ne saurait l’ignorer.
Amit Singhal l’a mentionné, avec l’implémentation du Machine Learning, il devient de plus en plus difficile de définir et de contrôler les méthodes de référencement utilisées par les moteurs de recherche. Ils peuvent notamment attribuer, sans qu’on le sache, une importance variable à des facteurs qui ne sont à ce jour pas considérés importants. De par son mode de fonctionnement, le Machine Learning peut donc paraître inquiétant, mais en somme, si autant d’efforts sont concentrés sur son développement, c’est bien que son utilité ne fait aucun doute.
Avec l’arrivée du Machine Learning dans le monde du référencement, nous devons nous attendre à des évolutions plus progressives, contrairement aux changements d’algorithmes abrupts qui ont souvent pris au dépourvu les sites internet. Si, jusqu’à présent, les évolutions d’algorithmes étaient fondées sur l’itération de nouvelles versions, l’intelligence artificielle du Machine Learning permettra une adaptation plus progressive et logique des critères de référencement.
Le référencement est aujourd’hui largement centré sur la structure technique des sites internet : nous cherchons à optimiser les liens, les fichiers robots.txt, les balises méta, la structure des titres etc. Demain, avec l’injection d’intelligence artificielle visant à développer la compréhension contextuelle des contenus, l’aspect technique risque de devenir secondaire. Au profit de l’expérience utilisateur, les algorithmes se mettent à « réfléchir » tels des humains. Il faut donc orienter l’optimisation des sites internet pour les utilisateurs, et non plus pour « plaire » aux moteurs de recherche.
Manipuler le comportement des moteurs de recherche pour optimiser le référencement de manière artificielle deviendra donc de plus en plus difficile. Il faut recentrer les pratiques du SEO sur l’expérience utilisateur. Si le moment de délaisser le référencement technique n’est pas encore venu, il semble indispensable de redoubler d’efforts sur des méthodes inbound telles que le marketing de contenu et les médias sociaux, qui contribuent à améliorer la qualité d’un site dans son ensemble. C’est ce qui comptera pour les nouveaux algorithmes et ce qui propulsera votre site en première position.
Si cet article vous a plu, nous vous invitons à découvrir notre agence SEO et à télécharger notre livre blanc « Placez le Search Engine Marketing au cœur de votre Stratégie d’Acquisition »