IKOVA fait le point. Chaque mois, on vous propose une sélection des actualités Search & Analytics à ne pas manquer. 🧐

Ce mois-ci, au programme :

Google a annoncé la désactivation du scroll continu dans ses résultats de recherche, introduit initialement en 2021 sur mobile et en 2022 sur ordinateur, revenant ainsi à la pagination classique avec un bouton « Suivant » sur PC et « Plus de résultats » sur mobile.

Google a justifié ce retour en arrière par la volonté d’afficher les résultats plus rapidement sans charger automatiquement ceux non explicitement demandés par les utilisateurs. De plus, le scroll infini n’a pas conduit à une augmentation significative de la satisfaction utilisateur.

Ce changement pourrait entraîner une baisse du taux de clics pour les URL apparaissant sur la deuxième page des résultats de recherche, ainsi qu’une diminution des impressions.

Source : Search Engine Journal


John Mueller de Google a souligné la nécessité de conserver une version fonctionnelle pour desktop d’un site web, même avec le passage à l’indexation mobile-first. Il a indiqué que d’autres moteurs de recherche, robots d’exploration et utilisateurs de bureau dépendent encore des versions desktop, et qu’optimiser uniquement pour mobile pourrait limiter l’accessibilité et réduire le trafic potentiel provenant de ces sources.

Mueller a fortement recommandé d’utiliser un design de site web responsive plutôt qu’une approche mobile-only ou de dynamic serving. Un site responsive simplifie la maintenance en éliminant le besoin de bases de code séparées pour desktop et mobile, assurant une expérience utilisateur homogène sur tous les appareils.

Source : Reddit


Si Google augmente significativement son activité de crawl sur votre site, cela peut signaler des problèmes tels que des espaces infinis (comme les modules de calendrier ou les listings de produits filtrables à l’infini) ou une possible faille de sécurité où des hackers injectent du spam.

Les espaces infinis peuvent entraîner un crawl excessif car les robots peuvent s’enthousiasmer pour ces URL infinies. Il est recommandé d’utiliser le fichier robots.txt pour bloquer ces zones et éviter un crawl inutile.

Un pic de crawl peut également indiquer qu’un site a été piraté. Pour y remédier, identifiez et corrigez la vulnérabilité, nettoyez le contenu piraté, renforcez la sécurité et demandez une révision de Google pour retirer les avertissements de sécurité ou les listes noires.

Source : Gary Illyes – LinkedIn


La mise à jour Google Spam de juin 2024 a été déployée du 20 au 27 juin 2024. Elle se concentre sur la pénalisation des sites web utilisant des pratiques de spam, telles que la génération automatique de contenu pour améliorer le classement, l’achat ou la vente de liens, la publication de contenu de faible qualité et l’utilisation de techniques trompeuses.

La précédente mise à jour Google Spam en mars avait déjà impacté de nombreux sites de spam, bien que certains contenus générés par IA aient réussi à bien se classer. La mise à jour actuelle vise à affiner davantage la détection du spam par Google.

Les outils de suivi ont montré des réactions variées, avec certains calmes et d’autres agités. Généralement, les mises à jour de spam n’affectent pas les sites bien établis.

Source : Search Engine Roundtable


Une étude mené par Rand Fishkin, fondateur de SparkToro révèle qu’environ 60 % des recherches Google n’aboutissent à aucun clic, avec 59,7 % en Europe et 58,5 % aux États-Unis. Cette tendance est attribuée à plusieurs facteurs :

  • la satisfaction des utilisateurs trouvant leurs réponses directement dans les titres ou les extraits en vedette,
  • la frustration, ou la modification de la recherche pour obtenir de meilleurs résultats.

Il est également probable que cette part soit sous-estimée en raison de l’absence de données sur les recherches vocales et les recherches via l’application mobile de Google.

Le nombre de clics vers le web ouvert (les sites accessibles sans abonnement ou création de compte) est plus élevé en Europe (374 clics pour 1 000 recherches) qu’aux États-Unis (360 clics pour 1 000 recherches). Rand Fishkin attribue cette différence aux mesures antitrust mises en place en Europe, telles que le DMA (Digital Markets Act).

Source : SparkToro

Google Ads lance une nouvelle fonctionnalité, les “Brand Recommendations” alimentées par l’IA, pour aider les annonceurs à optimiser leurs campagnes de notoriété et de considération, complétant les recommandations de performance existantes pour une optimisation complète du parcours de conversion.

Ces recommandations analysent l’historique publicitaire, les paramètres de campagne et les tendances de l’industrie pour proposer des améliorations dans cinq catégories principales : publicités et actifs, enchères et budgets, mots-clés et ciblage, mesure, et opportunités sur l’ensemble du parcours de conversion.

recommandations de marque dans google ads

Source : Centre d’aide Google Ads


Google Ads va désormais agréger les requêtes mal orthographiées avec leurs homologues correctement orthographiés dans les rapports de termes de recherche, dévoilant ainsi environ 9% de termes de recherche supplémentaires auparavant cachés.

De plus, les mots-clés négatifs bloqueront automatiquement les fautes d’orthographe, réduisant le travail manuel nécessaire à la gestion de ces listes.

De nouvelles fonctionnalités de “brand inclusions” et “brand exclusions” permettront aux annonceurs de limiter ou exclure les requêtes liées à des marques spécifiques dans les campagnes à correspondance large et les annonces dynamiques, offrant un meilleur contrôle sur le trafic lié à la marque.

Source : Centre d’aide Google Ads


Google déploie un nouveau code de conversion spécifique pour les sites WordPress, facilitant ainsi l’intégration et le suivi des conversions pour les utilisateurs de cette plateforme.

En plus de WordPress, Google a également ajouté ce code de conversion pour Squarespace, et potentiellement pour d’autres plateformes. Ce nouveau développement a été repéré par David Quaid, un utilisateur expérimenté de Google Ads, qui a partagé des captures d’écran et des tutoriels sur X, soulignant que c’est une nouveauté même pour les experts de Google Ads.

google ads wordpress conversion

Source : Search Engine Roundtable

Universal Analytics (lancé en 2012) a fermé le 1er juillet 2024. Les utilisateurs doivent migrer vers Google Analytics 4 (GA4), qui offre une meilleure conformité aux réglementations sur la confidentialité.

Les utilisateurs doivent télécharger leurs données de Universal Analytics avant qu’elles ne disparaissent, en utilisant des outils comme CSV, l’API Google Analytics Reporting, et Big Query.

Source : Blog du Modérateur


Google Analytics 4 introduit plusieurs nouveautés, notamment l’importation de données publicitaires de Pinterest, Reddit et Snap, une fonctionnalité de budgétisation inter-canaux, une intégration avec Campaign Manager 360, une intelligence artificielle dédiée pour générer des insights, et une prise en charge de la mesure sans cookies via les APIs du Chrome Privacy Sandbox.

Ces nouvelles fonctionnalités visent à améliorer la capacité des marketeurs à comprendre l’impact de leurs efforts et à prendre des décisions plus éclairées. Cependant, l’interface utilisateur de GA4, critiquée depuis son lancement en 2020, n’a pas été modifiée.

Source : Search Engine Land

Anthropic a présenté Claude 3.5 Sonnet, un modèle de langage amélioré avec une meilleure compréhension des nuances textuelles, surpassant potentiellement ses concurrents comme GPT-4o.

La plateforme Claude.ai propose « Artefacts », un espace de travail dynamique permettant de réaliser des tâches spécifiques comme le codage et la création de documents en temps réel.

Claude 3.5 Sonnet est disponible gratuitement, avec des options payantes pour des capacités étendues. Anthropic prévoit des mises à jour régulières et la sortie de nouveaux modèles plus tard dans l’année.

claude 3.5 sonnet d'anthorpic

Source : Anthropic


En 2023, les émissions de gaz à effet de serre de Google ont augmenté de 48 % par rapport à 2019, principalement en raison de la demande énergétique croissante des centres de données, exacerbée par l’essor de l’IA, qui nécessite beaucoup plus de puissance de calcul et donc d’électricité.

Google vise la neutralité carbone d’ici 2030, mais reconnaît que l’intégration croissante de l’IA rendra cette tâche difficile. Les experts mettent en garde contre l’empreinte carbone des données inutilisées, appelées « dark data », et soulignent que le stockage de ces données consomme toujours beaucoup d’énergie.

Source : BBC

Auteur / autrice

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *