Google disattiva le pagine con 100 risultati: cosa significa per gli strumenti SEO e i clienti
Riassunto Generale dei concetti trattati
- Google ha disattivato il parametro &num=100, che consentiva di visualizzare 100 risultati per pagina .
- Gli strumenti di monitoraggio del ranking e gli scraper che ne utilizzavano questo comando sono stati interrotti.
- Molti utenti SEO hanno riscontrato un forte calo delle impressioni desktop in Search Console dal 10 settembre 2025.
- La modifica probabilmente filtra l’aumento delle impressioni causato dai bot, offrendo una visione più chiara del comportamento reale degli utenti.
- Per i clienti, questo significa cambiamenti nei report, non necessariamente nelle prestazioni.
Cosa è cambiato?
Per anni, i SEO hanno utilizzato il parametro &num=100 in modo che Google restituisse 100 risultati in una singola visualizzazione di pagina.
Ciò ha garantito una maggiore efficienza nel monitoraggio del ranking, nell’analisi della concorrenza e una maggiore visibilità nella SERP.
A partire dal 10 settembre 2025 circa, i professionisti SEO hanno scoperto che forzare 100 risultati spesso fallisce o funziona solo a intermittenza. Ciò suggerisce che Google stia implementando o testando la rimozione di tale funzionalità. Search Engine Journal ne ha parlato in modo approfondito.
“Sembra che Google abbia disabilitato o stia testando la rimozione del parametro URL &num=100 che mostra 100 risultati per pagina.” — Search Engine Journal
Impatto su strumenti e dati SEO
Rank Tracker e scraper
Molti strumenti di tracciamento (SeoZoom, Ahrefs, SEMrush, strumenti di nicchia più piccoli) si basavano in gran parte sul caricamento di 100 risultati in un’unica chiamata. Con questa funzione disabilitata o limitata, questi sistemi ora avranno problemi a:
Le parole giuste
La scrittura persuasiva è l'anima della SEO e della vendita. Con i nostri servizi di Copywriting e SEO strategica, diamo una voce potente e visibile al tuo brand, trasformando i lettori in clienti. Contattaci subito in chat per ricevere un audit gratuito del tuo sito! Non perdere i nostri consigli.
Scopri i nostri servizi SEO
- Mostrare le Posizioni oltre la prima pagina
- Fornire Dati completi o minimamente corretti nelle visualizzazioni storiche
- Gestire il business se non con maggiori risorse (poiché più richieste devono sostituire ciò che una sola ha fatto in precedenza)
Search Console e calo delle impressioni
I professionisti SEO hanno osservato un drastico calo delle impressioni desktop dal 10 settembre in poi. Nel frattempo, la posizione media è aumentata e i clic sono rimasti relativamente stabili. Questi andamenti suggeriscono che i conteggi delle impressioni precedenti erano gonfiati da attività non umane (bot che caricavano pagine di risultati extra).
“… Sto notando un calo notevole delle impressioni desktop, con conseguente forte aumento della posizione media… sembra essere iniziato intorno al 10 settembre.” — Brodie Clark tramite discussione della community
Per questo motivo, parte di ciò che è stato definito “Il Grande Disaccoppiamento” – ovvero l’aumento delle impressioni senza clic corrispondenti – potrebbe essere in parte spiegato dalla metodologia piuttosto che dal reale comportamento degli utenti.
Come sta reagendo la community SEO
Le opinioni dgli specialisti variano, ma i temi principali includono:
- Una certa preoccupazione per l’affidabilità dei dati: molti SEO facevano affidamento su dati di ranking più approfonditi, oltre la prima pagina.
- Speculazione sul motivo: alcuni credono che Google abbia disabilitato questa funzionalità per contrastare lo scraping aggressivo o gli strumenti di intelligenza artificiale. Altri suggeriscono di bilanciare l’accuratezza dei dati o l’esposizione alle normative.
- Focus pragmatico: la maggior parte concorda sul fatto che i fondamenti della SEO non cambiano: dobbiamo concentrarci maggiormente sui risultati migliori e sulle metriche utente significative.
Cosa significa questo per le strategie SEO
Concentrarsi sui primi 10 posizionamenti: poiché i risultati più approfonditi sono più difficili da monitorare in modo affidabile, massimizzare il posizionamento nella prima pagina diventa ancora più fondamentale.
- Sfrutta di più Search Console: usa GSC come fonte primaria di dati attendibili per impressioni, clic e posizione media.
Concentrati su metriche di coinvolgimento e conversione: CTR, frequenza di rimbalzo, tempo di sessione, lead, ecc. diventano indicatori più efficaci rispetto alle fluttuazioni delle impressioni grezze. - Preparati all’aumento dei costi degli strumenti: alcuni fornitori potrebbero aumentare i prezzi o limitare la visibilità della profondità di ranking per compensare l’aumento dei costi di API/scraping.
Altri ChatBotcome Claude Chat Gpt e Perplexity come faranno ora a raccogliere i dati?
Molti utenti ci hanno fatto questa interessante domanda, alla quale vogliamo fornire una risposta dettagliata.
Questa modifica ha avuto un impatto notevole su molti strumenti di analisi SEO che facevano affidamento su quella funzione per raccogliere dati in modo efficiente.
Tuttavia, per quanto riguarda l’impatto su grandi sistemi di intelligenza artificiale come i modelli di OpenAI (usati in ChatGPT), Anthropic e Perplexity, la risposta breve è che l’impatto di questa specifica modifica è minimo o nullo.
Il motivo è che questi sistemi non “raschiano” (scrape) i dati da Google nello stesso modo in cui lo farebbe un semplice tool o un utente. Operano a un livello molto più profondo e strutturato. Ecco come accedono alle informazioni web:
- Utilizzo di API di Ricerca Dedicate: Invece di simulare una ricerca umana e analizzare la pagina dei risultati visiva, questi sistemi utilizzano delle API (Application Programming Interface). Motori di ricerca come Google e Microsoft (con Bing) offrono accesso programmatico ai loro dati tramite API. Queste API restituiscono informazioni già strutturate (in formati come JSON), pulite e pronte per essere elaborate. I parametri come
&num=100
, che sono parte dell’interfaccia utente web, non hanno effetto sulle chiamate API. - Propri Indici Web e Crawler: Sistemi avanzati, in particolare i motori di risposta come Perplexity e lo stesso Google con Gemini, non si affidano esclusivamente a motori di ricerca esterni. Sviluppano e mantengono i propri crawler che scansionano il web e creano un indice di ricerca proprietario. Questo li rende più indipendenti dalle modifiche all’interfaccia di ricerca di Google.
- Dati di Addestramento vs. Dati in Tempo Reale: È importante distinguere due cose:
- Conoscenza di base: La vasta conoscenza di questi modelli deriva dall’addestramento su enormi dataset di testo e codice (come Common Crawl, un’istantanea di miliardi di pagine web), non da ricerche Google in tempo reale.
- Informazioni attuali: Quando poni una domanda su un evento recente, il sistema attiva una ricerca web in tempo reale, ma lo fa, come detto sopra, tramite API o i propri indici, non “raschiando” la pagina https://www.google.com/search?q=google.com.
Domande e Risposte
Perché Google ha rimosso il parametro &num=100?
Google non ha fornito una motivazione ufficiale. Tuttavia, molti ritengono che ciò sia dovuto alla necessità di ridurre lo scraping da strumenti SEO e AI, migliorare l’accuratezza dei report ed evitare impressioni gonfiate in Search Console.
In che modo ciò influisce sui miei report SEO?
Le impressioni potrebbero apparire inferiori da metà settembre 2025 in poi. Ciò non significa che la visibilità sia diminuita, ma piuttosto che i dati precedenti sono stati gonfiati dai bot. Clic, conversioni e traffico rimangono gli indicatori chiave e non sono interessati.
Strumenti SEO come Ahrefs o SEMrush smetteranno di funzionare?
No, ma devono affrontare costi di scansione più elevati e una raccolta dati più complessa. Potrebbero verificarsi lacune temporanee o aggiornamenti più lenti, ma gli strumenti si stanno già adattando recuperando i dati in batch più piccoli.
Dovrei cambiare la mia strategia SEO?
No. I fondamenti della SEO rimangono invariati: creare contenuti di qualità, ottimizzare per l’intento e creare autorevolezza. L’attenzione dovrebbe concentrarsi sulle classifiche top 10 e sulle metriche di coinvolgimento degli utenti, piuttosto che sulle posizioni più in alto.