“Google ha cerrado la puerta a ChatGPT”: el rumor que incendió las redes… por un cambio técnico casi invisible

Durante días, las redes sociales han repetido el mismo titular en bucle: “Google bloquea a ChatGPT”, “el 90 % de Internet ha desaparecido”, “la web se ha vuelto invisible para la Inteligencia Artificial”. En X (antes Twitter), TikTok, YouTube y foros especializados, el relato ha corrido como la pólvora: Google habría decidido cortar el acceso a sus resultados de búsqueda a los grandes modelos de lenguaje.

La realidad es mucho menos cinematográfica, pero más interesante desde el punto de vista de cómo se construye hoy la conversación pública en el entorno digital. No ha habido un veto directo a ChatGPT ni a ningún otro modelo de lenguaje. Lo que sí ha habido es un cambio técnico silencioso en la forma en que Google muestra los resultados, que ha roto uno de los pilares sobre los que se apoyaban el SEO, muchas herramientas de monitorización… y una parte del ecosistema de Inteligencia Artificial.

Y a partir de ahí, las redes han hecho el resto.


De un parámetro desconocido al trending topic

El origen de todo está en un detalle que la mayoría de usuarios nunca llegó a usar: el parámetro num=100 en las URLs de Google. Durante años, este pequeño truco permitía forzar que el buscador mostrara hasta 100 resultados por página en lugar de los 10 habituales. Una función invisible para el internauta medio, pero clave para:

  • Herramientas de SEO y rank tracking.
  • Scrapers que recopilaban datos de los resultados.
  • Startups de Inteligencia Artificial que necesitaban ver rápidamente qué había en la web para una consulta concreta.

En septiembre de 2025, Google dejó de respetar ese parámetro. Aunque se siga añadiendo &num=100 a la URL, el buscador devuelve en la práctica unos 10 resultados por “pantalla” o “bloque” de SERP, apoyándose cada vez más en scroll continuo o paginación en pequeños lotes.

Para quien vive en las redes, nada cambió: los usuarios siguen viendo resultados y clicando enlaces. Pero para quien extraía datos a escala —herramientas, scrapers, proyectos de IA conectados a Google— el impacto ha sido directo: donde antes bastaba una llamada para capturar 100 resultados, ahora hacen falta unas diez.

Ese aumento de coste y fricción ha sido el detonante técnico. El resto ha sido relato viral.


El “apocalipsis del 77 %” que no era tal

El segundo ingrediente de la tormenta perfecta lo aportaron los paneles de Google Search Console. Tras el cambio, muchos administradores de webs vieron como las impresiones se desplomaban de un día para otro, mientras la posición media mejoraba. Algunos análisis hablan de que el 87,7 % de los sitios analizados habían perdido impresiones y el 77,6 % había dejado de aparecer para muchas palabras clave.

En redes, la cifra se simplificó: “el 77 % de las webs ha perdido visibilidad”. Y a partir de ahí, el teléfono roto hizo el resto: si casi ocho de cada diez sitios “desaparecían” de Google, era fácil saltar a la conclusión de que “el 90 % de Internet se ha vuelto invisible para la IA”.

Sin embargo, los propios análisis técnicos apuntan a otra explicación mucho menos dramática: lo que desaparece del radar son sobre todo impresiones profundas, aquellas que se daban en posiciones muy bajas (páginas 3, 4, 5…) y que en gran medida se generaban por bots, scrapers y herramientas automáticas que usaban num=100.

La web sigue ahí. Los usuarios humanos apenas visitaban esas profundidades. Lo que ha cambiado es el termómetro con el que se medía la visibilidad.


Redes sociales: del matiz técnico al titular incendiario

Para un medio centrado en redes sociales, lo relevante no es solo el cambio de Google, sino cómo se ha contado.

En X, los primeros hilos virales mezclaban capturas de Search Console con interpretaciones maximalistas: gráficos de impresiones cayendo en picado, mensajes de “Google nos está borrando” y alusiones directas a ChatGPT, OpenAI y a supuestos planes de cerrar el grifo de datos a la Inteligencia Artificial.

En TikTok y Reels, el formato se adaptó al lenguaje visual: creativos enseñando paneles con desplomes de impresiones, cortes dramáticos, música tensa y mensajes sobre “el fin del SEO tal y como lo conocíamos”. En YouTube, varios creadores de contenido especializados en marketing digital aprovecharon para lanzar vídeos de análisis, algunos matizando, otros alimentando la narrativa del “apocalipsis de la visibilidad”.

Al mismo tiempo, en comunidades técnicas como Reddit y foros de SEO, el debate era bastante más prosaico: se hablaba de costes de scraping, de herramientas de tracking que se habían roto y de cómo explicar a los clientes que el desplome de impresiones no significaba necesariamente una caída de tráfico real.

Pero esa conversación, más matizada, no siempre es la que se viraliza.


¿Ha cerrado Google la puerta a ChatGPT?

La frase ha sido uno de los ganchos más compartidos: “Google acaba de cerrar la puerta a ChatGPT”. El detonante es doble. Por un lado, la eliminación de num=100. Por otro, la filtración previa de que ChatGPT se apoyaba en servicios como SerpApi, que a su vez usan resultados de Google, para algunas funciones de búsqueda en tiempo real.

A partir de ahí, algunos analistas han especulado con que la decisión de Google podría estar relacionada con el uso intensivo de sus resultados por parte de modelos de lenguaje externos. No hay una confirmación oficial que vincule ambos hechos de forma directa, pero el contexto encaja con una tendencia clara: los grandes actores tecnológicos quieren controlar mejor quién accede a sus datos y en qué condiciones.

Lo cierto es que Google no ha activado un “bloqueo” específico contra ChatGPT ni contra una empresa concreta. Lo que ha hecho es encarecer —y complicar— la posibilidad de que terceros repliquen su visión de la web a base de scrapers baratos. Para quienes ya tienen sus propios rastreadores, acuerdos de licencia o índices masivos, el impacto es asumible. Para quien dependía de ese truco, es un golpe serio.


El impacto silencioso en la diversidad de contenidos

Más allá del ruido de las redes, el cambio plantea una cuestión de fondo que afecta directamente a creadores, medios pequeños y proyectos que viven del tráfico orgánico y de la conversación social: ¿qué ocurre cuando todas las capas de descubrimiento se concentran en el “top 10”?

Si herramientas de SEO, sistemas de recomendación y modelos de Inteligencia Artificial conectados a buscadores ven cada vez menos los resultados profundos, se refuerza un círculo vicioso:

  • Los grandes dominios, que ya dominan la primera página, aparecen una y otra vez.
  • Los medios pequeños, blogs de nicho o proyectos independientes quedan relegados a un fondo de catálogo que nadie mira.
  • Los asistentes y resúmenes de IA —incluyendo AI Overviews y herramientas similares— tienden a citar siempre a los mismos actores.

El contenido sigue publicado, pero se vuelve casi invisible para la mayoría de usuarios, que consumen información a través de un puñado de filtros: el buscador, la red social de moda y, cada vez más, el modelo de lenguaje que les responde desde una app.


Qué significa esto para creadores y social media managers

Para quienes construyen audiencia en redes sociales y dependen en parte de Google, el mensaje no es “se ha acabado Internet”, sino “el terreno de juego se ha movido un poco más hacia los grandes”.

Algunas implicaciones prácticas:

  • Menos confianza ciega en las impresiones de Search Console. Los paneles siguen siendo útiles, pero los desplomes asociados a num=100 recuerdan que las métricas pueden cambiar por decisiones técnicas ajenas al contenido.
  • Más valor del tráfico directo y de comunidad. Newsletters, comunidades en Discord o Telegram, listas de difusión en WhatsApp y una audiencia fiel en redes sociales reducen la dependencia de lo que decida un parámetro de Google.
  • Mayor importancia de la autoridad percibida. Si las IA tienden a citar a fuentes “fuertes”, ganan peso los esfuerzos por ser referencia en un nicho: contenido profundo, datos originales, transparencia y presencia en medios.
  • Necesidad de narrativa clara. Cuando pase algo así, el creador que sepa explicar a su audiencia —con calma— qué está ocurriendo, tendrá ventaja frente a quien simplemente agite el miedo al “apagón digital”.

En un ecosistema donde la desinformación viaja más rápido que los matices, la capacidad de traducir cambios técnicos en lenguaje comprensible se convierte en un activo para cualquier medio de redes sociales.


La próxima década de la web, entre APIs y acuerdos de datos

En el fondo, el movimiento de Google encaja en una transición más amplia: la web abierta y fácilmente “scrapeable” deja paso a un escenario en el que el acceso masivo a datos se canaliza por vías controladas —APIs, acuerdos comerciales, licencias de contenido— y donde solo unos pocos jugadores tienen músculo para operar a escala global.

Para la audiencia, el riesgo no es que Internet desaparezca, sino que se vuelva menos diversa, más homogénea y más dependiente de lo que decidan unas pocas plataformas. Para creadores, medios y profesionales del social media, el reto será mantener voces independientes y proyectos pequeños vivos en un entorno donde mirar lejos en la SERP o en los índices de la IA sale cada vez más caro.

El rumor de que Google ha “cerrado la puerta” a ChatGPT ha demostrado una vez más algo que sí es seguro: la conversación sobre la tecnología se libra hoy, principalmente, en las redes sociales. Y, como casi siempre, lo que se comparte en un hilo viral suele ser solo la punta visible de una historia mucho más compleja.


Preguntas frecuentes

¿Realmente Google ha bloqueado a ChatGPT y a los modelos de IA para siempre?
No. Google no ha activado un bloqueo selectivo contra ChatGPT u otro modelo concreto. Lo que ha hecho es eliminar el parámetro num=100, que permitía ver 100 resultados por página y facilitaba que scrapers y herramientas externas replicaran su visión de la web con pocas peticiones. Eso encarece el acceso masivo a datos, pero los grandes actores de Inteligencia Artificial siguen usando rastreadores propios, acuerdos de datos y otras fuentes más allá de la SERP tradicional.

¿Por qué muchas webs han visto caer impresiones en Search Console, pero no tanto el tráfico?
Porque lo que se ha recortado principalmente son impresiones en posiciones muy profundas, muchas veces infladas por bots y herramientas que consultaban 100 resultados de golpe gracias a num=100. Al limitar el número de resultados visibles por “vista”, se cuentan menos impresiones en total, aunque el volumen de usuarios reales que hacen clic en los primeros resultados se mantenga relativamente estable. Es un cambio de cómo se mide, no necesariamente de cuánta gente llega.

¿Cómo afecta la desaparición de num=100 a creadores de contenido en redes sociales y medios pequeños?
A corto plazo, les complica ver con precisión en qué posición aparecen para ciertos términos menos populares, y hace que las herramientas de SEO puedan subir precios o reducir profundidad de datos. A medio plazo, refuerza la concentración en el top 10 de resultados y dificulta que contenidos de nicho ganen visibilidad solo por “existir” en la larga cola. Por eso cobra más importancia combinar SEO con comunidad propia, newsletters, redes sociales y presencia en otros canales de descubrimiento.

¿Qué estrategias pueden adoptar medios digitales y social media managers para seguir siendo visibles en la era de la IA y los cambios de Google?
La hoja de ruta más repetida entre profesionales pasa por diversificar canales de tráfico (buscador, redes, newsletters, comunidades), publicar contenido útil que pueda ser citado por modelos de lenguaje como fuente fiable, reforzar la marca propia para no depender solo de keywords y estar muy encima de cómo cambian las métricas y su interpretación. En lugar de obsesionarse con cada oscilación de impresiones, la prioridad debería ser entender qué contenido genera conversación, suscriptores y comunidad a largo plazo.

Fuente: Google recorta los 100 resultados por página

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Lo último

×