Cada búsqueda en Internet cuenta algo sobre una persona. A veces es algo trivial, como el horario de una tienda o el resultado de un partido. Otras veces puede revelar una preocupación médica, una duda laboral, un problema económico, una opinión política, una relación personal o un trámite legal. Por eso el nuevo pulso entre Google y la Unión Europea no es una discusión técnica reservada a abogados y reguladores: afecta a uno de los gestos más cotidianos de millones de usuarios.

La Comisión Europea quiere que Google comparta ciertos datos de su buscador con otros servicios para que haya más competencia. Google responde que esa medida, aunque se haga con datos supuestamente anonimizados, puede poner en riesgo la privacidad de los usuarios. En el centro del debate está una pregunta difícil: ¿se puede abrir el mercado de las búsquedas sin exponer información demasiado sensible?

Google domina desde hace años el acceso a la información en Internet. Sus rivales sostienen que competir contra ese poder es casi imposible si no tienen acceso a señales parecidas: qué buscan los usuarios, qué resultados se muestran, qué enlaces se abren y cómo cambia una consulta después de ver los primeros resultados. Para Bruselas, compartir parte de esa información podría ayudar a que otros buscadores y nuevos asistentes de Inteligencia Artificial ofrezcan mejores respuestas.

El problema es que esos datos no son como una lista de productos vendidos o una estadística de tráfico agregada. Las búsquedas son íntimas. Una sola consulta puede no decir gran cosa, pero una secuencia de búsquedas, clics, horarios, idioma, ubicación aproximada y dispositivo puede dibujar un perfil muy reconocible. Ahí es donde Google ha puesto el foco de su crítica.

Qué quiere conseguir Bruselas

La Unión Europea lleva tiempo intentando reducir el poder de las grandes plataformas digitales. Con el Reglamento de Mercados Digitales, conocido como DMA, Bruselas ha impuesto obligaciones especiales a empresas consideradas “guardianes de acceso”, entre ellas Google. La filosofía es que una plataforma que controla una parte esencial del mercado no debe poder cerrar el paso a sus competidores.

En el caso del buscador, la Comisión plantea que Google comparta determinados datos con terceros bajo condiciones controladas. La intención no es publicar libremente el historial de búsqueda de nadie, sino permitir que otros servicios puedan entrenar, ajustar o mejorar sus sistemas con señales reales del mercado.

La medida podría beneficiar a buscadores alternativos, pero también a asistentes de Inteligencia Artificial que empiezan a funcionar como nueva puerta de entrada a la información. Cada vez más usuarios preguntan a un chatbot en lugar de escribir en un buscador clásico. Para que esos sistemas sean competitivos, necesitan saber qué información resulta útil, qué fuentes se consultan y cómo se comportan los usuarios ante distintas respuestas.

La Comisión propone varias salvaguardas: eliminar identificadores directos como cuentas o direcciones IP, suprimir consultas demasiado largas o raras, generalizar datos de ubicación y dispositivo, limitar la información de sesión, exigir cifrado, prohibir la reidentificación y evitar que esos datos se combinen con otras bases externas. Además, los beneficiarios estarían sujetos a auditorías y a reglas específicas de uso.

Sobre el papel, suena razonable. En la práctica, Google dice que no basta.

Por qué Google habla de riesgo para la privacidad

Sergei Vassilvitskii, científico distinguido de Google, ha advertido a los reguladores europeos de que la anonimización tradicional puede quedarse corta. Según la compañía, las herramientas modernas de análisis e Inteligencia Artificial permiten cruzar patrones y reconstruir identidades incluso cuando se han eliminado datos directos como nombres, correos o direcciones IP.

Google asegura que su propio equipo de Red Team de IA, dedicado a simular ataques y detectar vulnerabilidades, logró reidentificar usuarios en menos de dos horas con datos anonimizados. La afirmación es grave porque cuestiona una idea que muchas veces se da por segura: que basta con borrar los identificadores evidentes para proteger a una persona.

La realidad es más compleja. Una búsqueda sobre una enfermedad poco común, seguida de otra sobre un hospital concreto, una tercera sobre seguros médicos y una cuarta sobre un tratamiento específico puede apuntar a alguien con mucha más precisión de lo que parece. Si además se añaden patrones de ubicación aproximada, idioma, dispositivo y horarios, el anonimato puede debilitarse.

Para cualquier usuario, esto tiene una traducción sencilla: aunque nadie vea tu nombre, tus búsquedas pueden seguir contando demasiado sobre ti. Y cuanto más potentes sean las herramientas para analizar datos, más difícil será garantizar que un conjunto supuestamente anónimo no pueda volver a asociarse a personas concretas.

Google tiene un interés evidente en defender esta postura. Compartir datos de búsqueda podría ayudar a sus competidores. Pero el hecho de que Google salga beneficiada al poner el foco en la privacidad no convierte automáticamente el riesgo en falso. La historia de Internet ya ha demostrado varias veces que datos considerados anónimos pueden ser reidentificados al cruzarlos con otras fuentes.

La sospecha de los rivales

Los competidores de Google ven el asunto de otra manera. Para ellos, la compañía usa la privacidad como argumento para mantener su ventaja. Si los datos compartidos son demasiado limitados, poco precisos o excesivamente filtrados, no servirán realmente para competir. Desde esa perspectiva, Google podría cumplir formalmente con la norma sin entregar información útil.

DuckDuckGo y otros rivales llevan tiempo criticando que Google controle demasiadas piezas del mercado: buscador, navegador, publicidad, sistema operativo móvil y acuerdos de distribución. Su argumento es que la privacidad no debería convertirse en un escudo para impedir la competencia. Si Google ha construido su dominio usando datos de millones de usuarios, otros actores necesitan algún tipo de acceso para poder ofrecer alternativas reales.

La Comisión Europea intenta moverse entre ambos riesgos. Si exige compartir muy poco, la medida puede quedar en papel mojado. Si exige compartir demasiado, puede abrir una puerta peligrosa para la privacidad. No hay una solución perfecta porque las dos prioridades, competencia y protección de datos, chocan en un terreno muy sensible.

El debate se complica aún más por la llegada de la Inteligencia Artificial generativa. Los nuevos asistentes no solo muestran enlaces: leen, resumen, responden y recomiendan. Para mejorar, necesitan datos. Y los datos de búsqueda son una de las fuentes más valiosas para entender qué preocupa a los usuarios y qué resultados consideran útiles.

Qué significa para el usuario común

Para la mayoría de personas, este debate puede parecer lejano. No lo es. Lo que se decida afectará a cómo funcionan los buscadores, qué alternativas pueden crecer y qué garantías existen sobre información personal tan delicada como las búsquedas.

Si Bruselas logra imponer una apertura segura de datos, los usuarios podrían beneficiarse de más competencia. Eso puede traducirse en buscadores mejores, asistentes de IA más útiles, menos dependencia de una sola empresa y más innovación. También podría obligar a Google a mejorar sus propios servicios para no perder usuarios.

Pero si la protección falla, el coste puede ser alto. Las búsquedas revelan aspectos de la vida que muchas personas no compartirían ni con familiares, empresas o administraciones. Un mal diseño del sistema de acceso a datos podría generar riesgos de filtración, abuso comercial o reidentificación.

También está la cuestión de la confianza. Los usuarios usan buscadores porque asumen que sus consultas no terminarán en manos de terceros de forma reconocible. Si esa confianza se rompe, el daño no afectará solo a Google, sino a todo el entorno digital.

La solución probablemente pasará por límites muy estrictos, auditorías fuertes, sanciones claras y técnicas de privacidad avanzadas. Pero también por reconocer algo incómodo: no todos los datos deberían compartirse solo porque puedan ser útiles para competir. Algunas señales son tan sensibles que quizá deban tratarse con una protección mucho mayor.

La Unión Europea tiene razón al intentar abrir mercados digitales demasiado concentrados. Google tiene razón al recordar que las búsquedas son una de las formas más íntimas de datos personales. La dificultad está en no convertir la defensa de la competencia en una cesión excesiva de privacidad, ni permitir que la privacidad sirva como excusa para que nada cambie.

El caso marcará un precedente importante. En los próximos años veremos más conflictos parecidos: datos de mapas, compras, aplicaciones, asistentes, redes sociales, salud, movilidad o IA. La pregunta será siempre la misma: cómo permitir competencia e innovación sin tratar la vida digital de los usuarios como una materia prima ilimitada.

Preguntas frecuentes

¿La Unión Europea quiere ver mis búsquedas personales?
No se plantea que funcionarios o empresas vean directamente el historial personal de cada usuario. La propuesta busca que Google comparta datos anonimizados y filtrados con terceros, pero el debate está en si esa anonimización sería suficiente.

¿Por qué Google se opone a compartir esos datos?
Google afirma que, incluso sin nombres, cuentas o direcciones IP, los patrones de búsqueda pueden permitir identificar a personas concretas si se cruzan con otras fuentes y herramientas de análisis avanzadas.

¿Quién podría beneficiarse de esta medida?
Buscadores alternativos y nuevos servicios de Inteligencia Artificial podrían usar esos datos para mejorar sus resultados y competir mejor frente a Google.

¿Qué riesgo hay para los usuarios?
El principal riesgo es que datos supuestamente anónimos acaben permitiendo reconstruir información sensible sobre personas concretas, como preocupaciones médicas, situación económica, creencias, ubicación aproximada o hábitos de navegación.

Lo último

×