LinkedIn, propiedad de Microsoft, ha anunciado una actualización de su política de privacidad y términos de uso que entrará en vigor el 3 de noviembre de 2025. El cambio tiene dos ejes: usar más datos de perfiles y actividad pública para entrenar modelos de IA y compartir señales con Microsoft y filiales para anuncios más personalizados. El detalle clave no es menor: el esquema es opt-out. Es decir, todas las personas usuarias quedan incluidas por defecto salvo que entren en la configuración y lo desactiven manualmente.
La decisión reabre un debate ya conocido —qué datos se usan, para qué y con qué base legal—, pero lo hace en un momento de expansión acelerada de la IA generativa y con un marco regulatorio en Europa que, al menos sobre el papel, privilegia el consentimiento explícito (opt-in). Entre la promesa de mejores productos y la realidad de una cesión de datos más directa, LinkedIn y Microsoft mueven ficha en el mismo tablero donde ya han jugado Spotify, Meta, Anthropic, SoundCloud o WeTransfer, con avances y rectificaciones según la reacción social y de las autoridades.
Qué va a hacer LinkedIn con tus datos (y dónde)
La actualización distingue regiones y finalidades:
- Espacio Económico Europeo (incluida España), Reino Unido, Suiza y Canadá. LinkedIn podrá utilizar información de perfiles y publicaciones públicas para entrenar sus modelos de IA. El argumento: mejorar el “matching” laboral para equipos de selección y afinar funciones de generación de contenido (resúmenes de perfiles, recomendaciones de habilidades, redacción asistida de mensajes, etc.).
- Estados Unidos, Hong Kong y la mayoría de regiones restantes. El foco se desplaza a compartir información con Microsoft y subsidiarias para optimizar publicidad: actividad en el feed, interacciones con anuncios y ciertos datos de perfil alimentarían la segmentación.
En ambos casos, la experiencia por defecto es de inclusión automática. LinkedIn habilita controles para excluirse, pero no solicita un sí activo al estilo opt-in. Para el usuario medio —que rara vez recorre todos los menús de privacidad—, esto significa que sus datos empezarán a fluir hacia esos fines si no hace nada.
Por qué esto importa: el giro del “gratis a cambio de datos” al “datos para entrenar IA”
Durante años, muchas plataformas justificaron el acceso “gratuito” con el intercambio implícito de datos agregados para analítica y publicidad. La novedad es la intencionalidad y persistencia propias del entrenamiento de modelos: no se trata de medir audiencias en tiempo real, sino de incorporar señales (texto público, relaciones, comportamientos) a sistemas que aprenden, con ventanas de retención más largas y efectos difíciles de revertir una vez entrenados.
Esto no es intrínsecamente malo —mejores recomendaciones y funciones se apoyan en mejores datos—, pero eleva el listón de consentimiento y transparencia. ¿Qué datos exactos? ¿Con qué base? ¿Por cuánto tiempo? ¿Para qué productos presentes y futuros? Son preguntas que el RGPD recomienda responder antes de activar un tratamiento, no después.
Un patrón que se repite en la industria
El movimiento de LinkedIn no aparece en el vacío:
- Spotify modificó condiciones para usar datos personales en modelos orientados a playlists y recomendaciones.
- Meta intentó usar publicaciones públicas en Europa para entrenar su IA, pero recibió un cease and desist de NOYB y ha tenido que ajustar el plan.
- Anthropic pide consentimiento para usar conversaciones, con retención de hasta cinco años.
- SoundCloud actualizó sus términos para habilitar uso de contenidos en IA antes de matizar públicamente.
- WeTransfer rectificó tras las críticas por querer emplear archivos compartidos en entrenamiento.
Pieza a pieza, el apetito de datos para IA se confronta con derechos de usuarios y la capacidad real de estas plataformas para convencer con opt-in versus forzar con opt-out.
Consentimiento: opt-in vs. opt-out, la diferencia que lo cambia todo
La clave no es solo qué se hará con los datos, sino cómo se obtiene la autorización:
- En opt-in, la plataforma pide permiso y explica; la persona usuaria acepta de forma informada.
- En opt-out, la plataforma activa y notifica; la persona usuaria debe descubrir dónde desmarcar para salirse.
Desde la ética del diseño, el opt-out desplaza la carga al usuario y, en la práctica, asegura una cobertura masiva por inacción. Desde la legalidad, el RGPD exige, para determinados tratamientos, consentimiento inequívoco y granular, o otra base (interés legítimo, contrato, obligación legal) estrictamente justificada. De ahí que cada texto, cada palanca y cada banner importen.
Qué dice LinkedIn que ganarás (y qué se juega Microsoft)
Las razones comerciales que esgrime LinkedIn/Microsoft son previsibles:
- Mejor emparejamiento entre vacantes y candidaturas, y más precisión en funciones de IA (resúmenes, sugerencias, recomendación de habilidades).
- Publicidad más relevante (fuera de la UE y otros países protegidos por el régimen de entrenamiento), con menos ruido en el feed.
- Ecosistema Microsoft que podría beneficiarse de señales profesionales para Copilot y servicios B2B, cerrando el círculo entre datos, modelos y producto.
A cambio, la plataforma asume el riesgo de erosionar confianza si la percepción pública es que aprovecha la inercia para tomar más datos sin un sí claro.
Cómo desactivar la cesión de datos en LinkedIn (paso a paso)
Si no quieres que LinkedIn use tus datos para IA o para personalizar anuncios más allá de lo que ya permites, puedes cambiar la configuración. El recorrido exacto puede variar por región y versión, pero la lógica general es esta:
- Entra en tu cuenta desde navegador o app.
- Toca tu foto de perfil (arriba a la derecha) y elige Configuración y privacidad.
- En el menú lateral, abre Datos de publicidad.
- Busca Compartir datos con terceros o afiliados y desactívalo.
- Revisa Privacidad de los datos y uso para funciones de IA (el nombre puede cambiar por región) y desactiva cualquier uso de entrenamiento o mejora de modelos con tu información.
- Guarda y, si quieres asegurarte, cierra sesión y vuelve a entrar.
- Repite la revisión periódicamente; estas preferencias pueden reconfigurarse con nuevas políticas.
Consejo práctico: si gestionas cuentas corporativas o de personas de tu equipo, documenta una política interna (qué desactivar, por qué, cuándo revisarlo) y comunícala por canales oficiales. La coherencia evita sorpresas.
Impacto para personas usuarias y empresas
Para usuarios/as individuales
- Más fricción si quieres salirte del esquema por defecto, pero más control si haces el esfuerzo de revisar.
- Menos “magia” de IA si desactivas el entrenamiento con tus datos, a cambio de mayor privacidad percibida.
- Posible reducción de anuncios hipersegmentados si recortas señales compartidas.
Para empresas y equipos de RR. HH.
- Mejores búsquedas y sugerencias si el entrenamiento funciona como se promete; aún por ver el retorno real.
- Riesgos reputacionales si tu organización promueve el uso intensivo de LinkedIn mientras ignora preocupaciones de privacidad del personal.
- Necesidad de alinear políticas de privacidad y seguridad con compliance (RGPD) si se integran señales de LinkedIn en flujos propios.
Para marketing y ventas B2B
- Segmentación potencialmente más afinada en mercados no EEE, con la contrapartida de sensibilidad regulatoria y revisión legal de creatividades y fuentes de datos.
¿Es inevitable pagar con datos por servicios “gratis”?
No necesariamente. Existen modelos de pago por privacidad reforzada y servicios sin rastreo. Pero el estándar dominante sigue siendo gratuito a cambio de datos. La cuestión es cómo: opt-in real, propósitos concretos, plazos y controles claros hacen la diferencia entre una relación de confianza y otra de asimetría informativa.
Mirando al regulador y a la industria
De aquí al 3 de noviembre de 2025, cabe esperar:
- Scrutinio de autoridades europeas si el opt-out de entrenamiento de IA choca con criterios de consentimiento válido del RGPD.
- Ajustes de LinkedIn si hay reacciones públicas intensas (como sucedió con Meta o WeTransfer).
- Un efecto arrastre: otras plataformas pueden imitar el movimiento si la aceptación de facto es alta; o replegarse si la reacción es adversa.
Preguntas frecuentes
¿Cómo evitar que LinkedIn use mi perfil para entrenar IA sin borrar mi cuenta?
Entra en Configuración y privacidad → Datos de publicidad y Privacidad de los datos/IA (el nombre puede variar por región). Desactiva las opciones de compartir con afiliados y uso para entrenamiento de IA. Revisa estos ajustes de forma periódica.
¿Qué diferencia práctica hay entre opt-in y opt-out en LinkedIn?
Con opt-in, no se usa tu información hasta que aceptas explícitamente. Con opt-out, sí se usa por defecto y debes desactivarlo. En la práctica, el opt-out incrementa la recogida de datos por inacción de muchos usuarios.
¿Qué datos concretos podrían usarse para IA o anuncios personalizados?
Según la política anunciada: información de perfil, contenido público (publicaciones), actividad del feed e interacciones con anuncios. En regiones de entrenamiento de IA, esos datos pueden alimentar modelos; en otras, se orientan a segmentación publicitaria para Microsoft y filiales.
Si desactivo el uso de datos, pierdo funcionalidades de LinkedIn?
Puedes perder parte del afinamiento en recomendaciones y funciones de IA (autocompletados, resúmenes, sugerencias). La plataforma seguirá funcionando, pero con menos personalización.