Wikipedia refuerza su lucha contra la inteligencia artificial con una guía para detectar artículos escritos por máquinas

La enciclopedia libre más consultada del planeta ha declarado una nueva batalla: la lucha contra el contenido redactado por inteligencia artificial. En un momento en que ChatGPT, Gemini o Copilot se han convertido en herramientas de uso cotidiano para millones de usuarios, Wikipedia teme que su misión fundacional —ofrecer conocimiento verificable y escrito por personas— pueda verse amenazada por un aluvión de artículos generados automáticamente.

Para hacer frente a este desafío, la comunidad de editores ha publicado una guía bajo el título “Signs of AI writing”. Lejos de recurrir a sistemas automáticos de detección, que han demostrado ser poco fiables, el documento recoge los patrones más habituales que delatan a los textos escritos por IA. Se trata de un manual pensado para voluntarios y administradores, cuyo objetivo es ayudar a mantener la calidad y la credibilidad de la enciclopedia.


El contexto: una enciclopedia en tiempos de IA

Wikipedia nació en 2001 como un proyecto pionero de conocimiento colaborativo. En poco más de dos décadas ha pasado de ser un experimento en línea a convertirse en la mayor obra de referencia del mundo, con más de 6,8 millones de artículos en inglés y más de 1,8 millones en español.

Esa magnitud también la hace vulnerable. Con la irrupción de la inteligencia artificial generativa, cada vez es más fácil crear textos plausibles en cuestión de segundos. Pero la facilidad tiene un precio: las IA suelen inventar referencias, replicar sesgos y escribir con un estilo que, aunque fluido, no siempre es preciso ni verificable.

Los editores de Wikipedia lo saben bien. En los últimos meses, han detectado numerosos artículos sospechosos, con citas falsas, DOI inexistentes o párrafos enteros copiados de respuestas de ChatGPT. De ahí la necesidad de un protocolo para identificar y frenar el problema antes de que erosione la confianza en la plataforma.


Las huellas estilísticas de la IA

El manual publicado por la comunidad enumera decenas de señales que, en conjunto, pueden indicar que un artículo no ha sido redactado por un humano.

Entre las más destacadas están:

  • Uso excesivo de conectores como “además”, “sin embargo” o “por otra parte”.
  • Paralelismos negativos (“no solo…, sino también…”), un recurso retórico muy frecuente en los modelos de lenguaje.
  • Guiones largos (—) empleados en lugar de comas o paréntesis.
  • Comillas y apóstrofes curvos, propios de procesadores como Word, en lugar de los rectos que requiere el wikitexto.
  • Abuso de negritas sin criterio editorial, aplicadas a cualquier término técnico.
  • Títulos en inglés con Title Case, impropios del formato enciclopédico en castellano.

Estos “tics” no son determinantes por sí solos, pero sirven como indicios. Los voluntarios experimentados reconocen en ellos un patrón que se repite con sorprendente frecuencia en artículos sospechosos.


Las huellas técnicas: Markdown y enlaces sospechosos

Más allá del estilo, las pistas técnicas son igual de reveladoras. Muchos artículos llegan a Wikipedia pegados directamente desde chats con IA y conservan rastros del formato Markdown:

  • Encabezados con ##.
  • Listas numeradas que empiezan en “1.” en lugar del formato nativo de wikitexto.
  • Tablas con barras verticales (|).
  • Incluso bloques de código delimitados con «` (backticks).

Otra señal clara es la presencia de referencias fabricadas. Se han detectado DOI que no existen en ninguna base de datos, ISBN inválidos e incluso enlaces que contienen parámetros de rastreo como utm_source=chatgpt.com, lo que apunta directamente a un origen automatizado.

En algunos casos, los administradores han encontrado marcadores automáticos propios de los chats de IA, como « o :contentReference[oaicite:0]. Su aparición basta para proceder con un borrado inmediato.


Tres pruebas de fuego para el borrado inmediato

La guía establece que, aunque ningún indicio aislado confirma el uso de IA, existen tres banderas rojas que permiten borrar artículos sin esperar un debate comunitario:

  1. Estilo dirigido al lector, con frases como “en este artículo hablaremos de…”.
  2. Referencias falsas o rastros evidentes de IA, como DOI inventados o enlaces con utm_source.
  3. Marcadores automáticos de chatbots, visibles en algunos borradores copiados sin editar.

En estos casos, los administradores pueden aplicar el criterio de borrado rápido G15.


Un riesgo para la credibilidad

La preocupación de la comunidad no se limita a la estética o al formato. Lo que está en juego es la credibilidad de Wikipedia.

La enciclopedia se rige por tres principios básicos:

  • Neutralidad.
  • Verificabilidad.
  • Ausencia de investigación original.

Un artículo redactado por IA puede violar los tres al mismo tiempo: introducir sesgos, inventar fuentes y presentar información no comprobada.

Como señala la propia guía: “Arreglar lo superficial no resuelve lo profundo. Un texto que parece humano puede seguir sustentándose en referencias falsas o en información inventada”.


El dilema ético: ¿usar o no usar IA?

La publicación de esta guía refleja un debate más amplio. Algunos editores creen que los modelos de lenguaje podrían tener un papel limitado, como asistentes para resumir fuentes o proponer borradores iniciales. Siempre, eso sí, bajo supervisión humana y con una verificación exhaustiva posterior.

Otros defienden una línea más dura: Wikipedia debe permanecer como un espacio 100 % humano, donde el conocimiento se construya mediante esfuerzo colaborativo y no a golpe de algoritmo.

Por ahora, la mayoría parece inclinarse hacia la segunda opción. Los artículos escritos por IA no tienen cabida en el proyecto, y los administradores cuentan ahora con un manual que refuerza esa posición.


Una batalla que apenas comienza

El fenómeno, sin embargo, no es pasajero. Cuanto más accesibles y potentes sean los modelos de IA, más tentador resultará usarlos para “rellenar” la enciclopedia.

En los últimos meses, varias decenas de artículos sospechosos han sido eliminados. La cifra podría crecer exponencialmente si no se refuerzan las medidas de detección.

El reto para Wikipedia es mayúsculo: cómo preservar la voz de miles de voluntarios frente a la prosa algorítmica de las máquinas. Una frontera cada vez más difícil de distinguir.


Una comunidad vigilante

La guía Signs of AI writing no es un documento cerrado. Los propios editores la consideran un texto vivo, que se actualizará conforme evolucionen los modelos de IA y aparezcan nuevas señales.

La clave, insisten, está en la lectura crítica: fijarse en lo que el texto dice, cómo lo dice y qué fuentes respalda.

Porque, al final, la diferencia entre un artículo útil y uno dañino no la marca el estilo, sino la veracidad de las fuentes.


Conclusión: preservar la esencia de Wikipedia

Wikipedia se enfrenta a uno de los mayores desafíos de su historia. La inteligencia artificial ofrece oportunidades, pero también riesgos profundos. La nueva guía es un recordatorio de que, en última instancia, la enciclopedia se sostiene sobre un principio innegociable: el conocimiento debe ser humano, verificable y transparente.

El futuro dirá si esta postura se mantiene inmutable o si la IA logra, poco a poco, encontrar un hueco legítimo en el ecosistema enciclopédico. Por ahora, el mensaje es claro: las máquinas no escribirán Wikipedia.


Preguntas frecuentes (FAQ)

¿Qué es la guía “Signs of AI writing”?
Un documento elaborado por la comunidad de Wikipedia que recopila señales estilísticas y técnicas para identificar artículos escritos por IA.

¿Por qué preocupa tanto el contenido redactado por IA?
Porque puede incluir errores, referencias inventadas y un estilo ajeno a los estándares enciclopédicos, lo que mina la fiabilidad de Wikipedia.

¿Se prohíbe todo uso de IA en Wikipedia?
No hay una prohibición absoluta, pero existe un consenso: los artículos deben cumplir con verificabilidad y neutralidad. La IA, de momento, no garantiza esos principios.

¿Qué ocurre si un artículo se detecta como escrito por IA?
Si hay pruebas claras, los administradores pueden borrarlo de forma inmediata. En casos menos evidentes, se abre un debate comunitario.

vía: Wikipedia y SEOcretos

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Lo último

×