Google, frente a una demanda de 250 millones de dólares: la IA no mintió, pero tampoco dijo la verdad

Una «alucinación» de la inteligencia artificial pone en jaque la reputación de una empresa y abre un debate global sobre la responsabilidad legal de los sistemas generativos

La inteligencia artificial no mintió. Pero tampoco dijo la verdad. Y esa frontera difusa, entre el error y la invención, podría costarle a Google hasta 250 millones de dólares. En junio de 2025, la compañía Wolf River Electric, dedicada a la instalación de paneles solares en Minnesota, presentó una demanda contra el gigante tecnológico por presunta difamación, tras una grave inexactitud generada por su sistema de respuestas automáticas con IA, conocido como AI Overviews.

El caso, que ya se perfila como un hito legal en la relación entre empresas, tecnología y derecho digital, no es anecdótico. Es, para muchos, la materialización de un riesgo que expertos llevaban meses advirtiendo: el poder de los modelos generativos para informar… y desinformar.

El error que costó millones

La función AI Overviews, lanzada por Google en mayo de 2024, se diseñó para revolucionar la experiencia de búsqueda. En lugar de mostrar enlaces azules, como ha hecho históricamente el buscador, la herramienta genera resúmenes automáticos con respuestas a las consultas del usuario, basadas en modelos de lenguaje entrenados con grandes volúmenes de información.

Pero en una de esas respuestas, el sistema afirmó —sin ninguna fuente que lo respaldara— que Wolf River Electric había sido denunciada por el fiscal general del estado de Minnesota por prácticas comerciales engañosas. La información era rotundamente falsa.

Para cuando se detectó y eliminó, el daño ya estaba hecho:

  • Clientes corporativos cancelaron contratos valorados en hasta 150.000 dólares cada uno.
  • La compañía estima que los daños económicos oscilan entre 110 y 250 millones de dólares.
  • El resumen de IA fue indexado, compartido y visualizado por potenciales clientes antes de ser retirado.

El CEO de Wolf River Electric, en declaraciones a medios locales, explicó que el impacto no fue solo financiero: “Nuestra credibilidad fue puesta en duda sin que hubiéramos hecho nada. Y no teníamos forma de defendernos frente a una afirmación que ni siquiera había sido escrita por un humano”.

No fue un error de programación. Fue una alucinación

Los ingenieros llaman «alucinación» al fenómeno por el cual una IA generativa —como ChatGPT, Gemini o el propio AI Overviews de Google— produce afirmaciones falsas con apariencia de veracidad. Es un comportamiento conocido y estudiado, derivado de la forma en que estos sistemas generalizan información a partir de correlaciones, sin una verificación factual directa.

En este caso, la IA no citó una fuente errónea. Simplemente inventó una conexión entre el nombre de la empresa y una práctica fraudulenta, posiblemente basándose en patrones previos mal interpretados.

Lo preocupante, explican expertos, es que no había ningún artículo ni documento que sustentara esa afirmación. Ni siquiera un caso similar. Fue una inferencia sin base.

¿Quién responde cuando la IA se equivoca?

Esa es, precisamente, la pregunta que ya está en el centro del debate judicial, ético y empresarial: ¿puede una IA ser considerada legalmente responsable? Obviamente no. Pero sí lo pueden ser quienes la diseñan, implementan o ponen a disposición del público.

Y en este caso, la voz que habló no fue la de un chatbot experimental, sino la de Google Search, la herramienta más utilizada del mundo. “Cuando el buscador responde por ti, tu marca —y tu reputación— quedan expuestas”, advierten desde la Asociación Estadounidense de Abogados Digitales (DAA, por sus siglas en inglés).

Según McKinsey, el 84% de las empresas en EE.UU. planea integrar IA generativa en sus procesos internos y de atención al cliente en los próximos 12 meses, pero solo el 25% cuenta con un marco formal de gobernanza y responsabilidad.

Una promesa que se puede volver contra ti

Para Silvia Ríos, experta en comunicación de crisis y reputación corporativa, este caso ilustra una nueva categoría de riesgo reputacional: el generado por tecnologías autónomas.

“La IA no es neutral. Cada palabra generada es percibida por el usuario como una afirmación veraz, incluso si el sistema advierte que ‘puede contener errores’. Y si lo dice Google, la gente lo cree”, señala.

El problema se agrava porque, como en este caso, la IA no se limitó a reformular contenidos existentes. Creó información falsa sin ningún sustento documental. No hubo fake news que replicar. La “noticia” nació directamente del modelo, como si la IA tuviera la autoridad para crear antecedentes.

Del entusiasmo al escrutinio

AI Overviews, a pesar de sus avances, ha recibido múltiples críticas desde su lanzamiento. En las últimas semanas, se han viralizado respuestas que recomendaban comer piedras para una dieta saludable, usar pegamento para evitar que los zapatos se deslicen o beber gasolina en lugar de café para tener más energía. En la mayoría de los casos, se trataba de errores derivados de citas mal contextualizadas o sátiras mal interpretadas como hechos.

Pero el caso de Wolf River Electric marca una diferencia clave: el daño fue real, económico y cuantificable, y abre la puerta a una serie de demandas similares en el futuro.

¿Y ahora qué?

Google ha eliminado el resumen de búsqueda ofensivo y no ha hecho comentarios públicos sobre la demanda. Pero el caso ya ha encendido las alarmas en todo el sector tecnológico. Algunos expertos apuntan a la necesidad urgente de:

  • Implementar revisiones humanas para determinados sectores (salud, finanzas, reputación empresarial).
  • Etiquetar claramente las respuestas generadas por IA.
  • Establecer seguros de responsabilidad civil tecnológica.
  • Exigir trazabilidad y mecanismos de rectificación inmediata.

Una advertencia para todas las empresas

Para muchas organizaciones, este caso será una llamada de atención. Usar IA sin supervisión, sin reglas claras y sin un plan de contención ante errores, puede costar más que cualquier campaña de marketing mal planteada.

La inteligencia artificial no tiene intención de mentir. Pero tampoco tiene conciencia de verdad. Y en esa zona gris, cada palabra generada por un sistema automático puede convertirse en prueba… o en evidencia de negligencia.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Lo último

×