Google, en una encrucijada imprevista: su inteligencia artificial alucinó y ahora se enfrenta a una demanda

En la euforia de la revolución por la inteligencia artificial, Google lanzó hace un año sus AI Overviews, una función que genera con inteligencia artificial una respuesta a la pregunta que el usuario hace en el buscador. Es casi como una bola de cristal que fundamenta sus explicaciones con enlaces y la información que figura dentro del buscador: noticias, estudios, blogs. Atrás quedaron los días en los que uno buscaba activamente la información en cada link, que Google mostraba por su popularidad y la presencia de palabras claves en sus textos.

La inteligencia artificial reinventó esta dinámica, porque Google dejó de ser un distribuidor (el nexo entre la consulta en su buscador y el contenido en una página externa) para ser un destino final: es quien provee la respuesta, generada a partir de información obtenida en otros lados. Y esto le está trayendo múltiples problemas, que van más allá de recomendar ponerle pegamento a la pizza para hacerla más rica.

Las búsquedas de Google se hacen complejas con AI Overview

“Google ya no es más un indexador; sus algoritmos seleccionan, promueven y degradan contenidos, configurando una intervención editorial de hecho”, afirmó Lucas Barreiro, abogado especializado en derechos digitales y privacidad de datos. Así lo entendió Cristina Kirchner al demandar a Google en 2020, cuando apareció fugazmente en un panel destacado en las búsquedas como “ladrona”: la información era generada por un tercero, pero destacada por Google; ahora la generación de la respuesta corre enteramente por cuenta del buscador.

Pero dentro de la prometedora ecuación de Google (generar una respuesta a medida, única y personalizada, para cada consulta) surgió un obstáculo inesperado. O, en verdad, uno que la empresa tenía en el radar, pero decidió minimizar para imponer su nueva tecnología: las alucinaciones de las inteligencias artificiales.

Esa IA me difama

Este concepto, que tuvo su protagonismo cuando los modelos de inteligencia artificial generativa llegaron por primera vez al público, refiere a las situaciones en las que la IA inventa cosas en su afán de cumplir con un pedido (como cuando le inventó trabajos que nunca tuvo a Marcos Galperín, el fundador de Mercado Libre, porque eran trabajos que alguien como el ejecutivo podría haber tenido), y hoy se hace carne en una denuncia contra Google por difamación.

La empresa de paneles solares Wolf River Electric demandó a la gigante tecnológica al ver que los AI Overviews estaban brindando información errónea sobre la compañía, asegurando que habían sido denunciados por el fiscal general de Minnesota, Keith Ellison, debido a prácticas comerciales engañosas, entre otras infracciones legales. Esta declaración era, en efecto, falsa: inventada por la IA de Google.

Y el caso de Wolf River Electric no es como otros que pasaron por los estudios jurídicos en Estados Unidos, según reporta Político. La empresa de paneles solares dice que tiene pruebas de haber perdido clientes y negocios por la falsa información de Google. A diferencia de otros casos, argumenta, hay una difamación tangible, explícita. Además, tienen a favor ser una empresa chica y poco conocida lo que hace más fácil “difamarla”. De las grandes empresas, como Starbucks, hay mucha más información dando vueltas y, por lo tanto, menos chance de que la IA invente cosas.

En detalle, el resumen que hizo Google citaba a diferentes fuentes, pero ninguna de ellas decía explícitamente que esta empresa en particular era la que había tenido problemas legales. Wolf River Electric solo era nombrada dentro de un artículo que habla sobre las denuncias hacia otras empresas de paneles solares a causa de unos impuestos ocultos para los residentes. La conexión equivocada fue un mero producto de la inteligencia artificial.

“Nos hemos ganado nuestra reputación cliente a cliente y proyecto a proyecto. Ahora, esa década de arduo trabajo está en peligro”, dijeron desde Wolf River Electric en un comunicado, según informa Político. En su defensa, un portavoz de Google dijo que la mayoría de los AI Overviews son precisos y ayudan al usuario, pero, como cualquier nueva tecnología, pueden surgir errores. Dijeron, también, que en cuanto se enteraron del problema, tomaron cartas en el asunto para resolverlo.

Un punto de inflexión para el rol de Google

Para algunos expertos, esta nueva disputa legal supone un “punto de inflexión” y pone en evidencia una pregunta más de fondo: si los sistemas legales están preparados para comprender cómo funcionan estas tecnologías y defender las nuevas problemáticas que se generan a partir de la inteligencia artificial.

“Celebro que se esté dando esta batalla porque estoy convencido de que las reglas de responsabilidad de los proveedores de servicios interactivos deben ser rediscutidas”, reflexionó Barreiro: “no estamos frente a un comportamiento neutral”.

Hasta el momento, Google se consideraba un indexador de contenido que recopilaba, organizaba y mostraba enlaces a información creada por terceros. Esta le otorgaba inmunidad antes litigios por contenido que no hubiera producido directamente.

Así lo entendió la Corte Suprema en 2014, cuando falló a favor de Google y Yahoo! por una demanda de la modelo Belén Rodríguez, cuyo nombre aparecía en páginas vinculadas a la prostitución: los buscadores no tenían la responsabilidad de verificar la veracidad de todo lo publicado en la web.

Pero ahora con la IA generativa “se desafían los límites de la ley, porque no estamos frente a contenido proporcionado por otro proveedor de información”, explicó Agustín Raimondi, abogado y fundador de WeLaw. “Google está más cerca del rol de editor, con las implicancias jurídicas que eso conlleva”, señala.

Así, el gigante tech pasó de tener un rol pasivo a un rol activo (no dice dónde está tal información, sino que la genera en su propio servidor), según Antonella Stringhini, directora de formación y transformación digital con inteligencia artificial del IALAB. “Esto implica una mayor responsabilidad de tipo objetivo por los daños derivados de la información generada por sus AI Overviews, obligándolo a extremar los recaudos en el diseño, entrenamiento y supervisión de sus modelos de inteligencia artificial”, señaló la especialista.

Ante estas acusaciones, Google agrega un cartel preventivo en cada respuesta generada por AI Overview, donde aclara que la “inteligencia artificial generativa es experimental” y que “para cualquier consejo legal, se recomienda consultar a un profesional”. Muchas empresas —en diferentes instancias— incluyen un pequeño “aviso” donde buscan deslindar responsabilidad respecto del daño que pueden generar. Un ejemplo claro de esto se ve con la difusión de las imágenes o videos falsos que circulan en redes sociales: plataformas como Instagram suman una indicación en el contenido especificando que fueron creadas con IA.

Para Stringhini no alcanza con esas advertencias, y es importante que se rediseñe el modelo en relación con la responsabilidad. “Esto no implica solo ajustes legales y contractuales, sino una inversión significativa en la mejora de sus algoritmos, procesos de verificación y supervisión humana para asegurar la fiabilidad de la información que entrega a sus usuarios”, enumeró, y ejemplificó con que se podría incluir un botón para denunciar errores que se identifiquen en la generación de la información.

En esta línea, Raimondi consideró que sería deseable que las empresas de esta escala comiencen a liderar con estándares proactivos, como auditorías técnicas independientes, trazabilidad de outputs generados y transparencia en el entrenamiento de modelos. “Estas medidas no solo reducen el riesgo legal, sino que fortalecen la confianza pública en la adopción de estas tecnologías”, agregó.

En paralelo, hay una necesidad urgente de actualizar los marcos legales vigentes. “La frontera entre plataforma y autor ya no es tan nítida como antes”, planteó Raimondi. Además, considera que es necesario un marco regulatorio que establezca obligaciones previas al despliegue de cualquier sistema de inteligencia artificial y que imponga medidas concretas para mitigar los eventuales riesgos. “Si no se construye un sistema seguro y responsable desde el diseño, entonces sí debería achacarse responsabilidad a quien decide poner en marcha una tecnología sin esas garantías mínimas”, profundizó Barreiro.

La discusión tiene un avance complicado debido al “One Big Beautiful Bill”, el proyecto de ley de Donald Trump que impide cualquier regulación a la inteligencia artificial en Estados Unidos por los próximos diez años, sentando un precedente mundial que avala un estilo de desarrollo libre de normativas. Incluso, el Gobierno de Milei se pronunció a favor de este tipo de políticas para generar más atractivo. “La inteligencia artificial está transformando el modo en que informamos, decidimos y vivimos. Acompañar esa transformación con responsabilidad no es una opción: es una necesidad”, sentenció Raimondi.



Fuente: https://www.lanacion.com.ar/tecnologia/google-en-una-encrucijada-imprevista-su-inteligencia-artificial-alucino-y-ahora-se-enfrenta-a-una-nid25062025/

Comentarios

Comentar artículo