A National Award-Winning Publication

Google y Meta, contra la desinformación en las elecciones 

Otras compañías unidas a esta iniciativa son: Microsoft, Amazon, IBM, Adobe, OpenAI, Anthropic, Stability, Snap, TikTok y X.
Facebook
Twitter
LinkedIn

Redacción Negocios Now

Grandes empresas tecnológicas anunciaron un compromiso conjunto suscrito para combatir la desinformación que se genere con inteligencia artificial (IA) en las elecciones de 2024, según reportes periodísticos.

Cerca de 20 compañías de proyección mundial se unieron a esta iniciativa, entre ellas, Microsoft, Meta, Google, Amazon, IBM, Adobe; las startups de IA OpenAI, Anthropic y Stability, así como las plataformas de redes sociales Snap, TikTok y X, según un comunicado.

El propósito es atacar las deepfakes (falsedades profundas), que son archivos de video, imagen o voz manipulados mediante un software de IA de modo que parezcan originales, auténticos y reales. En tiempo de elecciones, imitan a las partes interesadas clave o proporcionan información electoral falsa.

El acuerdo surgió por el aumento de contenido generado por IA orientado a la desinformación en elecciones, con un incremento del 900 % de deepfakes año tras año, según la empresa Clarity. El 2024 es un año de elecciones en todo el mundo que afectarán a más de 4,000 millones de personas en más de 40 países.

Las empresas participantes acordaron ocho compromisos con motivo de las elecciones de 2024, que incluyen buscar, detectar y abordar la distribución de dicho contenido en sus plataformas, brindar transparencia al público sobre esos procesos, así como evaluar  riesgos, publicaron el viernes 16 de febrero.

Kent Walker, presidente de asuntos globales de Google, destacó el esfuerzo de la industria por abordar la desinformación electoral generada por IA que erosiona la confianza. En el comunicado, dijo que la democracia se basa en elecciones seguras y protegidas.

En tanto, Christina Montgomery, directora de privacidad y confianza de IBM, dijo que en este año electoral clave, “se necesitan medidas concretas y cooperativas para proteger a las personas y las sociedades de los riesgos amplificados del contenido engañoso generado por IA”.