La filtradora de Cambridge Analytica habló sobre la protección de datos personales con la IA: “Estamos menos protegidos»

Noticias

Brittany Kaiser, reconocida activista por los derechos de datos y filtradora de Cambridge Analytica, participó en una sesión de preguntas y respuestas con Axios durante la Web Summit en Río de Janeiro, Brasil, el 6 de mayo, centrada en la inteligencia artificial (IA) de código abierto y la privacidad de datos.

El escándalo de Cambridge Analytica estalló en 2016 después de que se supiera que más de 87 millones de personas podrían haber tenido sus datos recopilados en Facebook a través de un test de personalidad.

Aunque no está claro cómo se utilizaron esos datos, Kaiser afirmó que Cambridge Analytica realizó «trabajo facturable» con la campaña electoral de Donald Trump y el Brexit. Ambas organizaciones afirmaron que no se había firmado ningún contrato para trabajar con la empresa de análisis.

Como cofundadora y presidenta de la Fundación de IA de Código Abierto, Kaiser destacó el papel crucial de los sistemas de IA transparentes en aplicaciones gubernamentales para mejorar la protección de datos y la confianza pública. Señaló que la privacidad de datos en línea ha avanzado poco desde su testimonio en 2018 donde reveló la recolección de datos de más de 87 millones de usuarios de Facebook a través de un cuestionario de personalidad.

Kaiser expresó su preocupación por la falta de transparencia en los contratos entre gobiernos y grandes empresas de IA, como OpenAI, y enfatizó la necesidad de una IA de código abierto para prevenir el mal uso y garantizar la rendición de cuentas, especialmente en procesos electorales donde la desinformación generada por IA sigue siendo una amenaza significativa.

«Los gobiernos están otorgando licencias de productos de IA de grandes empresas que son de código cerrado, cajas negras, y nuestros datos y los datos de nuestro gobierno simplemente terminan en estos sistemas de código cerrado con fines de lucro, y no hay ninguna protección», aseguró.

En la sesión, Kaiser abogó por cambios legislativos que permitan a los individuos poseer y monetizar sus datos personales, una misión que continúa a través de sus roles en la Fundación Own Your Data y como asesora de DrumWave. El trabajo más amplio de Kaiser incluye promover blockchain para la ciberseguridad e identidad digital, como se ve en su rol en Gryphon Digital Mining, y sigue siendo una crítica vocal de las prácticas de datos de las grandes tecnológicas.

El auge de la IA generativa ha facilitado enormemente que las cosas parezcan reales. «En la época de Cambridge Analytica, teníamos una creación algorítmica de contenido muy básica, la que se usaba en aquel entonces en todo el mundo» —dijo—. «No se parece en nada a lo que existe hoy, donde se puede imitar la realidad porque la IA se ha vuelto muy buena». 

Kaiser dijo que, a pesar de trabajar para defender los derechos digitales, incluso ella ha sido engañada por imágenes generadas por inteligencia artificial que circulan en línea. 

La IA en las elecciones

El año pasado, más de 60 países acudieron a las urnas en lo que fue un superciclo de elecciones globales. La investigación sobre si la IA influyó en ellas es limitada.

Pero un artículo reciente del Centro de Tecnología Emergente y Seguridad (CETaS) del Instituto Alan Turing descubrió que durante las elecciones generales del Reino Unido hubo 16 casos virales de desinformación sobre IA o deepfakes.

Los investigadores también analizaron las elecciones estadounidenses y encontraron ejemplos de desinformación generada por IA. 

Estos incluyeron granjas de bots de IA que imitaban a votantes estadounidenses y acusaciones contra inmigrantes, que también llevaron a que algunos candidatos políticos hicieran referencia a contenido viral habilitado por IA y recibieran una amplia cobertura mediática. 

Si bien el documento afirmó que no había suficiente evidencia de que la desinformación habilitada por IA tuviera un impacto medible en los resultados de las elecciones presidenciales de Estados Unidos, agregó que este contenido de IA dio forma al discurso electoral de Estados Unidos al «amplificar otras formas de desinformación e inflamar los debates políticos».

Además de las elecciones, Kaiser dijo que una de sus mayores preocupaciones son los contratos que los gobiernos están firmando con las grandes empresas tecnológicas de inteligencia artificial, como OpenAI, fabricante de ChatGPT.

“Debido a que los gobiernos están dispuestos a intentar usar la IA, muchos de ellos están licenciando productos de IA de grandes empresas que son de código cerrado, cajas negras, y nuestros datos y los datos de nuestro gobierno simplemente terminan en estos sistemas de código cerrado con fines de lucro, y no hay protecciones”, dijo.

El código abierto generalmente significa que el código fuente del software está disponible para que todos en el dominio público lo usen, modifiquen y distribuyan, y los datos que entrenan a la IA se comparten.

Considerando que la IA de código cerrado significa que el código y los datos con los que se entrena la IA se mantienen bajo el control y propiedad total de la empresa.

Sin embargo, podría haber implicaciones para la seguridad nacional si se tuvieran grandes modelos de IA de código abierto en manos de cualquiera que sepa codificar.

“OpenAI tiene la gran mayoría de los contratos de inteligencia artificial del gobierno y, dado que todos nuestros datos personales, así como todos los datos gubernamentales de todas estas diferentes agencias y departamentos gubernamentales, ingresan a los servidores corporativos de OpenAI, se crea una responsabilidad aún mayor”, dijo Kaiser.

Agregó que esto es similar a lo que hicieron Cambridge Analytica y Facebook hace más de una década, pero en el caso de OpenAI, ahora son «muchos más datos, especialmente datos confidenciales, los que se están introduciendo en esos sistemas».