Las filtraciones en la era de la inteligencia artificial: las leyes deben adaptarse a riesgos únicos

Filtraciones

Por Garrison Lovely

Durante unos cinco años, OpenAI utilizó un sistema de acuerdos de confidencialidad para reprimir las críticas públicas de los empleados salientes. Los empleados actuales y anteriores de OpenAI tenían miedo de hablar con la prensa. En mayo, un empleado que se iba se negó a firmar y lo hizo público en The Times. La empresa se disculpó y desechó los acuerdos. Entonces se abrieron las compuertas. Los empleados que se iban comenzaron a criticar las prácticas de seguridad de OpenAI y surgió una ola de artículos sobre sus promesas incumplidas .

Estas filtraciones provienen de personas que estaban dispuestas a arriesgar sus carreras para informar al público. ¿Cuántas más son silenciadas porque tienen demasiado miedo de hablar? Dado que las protecciones actuales para los filtradores generalmente solo cubren la denuncia de conductas ilegales, son inadecuadas en este caso. La inteligencia artificial puede ser peligrosa sin ser ilegal. La IA necesita protecciones más fuertes, como las que existen en partes del sector público , las finanzas y las empresas que cotizan en bolsa, que prohíban las represalias y establezcan canales de denuncia anónimos.

OpenAI ha pasado el último año sumida en un escándalo. El director ejecutivo de la empresa fue despedido brevemente después de que la junta directiva de la organización sin fines de lucro perdiera la confianza en él. Los filtradores alegaron ante la Comisión de Bolsa y Valores que los acuerdos de confidencialidad de OpenAI eran ilegales. Los investigadores de seguridad han abandonado la empresa en masa. Ahora la firma está reestructurando su negocio principal como una empresa con fines de lucro, lo que aparentemente ha provocado la salida de más líderes clave. El viernes, The Wall Street Journal informó que OpenAI se apresuró a probar un modelo importante en mayo, en un intento de socavar la publicidad de un rival; después del lanzamiento, los empleados descubrieron que el modelo excedía los estándares de seguridad de la empresa. (La empresa le dijo a The Journal que los hallazgos fueron el resultado de una falla metodológica).

Este comportamiento sería preocupante en cualquier industria, pero según la propia OpenAI , la IA plantea riesgos únicos. Los líderes de las principales empresas de IA y los principales investigadores de IA han advertido que la tecnología podría conducir a la extinción humana.

Dado que no se prevé que en un futuro próximo se aprueben normas nacionales más amplias sobre la IA , necesitamos una ley federal estricta que permita a los empleados revelar información al Congreso si creen razonablemente que un modelo de IA plantea un riesgo significativo para la seguridad. El Congreso debería establecer un inspector general especial que sirva como punto de contacto para estos filtradores. La ley debería obligar a las empresas a notificar a su personal sobre los canales que tienen a su disposición, que pueden utilizar sin sufrir represalias.

Estas protecciones son esenciales para una industria que trabaja tan de cerca con una tecnología tan excepcionalmente riesgosa, en particular cuando los reguladores no se han dado cuenta de los riesgos. Las personas que denuncian violaciones de la Ley de Energía Atómica tienen protecciones más sólidas que las de la mayoría de los campos, mientras que quienes trabajan en toxinas biológicas para varios departamentos gubernamentales están protegidos por una guía proactiva que favorece la denuncia . Los trabajadores de IA necesitan reglas similares.

Muchas empresas mantienen una cultura de secretismo que va más allá de lo saludable. Una vez trabajé en la consultora McKinsey, en un equipo que asesoraba al Servicio de Inmigración y Control de Aduanas sobre la implementación de las inhumanas políticas migratorias de Donald Trump. Tenía miedo de hacerlo público . Pero McKinsey no tomó como rehenes a la mayoría de las compensaciones de los empleados a cambio de firmar acuerdos de no desprestigio de por vida, como hizo OpenAI .

A principios de este mes, OpenAI lanzó un nuevo modelo muy avanzado. Por primera vez, los expertos concluyeron que el modelo podría ayudar en la construcción de un arma biológica de manera más efectiva que la investigación por Internet por sí sola. Un tercero contratado por la empresa descubrió que el nuevo sistema demostraba evidencia de “búsqueda de poder” y “las capacidades básicas necesarias para realizar conspiraciones simples en contexto”. OpenAI decidió publicar estos resultados, pero la empresa aún elige qué información compartir. Es posible que la información publicada presente un panorama incompleto de los riesgos del modelo.

El investigador de seguridad de la IA Todor Markov, que recientemente dejó OpenAI después de casi seis años en la empresa, sugirió un escenario hipotético. Una empresa de inteligencia artificial promete probar sus modelos para detectar capacidades peligrosas y luego selecciona los resultados para que el modelo parezca seguro. Un empleado preocupado quiere avisar a alguien, pero no sabe a quién, y no puede señalar una ley específica que se esté infringiendo. El nuevo modelo se lanza y un terrorista lo usa para construir una nueva arma biológica. Varios ex empleados de OpenAI me dijeron que este escenario es plausible.

La actual estrategia de Estados Unidos para gestionar los riesgos de la IA mediante compromisos voluntarios deposita una enorme confianza en las empresas que desarrollan esta tecnología potencialmente peligrosa. Lamentablemente, la industria en general (y OpenAI en particular) ha demostrado una y otra vez que no es digna de esa confianza .

El destino del primer intento de proteger a los filtradores de la IA está en manos del gobernador de California, Gavin Newsom. Newsom ha insinuado que vetará un proyecto de ley de seguridad de la IA, el primero de su tipo , llamado SB 1047, que obliga a las mayores empresas de IA a implementar salvaguardas para prevenir catástrofes, y que incluye protecciones para los empleados que filtran información, un raro punto de acuerdo entre los partidarios del proyecto de ley y sus críticos. Ocho demócratas del Congreso que escribieron una carta pidiendo a Newsom que vetara la legislación respaldaron específicamente las protecciones para los filtradores.

Pero un veto también eliminaría esas normas. Eso significa que si esos legisladores apoyan seriamente esas protecciones, deberían presentar un proyecto de ley federal para proteger a los filtradores de inteligencia artificial. Están bien posicionados para hacerlo: la organizadora de la carta, la representante Zoe Lofgren, es la demócrata de mayor rango en el Comité de Ciencia, Espacio y Tecnología de la Cámara de Representantes.

El mes pasado, un grupo de destacados expertos en inteligencia artificial advirtió que, a medida que la tecnología avanza rápidamente , “enfrentamos riesgos crecientes de que la IA pueda usarse indebidamente para atacar infraestructuras críticas, desarrollar armas peligrosas o causar otras formas de daño catastrófico”. Estos riesgos no son necesariamente criminales, pero son reales y podrían resultar mortales. Si eso sucede, los empleados de OpenAI y otras empresas serán los primeros en saberlo. Pero ¿nos lo dirán?

Publicado en nytimes.com