Carta de los expertos de OpenAI: piden proteger a los filtradores de empresas de inteligencia artificial

Filtraciones | Noticias

Una carta abierta firmada por un grupo de más de una decena de empleados actuales y anteriores de OpenAI y Google DeepMind pide más transparencia y mejor protección para los filtradores dentro de las empresas que desarrollan IA avanzada.

La industria de la IA está impulsando el uso público generalizado de sus productos mientras siguen sin resolverse profundas preocupaciones sobre su precisión, seguridad y equidad .

«Las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva», se lee en la carta abierta , titulada «Un derecho a advertir sobre la inteligencia artificial avanzada».

Pide a las empresas que construyen sistemas avanzados de inteligencia artificial que apoyen «una cultura de crítica abierta».

También les insta a «no tomar represalias contra empleados actuales y anteriores que compartan públicamente información confidencial relacionada con riesgos después de que otros procesos hayan fallado».

La carta está firmada por varios empleados actuales y anteriores de OpenAI, y también dos (uno actual y otro anterior) de DeepMind de Google. Aproximadamente la mitad de los firmantes son nombrados y la otra mitad son anónimos.

También está «respaldado» por tres investigadores pioneros de la IA: Yoshua Bengio, Geoffrey Hinton y Stuart Russell.

OpenAI ha enfrentado una serie de controversias recientes sobre acuerdos que pidió que firmaran los empleados salientes, y el CEO Sam Altman tuvo que dar marcha atrás en una política que amenazaba con recuperar las concesiones de opciones sobre acciones de los empleados que no cooperaron.

OpenAI se fundó como una organización sin fines de lucro comprometida con el desarrollo seguro y con espíritu público de IA avanzada. Pero desde el gran éxito de ChatGPT en 2022, la compañía, en asociación con Microsoft, ha enfrentado críticas por adoptar un manual de estrategias para startups más clásico de Silicon Valley .

Altman ha argumentado durante mucho tiempo que la mejor manera de desarrollar IA de manera segura es ponerla en manos del público para encontrar y corregir sus fallas de manera temprana.

En una declaración, un portavoz de OpenAI dijo: «Estamos orgullosos de nuestro historial proporcionando los sistemas de IA más capaces y seguros y creemos en nuestro enfoque científico para abordar el riesgo. Estamos de acuerdo en que un debate riguroso es crucial dada la importancia de esta tecnología. …»

La compañía también señaló que tiene una «línea directa de integridad» anónima y «un Comité de Seguridad liderado por miembros de nuestra junta directiva y líderes de seguridad de la compañía».