Empleados y ex empleados de Inteligencia Artificial advierten de los peligros de esta tecnología

Estos trabajadores solicitan a las empresas un compromiso con una mayor transparencia y una cultura de crítica responsable

La carta, firmada por 13 personas, incluidos empleados actuales y antiguos de OpenAIAnthropic y DeepMind de Google, afirma que la IA puede exacerbar la desigualdad, aumentar la desinformación y permitir que los sistemas de IA se vuelvan autónomos y causen muertes significativas. Aunque estos riesgos podrían mitigarse, las empresas que controlan el software tienen “fuertes incentivos financieros” para limitar la supervisión, señalaron.

La medida llega en un momento en que OpenAI se enfrenta a un éxodo de personal. Muchos críticos han visto en las salidas destacadas -incluidos el cofundador de OpenAIIlya Sutskever, y el investigador principal Jan Leike- una reprimenda a los dirigentes de la empresa, que según algunos empleados persiguen beneficios a costa de hacer más seguras las tecnologías de OpenAI.

Daniel Kokotajlo, antiguo empleado de OpenAI, declaró que abandonó la empresa por la indiferencia de la compañía ante los riesgos de la inteligencia artificial.

La carta, firmada por empleados de OpenAI, Anthropic y DeepMind, llama a fomentar la transparencia y la crítica en las empresas de inteligencia artificial. (REUTERS/Dado Ruvic)
La carta, firmada por empleados de OpenAI, Anthropic y DeepMind, llama a fomentar la transparencia y la crítica en las empresas de inteligencia artificial. (REUTERS/Dado Ruvic)

“Perdí la esperanza de que actuaran con responsabilidad, sobre todo en su búsqueda de la inteligencia artificial general”, afirmó en un comunicado, en referencia a un término muy controvertido que hace referencia a ordenadores que igualan la potencia de los cerebros humanos. “Ellos y otros se han creído el planteamiento de ‘moverse rápido y romper cosas’, y eso es lo contrario de lo que se necesita para una tecnología tan potente y tan poco comprendida”.

Liz Bourgeois, portavoz de OpenAI, dijo que la empresa está de acuerdo en que “un debate riguroso es crucial dada la importancia de esta tecnología”. Los representantes de Anthropic y Google no respondieron inmediatamente a una solicitud de comentarios.

Los empleados afirmaron que, a falta de supervisión gubernamental, los trabajadores de IA son las “pocas personas” que pueden exigir responsabilidad a las empresas. Señalaron que se ven obstaculizados por “amplios acuerdos de confidencialidad” y que las protecciones ordinarias de los denunciantes son “insuficientes” porque se centran en actividades ilegales, y los riesgos sobre los que advierten aún no están regulados.

La carta pedía a las empresas de IA que se comprometieran a cumplir cuatro principios para permitir una mayor transparencia y protección de los denunciantes.

OpenAI enfrenta desafíos internos sobre la comunicación de prácticas de seguridad, circunstancia que contribuyó a la destitución temporal de su CEO Sam Altman. (AP/Eric Risberg)
OpenAI enfrenta desafíos internos sobre la comunicación de prácticas de seguridad, circunstancia que contribuyó a la destitución temporal de su CEO Sam Altman. (AP/Eric Risberg)

Esos principios incluyen el compromiso de no suscribir ni aplicar acuerdos que prohíban criticar los riesgos; el llamamiento a establecer un proceso anónimo para que los empleados actuales y antiguos planteen sus preocupaciones; el apoyo a una cultura de la crítica; y la promesa de no tomar represalias contra los empleados actuales y antiguos que compartan información confidencial para dar la voz de alarma “después de que otros procesos hayan fracasado”.

En diciembre, The Washington Post informó de que altos cargos de OpenAI temían represalias por parte del consejero delegado Sam Altman, advertencias que precedieron a su destitución temporal. En una reciente entrevista en podcast, Helen Toner, antigua miembro del consejo de OpenAI, afirmó que parte de la decisión de la organización sin ánimo de lucro de destituir a Altman como consejero delegado a finales del año pasado se debió a su falta de comunicación sincera en materia de seguridad.

“Nos dio información inexacta sobre el pequeño número de procesos de seguridad formales que la empresa tenía en marcha, lo que significaba que era básicamente imposible para el consejo saber lo bien que estaban funcionando esos procesos de seguridad”, dijo a “The TED AI Show” en mayo.

La carta fue respaldada por luminarias de la IA como Yoshua Bengio y Geoffrey Hinton, considerados “padrinos de la IA”, y el célebre informático Stuart Russell.

Entradas populares