Hasta los propios trabajadores de OpenAI desaprueban la deriva de la inteligencia artificial - Tortuga
Administración Enlaces Contacto Sobre Tortuga

Hasta los propios trabajadores de OpenAI desaprueban la deriva de la inteligencia artificial

Jueves.20 de junio de 2024 92 visitas Sin comentarios
Afirman que las compañías no tienen interés en supervisar una tecnología que incluso «podría provocar la extinción humana». #TITRE

Empleados y exempleados de empresas de inteligencia artificial (casi todos de OpenAI) han publicado una carta abierta mostrando su enorme preocupación.

Óscar F. Civieta

Lo dicen los propios empleados. Los que han trabajado en su desarrollo. Trece trabajadores y extrabajadores de empresas tecnológicas han publicado una carta abierta en la que alertan del peligro de la inteligencia artificial.

Entre ellos, hay siete extrabajadores de OpenAI (la empresa creadora de ChatGPT y dirigida por Sam Altman), cuatro trabajadores actuales (que no dan su nombre en la misiva), un exempleado de Google DeepMind y un empleado actual de la misma compañía (que antes estuvo en Anthropic). También firman Yoshua Bengio, Geoffrey Hinton y Estuardo Russell, conocidos como los ‘padrinos de la IA’, que ya han alertado con anterioridad de estos riesgos.

Aunque señalan en el primer párrafo que la IA puede “brindar beneficios sin precedentes a la humanidad”, principalmente se centran en lo que califican como “graves riesgos”.

Por ejemplo, detallan, “un crecimiento de las desigualdades existentes, de la manipulación y la desinformación”, e incluso el peligro de que “se pierda el control de los sistemas autónomos de IA, lo que podría provocar la extinción humana”. Además, recuerdan que las propias empresas y los gobiernos han alertado de ello.

Las empresas de IA son reacias a la supervisión

Sostienen los firmantes que estos riesgos pueden mitigarse siguiendo la orientación de la comunidad científica. Sin embargo, afirman, “las empresas de inteligencia artificial tienen fuertes incentivos económicos para evitar una supervisión efectiva”.

Estas compañías “poseen información suficiente sobre las capacidades y limitaciones de sus sistemas, la idoneidad de las medidas de protección que aplican y los niveles de riesgo. Pero hay pocas normas que las obliguen a compartir esa información con los gobiernos, y ninguna con la sociedad civil”.

“Mientras no exista una supervisión gubernamental de estas corporaciones, los empleados y exempleados somos los únicos con capacidad para exigirles responsabilidades”, aseguran. “El problema es que los acuerdos de confidencialidad nos impiden expresar nuestras preocupaciones, excepto ante las propias empresas”.

Se quejan de que los denunciantes apenas están protegidos y reconocen que temen “represalias”, habida cuenta de los ejemplos que ha habido en toda la industria.
Quieren libertad para informar sobre los riesgos de la inteligencia artificial

Finalizan su carta reclamando a las empresas de inteligencia artificial que se comprometan con varios principios.

En primer lugar, que no les hagan firmar ningún acuerdo que “prohíba las críticas a la empresa, relacionadas con los riesgos comentados”, y que éstas “no tomarán represalias”.

También, que las compañías pondrán en marcha un sistema para que los trabajadores (actuales y anteriores) tengan la posibilidad de mostrar sus inquietudes “ante la propia empresa, el público, los reguladores y una organización independiente con experiencia relevante, siempre y cuando los secretos comerciales y otros intereses de la propiedad estén protegidos”.

Por último, exigen que, hasta que se ponga en marcha esa vía de reclamación, las empresas les permitan “compartir públicamente información confidencial relacionada con los riesgos de la IA”.

Fuente: https://www.lamarea.com/2024/06/05/...

Nota: los comentarios podrán ser eliminados según nuestros criterios de moderación.