¿Se corre un tupido velo sobre los riesgos de la IA? Un grupo de investigadores quiere quitarse la mordaza

La inteligencia artificial (IA) alberga en sus entrañas muchas oportunidades, pero también no pocos riesgos potenciales para la humanidad. Sin embargo, sobre los peligros solapados a la tecnología de moda se habla sorprendentemente poco, como si quienes trabajan en este ámbito de actividad tuvieran que adherirse (de manera forzosa) a una suerte de ley de silencio que les impide hablar abiertamente sobre los riesgos emanados de la IA.

El derecho a advertir al público de los peligros de esta tecnología es precisamente la principal reivindicación de un grupo de investigadores de IA en una carta abierta que vio la luz este martes. Quienes rubrican esa epístola son mayoritariamente exempleados y actuales trabajadores de OpenAI, la matriz de ChatGPT.

De acuerdo con quienes firman la misma, la protección que se aplica actualmente a los denominados «whistleblowers» que denuncian los peligros de la IA es a todas luces insuficiente.

Las leyes que allende los mares protegen a los «whistleblowers» están centradas primordialmente en las actividades de naturaleza ilegal por parte de las empresas. Sin embargo, en un buen número de casos la IA no se atiene a ninguna ley. En este sentido, «algunos de nosotros tenemos represalias si tomamos la determinación de hablar, como ha sucedido ya en varias ocasiones dentro de la industria de la IA», dicen los firmantes de la carta.

Quienes firman la carta desean poder advertir al gran público de los riesgos potenciales de la IA

Los investigadores instan a las empresas que trabajan en modelos avanzados de IA a hacer suyos cuatro principios:

  • Que no se obligue a los trabajadores a firmar cláusulas que les impida emitir juicios críticos sobre sus empleadores y sobre los peligros de la tecnología con la que trabajan.
  • Que las compañías implementen procesos convenientemente anonimizados de naturaleza verificable que permitan a exempleados y actuales trabajadores informar de eventuales riesgos al consejo de dirección, a los reguladores o a organizaciones independientes.
  • Que las empresas promuevan una cultura que permita que exempleados y trabajadores actuales expresan abiertamente sus críticas cuando están emparentadas con eventuales peligros solapados a la IA.
  • Que las compañías no tomen represalias contra exempleados y actuales trabajadores que comparten información confidencial directamente relacionada con riesgos una vez hayan fracasado previamente otros sistemas para dar la voz de alarma.

Se da la circunstancia que hace poco salió a la luz que OpenAI había amenazado a varios exempleados con la cancelación de sus acciones en la compañía si se pronunciaban públicamente de manera crítica sobre la empresa liderada por Sam Altman. Posteriormente el CEO de OpenAI se disculpó por la cláusula que impide a los extrabajadores de la compañía criticar a su antiguo empleador, aunque subrayó que desconocía su existencia y que esta nunca se había aplicado en realidad.

No es la primera vez que expertos en IA alertan de los peligros que esta tecnología carga sobre los hombros, que van desde la diseminación de desinformación a gran escala a la destrucción masiva de empleos.

Fuente: https://www.marketingdirecto.com/digital-general/digital/expertos-ia-quieren-liberarse-mordaza