¿Es Sam Altman un lobo con piel de cordero? Su reputación vuelve a estar en jaque

Cuando el consejo de administración de OpenAI despidió de manera absolutamente fulminante (y sorpresiva) a Sam Altman a finales de 2023, quienes perpetraron su despido aseguraron que este «no era consistentemente sincero en sus comunicaciones».

Esta declaración por parte del consejo de administración de OpenAI, que parecía endilgar indirectamente a Altman el calificativo de «mentiroso», arrojó, no obstante, más interrogantes que respuestas sobre el comportamiento supuestamente nefario del «padre de ChatGPT».

Cuando apenas unos días después de su destitución Altman regresaba con honores de emperador a OpenAI, los interrogantes sobre la honorabilidad (supuestamente deficitaria) del CEO de la startup de IA quedaron relegados a un segundo plano. Sin embargo, seis meses después de aquellos rocambolescos acontecimientos la reputación de Sam Altman está de nuevo en entredicho.

El debate sobre la credibilidad (quizás parva) de Sam Altman ha sido reavivado a cuenta de la controversia provocada por Sky, una voz de ChatGPT que la semana pasada acaparaba todos los focos en un demo de OpenAI y que a muchos les recordó sospechosamente a la voz de Scarlett Johansson en Her.

La polémica emanada de la similitud entre Sky y la voz de la actriz estadounidense en Her, llevó a OpenAI a «pausar» la voz de la discordia en ChatGPT. Y poco después Scarlett Johansson salía a la palestra dando cuenta de su ira por el inquietante parecido de Sky con su propia voz y amenazando con tomar acciones legales contra OpenAI. Además, la intérprete relató para más inri que Sam Altman se puso en contacto con ella hace varios meses para convencerla de prestar su voz a ChatGPT. Sin embargo, como Johansson tuvo a bien declinar la oferta de Altman, este decidió reclutar a otra actriz con una voz extraordinariamente similar a la de la protagonista de Viuda Negra.

Se da además la circunstancia de que este mismo mes dos importantes nombres en el ámbito de la IA que lideraban el equipo de seguridad de OpenAI decidieron (casualidades de la vida) cortar amarras con la compañía.

Uno de esos ejecutivos salientes, Jan Leike, enfatizó además que «la cultura en pro de la seguridad de OpenAI había sido relegada a un segundo plano en favor de productos de relumbrón».

OpenAI no parece estar diciendo toda la verdad en relación con la polémica propiciada por Sky y su parecido con la voz de Scarlett Johansson

Y las últimas declaraciones de OpenAI a colación de escándalo propiciado por Sky no apuntalan precisamente la credibilidad de la compañía (sino que más bien la desmoronan). La compañía ha asegurado, por ejemplo, que Sky no suena en modo alguno como la voz de Scarlett Johansson, lo cual resulta inevitablemente difícil de creer, máxime cuando durante la demo protagonizada por la voz de ChatGPT Altman publicaba en X sin rubor alguno un mensaje con una única palabra: «her». Y no solo eso. Alexis Conneau, Audio AGI Research Lead de OpenAI, tiene un fotograma de la película Her como foto de portada en su perfil en X. Si bien OpenAI jura y perjura que la voz de Sky no se parece a la Scarlett Johansson y pertenece a una actriz completamente diferente, resulta difícil creer que el parecido entre una y otra voz no haya sido buscado de manera deliberada.

La semana pasada Sam Altman se veía asimismo en el ojo del huracán por una información publicada por Vox en virtud de la cual OpenAI obligaría a sus empleados a firmar un acuerdo para no revelar jamás experiencias de naturaleza negativa en el seno de la compañía. Y Altman respondió a esta polémica de nueva hornada asegurando que no tenía conocimiento de este tipo de práctica en OpenAI.

Hay, no obstante, más episodios que parecen erosionar la credibilidad de Sam Altman. En una entrevista concedida el pasado mes de enero Altman confesó que no sabía a ciencia cierta si Ilya Sutskever, Chief Scientist de OpenAI, seguía trabajando en la compañía. La semana pasada Sutskever oficializaba su salida de OpenAI junto a Jan Leike, que no dudó lamentarse públicamente de que el departamento de seguridad de la compañía llevaba siendo despojado de recursos durante meses.

La comunicación de OpenAI está empañada por una densa neblina

Por otra parte, el pasado mes de marzo Mira Murati, Chief Technology Officer de OpenAI, admitía que no estaba segura de si Sora, el programa para generar vídeos hiperrealistas de la compañía, había sido entrenado o no con vídeos de YouTube. Y Brad Lightcap, COO de OpenAI, alimentaba hace poco la confusión a este respecto evitando responder a una pregunta sobre los datos utilizados en el entrenamiento de Sora en la Tech Summit de Bloomberg.

Pese a que OpenAI echó balones fuera, lo cierto es que The New York Times publicó en su día que a varios empleados senior de la compañía se les había encomendado la tarea de transcribir vídeos de YouTube para entrenar los modelos de IA de la empresa. Y este mismo lunes Sundar Pichai, CEO de Google, aseguraba en declaraciones a The Verge que si OpenAI utilizaba efectivamente los vídeos de YouTube para entrenar sus modelos de IA, su comportamiento sería a todas luces no apropiado.

La «inconsistente sinceridad» de Sam Altman vuelve a estar, por ende, en primerísimo plano y ello puede lacerar en último término la reputación de OpenAI. No obstante, el misterio (entreverado de secretismo) que rodea a OpenAI está ayudando también a la compañía a posicionarse como una organización tan enigmática como consagrada al 100% a levantar los cimientos de un sensacional universo futurista que podría hacer palidecer al retratado habitualmente por las películas.

Fuente: https://www.marketingdirecto.com/digital-general/digital/es-sam-altman-lobo-piel-cordero