La IA necesita de manera absolutamente perentoria un marco regulatorio preciso para que llegado el momento determinadas líneas rojas no se traspasen.
La inteligencia artificial (IA) está hasta en la sopa y está forzando un cambio tan absolutamente sísmico y vertiginoso en nuestras vidas que es imposible no preguntarse si su trepidante desarrollo no propiciará que sus hacedores, los seres humanos de carne y hueso, se estrellen tarde o temprano contra un muro de calamidades (eventualmente irreversibles).
Por lo pronto el mero hecho de que Sundar Pichai, CEO de Google, confiese sin ambages que el potencial nocivo agazapado en las entrañas de la IA la quita el sueño denota que hay probablemente razones (perfectamente fundadas) para preocuparse por el endiablado ritmo de desarrollo de la tecnología de moda.
En una entrevista concedida recientemente a la CBS Pichai confesó que la IA podía ser «muy dañina» si se implementaba de manera inadecuada y reconoció que se estaba desarrollando de manera excesivamente rápida.
Google habla con conocimiento de causa cuando a sus labios asoma el concepto de inteligencia artificial. La compañía de Montain View lanzó hace un par de meses Bard, un chatbot que pretende erigirse en alternativa a ChatGPT, y es asimismo matriz de la empresa especializada en IA DeepMind.
Pichai no es el único gerifalte de la industria tecnológica que en las últimas semanas ha dado la voz de alarma sobre los peligros agazapados en las entrañas de la IA. La semana pasada Elon Musk reconoció que se había tenido una agria disputa con el cofundador de Google Larry Page porque el gigante de internet no se estaba aproximando de manera suficientemente segura a la IA. En una entrevista concedida a Fox News Musk acusó a Page de querer alumbrar «un superinterinteligencia digital, básicamente una divinidad digital, en el menor tiempo posible«.
El enfoque por el que se rige hoy por hoy la IA difícilmente sería tolerado en otro ámbito de actividad
Hace unas semanas Musk firmaba junto a otros mil expertos una carta abierta publicada por Future of Life Institute que pedía una moratoria de seis meses en el desarrollo de programas de IA más poderosos que GPT,4, el sistema que hace posible ChatBot. En esa misiva los firmantes aseguraban que la IA podría traducirse en «una pérdida de control de nuestra civilización».
Según Valérie Pisano, que también firmó esa epístola, el enfoque de la IA que está adoptando actualmente la industria tecnológica no sería tolerado en ningún ámbito de actividad. Pisano, que es CEO de Mila, el Instituto de Inteligencia Artificial de Quebec, asegura que el trabajo en este segmento se estaba ejecutando hasta hace poco convenientemente alineado con los valores humanos, pero después los primeros sistemas de IA se lanzaron al gran público y estalló el caos.
«La tecnología llega al mundo real, y mientras el sistema interactúa con la humanidad, sus desarrolladores esperan a ver qué sucede y hacen así los ajustes oportunos. Jamás como colectivo aceptaríamos este tipo de mentalidad en cualquier ramo industrial«, enfatiza Pisano en declaraciones a The Guardian.
Uno de los temores más inmediatos entre quienes no ocultan la zozobra que les inspira la IA es que esta tecnología pueda dar lugar a tromba de mentiras y espolee en último término la desinformación, la propaganda y el fraude. Una imagen del papa Francisco enfundado en un resplandeciente abrigo acolchado de color blanco que pese a su apabullante realismo fue generada con Midjourney encarna a la perfección tales temores. Esa imagen fue en realidad bastante inofensiva, pero ¿y si la IA cayera en manos de personas con intenciones bastante más espurias? Pisano advierte que actualmente están viendo la luz sistemas que «manipulan realmente a las personas y contribuyen a derribar las democracias».
Toda la tecnología puede ser potencialmente nociva en las manos equivocadas, pero el poder de la IA puede terminar siendo un arma de doble filo, tanto como lo son a día de hoy la energía nuclear o la bioquímica.
Pero, ¿cuáles son los límites de la IA? ¿Acaso está a merced de algún tipo de límite esta tecnología? La superinteligencia o divinidad digital que tanto preocupa a Elon Musk hace referencia a la denominada «inteligencia artificial general» (AGI), un sistema que puede aprender y desarrollarse de manera autónoma generando nuevo conocimiento sobre la marcha. Un sistema de estas características alcanzaría con suma celeridad cotas inimaginables para la humanidad y podría tomar decisiones que contravinieran los valores morales humanos.
La temida AGI podría estar a la vuelta de la esquina
Para llegar a semejante punto de desarrollo faltaría aún unas cuantas décadas, pero comprender adecuadamente los logros de la IA no es fácil en modo alguno, por lo que la temida (y también anhelada) AGI podría cuajar más pronto de lo esperado.
A fin de limitar eventuales riesgos empresas como OpenAI están tomando medidas para que las acciones emanadas de sus sistemas estén realmente alineadas con los valores humanos. Pero es también extraordinariamente sencillo saltarse esos mecanismos de seguridad y con un poco de ingenio es posible sonsacar, por ejemplo, a ChatGPT la lista de ingredientes que se abren paso en el napalm.
Quizás por esta razón cada vez más expertos en IA aventuran que la AGI podría emerger en el horizonte mucho antes de lo inicialmente previsto. «En privado a muchos investigadores que llevan a años a la vanguardia en este ámbito de actividad les preocupa que la AGI podría estar muy cerca», enfatiza Ian Hogarth, inversor y coator del informe anual State of AI.
No obstante, no a todos les embarga la preocupación por los vericuetos eventualmente peligrosos que podría tomar la IA en los años venideros. Yann LeCun, chief IA scientist de Meta, está en contra de demorar el desarrollo de la IA porque si la humanidad es lo suficientemente inteligente para diseñar una superinteligencia será suficientemente inteligente para diseñarla «con buenos objetivos en mente«.
También se posiciona en contra de una eventual moratoria en el desarrollo de la IA el Distributed AI Research Institute, que echa en cara a quienes piden en esa moratoria que ignoran deliberadamente los daños reales causados por los sistemas actuales de inteligencia artificial para concentrarse en una utopía o en su defecto apocalipsis donde el futuro será o bien esplendoroso o bien catastrófico (y la culpa la tendrá ineludiblemente la IA).
Lo que parece fuera de toda duda es que la IA necesita de manera absolutamente perentoria un marco regulatorio preciso para que llegado el momento determinadas líneas rojas no se traspasen.