De IA a secas a superinteligencia: ¿cuándo se convierte una herramienta en una “criatura”?

De IA a secas a superinteligencia: ¿cuándo se convierte una herramienta en una “criatura”?

La denominada Inteligencia Artificial General (AGI en sus siglas en inglés), aquella que iguala o excede la inteligencia humana promedio, podría estar a la vuelta de la esquina.

Allá por 1999 salió del cascarón el Manifiesto Cluetrain, convertido a la postre en una suerte de biblia para todos aquellos que se desenvuelven en la industria tecnológica y citado precisamente por esta razón millones de veces. Muchas de las predicciones contenidas en ese manifiesto no han llegado a materializarse, pero algunas están, sin embargo, preñadas de clarividencia. La primera de las 95 tesis que se abren paso en el Manifiesto Cluetrain es que «los mercados son conversaciones» y no puede ser más cierta en vista del auge de la cada vez más pujante «creator economy», nacida al calor de las interacciones de los influencers con sus fans en las redes sociales.

En esa tesis se inspira el periodista alemán experto en tecnología Sascha Lobo para formular una predicción de cosecha propia en relación con la transformación de primerísimo orden emanada de la inteligencia artificial (IA) generativa. Lobo asegura en un artículo publicado en Spiegel que «las máquinas son conversaciones».

Al fin y al cabo, argumenta Lobo, los modelos de IA son entrenados con ingentes cantidades de datos para mantener conversaciones naturales con el usuario. Gracias a la integración de la IA de OpenAI en Microsoft 365, el usuario puede conversar, por ejemplo, con PowerPoint y pedirle que convierta (en cuestión de segundos) un documento Excel en una presentación con 15 gráficos.

Con la IA generativa a nuestra vera, ganamos obviamente en productividad a la hora de emprender tareas en los entornos laborales. De acuerdo con un informe publicado el pasado mes de septiembre por la Universidad de Harvard y Boston Consulting, con el soporte los asistentes de IA los trabajadores pueden completar tareas un 25% más rápido y con una calidad un 40% superior que sin el apoyo de estas herramientas.

El salto de gigante que protagoniza la productividad humana con el apoyo de la IA generativa debe, no obstante, ser contemplado como un mero paso intermedio, argumenta Lobo. Y el siguiente paso, que podría hacerse realidad en un brevísimo lapso de tiempo, es la entrada en escena de la denominada Inteligencia Artificial General (AGI en sus siglas en inglés), aquella que iguala o excede la inteligencia humana promedio.

Está por lo pronto meridianamente claro que el detonante del «culebrón» protagonizado en la última semana por OpenAI, que primero despidió y luego readmitió como CEO a Sam Altman, es la AGI. El Consejo de Administración de OpenAI decidió poner de patitas en la calle a Altman porque este estaba involucrado en un proyecto bautizado con el nombre de Q* que era básicamente una AGI o superinteligencia (o tenía por lo menos visos de serlo).

¿Está la Inteligencia Artificial General (AGI) a la vuelta de la esquina?

Algunos tienen ya la sensación de que la actual versión de ChatGPT (gracias al modelo GPT-4 del que se alimenta) es ya una superinteligencia en toda regla, apunta Lobo. Y hay varios argumentos que sustentan este punto de vista. ChatGPT ya es capaz, por ejemplo, de comprender adecuadamente ciertos contextos y ni siquiera quienes forman parte del equipo de OpenAI saben muy bien por qué. Sin embargo, la mayor parte de los expertos en IA considera que a ChatGPT no puede endilgársele aún la etiqueta de superinteligencia.

Hace poco Sam Altman anunciaba, con todo, en una ponencia que GPT-5, el sucesor de GPT-4, constituiría un salto evolutivo mucho mayor de lo que la gente a priori está dispuesta a asumir. Quizás por ello, una frase pronunciada por Altman el pasado 9 de noviembre adquiere inevitablemente una nueva e inquietante dimensión: «¿Es esta una herramienta que hemos construido o es en realidad una criatura?».

Conviene recordar que en el verano de 2022, cuando casi nadie había oído hablar aún de OpenAI, Google despidió al ingeniero de software Blake Lemoine porque tuvo la osadía de afirmar que la inteligencia artificial en la que estaba trabajado había desarrollado conciencia propia. Por aquel entonces la afirmación de Lemoine parecía el epítome de la ridiculez. Sin embargo, no resulta tan fácil reírse de las palabras pronunciadas hace apenas unas semanas por el creador de ChatGPT, que hablaba específicamente de la creación de una «criatura». Puede que el CEO de OpenAI sea un genio del marketing y sus palabras sean meramente una prueba de su excepcional maestría en esta disciplina, pero ¿miente realmente Altman cuando se refiere a la IA como una «criatura»?, se pregunta Lobo.

La AGI no sea exactamente lo mismo que una máquina capaz de desarrollar su propia conciencia, pero no deja de ser un paso en esta dirección. Un experimento con ChatGPT publicado en abril de 2023 así lo pone de manifiesto. Como parte de ese experimento los investigadores confrontaron con casi 200 preguntas médicas procedentes de un foro online para pacientes a profesionales de la salud, por una parte, y a ChatGPT, por otra. Las respuestas fueron a continuación evaluadas por profesionales de la salud. Y de media las respuestas de ChatGPT fueron calificadas de más correctas y más precisas que las puestas sobre la mesa por profesionales sanitarios de carne y hueso. Sin embargo, este no es el dato más inquietante arrojado por el experimento, que evaluó también la empatía de las respuestas y concluyó que las réplicas de ChatGPT eran notablemente más empáticas que las de los profesionales sanitarios.

De ello puede colegirse que las máquinas pueden a veces remedar o generar empatía mejor que los humanos, aun cuando la empatía es probablemente la emoción más eminentemente humana. En esta misma línea, la «conciencia percibida en las máquinas» podría regirse por un patrón similar, por lo que una vez rebasado cierto umbral, sería totalmente imposible descifrar si una máquina es dueña realmente de su propia conciencia o simplemente finge tener conciencia gracias a la superinteligencia alojada en sus entrañas. Y quizás en tres meses, en un año o en cinco años la superinteligencia sepa más de nosotros de lo que nos gustaría, concluye Lobo.

Fuente: https://www.marketingdirecto.com/digital-general/digital/ia-superinteligencia-convierte-herramienta-criatura