La “caja negra” es un punto álgido en la discusión sobre inteligencia artificial generativa. Es sabido que grandes compañías de tecnología (BigTech)están apostando largas sumas de dinero a desarrollar herramientas y aplicaciones de inteligencia artificial, en una búsqueda por alcanzar mayor cantidad de usuarios y también, ganancias. En esta batalla los principios éticos son casi siempre los últimos a ser considerados.
Las leyes regulatorias y normativas éticas tienden a tener un desarrollo a paso lento, que contrasta con la rapidez de la IAG, que en cuestión de semanas va lanzando nuevas funcionalidades. Las BigTech sacan al mercado sus productos, primero en versión gratuita para darse a conocer y entrenar mejor la tecnología, para después sacar la versión premium con mayores funcionalidades, de las cuales van creando una dependencia en sus usuarios.
En el contrato que se acepta al instalar o crear una cuenta en estas aplicaciones (si, aquel recuadro de letra pequeña, que se tiende a pasar de largo hasta la casilla de “Si, Acepto”) hay diversos puntos en los que se está obteniendo permiso para utilizar la información y en el que la compañía se puede liberar de responsabilidad sobre lo que se crea por medio de la IA.
Sin embargo, aún queda la duda… ¿Qué es realmente lo que los usuarios están aceptando por utilizar estas aplicaciones? ¿Efectivamente las compañías si están cumpliendo con las políticas de uso y protección de la información? ¿Se están respetando los derechos de autor de los textos de los datos de entrenamiento?
Todo esto se está actualmente investigando en el componente 1 del proyecto “IA en las organizaciones” de la Universidad ICESI. ¿Se te ocurren otras dudas o incongruencias entre las políticas declaradas por las BigTech y lo que se observa que hacen en la realidad?