En dos años el 30% de los mensajes publicitarios de las grandes empresas serán generados de forma automatizada por herramientas de IA, señalan desde Gartner.
Herramientas potenciadas por la IA como lo son ChatGPT, Midjourney o Dall-E han causado sensación en los últimos meses. El auge del contenido generado con herramientas de inteligencia artificial ha dividido al mundo entre los que perciben a la IA como una aliada y aquellos que la toman como una enemiga.
Como señalan desde AdWeek, en el caso de los profesionales del mundo del marketing estas herramientas potenciadas con la inteligencia artificial traen consigo potenciales problemas, como lo son las reseñas falsas, campañas de desinformación organizadas en los canales sociales o incluso riesgos reputacionales para las marcas. Además, dada la facilidad para crear contenido, los mensajes «mediocres» se multiplicarán en el mundo del marketing.
Según datos de la consultora Gartner, en los próximos dos años, un 30% de los mensajes publicitarios de grandes empresas serán generados por herramientas de IA. También indican que, de cara a 2027, la mayoría de las empresas habrán establecido medidas para protegerse contra la desinformación y otros materiales dañinos.
Una alianza para luchar contra la desinformación
Andy Parson, director sénior de la Iniciativa de Autenticidad de Adobe, señaló que la compañía ha considerado la información falsa creada gracias a la IA como un peligro desde 2019. Por ello, una serie de organizaciones, entre ellas empresas y medios de comunicación, se unieron para fundar la Content Authenticity Initiative. El objetivo de esta iniciativa es el desarrollo de medidas y herramientas que ayuden a las personas a distinguir los contenidos reales de los falsos.
Como señaló Parson a AdWeek, «anticipamos un futuro con herramientas de IA poderosas, y por eso lanzamos la Content Authenticity Initiative en 2019, para aumentar la confianza y la transparencia en línea y ayudar a combatir la desinformación al dar a conocer el origen de los contenidos digitales».
Actualmente la organización centra su trabajo en contenidos como audios, videos y fotos falsas, pero los participantes de la iniciativa empiezan a estudiar formas de tratar los contenidos escritos con IA. «Conforme la IA generativa sigue transformando todo, desde cómo los creadores hacen arte, hasta cómo la sociedad desarrolla el contenido escrito, la capacidad de ver cómo se crearon estos contenidos es más importante que nunca» añadió el profesional.
La revisión de los contenidos cobra especial importancia con el auge de la inteligencia artificial
Distinguir qué contenidos ha generado una herramienta de inteligencia artificial es cada vez más complicado. Programas como ChatGPT perfeccionan su funcionamiento hasta ser casi indiferenciables de los contenidos creados por personas y esto ha generado preocupación en esferas más allá de la industria publicitaria.
Escuelas en Estados Unidos ya se encuentran en la búsqueda de métodos que eviten el uso de herramientas de Inteligencia Artificial para la elaboración de trabajos académicos, y OpenAI, la empresa responsable de ChatGPT presentó una herramienta que diferencia los contenidos escritos por inteligencia artificial, pero destacan que no es del todo fiable.
Por ello, como señala Chris Ross analista de Gartner, verificar esta información será un proceso mucho más complicado e importante conforme las herramientas de Inteligencia Artificial se hacen más grandes y más rápidas.