¿Cómo saber si un texto es generado con una IA o escrito por personas?
OpenAI está trabajando en marcas de agua para identificar si un texto es generado con Inteligencia Artificial o escrito por personas
OpenAI a través de la responsable de ChatGPT, informó que trabaja en una tecnología que introduzca una especie de marcas de agua en los textos que generen sus modelos para identificar si un texto es generado con Inteligencia Artificial (IA) o escrito por personas
OpenAI es una empresa especializada en sistemas de inteligencia artificial capaces de generar imágenes con solo recibir una somera descripción, o capaces de generar textos. Es la responsable de la IA GPT-3, que fue capaz de escribir un artículo académico sobre sí misma o incluso publicar un artículo en Business Insider España, y de ChatGPT, que lleva siendo viral en redes varios días.
ChatGPT emplea toda la tecnología desarrollada en sus modelos anteriores —GPT-2, GPT-3— para ofrecer a los usuarios la posibilidad de interactuar con esta IA generadora de texto, invitándola a disertar sobre cualquier tema. Es gratis, aunque a cambio, los usuarios que están probando la herramienta la están entrenando y mejorando sin saberlo.
Los resultados que ChatGPT está lanzando desde que se viralizarán hace unos días están sorprendiendo a muchos, hasta el punto de que la pregunta sobre si un texto lo ha generado una inteligencia artificial o una persona es más que legítima. Eso implica todo un desafío ético, no solo tecnológico.
Por eso, un investigador invitado a OpenAI, Scott Aaronson, ha reconocido en una conferencia en la Universidad de Austin —Texas, EEUU— que esta compañía ya está trabajando en una especie de marcas de agua que se incrustarán en los textos e imágenes que generen sus modelos de IA. Aunque serán imperceptibles al ojo humano, sí serán reconocibles por otras herramientas informáticas.
Soumith Chintala
El propósito de esas marcas de agua es evitar que nadie pueda dudar sobre si detrás de un texto la autoría es humana o es de una máquina. "Eso ayudará a evitar el plagio académico, por supuesto, pero también a evitar la generación masiva de propaganda como comentarios spameando cualquier blog apoyando la invasión rusa de Ucrania".
"O incluso suplantar el estilo de escritura de una persona para incriminarla".
Las palabras de Aaronson, que ha recogido TechCrunch, evidencian cómo en el mundo que desarrolla estas inteligencias artificiales son cada vez más del valle inquietante al que se asoma esta tecnología. Y lo que es peor, tal y como recoge el mismo medio: expertos del sector dudan de que una tecnología que implante estas marcas de agua acabe siendo efectiva.
Las marcas de agua, por ejemplo, podrían servir para detectar si un texto ha sido generado por el ChatGPT de OpenAI. Pero en un mundo en el que cada usuario podrá tener su propio generador de texto, todos serán libres de hacerlo compatible con la herramienta, y por lo tanto, de decidir si su generador no puede ser autenticado de manera efectiva.