Google podría tener la solución para detectar estos texots produciods por IA
. Google DeepMind ha desarrollado una herramienta que permite añadir marcas de agua a los textos creados por IA.
La era de la inteligencia artificial ha llegado, independientemente de nuestra preparación. El lanzamiento de ChatGPT marcó un hito en el sector tecnológico, que ha adoptado la IA generativa en diversas aplicaciones. Sin embargo, gran parte de este uso es malintencionado, y las propias empresas desarrolladoras parecen incapaces de frenar este problema.
Desde que ChatGPT se hizo accesible al público, se ha utilizado para generar noticias falsas, propaganda política, phishing y spam. Estos textos engañosos se han convertido en uno de los principales desafíos de la web moderna, y la situación se complica debido a que los textos generados son cada vez más parecidos a los escritos por humanos y contienen información más sofisticada.
Ahora, Google afirma tener una solución. A través de su división DeepMind, dedicada a la investigación en IA, se ha publicado un estudio en Nature que detalla cómo implementar una «marca de agua» para textos que podría ayudar a identificar creaciones falsas.
La idea de marcar textos no es nueva, pero hasta ahora no se había aplicado a los modelos de lenguaje como ChatGPT o Gemini. La falta de calidad y el coste computacional adicional habían sido obstáculos, pero los ingenieros de DeepMind creen haber encontrado una solución.
La herramienta se llama SynthID-Text y utiliza un nuevo algoritmo para aplicar marcas de agua a los textos generados por IA. En lugar de insertar contenido visible en el texto final, el algoritmo introduce un «sesgo» en las palabras elegidas por la IA. Esto asegura que el texto siga cumpliendo con las expectativas del usuario, sin afectar su calidad; sin embargo, se podrá detectar este sesgo con un programa especializado.
Al imponer el uso de ciertas palabras durante la generación del texto, DeepMind asegura que se puede crear una «firma» reconocible por un software analizador. Existen dos métodos para implementar esta firma: uno que distorsiona el texto (afectando su calidad) y otro que mantiene la calidad intacta.
Las pruebas realizadas con modelos de lenguaje disponibles públicamente demostraron que SynthID-Text mejora la detección de textos generados por IA en comparación con métodos previos. Además, al analizar 20 millones de respuestas del modelo Gemini de Google, se encontró que el segundo método no comprometía la calidad de las respuestas ofrecidas a los usuarios. Otro aspecto positivo es el bajo coste computacional de la herramienta, lo que facilita su implementación al eliminar una barrera significativa para las empresas.
No obstante, aún no hemos alcanzado un punto en el que todos los textos generados por IA puedan ser detectados. Los investigadores advierten que es posible eliminar estas marcas editando el contenido antes de su publicación. A pesar de ello, DeepMind sostiene que este estudio demuestra la viabilidad de una herramienta que añada marcas a los contenidos generados por IA, promoviendo así la transparencia y un uso responsable de esta tecnología.