Compartir
En los últimos años, la lucha contra las noticias falsas, los bulos, las teorías de la conspiración y la desinformación en Internet se ha convertido en una necesidad. Hoy en día, con la inteligencia artificial generativa y las redes sociales, la propagación de estas fake news es más rápida que nunca. Y, aunque la IA puede ser un factor multiplicador de la desinformación, su buen uso también puede contribuir a frenarla.
Una de las presentaciones más recientes es debunkbot.com, que toma su nombre de “debunk”, “desenmascarar”, en inglés: un chatbot desarrollado con inteligencia artificial, cuya misión es desmentir las conocidas como “teorías de la conspiración” y convencer a los creyentes de su error. La herramienta ha sido desarrollada por un grupo de investigadores del MIT y de la Universidad de Cornell (EE. UU.). Básicamente, se trata de un robot capaz de mantener una conversación en lenguaje natural que verifica cualquier información que se le consulte recopilando datos procedentes de fuentes fiables.
En palabras de Thomas Costello, investigador del MIT y profesor de psicología en la Universidad Americana (Washington), “los modelos de IA tienen acceso a una tonelada de información sobre diversos temas, han sido entrenados y, por lo tanto, tienen la capacidad de contraargumentar con hechos teorías particulares que la gente cree”. Esto hace, en parte, que sea más fácil creer las explicaciones de un chat de IA que lo que diga cualquier persona, por informada que parezca, ya que los humanos podemos introducir un porcentaje de opinión en nuestros argumentos, aunque sea de manera inconsciente.
Para ponerlo a prueba, se llevó a cabo un estudio en el que el chatbot se enfrentó a 2.190 personas que creen en diferentes teorías de la conspiración. Estos le contaron al robot sus teorías y la IA fue refutando sus afirmaciones con contraargumentos basados en evidencias. Al mismo tiempo, a través de un verificador independiente, se comprobó que el 99,2% de las respuestas automáticas eran verdaderas, frente a solo el 0,8% que fueron engañosas. No se detectaron respuestas falsas o con sesgos significativos. Así, el equipo constató que, con la herramienta, redujeron las creencias erróneas de los participantes en un promedio del 20%.
La lucha contra la desinformación y las fake news en Internet requiere el compromiso y esfuerzo de todas las partes implicadas. Para ello, se han puesto en marcha iniciativas como la Coalición para la Procedencia y Autenticidad de Contenido (C2PA), a la que se han unido empresas como Google, Meta y OpenAI, que propone un certificado estándar para la identificación de contenido generado por IA. Las iniciativas de estas empresas varían desde la inclusión de mensajes ocultos en los metadatos de los archivos, píxeles generados artificialmente o el uso de marcas visibles en las imágenes.
Así, por ejemplo, Google ha desarrollado SynthID Text, una tecnología que permite identificar con marcas de agua “invisibles” los textos generados mediante algoritmos de IA y que podría desarrollar también para su uso en otros soportes, como el audio. También Meta está incluyendo en sus aplicaciones (Instagram, Facebook y Threads) avisos visuales que señalan el contenido que ha podido ser generado por IA.
© Imágenes: Shutterstock.
Mutua Madrileña no se hace responsable del producto objeto de la presente entrada ni de las consecuencias de cualquier acción realizada en base a la información proporcionada. Esta información, obtenida de fuentes públicas, no supone, en absoluto, una recomendación de compra ni garantiza la calidad, disponibilidad y/o accesibilidad de los productos indicados.
Blog ÓN
Comité de contenidos