"Se están soltando un montón de textos e imágenes creados con IA y que no se identifican como tales"
Hablamos, con Marta C. Dehesa, sobre Inteligencia Artificial, sus riesgos y la desinformación

Inteligencia artificial, como luchar contra la desinformacion.
12:31
Compartir
El código iframe se ha copiado en el portapapeles
"Empezamos a tener problemas para discernir qué es veraz y que no". Marta C Dehesa es contundente sobre los problemas de desinformación está generando la IA generativa. "Tenemos problemas a nivel individual cuando nos llega por ejemplo una información al teléfono pero también a nivel político y mundial hay problemas para discernir que noticias o amenazas no son ciertos", señala. En nuestro espacio semanal de la mano de C. Dehesa, abogada especializada en derecho de autoría e imagen gráfica como lenguaje, ahondamos en los riesgos de las de la Inteligencia Artificial.
La abogada considerada que es esencial "la información y la formación" sobre la IA y un "espacio de reflexión para ser más conscientes y poder decidir el uso que hacemos de esta tecnología". En este sentido, la experta cree que no se está dando ese análisis desde un punto de vista de impacto social. " Voy a poner un ejemplo de lo que está pasando con la IA: imaginate que no hay regulación sobre el uso de armas, nos están enseñando a usarlas, a disparar...Lo mismo está pasando con la inteligencia artificial: nos están enseñando a usarla antes de que haya una reflexión y un conocimiento concreto de que implica usar la IA". Además- añade-" no nos estamos preguntando a quien le estamos dando nuestros datos".
En este sentido, Marta C. Dehesa, critica las pocas y tardías regulaciones que se están llevando a cabo. "Se están soltando un montón de textos o imágenes creados con IA y no se identifican por ahora y no se está regulando nada en este sentido." Hay conatos de regulación pero no desde la que se debería de ir: una etiqueta que la identifica y que nos da la opciones a los ciudadanos para poder decidir".
Deepfakes
Una de las estafas que están proliferando son aquellas en las que se suplanta la voz de conocidos y familiares de personas a las que se piden algo. "Se puede dar, por ejemplo, una simulación de una voz de un familiar que te pide dinero", señala. C. Dehesa a punta a que "es muy difícil discernir si es la voz real o no". Preguntada por qué podemos hacer como ciudadanos, la abogada señala que lo primero es " se cautelosos y se conscientes de que eso está pasando". La experta recomienda también no responder al teléfono si alguien nos llama y no contesta: "si alguien llama y no contesta es mejor no responder para que no se grabe nuestro 'sí' y pueda ser usado de forma fraudulenta a la hora, por ejemplo de contratar algo". Hay familias, incluso, que están pactando una contraseña interna, una palabra, que usar en caso de pedir dinero a otro miembro de la familia.
Riesgos IA
Además de la desinformación nuestra experta de cabecera nos enumera semanalmente algunos de los riesgo de la IA generativa. "Se habla muy poco del importante impacto ambiental de la Inteligencia Artificial", apunta: "en Méjico, donde se han instalado muchos macrocentros de IA, más del 50 por ciento del agua pública se destina a mantenerlos".
Si tienes dudas o quieres compartirnos algo: wasap al 636.74.22.98