"¿Íbamos a tener a policías sancionando a padres y madres por la calle?": la medida de Australia sobre las redes sociales muestra a España qué error evitar
Dos expertas en redes sociales e Inteligencia Artificial ponen el foco en la correcta regulación de estas herramientas
Madrid
Australia acaba de aprobar una ley que prohíbe a menores de 16 años acceder a redes sociales, una medida pionera que pretende salvaguardar la salud mental de los jóvenes y protegerlos del acoso en el entorno digital. Las plataformas que no cumplan con la normativa se enfrentan a multas de hasta 30 millones de dólares, una cifra que busca garantizar su cumplimiento y que pone el foco y la responsabilidad en las plataformas y menos en la responsabilidad de los usuarios.
Para Laura Cuesta, profesora de Cibercomunicación y Nuevos Medios en la Universidad Camilo José Cela, la medida está encaminada en la dirección correcta, que es similar al anteproyecto de ley que se ha presentado en España. "Hasta ahora, lo que debatíamos en España era una normativa para prohibir el acceso a los 'smartphones' a los menores, a los dispositivos. Aquí poníamos el foco en los menores, en la familia. Si se creara esa legislación, ¿íbamos a tener a policías sancionando a padres y madres por la calle? No era el camino", ha señalado la investigadora en La Ventana.
Para ella, las plataformas no están cumpliendo como deben. "Lo que se les pide es que pongan sistemas de verificación de edad para asegurarnos de que no entran menores a las redes. Al haber un incumplimiento, Australia ha dicho que por ley van a poner sanciones a las plataformas", ha explicado. Cuesta también ha insistido en que, más allá de la legislación, es clave que las familias tengan un rol activo en la educación digital de sus hijos. "Esto tiene que darse de forma gradual. Por eso estoy en contra de no dar dispositivos hasta los 16. Es una labor de alfabetización digital que debe comenzar desde edades tempranas con o sin tecnologías. Como padres no podemos esperar hasta los 16 para educar y formar en esas competencias técnicas y emocionales como la huella digital, por ejemplo", ha señalado.
La elección de los 16 años como edad mínima también responde a criterios de coherencia con la normativa de protección de datos. En España inicialmente se planteó fijar el límite en 14 años, pero se decidió elevarlo a 16 para garantizar que los adolescentes tengan capacidad suficiente para gestionar sus propios datos. "Creo que esta medida se va a aprobar por todos los grupos parlamentarios. Los expertos pensamos que 16 es una edad suficiente de madurez para que gestionen sus propios datos en las plataformas", ha explicado Cuesta.
Se cumplen dos años desde que ChatGPT irrumpió en nuestras vidas
El 30 de noviembre se cumplen dos años desde la llegada de ChatGPT, la herramienta de inteligencia artificial que marcó un antes y un después en el mundo tecnológico. En solo dos meses, alcanzó los 100 millones de usuarios, superando a aplicaciones virales como TikTok e Instagram, y colocó a la IA generativa en el centro de la conversación global.
Nuria Oliver, doctora en Inteligencia Artificial por el MIT y directora de la fundación Ellis de Alicante, se ha pasado por La Ventana para analizar estos dos años de ChatGPT, en los que considera que se ha democratizado el acceso a la inteligencia artificial. "Ahora la usamos de una manera más invisible. No podemos olvidar que no encontraríamos información en Internet si no fuera por la IA. ChatGPT ha hecho tangible estos procesos. Es fruto de décadas de investigación y ha conseguido una adopción masiva en todo el planeta", ha contado Oliver sobre los aspectos positivos que ha traído esta aplicación de OpenAI.
Frente a titulares alarmistas que piden frenar el desarrollo de la IA, Oliver opina que el debate debe centrarse en la regulación. Para ella, lo más importante es, de la misma manera que Australia ha regulado las redes sociales en menores, regular en la buena dirección para asegurar que ese uso no va a tener un impacto negativo en la sociedad, pues ese desarrollo va a contribuir a una mejora de la calidad de vida de todo el planeta y su impacto medioambiental.
La veracidad es el otro gran reto que presenta la herramienta, según Oliver. "No hay garantías de que lo que generan las IAs sea veraz. Puede parecer muy plausible, pero es importante conocer estas fallas. Hay que desarrollar el pensamiento crítico hacia el mundo de la IA. Con la desgracia de la DANA, los bulos y la desinformación han demostrado venir por cualquier canal, incluso por los medios de comunicación. Mensajes de WhatsApp, Telegram, audios manipulados, cualquier meme... Hay que preparar a las nuevas generaciones para no creerse todo lo que les llega. Hay que volver a esa capacidad de reflexionar, como hacíamos en filosofía", ha finalizado la investigadora del MIT.
Álvaro García-Dotor
Periodista cultural. Redactor en La Ventana.