Aviso: si la IA de nuestra red funciona mal, tú eres el responsable
Las redes sociales incluyen ya en sus términos de servicio una referencia a sus herramientas de inteligencia artificial generativa propias. Admiten que pueden cometer fallos, pero exigen que el usuario asuma la responsabilidad de lo generado. “La clave está en la falta de cultura y educación actual sobre la IA generativa, sobre cómo obtenemos información de ella, cómo se debe contrastar y cómo debemos aproximarnos a ella”, señala Javier Borràs, investigador del CIDOB especializado en la intersección entre tecnología y democracia. “Estos sistemas, por su propia naturaleza, no te ofrecen respuestas verdaderas o falsas. Te ofrecen un resultado basado en una predicción estadística extraída de todos los datos que tienen. No distinguen entre lo que es verdadero y falso, te ofrecen una probabilidad. Este conocimiento no está extendido entre los usuarios”. El dilema ético viene al poner a disposición del público masivo de las redes sociales herramientas de IA generativa fácilmente accesibles. ¿No debería hacerse? Borràs apunta que los usuarios terminarían por utilizar otros sistemas de terceros. “Quizá lo que deberían hacer [las redes sociales] es que esta información, de que los resultados pueden ser inexactos y que se deben contrastar, esté clara cuando obtienes un resultado. El usuario debería tener todo el rato el recordatorio de que esto puede suceder, que aparezca cuando obtiene una respuesta”, plantea el investigador del CIDOB.