Desconfianza digital, una nueva destreza que es urgente aprenderTecnología 

Desconfianza digital, una nueva destreza que es urgente aprender


El experto en tecnología Julio López demostró estos días que ya se pueden hacer deep fakes con una computadora doméstica. En la foto, el equipo usado en el experimento. Se observa el motherboard con una gran placa de video y un disco duro a la derecha Crédito: JULIO LOPEZ
3 de agosto de 2019  • 00:21

Julio Ernesto López, amigo y experto en tecnología, mostró el otro día en televisión algo de verdad muy perturbador. Si a la mañana siguiente no se estaba hablando casi exclusivamente de eso es porque hay un par de conceptos que todavía no han calado lo suficiente en la sociedad, y no lo han hecho porque no hubo tiempo. Desde el inicio de la revolución digital han transcurrido poco más de 40 años, y solo en los últimos 14 podría decirse que estas tecnologías empezaron a tener un impacto sustancial sobre la civilización; digamos, desde que Internet superó los 1000 millones de usuarios, en 2005. A la vuelta del siglo, por mucho espíritu de modernidad que se respirara, la Red solo llegaba a menos del 10% de la población mundial. Hoy ese número está por encima del 50 por ciento.

¿Qué hizo Julio? Una deep fake. Le puso el rostro de la gobernadora de la provincia de Buenos Aires, María Eugenia Vidal, a una participante de America Got Talent. Así que pudimos ver a la gobernadora en el cuerpo de una niña cantando Nessum Dorma, de la ópera Turandot de Puccini. Algo de lo más inocente. Pero ese no es el punto.

Hay varios puntos, en realidad. El primero es que Julio logró ese efecto con una computadora de 1500 dólares. Pueden verla en la foto que ilustra esta nota y que gentilmente me permitió publicar aquí. El otro es el tiempo que le llevó el proceso: solo 36 horas. Y usó un software gratis.

El resultado, por supuesto, tenía algunas fallas. Pero en 1965, hacer algo parecido habría costado unos 1400 billones de dólares. Dicho más claro: USD 1400.000.000.000.000. Entiendo que es algo así como 70 veces el PBI de Estados Unidos. Un billete.

Ahora, con un poco de conocimiento y una PC para videojuegos empezamos a poder crear esta especie de demonio noticioso que son las deep fakes. En casa. Y en menos de dos días.

What You See Is (Not) What You Get

Una noticia falsa se cocina en cinco minutos. En rigor, se necesita algún conocimiento de ingeniería social, porque no cualquier cosa se viraliza con facilidad. Pero no requiere demasiado poder de cómputo. Explota vulnerabilidades mentales.

Una deep fake es mucho peor que eso. Es un video en el que mediante inteligencia artificial se le hace decir a alguien algo que nunca dijo o se lo coloca en una escena, actitud o actividad de la que nunca participó. Desde hace mucho sabemos que con el Photoshop se pueden trucar las imágenes. ¿Pero cómo no creer en un video? ¡A ver, eso no se puede trucar! ¿O sí?

Lo primero que aprenden mis alumnos en la universidad es que en la pantalla de un dispositivo digital (una computadora, un smartphone, la consola de videojuegos, da lo mismo) todo es una ilusión creada por una combinación de hardware y software. Dentro de la máquina, y por razones que explico minuciosamente en clase, solo hay señales eléctricas que representan números; unos y ceros. No hay tinta, papel, acetato, mármol, bronce, cartón, tela o papiro. En una computadora nada es real, en el sentido en el que naturalmente interpretamos las cosas del mundo como reales. Todo es abstracto. Todo, absolutamente. Este es uno de esos conceptos que todavía no han tenido tiempo de enraizar en la sociedad.

Para un aspirante a periodista (no hablemos de los que ya ejercen) incorporar este hecho es vital. Porque a fin de cuentas, como me enseñó uno de mis maestros hace muchos años, a nosotros nos pagan por dudar. Puesto que los dispositivos digitales se han vuelto omnipresentes, ahora hay que ejercer una duda casi cartesiana. Dudar de todo lo que aparezca en una pantalla, todo el tiempo.

Como demostró Julio en la tele esta semana, hemos llegado al punto en que podemos crear esas realidades espurias en casa. Con una PC. Y software gratis. Así que la destreza que aprenden mis alumnos (y cuesta, vaya si cuesta) hoy es crucial para toda la República, no solo para una redacción. Dicho simple: sí, es posible trucar un video. La mala noticia es que es muchísimo más difícil dudar de un video que de una foto, al menos a estas alturas.

Si se lo ponen a pensar, es un poco abrumador. ¿Llegará el punto en que no podremos ya creer en nada de lo que veamos?
Si, es uno de los riesgos .

Pero, si se lo ponen a pensar, la cuestión es que hoy ya no tratamos sino con dispositivos digitales. Dejemos de lado por un rato las maquinarias más avanzadas. Miren el termostato programable de la caldera. Su pantalla dice que hacen 16 grados en el ambiente y un ícono indica que los quemadores están encendidos. En un rato el 16 pasará a 17, luego a 18 y así. Los quemadores se detendrán cuando un algoritmo calcule que la inercia térmica de los radiadores alcanzará para llevar la temperatura al número establecido por el usuario. En la parte de abajo hay una serie de puntitos, uno por cada hora del día; indican a qué horas se encenderá la caldera. Hay una cadena de 24 puntitos por cada día de la semana.

Es verdad que, como nadie ha intervenido en ese termostato, basta poner la mano en el radiador para notar que, en efecto, está caliente; o, por el contrario, si la pantalla muestra que los quemadores están apagados, el metal se está enfriando. Pero lo que se ve en el display de este termostato es absolutamente ilusorio. No hay una columna de mercurio o de alcohol. Un sensor produce información numérica para alimentar la pequeña computadora, que a su vez transforma unos y ceros en valores que para nosotros tienen sentido: temperaturas, horas, días de la semana.

Me voy de casa a las 10 de la mañana. A esa hora la caldera se apaga, porque así la programé. Supongamos que confío en la pantalla. Y un buen día llega la factura del gas con una cifra sideral. Ese sería el efecto de una deep fake en el caso de una caldera. La pantalla me dice algo que no es, y eso tiene un efecto devastador sobre mis finanzas, sobre el mundo real.

Hay algo cierto. Al salir de casa oiría el escape de la caldera y me daría cuenta de que sigue encendida. ¿Lo hago? No, obviamente. Hago otra cosa. Apago el sistema por completo antes de irme, salvo casos excepcionales. No porque dude del fabricante. Ni porque puedan hackear el termostato, ya que no está online. Es simple disciplina. No me fío de las computadoras manejando cosas del mundo real y la única forma de adoptar una disciplina es practicándola.

Pero, independientemente de que la mayoría de las acciones del mundo real están mediadas por computadoras y rara vez fallan, el hecho es que podrían fallar. La desconfianza digital, la duda informática es una destreza que debemos ejercer en todo momento, para que cuando veamos un video que deja muy mal parado a un funcionario, especialmente durante una campaña presidencial, sepamos que podría ser verdad. O podría ser una deep fake, un truco de magia de la inteligencia artificial.

Res publica

Mucho menos, por lo tanto, me fío de las computadoras manejando la cosa pública. Res en latín significa “cosa”. De allí la palabra República. Significa “la cosa pública”. La información es uno de sus componentes sustanciales. A las noticias falsas y a la manipulación de la opinión pública segmentada gracias a los datos masivos obtenidos por estados y redes sociales, se suma ahora este nuevo y siniestro personaje: los videos falsos. Muy pronto estarán al alcance de cualquier militante inescrupuloso con 1500 dólares de presupuesto.

Las deep fake se pueden usar en un sentido todavía más retorcido. Esto es, si a alguno lo captan in fraganti en alguna actividad no del todo honrosa, lícita o, digamos, elegante, podría argumentar que ha sido víctima de una campaña de desprestigio y que ese video es falso. La buena noticia es que, como ocurre con las fotos, los videos intervenidos pueden detectarse analizando los unos y ceros que los componen. Por ahora.

ADEMÁS

Los comentarios publicados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de sanciones legales. Aquel usuario que incluya en sus mensajes algún comentario violatorio del reglamento será eliminado e inhabilitado para volver a comentar. Enviar un comentario implica la aceptación del Reglamento.

Para poder comentar tenés que ingresar con tu usuario de LA NACION.

Articulos relacionados

Leave a Comment