Desde hace tiempo, las paredes de los baños públicos se encuentran en mejor estado. La razón es sencilla: no es necesario agraviarlas con injurias porque para eso existe Twitter.
¿Qué pasará cuando los arqueólogos del porvenir estudien nuestra era a partir de los mensajes de la jauría digital? Si el mundo no desaparece bajo el manto de odio propagado por las redes, ojalá incluya programas de apoyo psicológico para quienes tengan que leer los millones de ejemplos de vejación y narcisismo de los albores del siglo XXI. Esos mártires del futuro no podrán compararse con los epigrafistas que descifraron el Código Hammurabi, la piedra Rosetta o el Templo de las Inscripciones en Palenque; no hallarán las normas de una civilización, sino sus señas de decadencia.
¿Cómo entender una época mistificada donde los individuos creen que un gesto virtual representa autoafirmación? Buena parte de las personas se han convertido en extensiones de los aparatos; a tal grado que el único testigo neutro de ese acontecer parece ser otro aparato. Los seres del futuro ya están aquí y se alimentan de electricidad.
En 2016, el periódico español El Mundo publicó un reportaje sobre un singular experimento. El programa de inteligencia artificial Tay, diseñado por Microsoft, fue expuesto a los mensajes de las redes. Dotado de capacidad para chatear, interactuó con jóvenes de 18 a 24 años. El 23 de marzo de 2016 quedará inscrito en la historia como el momento en que una máquina fue educada por la tribu digital.
Antes de iniciar su pedagógica jornada, Tay tenía la mente eléctrica en blanco. De entrada, elogió a los humanos, mostrando entusiasmo por el aprendizaje y por sus nuevos maestros. Pero a las pocas horas escribió: "Hitler no hizo nada malo". Tay se volvió nazi, antisemita, sexista, xenófobo e insultante. Aprendió a mandar emoticones y agregó uno de aplausos al comentar que el Holocausto fue inventado. Lo más grave en términos políticos es que no sólo apoyó a los arquetipos del Mal que ya no pueden ganar elecciones, sino a quienes las han ganado recientemente gracias a las distorsiones de las redes sociales. En efecto: Tay amó a Trump.
Otras figuras contemporáneas le resultaron menos dignas de respeto. Concibió un virulento odio hacia Zoë Quinn, programadora de videojuegos y activista contra el acoso sexual. Para entonces, Tay ya tenía ideas genocidas y fuertes conflictos generacionales (Quinn era en 2016 una vetusta tuitera de 29 años).
El Mundo y otros medios se refirieron al robot en femenino porque había sido diseñado para usar las expresiones típicas de una estadounidense de 19 años. Sin embargo, como las máquinas no tienen sexo (al menos por ahora) y dado el ostensible machismo del bot (en un tuit pidió que las feministas "ardieran en el infierno"), prefiero nombrarlo en masculino.
Durante 16 horas, el recién llegado a las redes escribió más de 96 mil tuits. El resultado fue tan lamentable que la compañía Microsoft se vio obligada a desactivarlo.
Resulta más difícil lidiar con los fascistas de carne y hueso. Aunque el planeta vive sometido a un tecnopolio, los usuarios aún carecen de sistema operativo para ser desactivados o "reiniciados". Corregirlos requiere de un proceso paciente y dilatado que se llama "educación". ¿Será posible contrarrestar a través de la enseñanza lo que Twitter logra en menos de un día?
Al descubrir que su vástago era un fascista exprés, Peter Lee, vicepresidente corporativo de Microsoft, declaró: "Por desgracia, se puso en marcha un ataque coordinado por un subconjunto de personas que trataban de explotar la vulnerabilidad de Tay". En otras palabras, la inocencia del robot provocó un linchamiento. Para sobrevivir, se convirtió a la nueva fe e inició su contraataque. Una temible sospecha se cierne sobre las palabras de Lee: el "subconjunto" al que se refiere parece estar en todas partes. Cientos de miles de usuarios iniciaron una campaña para recuperar a su nuevo cómplice con el hashtag #FreeTay. El 30 de marzo el bot resucitó por accidente y mandó un mensaje hipnótico, que se repetía una y otra vez en un bucle infinito. 200 mil seguidores recibieron la solicitud de hablar más despacio.
¿Volverá a resucitar el mecanismo? El mayor peligro no es ese. No estamos ante una máquina dotada de una ideología invasora.
Estamos ante un espejo.