Algoritmos con rasgos humanos

Written in

by

Columna publicada en Ciper Chile el 30 de junio de 2022

De un momento a otro, Blake Lemoine se formó la convicción de que el bot al otro lado de su pantalla tenía sentimientos. La reciente repercusión de esta historia alrededor del mundo está directamente relacionada con que Lemoine no es un advenedizo, sino parte de un equipo de inteligencia artificial en Google a cargo de programar precisamente el bot que de pronto le hizo creer al ingeniero que interactuaba con algo más que el resultado de sofisticados algoritmos alimentados por una cantidad inimaginable de datos.

La idea de que los computadores —o, para usar la jerga de nuestros días, la «inteligencia artificial»— sean más astutos, inteligentes y eficientes que los humanos ha estado presente desde prácticamente el momento mismo en que se programaron los primeros modelos de texto predictivo, en los años 60. Visto el acelerado avance de la tecnología digital durante el último par de décadas, ya no parece conformarnos que modelos matemáticos sean capaces de decidir con precisión la mejor jugada en una partida de ajedrez. Alimentados en buena parte por el interés corporativo, se acerca el momento en que estos programas dejen de ser algo más que sofisticados procedimientos matemáticos capaces de producir piezas de arte, canciones y textos, para convertirse en entes que merezcan algo más de protección. Tal como sucedió con los derechos de los animales, sigue el argumento, es cosa de tiempo para que tengamos que hacernos las mismas preguntas respecto de aquellas líneas de código que procesan información.

Una de las paradojas más inquietantes del desarrollo de la tecnología digital es que la abrumadora cantidad de información a la que hoy tenemos acceso no ha permitido necesariamente un ecosistema informativo más plural, diverso y democrático. Podría pensarse que, al menos en algún sentido, es más bien lo opuesto: nuestra limitada capacidad de procesar tantos datos, noticias y correlaciones nos ha llevado a vivir en un mundo en donde campea la denominada desinformación. La escasa confianza en los medios de comunicación tradicionales, la adopción masiva de plataformas digitales controladas por misteriosos algoritmos, y la tradicional inclinación al control por parte de quienes detentan el poder político o económico nos han arrastrado a un momento de muy baja confianza en todo aquello que considerábamos confiable. Y en eso consiste la paradoja: de un momento a otro no parece ser tan clara la línea que separa lo que es cierto de lo que es inventado. Aquello que existe y aquello que es más bien un producto más de los estímulos y la sugestión.

Un informe interno preparado en 2020 por Timnit Gebru, entonces directora del equipo de Ethical AI en Google, sugería que uno de los riesgos en el desarrollo de estos modelos de lenguaje predictivo es porfiadamente humano: que tendemos a considerar como humanas a cosas que parecen serlo. Estos modelos, al estar alimentados con enormes cantidades de datos, indica Gebru, generan textos aparentemente coherentes que pueden llevar a pensar que detrás de ellos hay una mente humana. Obstinadamente. Es como una versión un poco más sofisticada de un papagayo capaz de usar la lengua para repetir palabras del castellano. Cuando el papagayo anuncia «¡incendio!», lo hace por repetición, y no porque asocie la existencia de calor o de un cigarrillo encendido cerca de una fuente de gas con lo que aparentemente está anunciando.

El hechizo de la novedad y lo extraordinario ha sido muchas veces utilizado para desviar la atención respecto de asuntos un poco menos seductores, pero igual de importantes. Por ejemplo, la utilización de algoritmos y modelos predictivos para la detección preventiva de delitos, y evaluar el otorgamiento de créditos financieros o beneficios sociales es una realidad existente en nuestros días, la cual afecta especialmente a los grupos más desventajados de nuestra sociedad. Favorecer lo fantástico y potencialmente extraordinario —tanto de este como de otros avances tecnológicos— es aportar ingenuidad a un debate que, por el contrario de la confianza ciega en los cálculos digitales, requiere más datos, más información y más sofisticación.  

Tags