La inteligencia comete
tonterías
que sólo la tontería puede
corregir.
Augusto Monterroso
… decía yo que las decisiones más
inteligentes no son necesariamente las que más nos gustan a los humanos. No hablo
de las malas decisiones que tomamos por brutos, es decir, a las sendas
equivocadas que tomamos porque nuestra escuálida inteligencia ante un
determinado problema no nos alcanza para poder elegir el mejor camino… No, no
me refiero a esas; más bien afirmo que es frecuente que las personas no opten
por lo más conveniente, a sabiendas… Sucede
que el poder determinar cuál es la alternativa más inteligente no garantiza que
una persona en su sano juicio efectivamente se decida por ella, y mucho menos
que actúe en consecuencia. Ejemplos hay para dar y regalar… Van dos…
Seguramente
no todos, quizá ni siquiera la mayoría, pero podemos tener plena certeza de que
muchísimos fumadores saben perfectamente que no es la mejor decisión gastar su
dinero envenenándose, y sin embargo lo siguen haciendo, ¿cierto?… El otro: ¿
qué pensar del adulto dueño de todas sus facultades que muy tranquilo va
manejando cuando recibe un whats
importantísimo, urgente como todos, el cual lee echando un ojo al gato y otro
al garabato, y luego decide, sabiendo que no es las más óptima de las elecciones,
contestar ipso facto “ja, ja, ja!”, y
por ello, justo cuando teclea el emoji
de carita-llorando-de-risa, se estampa contra la pipa de gas estacionario que
circula en frente…? Sostengo la aventurada hipótesis de que, en ambos casos, nadie
necesita instalarse un electrodo para despejar inteligentemente la incógnita a
la que se enfrenta.
Abundan
las circunstancias en las que a cualquier persona normal le gusta meter la pata.
Todos lo sabemos: no siempre actuamos lógicamente. El sapiens ha evolucionado
de tal forma que incluso puede caer en la situación de sentir un profundo desagrado
al decidirse efectivamente por lo más inteligente… La diferencia aquí respecto
a todas los sistemas de AI (Inteligencia Artificial, por sus siglas en inglés)
es tajante: ninguna computadora puede hoy sentir feo por tener que sacrificar
un caballo para preparar el jaque al rey contrario…, y probablemente jamás lo
logre. ¿Por qué? Claro: porque ninguna máquina puede hasta ahora pensar acerca
de sus propios.
La
psiquiatra Jodi Halpern —autora de
From Detached Concern to Empathy:
Humanizing Medical Practice, 2011— considera que
la ausencia absoluta de conciencia que hoy caracteriza a todo artilugio AI está
vinculada directamente con la cuestión de la finitud. En ello concuerda Daniel
Dennett: “Hoy los AI son distintos a nosotros en un sentido fundamental: los
puedes reiniciar, los puedes copiar, los puedes echar a dormir durante cien
años y después despertarlos; en cierto sentido son inmortales, así que si los
desarrolláramos de tal manera que fueran capaces de enfrentar su propia finitud
en la vida, de la forma en la que nosotros tenemos que hacerlo, abriríamos un
orden totalmente diferente. No creo que sea imposible conseguirlo, pero me
parece que nadie está trabajando ahora para ello.” Así las cosas, al menos por
ahora, tenemos en los AI sólo herramientas, instrumentos, entes irresponsables…
“Mientras no seamos capaces de crear sistemas de AI con los cuales podamos
sentirnos racionalmente confortables haciéndoles una promesa o firmando con
ellos un contrato, los humanos seguiremos teniendo la última palabra (the bus stops with us…)…”, y los AI no pasarán
de ser consejeros, súper inteligentes tal vez, pero sólo consejeros. “Así que
cuando actuemos de acuerdo a sus consejos, deberemos asumir la responsabilidad
de hacerlo. En tanto mantengamos la responsabilidad moral por las decisiones
que tomemos con ayuda de las AI, habrá que continuar en el asiento del
conductor”.
La
metáfora que emplea Dennett también puede entenderse en sentido literal, y
entonces ya no es necesario tirar la mirada al futuro sino escudriñar en el
presente… Vamos a celebrar el aniversario del restaurante de un amigo que está
en la Condesa, en donde resulta complicadísimo encontrar en dónde estacionarse…
Optamos entonces por pedir un Uber. El algoritmo se activa, estima el costo del
viaje, localiza y contacta al conductor más cercano y tres minutos después el
taxi ya está esperándonos…
—
¿Germán?
—
Sí. ¿Dámaso?
—
Sí, buenas noches
Abordamos.
—
¿Vamos a la calle de Alfonso Reyes, entre Cuautla y Cuernavaca?
—
Sí, amigo.
—
¿Seguimos la ruta que me marca la aplicación o ustedes me dicen por dónde?
—
Siga el camino que le indica…
¿Quién
toma la decisión? ¿Quién es el responsable? Los algoritmos de Waze entonces comienzan
a trabajar…: Tomemos vía Viaducto Río Becerra —instruye la aplicación con la
vocecita femenina que se ha vuelto familiar—… El auto avanza, se aproxima a la
esquina… Gira a la derecha en Indiana…,
y el conductor atiende la recomendación. ¿Recomendación? Recomendación, que
esta vez el señor Dámaso atiende…, a diferencia de lo que hizo semanas atrás un
colega suyo… El Waze había dado la misma indicación, tomar Indiana, pero él
siguió de frente…
—
Es lo mismo por acá, eh… Es que hace
rato pasé por Indiana y hay un bache enorme… –explicó. Avanzó hasta la lateral
de Río Becerra, en donde tuvimos que avanzar una tortuosa cuadra a vuelta de
rueda, por la congestión vehicular. Luego retomó la ruta inicialmente marcada
por la aplicación. La decisión fue la más inteligente… para el conductor… considerando
como criterio principal no el tiempo del recorrido sino la integridad de sus
llantas… Lo mejor sin destinatario,
me temo, no existe…