¿La libertad? Sofisma de la
gente sana.
E. M. Cioran, Silogismos
de la amargura.
¿Vas a leer o no esta columna?
Bien,
has tomado la decisión más inteligente:
…
decía que, según Daniel Dennett, los artefactos de AI (inteligencia artificial,
por sus siglas en inglés), al menos mientras no tengan conciencia de su propia
finitud, como nosotros, continuarán viajando en el asiento del copiloto: los
seres humanos seguiremos teniendo la última palabra. La moderadora entonces
tiró la pelota al más joven de los participantes en el panel “La evolución de
la conciencia” —Foro Económico Mundial; 25/I/2018—, el profesor Yuval Noah
Harari (Israel, 1976), quien en lugar de seguir incordiando a las máquinas y
sus algoritmos más bien la tomó en contra de nosotros, los homo sapiens, los
autodenominados hombres sabios… Afirmó que los humanos no somos muy buenos en
materia de tomar decisiones, especialmente en el campo de la ética. Y no es
porque carezcamos de valores, el problema está en una falta de comprensión
cabal de las cadenas de causas y efectos en las que se involucran nuestros
actos. “Si se trata de ser realmente responsables, no es suficiente tener
valores y asumir responsabilidades, es necesario entender la cadena de causas y
efectos”. Explicó que el sentido de la moral de los sapiens evolucionó cuando aún
éramos cazadores-recolectores. A lo largo de toda aquella prolongadísima etapa,
a cualquier persona le resultaba relativamente sencillo observar y entender las
cadenas de causas y efectos en el mundo que lo rodeaba —el mundo se reducía
casi sólo a eso, a lo que lo rodeaba—: cada quien podía saber de dónde provenía
su alimento, ya fuera si lo había cazado uno mismo o alguien más del grupo; de
dónde provenía las prendas con que se protegía, si uno mismo las había confeccionado
o bien su familia o sus compañeros… “En cambio ahora, incluso una pregunta de
lo más simple como ¿de dónde salió esto? —se cuestionó agarrándose las solapas
del saco—… No lo sé. Me tomaría por lo menos un año lograr averiguar quiénes
confeccionaron esto, en qué condiciones, si fue justo o no… El mundo se ha
complicado en muchos ámbitos, no en todos, pero en muchos es demasiado
complicado…” Refiriéndose a los instrumentos de acuerdo de los que hablaba
Dennett, al acotar que los sistemas AI no pueden firmar contratos porque
carecen de personalidad moral, Yuval Noah Harari apuntó: “Yo firmo contratos
casi diariamente… Descargo una nueva aplicación y de inmediato aparece un
contrato, páginas y páginas de paja legal, y yo, y supongo que casi toda la
demás gente, no leo una sola palabra de todo aquello… Simplemente doy clic en el
recuadro ‘He leído’ y listo… ¿Es esto responsable? No estoy seguro…” Conforme
al autor de De animales a dioses y Homo Deus, a través de la historia hemos
venido construyendo la idea de que los grandes sucesos de la vida consisten en
tomar decisiones. ¿Qué es la vida humana de acuerdo a esta visión? “El drama de
tomar decisiones… Y ello puede apreciarse en cualquier comedia hollywoodense,
en cualquier novela de Jane Austen… Cualquier tragedia de Shakespeare se reduce
al gran momento de la decisión crucial… ¿Me caso con míster Collins o con míster
Darcy? —Pride and Prejudice—… ¿Ser o
no ser? ¿Asesino o no al rey Duncan? —Macbeth—…
Y ocurre lo mismo en la religión… ¿Seré freído durante toda la eternidad en el
Infierno por tomar la decisión equivocada?… Sucede lo mismo con las ideologías
modernas… La democracia es votar por tal o cual candidato, tomar decisiones. En
la economía tenemos el poder del cliente, que siempre tiene la razón., es el de
la elección… Así que todo se reduce a ese momento de decisión…” Es por esto que
los artefactos AI pueden parecernos tan aterradores… Si en un momento dado transfiriéramos
la autoridad de tomar decisiones a las AI —como en el caso del hipotético
electrodo de la pregunta que la psiquiatra Jodi Halpern hace a sus alumnos
semestre a semestre—, las AI tomarían el control de los momentos que
consideramos más importantes de nuestras vidas; no solamente determinarían qué
ruta seguirías para ir al trabajo, también votarían por nosotros, harían la
lista del súper, determinarían con quién te conviene salir el sábado… ¿Con qué
nos quedaríamos los tontos seres humanos? La respuesta de Yuval Noah Harari resulta
provocativa: “Tal vez el error haya sido perfilar la vida como un drama de toma
de decisiones. Quizá no sea eso de lo que se trata la vida humana, quizá la
toma de decisiones haya sido un ingrediente necesario de nuestras vidas durante
miles de años, pero tal vez no sea necesariamente eso de lo que deba tratarse…”
No
es necesario tramar una historia de ciencia ficción demasiado elaborada para
proyectar el escenario al que alude Yuval Noah Harari… Basta imaginar un Waze de todo o de casi todo, digamos, un
AI ahí contigo, quizá anexado al iPhone o
a un reloj de pulsera… Ahora mismo, tengo ganas de dejar de escribir e ir a la
cocina a prepararme un café… Siri, voy a
prepararme un expreso… El mensaje vuela a los enormes servidores instalados
en Silicon Valley y en menos de un par de segundos los algoritmos procesan todos
los datos de que disponen sobre mi rutina diaria, la agenda para hoy y mis
distintos niveles bioquímicos, en tiempo real, y determina: Mejor termina tu columna; ya has consumido
demasiada cafeína el día de hoy… Por cierto, ya casi no hay café; lo voy a agregar
a la lista del súper.
No hay comentarios:
Publicar un comentario