In dreams begin responsibilities.
W.B. Yeats
Paul Daugherty,
Marc Carrel-Billiard y Michael Biltz trabajan en Accenture Technology Vision;
el primero encabeza la oficina de Tecnología e Innovación, el segundo dirige el
Laboratorio de Realidad Extendida y el tercero la división de Prospección
Tecnológica. Juntos escribieron el paper
en el que su compañía identifica las tecnologías emergentes “que tendrán un
impacto considerable en todas las industrias durante los próximos tres años, y
que ya es posible empezar a utilizar” —Technology
Vision 2018—. Mencionan cinco; aquí solamente me referiré a la primera, a
la cual llaman “el Ciudadano AI” (Inteligencia Artificial, por sus siglas en
inglés). Estos tecno-agoreros sostienen que los artilugios de AI se encuentran
ya en los inicios de su propia educación. Según ellos la tendencia es que la IA
adquiera pronto la mayoría de edad y su “ciudadanía”, para lo cual “es
necesario que supere muchos de los retos que las personas hacen frente al
crecer, desde explicar decisiones y acciones, hasta asumir responsabilidades
por sus propios actos”.
Ciertamente,
cada vez más y más decisiones importantes están siendo confiadas a los
algoritmos, a sabiendas o no del gran público e, incluso, de la gente sobre la
cual en un momento dado pueden tener una incidencia directa. Entre los ejemplos
típicos están los bancarios. Planea usted un negocio, hace cuentas, prospecta y
al fin se decide a ir al banco a solicitar un crédito hipotecario; llena todos
los formularios, entrega la documentación comprobatoria que le piden y se arma
de paciencia para esperar el fallo… Tres días después usted recibe un correo
electrónico…: que no, le niegan el crédito. ¡¿Pero por qué…, si cubro todos los
requisitos?! Acude al banco a pedir explicaciones y un funcionario le responde
justo lo que ya sabía:
— Lo
sentimos mucho, pero el sistema consideró que su perfil crediticio es
improcedente.
— Sí,
eso es exactamente lo que dice el correo que recibí…, ¿pero por qué?
— Bueno…, el sistema así lo determinó.
— Pero…
— El sistema, mi amigo…
— Bueno…, el sistema así lo determinó.
— Pero…
— El sistema, mi amigo…
En
fin, no usted no consigue sacar al hombre de ahí; de hecho, lo más que logra del
funcionario es un gesto que en inglés se denomina con una sola palabra, shrug, y que en español mentamos con una
descripción incompleta: un encogimiento de hombros —incompleta, porque no
menciona las palmas de las manos vueltas hacia arriba—… Lo cual es como decir
al menos dos cosas: 1) yo no tengo ni idea y 2) a mí qué.
Tome aire porque la vida cotidiana, nuestra vida cotidiana, se irá plagando cada vez más de cajas negras como esta —una entrada que uno más o menos sabe o al menos intuye de qué se trata, en este caso cantidades ingentes de datos, y una salida, resoluciones, pero dentro no sabemos exactamente cómo ocurre el procesamiento—. Enseguida, dos botons de muestra, dos escenarios que no pertenecen a la ciencia ficción sino a un futuro mediato sumamente probable:
Tome aire porque la vida cotidiana, nuestra vida cotidiana, se irá plagando cada vez más de cajas negras como esta —una entrada que uno más o menos sabe o al menos intuye de qué se trata, en este caso cantidades ingentes de datos, y una salida, resoluciones, pero dentro no sabemos exactamente cómo ocurre el procesamiento—. Enseguida, dos botons de muestra, dos escenarios que no pertenecen a la ciencia ficción sino a un futuro mediato sumamente probable:
a) El joven Daniel,
quien está a punto de concluir la preparatoria y sueña con dedicarse a componer
música sinfónica, recibe un sobre certificado en el cual le envían la
resolución final de la Gran Gestor Informático de las Instituciones de
Educación Superior (GIIES) de todo el país. Por medio de sus poderosos algoritmos
y echando mano de bases de datos no sólo relacionadas con todo el historial
académico del muchacho, sino también de sus redes sociales, el perfil
financiero de sus tutores, las necesidades del mercado laboral nacional y el
desempeño de la economía global, el GIIES ha decidido que Daniel no va a
estudiar Música, sino una carrera técnica en enfermería geriátrica en una
ciudad del norte del país en la que hasta ahora jamás ha puesto un pie. ¿Por
qué? Shrug.
b) Xóchitl
—actuaria, 33 años, soltera, deportista— lleva once años trabajando en un
órgano autónomo del Estado, y desde entonces tiene un seguro de gastos médicos
mayores. Jamás lo ha requerido, afortunadamente. Una tarde recibe un sobre de
la empresa aseguradora. Un fajo de papeleo legal, una carta y un cheque a su
nombre. La cantidad es fuerte y la carta dice, en pocas palabras, que lo
sienten pero que ya no pueden seguir asegurándola, que disuelven el contrato
unilateralmente por lo que optan por pagarle la multa… ¿Por qué? Xóchitl corre
a preguntar al departamento de recursos humanos. Shrug. Le sugieren llamar a la compañía de seguros. Después de
navegar más de diez minutos por incontables menús y submenús con el teclado del
teléfono, al fin le contesta un ser humano. Expone su situación y su duda: ¿por
qué? Nuestro sistema determinó que no le conviene a la empresa mantener su
contrato, señorita. ¿Por qué? Silencio… Shrug.
No parte de la paranoia la perspectiva anterior. La Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA, por sus siglas en inglés) de Estados Unidos dispuso hace apenas unos meses una bolsa de 6.5 millones de dólares para que un grupo de académicos de distintas universidades gringas desarrollen soluciones tecnológicas que permitan que las decisiones que tomen los artefactos AI no resulten para nosotros inexplicables. El reporte de Accenture Technology Vision establece que “resulta indispensable que la AI pueda ser capaz de explicar el proceso utilizado para llegar a una decisión. Dado que un sistema de AI está diseñado fundamentalmente para colaborar con las personas, las empresas deben construir y entrenar sus AI para proporcionar explicaciones claras de las acciones que deciden tomar, en un formato que la gente entienda”.
En dado caso, la pregunta no es tanto si los algoritmos son o no capaces de cometer errores —obviamente lo son—, sino si realmente nos gustaría conocer las razones por las que determinen tal o cual decisión.