sábado, 31 de marzo de 2018

Citizen AI


In dreams begin responsibilities.
W.B. Yeats



Paul Daugherty, Marc Carrel-Billiard y Michael Biltz trabajan en Accenture Technology Vision; el primero encabeza la oficina de Tecnología e Innovación, el segundo dirige el Laboratorio de Realidad Extendida y el tercero la división de Prospección Tecnológica. Juntos escribieron el paper en el que su compañía identifica las tecnologías emergentes “que tendrán un impacto considerable en todas las industrias durante los próximos tres años, y que ya es posible empezar a utilizar” —Technology Vision 2018—. Mencionan cinco; aquí solamente me referiré a la primera, a la cual llaman “el Ciudadano AI” (Inteligencia Artificial, por sus siglas en inglés). Estos tecno-agoreros sostienen que los artilugios de AI se encuentran ya en los inicios de su propia educación. Según ellos la tendencia es que la IA adquiera pronto la mayoría de edad y su “ciudadanía”, para lo cual “es necesario que supere muchos de los retos que las personas hacen frente al crecer, desde explicar decisiones y acciones, hasta asumir responsabilidades por sus propios actos”.

Ciertamente, cada vez más y más decisiones importantes están siendo confiadas a los algoritmos, a sabiendas o no del gran público e, incluso, de la gente sobre la cual en un momento dado pueden tener una incidencia directa. Entre los ejemplos típicos están los bancarios. Planea usted un negocio, hace cuentas, prospecta y al fin se decide a ir al banco a solicitar un crédito hipotecario; llena todos los formularios, entrega la documentación comprobatoria que le piden y se arma de paciencia para esperar el fallo… Tres días después usted recibe un correo electrónico…: que no, le niegan el crédito. ¡¿Pero por qué…, si cubro todos los requisitos?! Acude al banco a pedir explicaciones y un funcionario le responde justo lo que ya sabía:

— Lo sentimos mucho, pero el sistema consideró que su perfil crediticio es improcedente.

— Sí, eso es exactamente lo que dice el correo que recibí…, ¿pero por qué?
— Bueno…, el sistema así lo determinó.
— Pero…
— El sistema, mi amigo…
 

En fin, no usted no consigue sacar al hombre de ahí; de hecho, lo más que logra del funcionario es un gesto que en inglés se denomina con una sola palabra, shrug, y que en español mentamos con una descripción incompleta: un encogimiento de hombros —incompleta, porque no menciona las palmas de las manos vueltas hacia arriba—… Lo cual es como decir al menos dos cosas: 1) yo no tengo ni idea y 2) a mí qué.
Tome aire porque la vida cotidiana, nuestra vida cotidiana, se irá plagando cada vez más de cajas negras como esta —una entrada que uno más o menos sabe o al menos intuye de qué se trata, en este caso cantidades ingentes de datos, y una salida, resoluciones, pero dentro no sabemos exactamente cómo ocurre el procesamiento—. Enseguida, dos botons de muestra, dos escenarios que no pertenecen a la ciencia ficción sino a un futuro mediato sumamente probable:
 
a)    El joven Daniel, quien está a punto de concluir la preparatoria y sueña con dedicarse a componer música sinfónica, recibe un sobre certificado en el cual le envían la resolución final de la Gran Gestor Informático de las Instituciones de Educación Superior (GIIES) de todo el país. Por medio de sus poderosos algoritmos y echando mano de bases de datos no sólo relacionadas con todo el historial académico del muchacho, sino también de sus redes sociales, el perfil financiero de sus tutores, las necesidades del mercado laboral nacional y el desempeño de la economía global, el GIIES ha decidido que Daniel no va a estudiar Música, sino una carrera técnica en enfermería geriátrica en una ciudad del norte del país en la que hasta ahora jamás ha puesto un pie. ¿Por qué? Shrug.
b)   Xóchitl —actuaria, 33 años, soltera, deportista— lleva once años trabajando en un órgano autónomo del Estado, y desde entonces tiene un seguro de gastos médicos mayores. Jamás lo ha requerido, afortunadamente. Una tarde recibe un sobre de la empresa aseguradora. Un fajo de papeleo legal, una carta y un cheque a su nombre. La cantidad es fuerte y la carta dice, en pocas palabras, que lo sienten pero que ya no pueden seguir asegurándola, que disuelven el contrato unilateralmente por lo que optan por pagarle la multa… ¿Por qué? Xóchitl corre a preguntar al departamento de recursos humanos. Shrug. Le sugieren llamar a la compañía de seguros. Después de navegar más de diez minutos por incontables menús y submenús con el teclado del teléfono, al fin le contesta un ser humano. Expone su situación y su duda: ¿por qué? Nuestro sistema determinó que no le conviene a la empresa mantener su contrato, señorita. ¿Por qué? Silencio… Shrug.

No parte de la paranoia la perspectiva anterior. La Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA, por sus siglas en inglés) de Estados Unidos dispuso hace apenas unos meses una bolsa de 6.5 millones de dólares para que un grupo de académicos de distintas universidades gringas desarrollen soluciones tecnológicas que permitan que las decisiones que tomen los artefactos AI no resulten para nosotros inexplicables. El reporte de Accenture Technology Vision establece que “resulta indispensable que la AI pueda ser capaz de explicar el proceso utilizado para llegar a una decisión. Dado que un sistema de AI está diseñado fundamentalmente para colaborar con las personas, las empresas deben construir y entrenar sus AI para proporcionar explicaciones claras de las acciones que deciden tomar, en un formato que la gente entienda”.
En dado caso, la pregunta no es tanto si los algoritmos son o no capaces de cometer errores —obviamente lo son—, sino si realmente nos gustaría conocer las razones por las que determinen tal o cual decisión.

No hay comentarios:

Publicar un comentario