The mind is the effect, not the cause.
Daniel
C. Dennett
Hace unos días se llevó a cabo el Foro
Económico Mundial (WEF, por sus siglas en inglés). Indubitablemente me importa
un bledo la inmensa mayoría de los supuestos acuerdos que surgieron durante este
encuentro de gente monstruosamente adinerada —el execrable 1% de la población
de todo el orbe, conformado por los más poderosos, según su propia narrativa— y
los políticos que los representan. En cambio, encontré apasionante uno de los
paneles de discusión que, como parte del Foro, se organizaron allá en Davos,
Suiza…
El
25 de enero se llevó a cabo el diálogo “La evolución de la conciencia”. Amy
Bernstein, editora en jefe de la Harvard
Business Review, fue la encargada de templar el coloquio, en el que
participaron Jodi Halpern, profesora de Bioética y Humanidades Médicas en la
Universidad de Berkeley, California; Daniel C. Dennett, profesor de Filosofía
en la Universidad de Tufts, y Yuval Noah Harari, profesor de Historia en la
Universidad Hebrea de Jerusalén.
De entrada, la moderadora refirió que durante
las jornadas del WEF se había podido percibir una fuerte corriente de esperanza
desmedida en torno a las bondades de la Inteligencia Artificial (AI, por sus
siglas en inglés), a la que, en suma, se ve como una panacea… Después de
presentar a los panelistas, arrancó la sesión dando lectura a unas líneas que,
según dijo, extrajo de un artículo difundido por la revista Wired, y que le provocaron pesadillas: “Incontables
artilugios de AI están siendo fabricados y programados. No sólo serán cada vez
más inteligentes, cada vez serán mejores que nosotros y nunca serán como
nosotros”. Luego pidió comenzar por donde se debe, intentando establecer un piso
conceptual… A ver, ¿qué diablos es la conciencia? Dennett —autor entre otras
muchas otras obras de Consciousness
Explained (1995) y de From Bacteria
to Bach and Back: The Evolution of Minds (2017), su más reciente publicación—
tiró a la mesa una aguda síntesis: la conciencia es “la capacidad de final
abierto de representar tus propias representaciones, de reflexionar acerca de
tus propias reflexiones; y es lo que nos da el poder de imaginar una serie de
futuros posibles, a gran detalle, y pensar acerca de ellos”. Por su parte,
Yuval Noah Harari —autor del extraordinario libro Sapiens: A Brief History of Humankind (2011)— afirmó que hoy día
existe una confusión extendida: nos cuesta distinguir entre inteligencia y
conciencia, especialmente cuando se habla de AI. “Inteligencia —discernió— es
la habilidad de solucionar problemas”, mientras que “conciencia es la habilidad
de sentir cosas, de tener experiencias subjetivas, como amor, odio, miedo, en
fin”. El israelí explicó que “la confusión entre inteligencia y conciencia es
comprensible porque en el caso de los seres humanos siempre están juntas.
Nosotros solucionamos problemas a través de sentimientos, pero en las
computadoras pueden presentarse de manera totalmente separada, de tal modo que
podemos tener súper inteligencia sin absolutamente nada de conciencia”. Llegado
su turno, la psiquiatra Jodi Halpern apuntó que a la gente poco le preocupa la
distinción entre conciencia e inteligencia, y más bien se cuestiona por la
definición del yo. Restó entonces importancia a las diferencias semánticas que
pudieran tener entre los tres dialogantes, y prefirió plantear un dilema, el
cual resultó lo suficientemente interesante y provocativo para colocarse desde
ese momento en el centro del debate… Relató que ha impartido la cátedra de Ética
de la Ciencia a nivel posgrado desde hace más de veinte años, y que siempre,
desde que comenzó, les ha hecho la misma pregunta a todos sus alumnos: “Si tuvieras
la posibilidad de implantarte un pequeño electrodo en el cerebro que pudiera
tomar por ti las mejores decisiones existenciales —con quién casarte, tener o
no tener hijos, a qué dedicarte en la vida…—, y asegurar así resultados felices
y una mejor vida…, ¿te lo colocarías?” Contó que hacía apenas catorce días
había planteado el mismo cuestionamiento a un grupo de jóvenes estudiantes, y
el resultado fue el mismo desde que comenzó a realizar el sondeo: todos y cada
uno de sus alumnos han contestado que no. Sorprendentemente, enseguida, la
doctora Halpern dijo que después de haber investigado más y más acerca de lo
que es realmente la AI, creía que sus alumnos están equivocados. “Pienso que yo
sí optaría por la implantación del electrodo… Para tomar decisiones
inteligentes confío en la AI; para entenderme y transformarme y relacionarme,
no”.
No
voy a continuar, por ahora, con lo que respondieron los sapientísimos Dennett y
Harari. Quisiera anotar que mi respuesta al dilema no habría sido ni si ni no,
quiero decir, no en primera instancia. Hubiera pedido opinión al dichoso electrodo; me lo hubiera colocado
provisionalmente para preguntarle si me convendría su implantación definitiva,
sí o no y por qué… Y claro, aquí se halla todo el meollo del dilema, me parece:
el asunto no es tanto si la dichosa AI pueda determinar por nosotros la mejor
opción, la cuestión estriba en si le cederemos o no la voluntad para actuar
conforme a dicha decisión, y entonces la interrogante se multiplica al menos
por dos: la incógnita no sólo es si será posible crear algún día un artefacto
AI capaz de realizar dicha tarea —tomar las mejores decisiones existenciales
por nosotros—, sino además si el ser humano podría ser modificado de manera tal
que transfiera o entregue su voluntad a un ente autónomo, en este caso un
electrodo…, porque, claro, a los humanos, las decisiones más inteligentes no
son necesariamente las que más nos gustan.
No hay comentarios:
Publicar un comentario