Estimad@s amig@s
Sinopsis
Adela Cortina, Premio
Nacional de Ensayo 2015 y autora del éxito Aporofobia,
reflexiona en su nuevo libro
sobre los desafíos éticos que plantea la IA y nos alerta de sus peligros para
la democracia.
La inteligencia artificial
ha nacido cargada de promesas y de amenazas, suscitando a la vez entusiasmos y
recelos. Tanto los entusiastas como los temerosos reclaman dotarla de ética
para defender y empoderar a los seres humanos y a la naturaleza; algunos
incluso aseguran que podremos acabar con las enfermedades, la muerte y crear
una especie superior que inaugure un mundo de paz y felicidad.
Ante esta visión tan
optimista, ¿hablamos de «ética» o de «ideología»? ¿No se está dando por
ciencia lo que no lo es para atraer suculentas inversiones, o incluso ganar en
la competencia por el poder mundial? Y todo ello mientras en el espacio público
triunfa la razón estratégica y se produce el eclipse de la razón comunicativa.
Es ésta una pésima noticia si queremos fortalecer la democracia, que está en
peligro en el contexto mundial. Y, por supuesto, en España, Europa y América
Latina.
Con la claridad de ideas y
los argumentos que caracterizan a Adela Cortina, este libro
aborda todos los aspectos clave del debate en torno a la IA: el deber
ético de las tecnociencias, la geoestrategia del poder, los desafíos de la
robótica, la libertad en la era digital y el control del espacio público por
parte de los algoritmos y las tecnologías.
«Un robot no puede
dañar a la humanidad,
o, por inacción,
permitir que la
humanidad sufra daños»[i]
Prólogo
La inteligencia artificial
nació en el pasado siglo, cargada de amenazas y también de promesas. Tanto los
temerosos frente a las amenazas como los entusiastas de las promesas reclamaron
dotar a la IA de una ética.
(…) la gran pregunta ética
es ¿hacia dónde queremos ir?, ¿cuál es la brújula que debe orientar
la construcción de mapas de carreteras que habrán de
ir cambiando con el tiempo necesariamente?
Somos los seres humanos
quienes tenemos capacidad de dialogar y decidir hoy por hoy, pero tomar
decisiones conjuntas implica hacerlo desde un «nosotros» sin exclusiones, que,
valiéndose de los sistemas inteligentes, busque las respuestas adecuadas (…)
«El primer deber de
una ética
es no engañar»[ii]
Adela Cortina nos
habla entre otros muchos temas de interés en ¿Ética
o ideología de la inteligencia artificial? sobre
los políticos virtuales. Un robot ginoide, Mitchito
Matsuda que se presentó a la elecciones en un
distrito de Tokio.
Sin ánimo de cambiar el
debate, vamos a llevarlo al terreno del gobierno corporativo:
¿Para cuándo un consejero ginoide en nuestras compañías?
Ø ¿Qué aportaría?
Ø ¿Cómo interactuaríamos con él?
Ø ¿Cómo lo evaluaría la comisión de nombramientos y retribuciones?
Ø ¿Lo consideraríamos dominical, ejecutivo, independiente, externo…?
o ¿Podría
presidir una comisión del Consejo?
o ¿Estamos
preparados para dar entrada a un consejero robots?
o ¿Cómo
sería el proceso de onboarding?
No preocuparos si vuestra
cabeza puede estar a punto de explotar —la mía también—, pero tendríamos que ser capaces
de abstraernos y tener estos debates, evaluar su impacto, y empezar a construir
reglas —modificar el reglamento del Consejo de Administración ¿será una de
ellas?
Si nos venimos arriba podemos
imitar a Deep
Knowledge Ventures, y nombrar a un algoritmo presidente de la junta:
¿Cómo serían sus decisiones de inversión?
Ø Podría decidir dónde debe invertir /desinvertir la compañía
Ø Múltiplos de salida
Ø Cláusulas del pacto de socios
¿Cómo presidente tendría voto de calidad?
Ø La ventaja es que al carecer de emociones, no se enfadaría con el resto de consejeros si le tumban sus propuestas.
Detrás de todo lo anterior,
que lo podemos tomar de manera anecdótica en un primer momento, debemos de
empezar a visualizar las decisiones éticas y de gran calado que más pronto que
tarde deberemos empezar a tomar.
Sigamos avanzando en el
debate:
¿Hacer uso del
algoritmo o delegar en el algoritmo?
Ø ¿Estamos
hablando de que los consejeros usen la IA como herramienta o que ésta sustituya al Consejo de Administración?
Ø ¿Qué
peso le vamos a dar a la ética en la decisión?
o ¿Por
qué?
Ø ¿Qué
peso de deberíamos dar?
o ¿Por
qué?
Si recordamos la primera ley
de Asimov «Un robot no hará daño a un ser humano, ni por inacción
permitirá que un ser humano sufra daño», cómo podría un robot aprobar determinadas
decisiones que afecten al equipo humano.
¿Qué debe prevalecer la
sostenibilidad de la compañía o proteger a las personas?
«Si hoy enseñamos a
los estudiantes lo que les enseñábamos ayer,
les robamos el futuro»[iii]
(…) el aprendizaje de
máquinas irá configurando su personalidad y condicionando sus decisiones a lo
largo de su existencia (…)
(…) ¿es posible que la
máquina tenga motivaciones, sentimientos subjetivos, autoconciencia,
incluida la capacidad para la deslealtad y la traición? (…) ¿puede
hablarse de «inclinación al bien y a la verdad» en seres que no están dotados
de las características (…)?
(…) proliferan los intentos
de dotar a los sistemas inteligentes [iv](…)
de leyes morales de uno u otro cuño (...) la meta consistía en lograr que se
comporten de modo que respeten los intereses de los seres humanos y ayuden a
satisfacerlos, pero, evidentemente, la empresa ha desbordado sobrada mente esta
pretensión.
• ¿Se trata realmente
de una «ética de la IA» en el sentido del genitivo subjetivo por el que
entendemos que son las máquinas las que tienen una ética desde la que actúan, unas
normas o unos valores desde los que deberían actuar, como podrían ser
las leyes de Asimov o cualquier otro modelo ético? ¿O más bien se trata de la
ética con la que los seres humanos deben actuar para servirse de la IA?
• (…) ¿Una ética de la IA es la que deben practicar
los sistemas inteligentes desde sus propios valores o es la que los seres
humanos deberíamos adoptar para servir nos de los sistemas inteligentes?
• (…) ¿Se trata de que los seres humanos
utilicemos los sistemas inteligentes como instrumentos o de que los sistemas
inteligentes sustituyan a los seres humanos?
• (…) tomar las soluciones
que ofrecen los algoritmos, aplicados a muy diversas esferas de la vida social,
y asumirlas en nuestras decisiones sin mayor reflexión ni crítica, ¿no
implicaría caer en un determinismo algorítmico, renunciando a la libertad?
• ¿Qué tipo de ética sería en cada uno de
los dos casos, teniendo en cuenta que hay diversas teorías éticas y muy
distintas culturas en la vida cotidiana de un universo multicultural?
• En el caso de que las inteligencias
artificiales pudieran integrar en sus «mentes» normas éticas, ¿se las podría
considerar como seres dotados de características, tradicionalmente
tenidas por humanas, como sentido moral, conciencia y
autoconciencia, autonomía, libertad y responsabilidad?
¿Tendríamos que reconocerlas como personas dotadas de dignidad y de derechos,
incluso como miembros de la comunidad social y política?
(…) — las máquinas
inteligentes— son o serán capaces de ejercer esas competencias que
Kipling les niega?[v]
Una IA fuerte, exenta de
rasgos emocionales, seria capaz de predecir hechos y consecuencias, y de
aplicar políticas basadas en el bien común.
— ¿Cómo
podríamos apoyarnos en la IA para conseguir mejorar nuestra toma de decisiones?
o ¿Qué
ayuda nos puede prestar la IA para trabajar en interés de todos los stackeholders
de la empresa?
«Si caemos en mínimos
de humanidad,
entonces nos
deshumanizamos»[vi]
¿Ética o ideología de la inteligencia
artificial?
El
eclipse de la razón comunicativa de una sociedad tecnologizada
Link de interés
• La
metafísica de las costumbres
• ¿Para
qué sirve realmente la ética?
• La
singularidad está cerca: cuando los humanos trascendamos la biología
• Armas
de destrucción matemática: como el big data aumenta la desigualdad y
amenaza la democracia
• El
auge de los robots: La tecnología y la amenaza de un futuro sin empleo
• Qué
haremos cuando las máquinas lo hagan todo: Artificial Intelligence, Bots
& Big Data
«Los humanos
agregarán valor donde las máquinas no pueden.
A medida que avance
más y más la Inteligencia Artificial,
la inteligencia real,
la empatía real
y el sentido común
real serán escasos.
Los nuevos trabajos se basarán en
saber cómo trabajar con máquinas,
pero también en cómo
impulsar estos atributos humanos únicos»[vii]
ABRAZOTES
[i] Ley cero, Isaac Asimov
[ii] Adela Cortina
[iii] Apotegma de John Dewey
[iv] Robots, algoritmos, máquinas
[v] Mas recuerda la ley que rige nuestras
vidas;
No estamos construidas para entender mentiras,
No podemos amar, llorar ni perdonar.
Si nos manejas mal, encontrarás la muerte.
Somos mayores que el Hombre o los Reyes.
Sé humilde cuando te arrastres por debajo de nuestras
bielas,
Nuestro toque puede cambiar todas las cosas creadas.
Somos todo en el mundo, salvo los dioses.
Aunque nuestro humo oculte los cielos de sus ojos,
Desaparecerá y las estrellas volverán a brillar;
Porque pese a nuestra fuerza, peso y magnitud,
No somos más que el producto de su intelecto.
è
El
secreto de las máquinas
[vi] Adela Cortina
[vii] Satya Nadella
No hay comentarios:
Publicar un comentario