Paolo Benanti, TOR: El fraile, la computadora y la ética

Paolo Benanti, TOR: El fraile, la computadora y la ética

– Edición 496

Fotos: Zyan André

Cierto en su vocación franciscana y con los ojos puestos fijamente en el futuro, el religioso italiano combina el hábito con el estudio de la ética ante los avances de la inteligencia artificial y las nuevas tecnologías, materias en las que asesora al papa Francisco

A primera vista, Fray Paolo Benanti, TOR, es un franciscano como cualquier otro. Lo distingue entre la multitud el hábito café, característico de los seguidores de san Francisco de Asís y, como si de un personaje cinematográfico se tratara, encaja con el estereotipo de hombre de amable sonrisa, anteojos y escaso cabello.

La absoluta familiaridad que tiene con el reloj inteligente que lleva en la muñeca izquierda rompe con la imagen del heredero de una de las órdenes religiosas más antiguas. Y es que la típica vida franciscana de fray Paolo acaba con la primera oración del día, porque después toma camino para impartir cátedra sobre teología moral, bioética y neuroética en la Pontificia Universidad Gregoriana (PUG), o bien llega al Vaticano para desempeñar el rol que le encomendó el papa Francisco: ser su asesor de confianza en materia de inteligencia artificial (IA) y las intersecciones de ésta con la ética.

Fray Paolo es doctor en Teología Moral por la PUG, y su tesis El Cyborg. Cuerpo y corporeidad en la era de lo posthumano obtuvo el premio Belarmino Vedovato. Desde 2008 es también profesor en el Instituto Teológico de Asís y en el Pontificio Colegio Leoniano de Anagni. Es miembro de la Academia Pontificia para la Vida, con un mandato particular para ocuparse de las cuestiones relativas a la inteligencia artificial. Es autor de cerca de una veintena de libros en torno a los cruces entre ética y tecnología, así como de numerosos artículos en publicaciones especializadas y de divulgación. Recientemente fue invitado por el Departamento de Filosofía y Humanidades del ITESO para impartir una conferencia.

¿Dónde se cruzan los valores humanos y la ética con el desarrollo de la inteligencia artificial?

Hay que partir de que la IA sí es una forma de tecnología que, de alguna manera, puede suplantar el proceso de toma de decisiones humanas. Antes, solías diseñar la máquina para realizar una serie de tareas de manera repetitiva, una tras otra, y era la producción industrial. Ahora, simplemente le das las riendas a la máquina y ella encuentra la manera de saber qué hacer con ellas. Se trata de un proceso realmente vivo.

Tenemos un problema aquí: cuando hablamos de inteligencia artificial, hablamos de ella como algo humano, pero en realidad se refiere a algo meramente técnico y muy plural. Por ejemplo, una planta tiene una forma de inteligencia, porque se puede adaptar para sobrevivir a los cambios del entorno, que es más o menos lo mismo que hace un termostato para el control de temperatura en una habitación. Hay algo muy intrigante a la hora de hablar de inteligencia artificial; parece que realmente toca algo profundo dentro de nosotros, porque nos reconocíamos como la única especie sapiente, y ahora tenemos este tipo de máquinas sapientes, lo que estimula nuestra imaginación.

Justamente por esta autonomía que tiene la máquina hay que poner mucha atención, porque no todos los medios son adecuados para llegar a un fin. Queriendo ser provocador, una vez le pregunté a una inteligencia artificial en el ámbito médico cómo podríamos erradicar el cáncer de la faz de la Tierra. Y la máquina empezó a buscar la función matemática que respondiera a ese problema. Su primera respuesta fue cien por ciento eficiente: matar a todos los humanos. ¿Es ético? No. Justamente, ésa es la frontera donde la inteligencia artificial y la ética se tocan. Entran en juego la prudencia, la proporción y la justificación.

Otra cuestión que hay que considerar es que, cuando hablamos de inteligencia artificial, deberíamos usar el plural: inteligencias artificiales. Porque cada tipo de software es apenas un fragmento; no es una suplantación de la inteligencia humana, son fragmentos.

La IA toma la forma de pensar de las personas que la programaron. ¿Es correcto afirmar, entonces, que las decisiones de una inteligencia artificial son sesgadas?

Ésa fue la manera perniciosa de hacer software. Todo el software se basa en una estructura sumamente lógica: si pasa esto, entonces pasa aquello. El programador define las condiciones conforme a las cuales la máquina deberá operar y determinar los resultados. En el caso de una máquina expendedora, se condiciona la acción tras la inserción de una moneda, para que, luego de apretar cierto botón, se abra una compuerta y te dé el refresco de tu elección. Pero si insertas el dinero y no presionas el botón, debe existir otra opción para que puedas recuperar tu moneda. En ese sentido, cada posibilidad es una decisión ética hecha por el programador, por lo que la ética del programador es la ética de la máquina.

Las máquinas también pueden entrenarse con datos. Imagínalo como un perro: si forma parte de la policía antidrogas, entonces tendrá preferencia por oler cocaína en vez de pizza. Pero si vive conmigo en el monasterio, siempre preferirá la pizza. Son sesgos en forma de preferencias sistemáticas. Hay una relación entre los datos y el comportamiento de la máquina. Estas máquinas se parecen más a un animal que a un ser humano. Retomando el ejemplo del perro, si vas a una montaña a esquiar y te sorprende una avalancha, los perros del equipo de rescate te van a encontrar y les dirán a los rescatistas dónde cavar. Intenta preguntarle al perro el porqué de su decisión; no es explicable, pero funciona. Bienvenida al DeepMind.

Es un tipo de inteligencia, pero en un sentido mucho más amplio, una forma de adaptarse y encontrar una solución al problema. A grandes rasgos, nos habla de que la relación que debemos tener con la ia se parece mucho más a una relación que debemos tener con un animal que con otro ser humano.

Si lo que estoy diciendo te impresiona de alguna manera, es porque tu imaginación es más rápida que la tecnología y, probablemente, a través de la ciencia ficción, vamos planteando las expectativas de esta tecnología. Visto desde una perspectiva teológica, estamos entendiendo un sentido de santidad de nuestra especie, buscamos a alguien más como nosotros.

Y eso, ¿lo encontraremos en la IA?

Pues una vez lo encontramos ya, en Eva. Así que tenemos algunas buenas historias.

Como teólogos y filósofos, si necesitamos historia y no ciencia para hablar de algún tema es porque necesitamos un mito. La ciencia no es suficiente. Es una forma de decir que necesitamos alguna explicación como seres humanos. Si la explicación analítica no es suficiente, nos refugiamos en los mitos. Por ejemplo, en la película El hombre bicentenario, con Robin Williams, ¿qué le hacía falta a la máquina para ser humana? Morir. Bienvenidos al mito para tratar de explicar la diferencia entre un ser humano y algo que le es increíblemente similar.

Hoy, algunos de esos mitos han evolucionado a ser ciencia ficción para darnos respuestas sobre estas nuevas cosas o seres que creamos. Intentemos leer la ciencia ficción como un producto cultural que intenta responder a nuestras preguntas más profundas acerca de lo que estamos viviendo ahora, especialmente en esta era de transformación. Y hacer justo eso es muy cercano a la misión de una universidad.

La toma de decisiones éticas es clave en la interacción entre humanos y sistemas de IA. ¿Cómo podemos asegurarnos de que estas decisiones estén alineadas con las creencias culturales y morales de diferentes comunidades?

Detrás de esa pregunta hay otra mucho más grande y difícil de responder, así como contemporánea: ¿deberíamos obedecer a una ley moral? ¿Podría existir una ley moral que sea válida para todos? La buena noticia es que la ética no es sólo ley moral, sino que también es virtuosa. Un banco utiliza un algoritmo para determinar si eres un buen cliente y si es que vale la pena prestarte dinero. ¿Preferirías que ese algoritmo fuera justo o injusto?

Justo…

Ésta es la respuesta del cien por ciento. Esto es ética, todo mundo está de acuerdo en ello. Ahora bien, ¿qué es justo? Eso lo podemos discutir, pero la virtud está dada. De esta forma, la ética podría ser de alguna manera operativamente universal para aplicarse a la inteligencia artificial.

Si te digo que la máquina debe ser transparente, esto es un valor. Así que no te estoy diciendo que cada banco tiene que darte dinero porque lo estás pidiendo, pero sí que tienes derecho a saber por qué deciden prestarte o no. Es una barrera ética.

En épocas del Lejano Oeste, para prender una fogata, las personas debían usar una piedra para hacer una chispa y encender una llama. Las inteligencias artificiales son esa llama resultante de la colisión entre los seres humanos y las soluciones esperadas. Y lo que obtienes es apenas una llama, no toda la fogata.

¿Conseguiremos alguna vez el fuego completo?

Es una de las grandes preguntas. Para tenerlo, habría de existir una máquina que pueda ser consciente. Pero, ¿son la mente y la conciencia cosas computables? Si la respuesta es sí, podría ser. El problema es que la máquina de hoy, la máquina de Turing, no puede computar todo tipo de problemas, y la conciencia entra en la categoría de lo no computable. La versión corta de esta enorme respuesta es, entonces, no. Puede que las inteligencias artificiales sean más amplias, multimodales, que trabajen con texto e imágenes, pero no que engloben todo ni sean conscientes, no.

Sin embargo, ésta no es una respuesta definitiva, porque si mañana creamos una computadora que pueda computar ese tipo de problemas, entonces quién sabe. Al día de hoy, es imposible.

¿Qué temas te interesa investigar en torno a las inteligencias artificiales?

La naturaleza de la inteligencia artificial; el límite de las ciencias computacionales; la conexión entre datos, información y conocimiento. Y, por supuesto, la ética, la justicia social y cómo la IA, entendida como sistema sociotécnico, cambiará las relaciones humanas.

Hablando del impacto social, la IA está ya transformando industrias y sectores en todo el mundo. ¿Cómo podemos asegurar que esta transformación sea equitativa y no resulte en una mayor brecha entre quienes tienen acceso a esta tecnología y quienes no?

Hace 70 mil años, un miembro de nuestra especie tomó un garrote por primera vez. ¿Fue una herramienta para abrir más cocos o un arma para golpear cráneos? Ambas. Lo mismo pasa con la IA: puede ser la mejor solución para nivelar la justicia social o puede convertirse en la peor pesadilla y crear más inequidad. No tiene que ver con la tecnología per se, sino con cómo la utilizamos.

¿Y hasta ahora cómo crees que la estamos utilizando?

Pues tenemos como precedente la energía nuclear, que inicialmente tenía un propósito pacífico y benéfico, que además abonó al crecimiento del conocimiento. Pero la tecnología fue utilizada para hacer la bomba.

En el caso de la IA, resalta que por primera vez la tecnología está siendo desarrollada por empresas y no por las universidades y la academia, por lo que el objetivo es la ganancia. La tecnología en sí no la puedes detener, no puedes detener la ciencia. Así que creo que lo que toca es apostar por algún tipo de domesticación de la herramienta, y para ello servirá tener alianzas con las empresas en el ramo para lograr hacer de esta tecnología una herramienta democrática. Ya hay varios casos de tratados y marcos regulatorios en Europa, y Estados Unidos y Japón también están trabajando en propuestas de este tipo.

¿Qué nos toca hacer para evitar, o al menos disminuir, las posibilidades de que esta tecnología sea mal utilizada? 

Vigilar y poner barreras éticas. Es como cuando vas manejando en carretera y pierdes el control; las barreras físicas a los lados del camino impiden que el accidente escale y lastimes a otras personas, pero no te condiciona de ningún modo para elegir tu camino.

Sin un sentido básico de libertad, no podríamos hablar del desarrollo de esta tecnología. Pero sin estas barreras éticas, podríamos contar muchas víctimas en el trayecto de la innovación.

¿Cómo podemos asegurarnos de que la IA no retome sesgos que perpetúen injusticias como la discriminación por género o etnicidad? ¿Cómo hacer que todas las IA sean éticas y justas?

Lo primero es entender que tener sesgos no es lo mismo que tener prejuicios. Hablamos nuevamente de preferencias sistemáticas. Supongamos que yo tengo un sesgo: no matar. Si desarrollo una tecnología con este mismo filtro, lo importante será constatar que la preferencia sistemática que aplique sea la correcta. Entonces, le doy los valores éticos de la transparencia y la confianza, primero para que el usuario tenga el derecho de ver cuáles son las preferencias sistemáticas de esta tecnología, y después, para que el usuario pueda constatar que la máquina tomará decisiones basadas en un patrón estable y acorde a las proyecciones.

Estos dos valores incorporados en el desarrollo de las inteligencias artificiales pueden ayudarnos a hacer justo eso. Para describir estos procesos, creé el término algorética. La ética es el manual que rige a todas las personas del mundo, en el que hemos condensado la manera de tomar decisiones libres basadas en valores. Es tiempo ya de escribir un nuevo capítulo, y es uno que habrá de ser escrito por humanos, pero computado por una máquina a través de un algoritmo.

En la intersección entre inteligencia artificial y religión, ¿cómo ves el papel de la ética en la creación de sistemas de IA que respeten y, sobre todo, comprendan las creencias religiosas y culturales de la gente?

Lo primero es dar a toda la gente el derecho a acceder a ello, y por eso hemos desarrollado la plataforma Rome Call, en la que diferentes grupos y religiones pueden firmar e impulsar valores éticos en la producción de IA. Tenemos grupos cristianos, judíos, musulmanes y gigantes tecnológicos, como Microsoft e IBM, así como muchas universidades y otros grupos interesados. Creo que hacer esta plataforma de la sociedad civil es una de las respuestas.

¿Cómo te interesaste por estudiar la inteligencia artificial?

Antes de ser franciscano fui ingeniero. Ya como franciscano, estudié ética y filosofía. A la hora de hacer mi doctorado, elegí combinar mis saberes para hablar de la ingeniería desde una perspectiva ética. Y aquí estoy.

¿Te gusta tu trabajo?

No me esperaba esta explosión por aquí. Ahora estoy muy activo y me gusta lo que hago.

¿Cuáles son la mejor y la peor sorpresas que te has encontrado navegando por este tema?

La mejor, sin duda, es la buena voluntad de las grandes empresas tecnológicas. La peor, el poder del dinero y los intereses personales y geopolíticos que buscan dividirnos con las inteligencias artificiales como herramienta.

¿Qué debemos tener en cuenta en los próximos meses?

Hay un nuevo grupo en Naciones Unidas para discutir en torno a temas de inteligencia artificial y nuevas tecnologías. Espero ver iniciativas interesantes que conjuguen la IA con temas como la ecología y otras cosas por el estilo.

La algorética en acción

El “Llamado a la Ética de la IA” se firmó en Roma, en febrero de 2020, por la Academia Pontificia para la Vida, Microsoft, IBM, la Organización de las Naciones Unidas para la Alimentación y la Agricultura y el Ministerio de Innovación del gobierno italiano, con el objetivo de promover un enfoque ético de la inteligencia artificial. “La idea subyacente”, según se lee en la presentación de la plataforma romecall.org, “es promover un sentido de responsabilidad compartida entre organizaciones internacionales, gobiernos, instituciones y el sector privado en un esfuerzo por crear un futuro en el que la innovación digital y el progreso tecnológico otorguen a la humanidad su centralidad. En pos de una nueva algorética, los firmantes se comprometieron a solicitar el desarrollo de una inteligencia artificial que sirva a cada persona y a la humanidad en su conjunto; que respete la dignidad de las personas, para que cada individuo pueda beneficiarse de los avances de la tecnología; y que no tenga como único objetivo un mayor beneficio o la sustitución gradual de las personas en los lugares de trabajo”.

1 comentario

  1. Increíble descubrimiento para mi, el saber el nivel de involucramiento de mi Iglesia en la conjugación de la ética y la tecnología, porfa continúen posteando información de este proyectos , saludos

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

MAGIS, año LX, No. 498, marzo-abril 2024, es una publicación electrónica bimestral editada por el Instituto Tecnológico y de Estudios Superiores de Occidente, A.C. (ITESO), Periférico Sur Manuel Gómez Morín 8585, Col. ITESO, Tlaquepaque, Jal., México, C.P. 45604, tel. + 52 (33) 3669-3486. Editor responsable: Humberto Orozco Barba. Reserva de Derechos al Uso Exclusivo No. 04-2018-012310293000-203, ISSN: 2594-0872, ambos otorgados por el Instituto Nacional del Derecho de Autor. Responsable de la última actualización de este número: Edgar Velasco, 1 de marzo de 2024.

El contenido es responsabilidad de los autores. Se permite la reproducción previa autorización del Instituto Tecnológico y de Estudios Superiores de Occidente, A.C. (ITESO).

Notice: This translation is automatically generated by Google.