Alondra Haydeé Figueroa Pérez
Preparatoria 18
Resumen: La tecnología ha ido progresando y avanzando a pasos agigantados infiltrándose en la vida de los seres humanos. Una de las más recientes es la Inteligencia Artificial. En el presente ensayo se buscará analizar y dar respuesta a la posibilidad de que las Inteligencias Artificiales (IAS) tomen decisiones morales y puedan ser regidas a través de las normas de la Ética. Se parte de la definición de moral y ética, resaltando la importancia de la capacidad humana para discernir entre lo correcto e incorrecto, así como la relevancia de la voluntad y la conciencia en nuestro accionar. Así mismo, se pretende dejar en claro las diferencias entre la IA y el ser humano, donde con la ayuda de las ideas de los filósofos Aristóteles y Fernando Savater, me propongo fundamentar mi postura frente a la hipótesis mencionada con antelación: la Inteligencia Artificial no puede tomar decisiones morales.
Palabras clave: Moral, ética, individualidad, humanidad, conciencia, emociones, sentimientos, inteligencia artificial.
En los últimos años, la tecnología ha ido progresando y avanzando a pasos agigantados. Decenas de productos electrónicos han sido creados tras un profundo análisis, cuyo objetivo común en la mayoría de los casos, ha sido el de satisfacer las necesidades individuales de los usuarios pertenecientes a la sociedad moderna.
Una de las más recientes e innovadoras invenciones ha sido la Inteligencia Artificial, también conocida como IA. Entendemos por “IA”, como aquellas herramientas tecnológicas que abarcan las Tecnologías de la Información y la Comunicación (TIC), las Tecnologías del Aprendizaje y el Conocimiento (TAC), y las Tecnologías del Empoderamiento y la Participación (TEP); que responden a órdenes, y que pretenden emular ciertos comportamientos humanos, intentando compensar o facilitar algunas de nuestras tareas a través de programas computarizados. Por este motivo, a dichos instrumentos técnicos se les han atribuido cualidades semejantes a lo que nosotros podríamos considerar “inteligencia”.
Si bien, es cierto que la tecnología en sí misma ha traído múltiples beneficios consigo, es inevitable que nos cuestionemos sobre si estas “máquinas inteligentes” pudieran llegar a tomar decisiones más complejas, sobre todo en el ámbito ético y moral, dadas sus capacidades.
En el presente ensayo pretendo, tomando como base algunas de las ideas de filósofos como Aristóteles y Fernando Savater, desarrollar un análisis sobre los siguientes cuestionamientos: ¿Es posible que la IA tome decisiones morales? ¿La inteligencia artificial es capaz de regirse a través de la ética o es esta una disciplina exclusivamente humana?
Para empezar, tendríamos que tener una idea clara sobre lo que es la moral y la ética para establecer si realmente es posible que una inteligencia virtual sea partícipe en la toma de decisiones en contextos más individuales, teniendo en consideración diversos factores como las emociones, las vivencias, la cultura, entre otros aspectos de gran valor para la perspectiva humana.
De acuerdo a la Real Academia Española (RAE), el concepto de la Moral se refiere a la capacidad que tiene el ser humano de discernir sobre lo que es correcto o incorrecto a la hora de decidir sus acciones; mientras que, por otro lado, la Ética consiste en la serie de normas que regulan la moral. La Ética y la Moral son conceptos de vital importancia principalmente cuando la ejecución de una acción puede generar un impacto de manera personal o grupal, por ejemplo, cuando una persona le da una moneda a un individuo en situación de calle, la acción la realiza de manera consciente y a voluntad propia, es decir, lo hace a sabiendas de que puede generar un bien en el otro sin que su decisión haya sido impuesta.
Tomando en cuenta el ejemplo anterior, podemos inferir que el ser humano toma decisiones morales con base a ciertos aspectos importantes como lo son: la voluntad del individuo, la consciencia, los efectos prácticos que puede producir en las personas y si su actuar es guiado por principios morales, cualidades con las que no dispone la IA ¿o si lo hace?
Buscando entonces, encaminarnos a las respuestas de las interrogantes mencionadas al inicio, propongo recordemos una frase del pensador Aristóteles compartida en su libro La Gran Moral, citado por Azcárate (s,f): “…es preciso tener en cuenta que todo conocimiento y toda facultad ejercida por el hombre tienen un fin, y que este fin es el bien” (Aristóteles, volumen 2, 1873).
En el caso de la persona en situación de calle, el “bien” era ayudar al prójimo, sin embargo, esta frase no puede aplicarse en todos los escenarios, ya que no siempre se busca con las acciones generar el bien, o en todo caso, el bien común, pues volviendo al tema de la inteligencia artificial, ¿qué nos asegura que el programador de alguna aplicación o IA tenga una ideología distinta a la nuestra sobre lo que es correcto o incorrecto y use dichos medios con fines malévolos? Nada lo hace, el ser humano no es perfecto. Cada persona, según su contexto y objetivo a alcanzar, es libre hasta cierto punto, tal y como nos lo menciona el profesor y filósofo Fernando Savater en su libro Ética para Amador: “Podemos decir «sí» o «no», quiero o no quiero” “Cuando te hablo de libertad es a esto a lo que me refiero” (Savater, s,f).
Es entonces que, tomando en cuenta la premisa que nos comparte Fernando Savater, nuestra libertad, a la hora de tomar decisiones, se encuentra determinada hasta cierto punto en nuestro “querer”. Sin embargo, una IA carece de este sentimiento u objetivo, no hay un bien que quiera alcanzar, como tampoco es consciente ni tiene voluntad propia, debido a que su programación sólo la limita a ejecutar la orden establecida por su operador y los pensamientos morales que este pueda poseer.
Otras cuestiones muy importantes que deben tomarse en cuenta son la empatía y las emociones necesarias para los humanos a la hora de tomar decisiones morales, cualidades con las que la inteligencia artificial no cuenta, ya que el razonamiento o discriminación entre lo que está bien y está mal, no es realizado de manera emocional ni consciente, y cuando digo “consciente”, hablo de esa capacidad humana de razonar, que, según Aristóteles, adquirimos de manera innata, y que por lo tanto, siendo esta exclusiva de nosotros, individuos pensantes, un instrumento que ha sido programado para ejecutar una tarea y acatar órdenes sin objetar ni empatizar, no sería apto para tomar decisiones de esta índole.
Otro argumento de Aristóteles, citado por Patricio de Azcárate, que apoya el hecho de que la inteligencia artificial no puede tomar decisiones morales es el siguiente: “…nada de esto sucede respecto a las virtudes, porque podrá uno saber lo que es la justicia, pero no por eso se hace justo en el acto”. Entendiendo a través de esta cita que, a pesar de que la máquina haya sido elaborada por un sujeto consciente, y aunque tenga instalado por defecto el concepto de moral, la IA no puede hacer uso de esta, ya que a diferencia de una inteligencia artificial, un ser humano tiene la capacidad de argumentar razones y hacer aclaraciones sobre alguna situación en específico de manera tal vez ilimitada a la hora de tomar decisiones morales, habilidad que una IA no posee o si la posee sería limitada a unas cuantas opciones, sin tomar en cuenta factores emocionales, sociales, culturales, etc. Es por esto que, considero que una inteligencia artificial no debería ser capaz de tomar decisiones morales en cuestiones humanas, ya que carece de raciocinio emocional y la capacidad de discernir entre lo que está bien y lo que está mal para cada persona.
Es posible confundirse al pensar que una inteligencia artificial, por su capacidad multifuncional, pueda simular comportamientos humanos, donde incluso pueda parecer que ésta sea capaz de regirse a través de la ética por sí misma, tomar decisiones o mostrar “emociones” y gestos, sin embargo debemos reconocer que muchas de estas cualidades son exclusivas de los seres humanos, y por ende son imposibles de replicar en su totalidad por las IAS, ya que su actuar está diseñado para llevar a cabo órdenes codificadas sin discrepar u opinar, debido a que esta herramienta carece de opinión, de juicio moral y de vida misma, haciéndola no apta para tomar decisiones morales.
“Porque la vida no es una ciencia exacta como las matemáticas, sino un arte como la música”. (Savater, s,f)
Bibliografía:
Aristóteles. (s,f). La Gran Moral. Recuperado el 19 de abril de 2024, de http://bibliotecadigital.tamaulipas.gob.mx/archivos/descargas/31000000126.PDF
Azcárate, Patricio. (s,f). Aristóteles, La Gran Moral. Recuperado el 15 de abril de 2024, de https://www.filosofia.org/cla/ari/azc02a.htm
Savater, F. (s,f). Ética para Amador. Recuperado el 19 de abril de 2024, de https://www.escatep.ipn.mx/assets/files/escatep/docs/Docencia/Lectura/Etica-Para-Amador.pdf