Durante esta etapa de lanzamiento de nuestro nuevo sitio web, escríbenos tus dudas, consultas o comentarios al WhatsApp +569 3455 2723.

Ética para las máquinas: más allá de memorizar reglas

Con el desarrollo de sistemas de inteligencia artificial se ha hablado de enseñar ética y moral a una máquina y cómo instruirla para operar en ciertas situaciones. No obstante, muchas de estas discusiones se limitan a la búsqueda de la instrucción correcta.

  • Compartir
  • Facebook
  • Twitter
  • Linkedin
  • Whatsapp

Fuente: El Mostrador

Unos de los elementos más importantes que aprendemos en la infancia, y a la vez más difíciles de enseñar en la vida adulta, son la ética y la moral. Por una parte, debemos decidir qué valores y pautas de acción concretas creemos que merecen enseñarse. Por sí solo este problema ya es complejo y exige pensar sobre cuán universales son los principios con los que actuamos. Sin embargo, hay otro problema fundamental que enfrentamos en la educación ética y moral: la enseñanza del razonamiento metaético.

Con razonamiento metaético me refiero no a la aplicación de principios y valores ya acordados, sino a cómo llegar a estos acuerdos en primer lugar. No basta con esperar que las personas memoricen un conjunto de reglas a seguir, como si se tratase de memorizar las tablas de multiplicación. El ideal es enseñar a decidir de manera autónoma qué pautas consideramos importantes y cómo dirimir desacuerdos sobre lo correcto o incorrecto. Esta es la idea detrás de enseñar el famoso “pensamiento crítico”, y que está a la base de muchas reflexiones filosóficas.

Con el desarrollo de sistemas de inteligencia artificial se ha hablado de enseñar ética y moral a una máquina y cómo instruirla para operar en ciertas situaciones. No obstante, muchas de estas discusiones se limitan a la búsqueda de la instrucción correcta, de la regla que podamos incrustar en la memoria de estos sistemas y que vaya acorde a principios morales ya asumidos como correctos. Para razonar por analogía, nos quedamos en la discusión del decálogo moral para que las personas memoricen, sin preguntarnos sobre cómo se deciden estas normas.

Una inteligencia artificial que, en sentido estricto, aprenda de ética y moral, debería también aprender a razonar en sentido metaético. Sobre cómo se pueda lograr esto creo poder dar una pista. El razonamiento metaético se enseña (al menos en parte) sobre la base las emociones y la empatía.

Es enseñando a pensar en los y las demás, en sus sentimientos y reacciones, que enseñamos que nuestras acciones y decisiones afectan a otras personas, y en consecuencia que debemos considerarlas a la hora de sopesar valores. Quizás valga la pena pensar entonces si podemos enseñar emociones y empatía a una máquina. Si esto es posible merecerá mayor reflexión, pero creo que sin ello nos quedaremos en pensar en el decálogo sin considerar su elaboración.

Juan Loaiza, académico e investigador de la Facultad de Filosofía y Humanidades

Noticias Relacionadas