Durante esta etapa de lanzamiento de nuestro nuevo sitio web, escríbenos tus dudas, consultas o comentarios al WhatsApp +569 3455 2723.

“La Inteligencia Artificial hay que verla como a la pólvora, que es una amenaza o un beneficio según cómo se use”

Andrés Páez, académico del Departamento de Filosofía de la Universidad de los Andes, Colombia, visitó la UAH donde dictó una charla sobre inteligencia artificial y la manera en que los nuevos sistemas computacionales toman decisiones.

  • Compartir
  • Facebook
  • Twitter
  • Linkedin
  • Whatsapp

Fuente: Qué Pasa.

La Inteligencia Artificial (IA) ha penetrado todos tipo de rincones: desde las redes sociales y los motores de búsqueda en Internet, hasta ámbitos como el diagnóstico médico, la bolsa de valores y las decisiones judiciales.

En 2016 la Unión Europea promulgó el “derecho a una explicación”: el derecho a que una persona que se vea afectada por una decisión tomada por un algoritmo obtenga una explicación de esa decisión. La decisión debe tener efectos jurídicos o impactar significativamente la vida del demandante.

El problema es que los modelos de aprendizaje automático (machine learning) son entrenados para tomar decisiones, pero una vez terminado el proceso de entrenamiento, el algoritmo comienza a funcionar autónomamente, sin que sea posible determinar exactamente cómo llega a sus decisiones. Se convierte en una caja negra.

Son algunos de los conceptos abordados por Andrés Páez, doctor en Filosofía de la U. de Nueva York y profesor asociado del Departamento de Filosofía de la U. de los Andes, Colombia, quien estuvo la semana pasada en la U. Alberto Hurtado dictando la charla “¡Siri, no te entiendo! Explicando la Inteligencia Artificial”, instancia en la que conversó con Qué Pasa.

¿Cómo se podría definir hoy lo que es la inteligencia artificial?

No existe una definición única de la Inteligencia Artificial (IA). En el sentido más amplio, cualquier sistema computacional que logre ejecutar alguna tarea que normalmente requiera inteligencia humana podría ser llamado IA. Para muchos investigadores, el ideal a largo plazo es lograr desarrollar sistemas completamente autónomos que se adapten fácilmente a su ambiente y que logren ejecutar las mismas tareas que hacemos los humanos. La llamada “IA fuerte” pretende que un sistema con tales características piense como un humano, lo cual implica que tenga conciencia y libre albedrío. Sin embargo, no todo el mundo comparte esa meta ni cree que sea alcanzable. En la actualidad el objetivo inmediato de la industria es crear sistemas que aprendan autónomamente, pero son sistemas diseñados para propósitos muy específicos, como la detección del cáncer en imágenes diagnósticas o la filtración del correo basura. Estos sistemas llevan a cabo tareas humanas con un nivel de precisión mucho más alto en mucho menos tiempo, pero no lo hacen imitando los procesos humanos de pensamiento sino a través de algoritmos entrenados para ese propósito.

¿Qué tan cerca de la inteligencia humana está?

Todo depende de cómo entendamos la inteligencia humana. Es claro que hay numerosas tareas en las que la IA ha superado las capacidades humanas, y cada día aparecen nuevas áreas en las que logran mejores resultados. Pero todos los sistemas de aprendizaje automático (machine learning) deben ser entrenados por humanos. Las máquinas carecen de conceptos, no pueden darles significado a la información que procesan, y su capacidad de “entender” el mundo depende de los significados que el humano programa en ellos. Para que la IA logre acercarse a la inteligencia humana los sistemas tendrían que comenzar a aprender autónomamente acerca de su entorno, como lo hace un niño o un perro. El aprendizaje requiere curiosidad y motivación, habilidades sociales y la capacidad de interactuar exitosamente con otros. Ya existen sistemas que aprenden autónomamente a un nivel muy básico, pero todavía no es claro hasta dónde puede llegar este desarrollo en el futuro.

¿Es una amenaza o un beneficio para la humanidad?

Depende a quién le preguntes. Personas como Elon Musk y Stephen Hawking han sonado las alarmas acerca de un futuro en el que las máquinas someterán a la humanidad, y han pedido que se implementen medidas para evitar ese desenlace. Esa amenaza depende de que se alcance el objetivo de la IA fuerte de diseñar máquinas con conciencia y libre albedrío. Yo creo que a la IA hay que verla como a la pólvora, que es una amenaza o un beneficio según cómo se use. ¿Quién no va a querer usar un sistema de IA que logre la detección temprana de enfermedades mortales? Pero también existe el riesgo de que la IA sea usada para la desinformación y la polarización política. Hay esfuerzos recientes para darle el mejor uso posible a la IA. En 2016 varias compañías de tecnología como Google, Apple, IBM y Microsoft se aliaron para crear la Partnership on AI to Benefit People and Society. Este esfuerzo conjunto busca estudiar y adoptar buenas prácticas en torno a la IA, e identificar objetivos de desarrollo futuro que tengan fines sociales benéficos. Las buenas prácticas deben ir acompañadas de una legislación que entienda cuáles son los riesgos presentes y reales.

¿Cuáles son los principales riesgos que esta tecnología conlleva?

Yo creo que uno de los efectos más negativos de la IA sobre las personas es la sensación de enajenación y pérdida de control que genera. El humano no entiende cómo funciona la IA y su vida se ve cada día más afectada por las decisiones automáticas. Hoy en día las grandes compañías como Amazon han delegado en la IA la tarea de seleccionar las hojas de vida de los aspirantes a un trabajo. La IA escoge la música que oyes, las noticias que lees, la ruta que tomas a casa. Uno de los grandes retos de los diseñadores de sistemas inteligentes es lograr que la gente confíe en ellos. Es fácil confiar en una recomendación de Netflix o Spotify, pero no lo es tanto cuando se trata de asuntos con profundas implicaciones, como someterse a una cirugía. Para confiar se necesita entender, y la desinformación que existe acerca de la IA entre la gente es una gran fuente de desconfianza. También hay preocupaciones asociadas a la privacidad y a la manipulación comercial o política que contribuyen a generar aún más desconfianza, pues afectan directamente los derechos fundamentales de las personas.

Chile está preparando una nueva legislación en torno al uso de la IA. ¿Se puede legislar en un área como esta?

No solo se puede, sino que debería ser un objetivo prioritario de los legisladores. El gran reto de los intentos de legislar sobre la IA es lograr un equilibrio entre la protección de derechos como la autonomía y la privacidad de las personas, y el fomento del desarrollo tecnológico. Hay un ejemplo preocupante en la Unión Europea de una legislación que pone en peligro ese equilibrio. El año pasado entró en efecto el llamado “derecho a una explicación”. Si una decisión de un sistema de IA tiene efectos significativos sobre la vida de una persona, esta tiene derecho a que los dueños del sistema le expliquen cómo llegó a la decisión el sistema. El problema es que los sistemas de aprendizaje automático son cajas negras. Ni siquiera el diseñador del sistema puede saber cuál es el algoritmo que la máquina está utilizando porque ella misma lo inventó. Se genera entonces una gran contradicción entre lo que exige la ley y lo que es factible dentro del desarrollo actual de la tecnología. Una legislación que no esté bien informada sobre las posibilidades de la IA terminará haciendo más daño que beneficio.

¿Se han logrado proteger los derechos de las personas frente a las decisiones tomadas por un algoritmo?

Hay varios derechos involucrados en la interacción de las personas con la IA que pueden estar en riesgo. Uno de ellos es el derecho a la igualdad y a la no discriminación. Se han documentado muchos casos en los que un entrenamiento deficiente de los sistemas de aprendizaje autónomo ha resultado en decisiones sesgadas e inequitativas. Por otra parte, la filtración y selección de información a través de la IA puede generar cámaras de eco y burbujas epistémicas en las que las personas dejan de tener acceso a puntos de vista diferentes a los suyos y sólo interactúan con personas que piensan como ellas. Este aislamiento tiene profundas consecuencias para la construcción de una sociedad democrática en la medida en que los ciudadanos no pueden tomar decisiones políticas bien informadas. Y por supuesto existen amenazas constantes al derecho a la privacidad. Hace poco Amazon debió admitir que sus empleados escuchaban conversaciones privadas a través de su asistente personal Alexa con el fin de mejorar su desempeño. Existen también riesgos para el derecho al trabajo, a la libertad de expresión, al acceso a servicios públicos, entre otros. Por eso es imperativo crear una legislación amplia y flexible que se pueda ajustar a los retos permanentes que le presenta la IA. En la actualidad los sistemas legislativos están apenas en un proceso de aprendizaje y por ahora los escándalos mediáticos han sido más efectivos en la protección de los derechos humanos que la acción de la justicia.

Noticias Relacionadas