¿Cómo sobreviviremos a las máquinas?; ¿Podremos ser algo más que datos?; ¿Es posible educar en valores a un algoritmo?; ¿Debemos incluir sesgos éticos?

El pasado 29 de octubre, en el marco del Espacio Compliance, se celebró simultáneamente en las sedes de la CNMC de Madrid y Barcelona la jornada «La ética de los algoritmos: cómo sobrevivir a las máquinas», dedicada a los riesgos sociales de la inteligencia artificial y nuevas tecnologías.

Foto extraída de Unsplash

“Ciberentusiastas” y “tecnopreocupados”

La Jornada comenzó con las reflexiones del Catedrático de Filosofía Política de la UPV, Daniel Innerarity, acerca de la inteligencia artificial y la democracia. Dejó planteadas una serie de cuestiones a debatir entre los “ciberentusiastas” y los “tecnopreocupados”. Habló de los siete «concetos» (del protagonista de la película Airbag) que habría que tener en cuenta para establecer un juicio razonado del problema al que nos enfrentamos:

  • Tecnología: su naturaleza por sí misma ya condiciona las relaciones
  • Inteligencia: redefinición de la epistemología del conocimiento
  • Poder: búsqueda del reequilibrio sin “antropomorfizar” en exceso
  • Transparencia: como explicabilidad o inteligibilidad de los modelos
  • Factor Humano: sin privarnos de sus beneficios, se acabó la privacidad
  • Decisión: derecho de actuar o no en las redes con libertad
  • Democracia: no minusvalorar el uso de datos para no caer en el populismo tecnológico

Según Innerarity, no se trata de ciencia ficción, sino de la política que debe reflejar nuevos modos de actuar frente a las transformaciones a que nos enfrentamos. Demos ¿Quién es el pueblo hoy? La conclusión a la que llegó el filósofo fue la siguiente: Los reguladores saben mucho menos que los regulados. ¿Por qué no la anarquía? Ahí entrarían los sesgos para corregir las asimetrías, de los que se habló posteriormente en la doble mesa redonda.

 

Doble mesa redonda, en las sedes de Madrid y Barcelona (Mayte Sanz de Galdeano)

Doble mesa redonda, en las sedes de Madrid y Barcelona (imagen de Mayte Sanz de Galdeano)

Inclusión de sesgos éticos/humanos en los algoritmos: podemos evitar el posthumanismo

En la mesa celebrada en Barcelona y moderada por el técnico de la CNMC Jesús Callejo, intervinieron: Itziar de Lecuona, Bioethics and Law Observatory-UNESCO Chair in Bioethics en la Universidad de Barcelona; y Lissette Lemus, Knowledge Transfer Manager en IIIA-CSIC.

Itziar de Lecuona resaltó las dificultades del Nuevo Paradigma Digital donde hemos dejado de ser anónimos, incluso de datos biométricos, por lo que necesitamos evitar las discriminaciones algorítmicas y sus límites. Hizo hincapié en las correlaciones y clasificaciones con datos de calidad. «A veces, explicar el algoritmo es imposible», constató de Lecuona. Por su parte, Lissette Lemus, que contempla la ética como última frontera de la inteligencia artificial (IA), mencionó la Declaración de Barcelona como ejemplo de guía de principios y valores para señalar el rol humano frente a la falta de sentido común de los algoritmos.

En Madrid escuchamos a Borja Adsuara, experto en Derecho Digital y moderador de la mesa redonda; Arturo Gómez, neurosociólogo; Ana Jiménez, socia en EY; Ofelia Tejerina, de la Asociación de Internautas; y a Jorge Dávila, profesor de Criptología y Seguridad de la Información.

Borja Adsuara  comentó las virtudes y defectos para huir del derecho y parapetarnos tras la ética, que es mucho más flexible. «Desde Santo Tomás, sabemos lo que es un sesgo», aseguró con ironía. Dejó también comentarios twitteros al respecto: “Se habla de #Ética para huir de #Derecho. La #Ética es un campo más relativo y las grandes empresas que invierten miles de millones en #IA no quieren una regulación rígida. Hay que reivindicar la #seguridadjurídica de las leyes, que ya implican valores. #ÉticaAlgoritmos”.

A continuación, tomó la palabra Arturo Gómez Villalba, que recordó que aún hay un tercio de la población sin acceso a Internet. Mencionó algunos de los de los principales riesgos sociales de la IA y se preguntó: «¿Llegarán las máquinas a tener autoconsciencia?»

Ana Jiménez Castellanos, por su parte, lanzó un mensaje en clave más optimista. Como ingeniera, piensa que lo que hace muy bien la IA es clasificar, categorizar, pero solo tras la intervención humana. «Es un aprendizaje siempre relativo. Se puede hablar de una dicotomía entre automatización y humanización».

En cambio, Ofelia Tejerina abogó por determinar los aspectos jurídicos y el coste para los derechos humanos. Defendió que las empresas deben asumir una mayor responsabilidad social tecnológica (RST) y recordó que «lo cómodo no es necesariamente más eficiente».

Para Jorge Dávila, la IA no es ninguna novedad. Se trata de «marketing, moda, un interés oculto que resucita tras 55 años para controlar nuestros datos».

Tras una serie de intervenciones cruzadas, finalizó esta jornada que trataba de responder a varias dudas: ¿Cómo sobreviviremos a las máquinas?; ¿Podremos ser algo más que datos?; ¿Es posible educar en valores a un algoritmo?; ¿Debemos incluir sesgos éticos?

Comparte esta noticia en tus redes