Crónica evento: “Ética e Inteligencia Artificial”, los dilemas de la próxima revolución tecnológica
26/06/2019 -
El pasado 20 de junio asistí a la jornada “Ética e Inteligencia Artificial“, celebrada en el Palau Robert de Barcelona y organizada por 12×12, una iniciativa de Tertúlia Digital y el plan SmartCAT de la Generalitat de Catalunya.
Las tecnologías basadas en Inteligencia Artificial (IA) ya están cambiando nuestras vidas en numerosos ámbitos como la salud, la seguridad o el ocio, y a medio plazo tendrán un gran impacto en campos como la energía, el transporte o la educación. La jornada se planteó como una invitación a reflexionar sobre la conveniencia o no de dotar a las máquinas de total autonomía.
Tomás Cascante, Director de Tertulia Digital, fue el encargado de dar la bienvenida al acto, al que asistieron más de 100 personas, recordando las célebres tres Leyes de la Robótica de Isaac Asimov, la primera de las cuáles dice que “un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño“.
Daniel Marco, Director de SmartCatalonia, ejerció de moderador y presentador de la jornada, que se dividió en dos bloques. En el primero de ellos, Inma Rodríguez, Gerente de Inteligencia de Mercado de ACCIÓ, analizó los resultados del informe “La inteligencia artificial en Cataluña“, compartiendo algunos datos relevantes: por ejemplo, que en Estados Unidos (el gran hub de Inteligencia Artificial junto a China) existen 1.393 startups especializadas en IA, mientras que en toda Europa existen 769 (de las cuáles, 39 están ubicadas en España); que desde 2014 se han duplicado el número de patentes a nivel mundial relacionadas con IA; o que se espera que en 2030 el impacto de la IA en el PIB mundial sea de 15,7 billones de dólares. Inma Rodríguez incidió también en las claves que hacen de la Inteligencia Artificial una de las tecnologías más relevantes y con mayor proyección de futuro: su transversalidad, la convergencia con otras tecnologías (como IoT o ciberseguridad), el hecho de ser una tecnología facilitadora (ayuda a avanzar a otras) y su importancia a la hora de tomar decisiones, puesto que la capacidad de analizar grandes cantidades datos es algo inherente a la Inteligencia Artifical.
Tras su presentación se dio paso a una mesa redonda, centrada ya exclusivamente en cuestiones éticas, en la que se contó con dos reconocidas expertas en la materia: Carme Torras, profesora de investigación en el Instituto de Robótica (CSIC-UPC) de Barcelona y Karina Gibert, investigadora del Departamento de Estadística e Investigación Operativa de la UPC y profesora de la FIB.
Carme Torras empezó hablando de hiperconectividad, y no sólo entre personas, sino entre personas “y cosas”. Gracias a Internet of Things, esta conexión se hace cada vez más relevante (dejó un dato significativo: se prevé que en 2021 el 80% de las interacciones online se producirán entre humanos y bots, o bien entre bots).
Carme presentó algunas de las acciones que se llevan a cabo en el Instituto de Robótcia, en el que cuentan con un “laboratorio de vida asistida” donde se realizan investigaciones para facilitar la autonomía de personas dependientes. Un laboratorio en el que la ética tiene un papel preponderante: la persona, siempre, es la que controla la situación (y al robot). Nunca al revés. Los robots, que utilizan la IA para ayudar, entre otras cosas, a vestir o a dar de comer a las personas, jamás utilizan al humano como si se tratara de una “pieza” en una cadena. La comunicación y el control por parte del usuario son claves, puesto que el objetivo es que el humano siempre esté en el centro de la relación persona-máquina. El robot se adapta a la situación y respeta la dignidad de la persona.
A través de otros ejemplos desarrollados en su equipo de trabajo (por ejemplo, la creación de unos brazos mecánicos pensados para facilitar los procesos cognitivos a personas con Alzheimer) Carme incidió en otra de sus normas: nunca crear un robot más antropofórmico de lo estrictamente necesario para realizar su función.
Saliendo de su propia experiencia, quiso recordar también el célebre caso del bot creado por Microsoft que, tras apenas unas horas interactuando con usuarios reales de Twitter, se volvió racista. Una anécdota que sirvió para incidir en que la responsabilidad de lo que hagan las máquinas siempre será compartida: los datos que utilicemos para “entrenar” a las máquinas son esenciales para evitar casos como el de Microsoft.
Pese a que la IA comparte “problemas” con otras tecnologías (la responsabilidad legal, la privacidad), quiso destacar y poner el foco en aquellos nuevos problemas éticos específicos de esta tecnología, y a los que hay que prestar especial atención, como son la toma de decisiones de los robots o las relaciones y los sentimientos. La profesora dejó una última reflexión: es de vital importancia la formación de las personas que van a desarrollar Inteligencia Artificial. Contar con asignaturas sobre ética en las carreras técnicas es, desde su punto de vista, algo que se debería implementar con carácter obligatorio.
Karina Gibert, por su parte, repasó las distintas investigaciones que ha llevado a cabo durante su carrera (en proyectos como K4Care European Project, creado para validar un modelo de atención de salud basado en el conocimiento para la asistencia profesional a pacientes mayores en el hogar), poniendo el foco en los grandes “dilemas” de la Inteligencia Artificial. Uno de esos grandes problemas es la privacidad de los datos. Hablando de salud, por ejemplo, es evidente que los pacientes tienen derecho a no compartir datos sensibles. Pero esto tiene un impacto evidente: la IA deja de “aprender” si no cuenta con todos los datos. La inteligencia artificial y las soluciones basadas en datos tienden a reproducir los sesgos de quienes las programan, y ese es otro problema fundamental.
Del propio uso que se le da a la tecnología surge otro gran dilema. Tal y como apuntó Karina, la tecnología que se utiliza para mejorar la asistencia a enfermos es, en esencia, la misma que se utiliza para lanzar campañas de marketing y publicidad en Internet: recopilación de datos, análisis, aprendizaje, etc.
Coincidiendo con las tesis de su compañera de debate, concluyó que la cuestión principal es “dónde se ubica a la persona“: si las personas estamos en el centro, el impacto de la IA será cada vez mayor, más eficiente y más positivo para la sociedad. Si, en cambio, son los intereses económicos los que se ubican en el centro del tablero, lo que se multiplicarán serán los problemas éticos relacionados con el uso de esta tecnología.
Un evento interesante en el que, sobre todo, se lanzaron preguntas. Muchas, se irán resolviendo en los próximos años. ¿Seguirá creciendo a este ritmo la Inteligencia Artificial? ¿Implicará cambios en las legislaciones? ¿Y las universidades, incidirán más en la formación ética de los futuros desarrolladores? Lo veremos.
Mientras, y volviendo al inicio del post, no está de más insistir en que la responsabilidad final recaerá, siempre, en el ser humano, y recordar que la segunda ley de la robótica dice: “un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley”.