La UPC pone la primera semilla para definir el nuevo Comité Ético de la Universidad

La UPC pone la primera semilla para definir el nuevo Comité Ético de la Universidad
+
Descargar

Gabriel Bugeda, vicerrector de Política Científica de la UPC, en el debate sobre la ética en las universidades politécnicas

La UPC pone la primera semilla para definir el nuevo Comité Ético de la Universidad
+
Descargar

Cecilio Angulo, director del centro de investigación Intelligent Data Science and Artificial Intelligence (IDEAI) de la UPC, ha moderado el debate

Apuesta de la UPC por los valores éticos en IA

En un momento emergente de nuevas tecnologías tales como la inteligencia artificial, la UPC apuesta por poner sobre la mesa la importancia de establecer criterios éticos y valores humanos sólidos hacia estas, y de involucrar a las administraciones, universidades y empresas a trabajar alineadas para tomar conciencia de las implicaciones éticas que su uso conlleva y conllevará aún más en el futuro.

En esta línea, varios investigadores expertos del nuevo centro de investigación IDEAl de la UPC participan en las estrategias de inteligencia artificial, tanto en el ámbito estatal, como de Cataluña. Asimismo, los seis grupos de investigación consolidados que integran este centro de investigación trabajan actualmente en una treintena de proyectos en inteligencia artificial como el que se lleva a cabo a raíz del reciente convenio marco de la UPC con el Hub de Digitalización de Siemens, que ha permitido la creación del Centro de Compe encia UPC-Siemens, así como la participación de la UPC en proyecto europeo AI4EU, en el que también toman parte el BSC-CNS y el IRI. El proyecto AI4EU, que involucra también otros 60 centros de investigación punteros, marcará la hoja de ruta en investigación, desarrollo e innovación en este ámbito en Europa en los próximos diez años. En este marco se creará 'el Observatorio de Ética AI4EU', que velará por el respeto a los valores humanos en inteligencia artificial.

El Aula Máster del Campus Nord de la UPC, en Barcelona, se ha llenado este jueves, 11 de abril, con motivo del debate sobre la ética en las universidades politécnicas, impulsado por el Rectorado de la Universidad. Moderado por el director del centro de investigación Intelligent Data Science and Artificial Intelligence (IDEAl) de la UPC, Cecilio Angulo, ha contado con la participación de investigadores, investigadoras y expertos y expertas de los ámbitos de la sanidad, la biotecnología, la bioética, el derecho, la psicología, la robótica y la inteligencia artificial.

12/04/2019

La presentación del debate ha ido a cargo del vicerrector de Política Científica de la Universitat Politècnica de Catalunya · BarcelonaTech (UPC), Gabriel Bugeda, que ha destacado "la importancia de poner sobre la mesa y responder a los interrogantes éticos que plantean los avances científicos y tecnológicos, aún más en una universidad referente como la UPC". Ha dado paso a Cecilio Angulo, director del centro de investigación Intelligent Data Science and Artificial Intelligence (IDEAl) de la UPC, que ha moderado el debate y que ha sido uno de sus promotores, junto con Ulises Cortés, investigador del Departamento de Ciencias de la Computación y del Barcelona Supercomputing Center - Centro Nacional de Supercomputación (BSC-CBNS). Angulo ha introducido el debate hablando sobre las diferentes dimensiones de la tecnoética: la pre-ética (la ética implicada en el desarrollo de la tecnología), la post-ética (las cuestiones éticas planteadas por la introducción de la tecnología) y la meta-ética (el código ético de los agentes implicados en el desarrollo tecnológico). Angulo, que se ha referido a este debate como "la primera semilla para empezar a trabajar la dimensión ética en la UPC y definir la creación de un Comité Ético de la Universidad del estado de las tecnologías", ha dado paso a las intervenciones de los diferentes expertos.

La primera intervención ha ido a cargo de David Cerdán, alumni de la Facultad de Óptica y Optometría de Terrassa (FOOT) de la UPC y miembro el Comité Ético de Investigación Clínica (CEIC) del Centro de Oftalmología Barraquer, que ha enumerado los diferentes comités de ética actualmente existentes en España y ha hecho una breve introducción de su origen - como consecuencia de casos de abusos en la experimentación con seres humanos como los realizados en la época nazi o el experimento Tuskegee - y de la necesidad de su existencia. Cerdán ha explicado como la Declaración de Helsinki significó un antes y un después en la realización de pruebas con personas, ya que introdujo una serie de principios éticos como son la autonomía, la beneficencia, la justicia social y la no maleficencia. Esta regulación, según ha recordado, llevó a la creación de los comités de ética en la investigación (CEI) y de los comités de ética de la investigación con medicamentos (CEIm), y ha detallado su composición y funciones.

"Considero que es conveniente que la UPC tenga un comité ético porque la investigación que se desarrolla debe cumplir unos principios éticos y debería ser un CEI, no un CEIm, por la naturaleza de los proyectos que la Universidad lleva a cabo ", ha afirmado Cerdán al final de la presentación, y ha añadido que este "debería estar formado por personas de diferentes ámbitos de la UPC y empresas colaboradoras".

A su vez, Marta Díaz, profesora del Departamento de Organización de Empresas y gestora de investigación del Centro de Estudios Tecnológicos para la Atención a la Dependencia y la Vida Autónoma (CETpD) de la UPC, ha reflexionado sobre la ética en relación con la investigación, poniendo énfasis en tres ejes: en determinar en qué hacer investigación y donde poner los esfuerzos como universidad, teniendo en cuenta criterios éticos; establecer garantías para respetar las personas que participan; y a reportar los resultados de la investigación. Ha destacado la particularidad de la innovación tecnológica y su enorme capacidad de transformar el entorno físico y las relaciones entre las personas, y ha incidido en la relación entre las personas y los robots, la robótica social, su campo de especialidad.

La profesora e investigadora ha reflexionado sobre cuestiones éticas y morales que plantea el uso de robots sociales, sobretodo en personas vulnerables como niños hospitalizados o ancianos, "tales como el impacto emocional o la dependencia que pueden provocar estos robots, la influencia en las relaciones interpersonales o la conexión con los animales en los casos de robots-mascotas ", ha señalado. Díaz ha alertado que conocemos poco las consecuencias que pueden conllevar la convivencia con robots y que nos planteamos todo lo que podemos ganar con el uso de robots, pero no de lo que estamos dispuestos a perder.

Ha destacado también que la Unión Europea tiene un creciente interés en crear un marco ético en el desarrollo de estas tecnologías, especialmente en robótica e inteligencia artificial, y ha puesto como ejemplo el proyecto europeo SIENNA, que tiene como objetivo ayudar a desarrollar protocolos, códigos éticos profesionales y mejores marcos legales en tres grandes ámbitos: genómica humana, perfeccionamiento humano (human enhancement) e interacción persona -máquina (inteligencia artificial y robótica). La investigadora ha terminado su intervención destacando que "la última encuesta del Centro de investigaciones Sociológicas (CIS) situaba la universidad como la institución más valorada. Como universidad pública, tenemos una responsabilidad inmensa en esta materia".

Ignasi Belda, gestor científico, emprendedor, ingeniero y divulgador, actualmente director del área de salud de Diplolicy, fundador de cuatro start-ups y ex director del Parque Científico de Barcelona, explicó que en su trayectoria profesional ha aprendido que la ética es un valor muy importante a tener en cuenta y sobre el que las personas que están en el mercado laboral actual necesitan estar formadas. El ingeniero ha destacado que "prescindir de unos buenos principios éticos puede tener graves implicaciones económicas", especialmente en relación a los proyectos subvencionados que requieren específicamente tener en cuenta la aplicación de la Ley de Inserción de Personas con algún tipo de Discapacidad.

Belda también afirmó que es importante que los comités éticos velen por que los investigadores desarrollen su tarea científica, pero que a la vez es importante garantizar que el resto del personal de la institución o empresa no realice actividades delictivas o ilícitas, lo que no sería ético. En este sentido, ha hecho referencia a la necesidad de que existan comités de Compliance penal, para prevenir infracciones de normas de carácter penal y evitar sanciones que generen responsabilidad a la empresa o institución.

Asimismo, Belda ha hecho referencia a la aplicación de principios morales a la hora de trabajar con una empresa u otra, y en función de si se considera que representa unos determinados intereses económicos o si se defienden causas justas. Belda se ha mostrado partidario de "introducir el debate sobre la ética en los planes de estudios en la Universidad, poniendo ejemplos reales".

Por su parte, Alberto Sanfeliu, profesor de Informática e Inteligencia Artificial de la UPC y director científico de la Unidad de Excelencia María de Maeztu del Instituto de Robótica e Informática Industrial (IRI), centro mixto de la UPC y del Consejo Superior de Investigaciones Científicas (CSIC), ha reflexionado sobre los aspectos éticos, legales, económicos y sociales (ELES) a tener en consideración, desde una triple perspectiva: como investigadores del ámbito de la robótica y la inteligencia artificial, como usuarios de esta tecnología ,y sobre cómo diseñar los robots y los sistemas inteligentes para que sigan los principios éticos.

Sanfeliu ha destacado que estos aspectos, que están trabajando en diferentes proyectos de investigación con participación de la UPC como TERRInet , AI4EU y Human centered Robotics, son especialmente relevantes a la hora de diseñar y desarrollar vehículos autónomos, drones, robots sociales, asistenciales, médicos y para la rehabilitación, en robots co-trabajadores (persona-robot) y del ámbito de la educación, sobre todo por su capacidad de adquirir autonomía y de aprender, por la forma del soporte físico del robot, así como por su capacidad de adaptar su comportamiento al entorno y de interrelacionarse con las personas. Y ha dejado claro que "debe haber unos principios éticos tanto para los ingenieros y diseñadores de la tecnología, como para los usuarios de la misma".

El investigador ha puesto sobre la mesa algunas de las cuestiones que se planean en el ámbito de la robótica y la inteligencia artificial, y que no están tan claras de responder, como por ejemplo si los robots deben tener sentimientos; si los experimentos de interacción persona-robot deberían ser supervisados o cuáles deben ser los límites en que pueden enseñar los robots. Asimismo, Sanfeliu ha propuesto "crear un comité de ética para proyectos de inteligencia artificial y robótica, hacer una encuesta en las universidades sobre temas de ética, difundir información y crear programas de aprendizaje en este ámbito".

A continuación, Itziar de Lecuoana, profesora y subdirectora del Observatorio de Bioética y Derecho (OBD) de la Universidad de Barcelona (UB), ha centrado su intervención en la bioética y la integridad científica, y ha puesto el énfasis en que "el gran reto no reside sólo en crear un comité de ética para evaluar los proyectos de investigación liderados por la universidad, sino también en cómo se constituye y en cómo se implica a la comunidad universitaria para que la interiorice". Por eso "hay que crear primero un código ético: ahora se habla de integrar la ética desde el principio, desde el punto de vista de la integridad", ha remarcado Lecuona, que ha explicado la apuesta de la UB para crear un comité de ética en 1995.

También ha destacado la necesidad de destinar fondos para estudiar la temática por disciplinas, de introducir estudiantes predoc y postdocs en los comités de ética y de crear oficinas de integridad en las universidades para evaluar y resolver problemas de plagios. Por otra parte, Lecuoana se refirió a la importancia de la protección de los datos personales en el desarrollo y el uso de la tecnología, en un momento como el actual en el que prima "el dataísmo" y donde las personas hemos dejado de ser anónimas. "Hay que poner el foco no tanto en la tecnología sino en garantizar la protección de datos personales: de dónde vienen los datos, con qué técnicas se han recogido, etc".

Debate abierto
Después de las intervenciones de los expertos, se ha abierto un debate en el que se han planteado cuestiones como la creciente importancia del control de los datos de que disponen empresas e instituciones; el dumping ético (trasladar la investigación a un país con un estándar ético más bajo); la incorporación de parámetros culturales en el desarrollo de los códigos éticos; la importancia de la independencia de los comités éticos, y de la formación y la implicación de la ciudadanía en estos aspectos; la necesidad de incorporar la formación ética en los currículos de los estudios científicos y tecnológicos, o la dificultad de ejercer un control público de la investigación en inteligencia artificial que se desarrolla en el sector privado. También han surgido cuestiones de actualidad como el caso Cambridge Analytica o como las que plantea el profesor José Ignacio Latorre, sobre si hay que incorporar la inteligencia artificial a los comités éticos o dotar de personalidad jurídica a las máquinas, o la investigadora del IRI Carme Torras, citada en varios momentos del debate, y de lo que ella denomina 'el gran experimento online de la tecnología'.