Derecho, ética e inteligencia artificial
La regulación de las relaciones entre humanos y máquinas es un reto que la Inteligencia Artificial (IA) debe afrontar, junto al reconocimiento facial, la privacidad y los sesgos discriminatorios de los algoritmos. Estas cuestiones, que hace pocas fechas parecían de ciencia ficción, son ya una realidad en nuestra vida cotidiana. Los algoritmos flotan en el ambiente; si no, pensemos en cómo nos llega hoy la publicidad segmentada en nuestras redes sociales.
También es muy importante que los modelos de datos que se utilizan para abastecer estos sistemas y su tratamiento respeten la privacidad de todos los usuarios. Es una cuestión de sensibilidad, que en algunos países del mundo ni está, ni se le espera y genera grandes desequilibrios en la vertiginosa carrera tecnológica.
Quevedo y más tarde Antonio Machado apuntaron que “es de necios, confundir valor y precio”, pero la realidad es que estamos ante un gran negocio, que además está vertebrando y reseteando al ser humano. Sin duda, lo comercial prima sobre otras consideraciones éticas o sociales.
Malos tiempos para la lírica, Bertolt Brecht dixit. Un cúmulo de intereses inconfesables están detrás del control del negocio a nivel mundial; por un lado, los gigantes tecnológicos americanos; por otro lado, la Unión Europea con su marco normativo emergente; y por otro, el importante posicionamiento de China y el avance de la India. Todo un puzle complejo y lleno de incertidumbres.
De hecho, no obstante y dado los avances de la IA, surgen voces en los gobiernos preocupados por el impulso creciente de estas máquinas, junto a las prisas de los reguladores por controlar una tecnología que avanza sin límites, con todo lo que ello comporta. Las Inteligencias artificiales generativas, como ChatGPT -prohibido recientemente en Italia por exponer a los usuarios al contenido de la plataforma sin comprobar antes su edad-, son un interrogante para la humanidad, con sus luces y sombras, de ahí la preocupación de los gobiernos. Incluso en el sector tecnológico y de la investigación surgen voces que piden ralentizar su desarrollo, como Elon Musk, fundador de Tesla y SpaceX, Steve Wozniak, fundador de Apple o el historiador Yuval Noah Harari.
Mientras tanto, la Unión Europea pronto aprobará su Ley sobre Inteligencia Artificial que deberá garantizar los valores de la democracia y la transparencia. China, sin embargo, ha actuado con firmeza prohibiendo ChatGPT en el país y en la actualidad trabaja en su propia versión. Por otro lado, Estados Unidos sigue sin cerrar su Carta de Derechos de la IA, que establecerá barreras al desarrollo de la IA.
Queda camino por recorrer en el tema ético, se suele decir que se actúa de forma poco proactiva, normalmente después de la denuncia de desajustes, o fallos en la privacidad de los usuarios. Incluso se puede aumentar la brecha social, porque los algoritmos se nutren de secuencias históricas, de datos históricos que pueden ensanchar las diferencias. Estos sesgos discriminatorios son ya una realidad. Por tanto, la normativa deberá equilibrar la relación entre el ser humano y la máquina, y sus consecuencias. Los ciudadanos no pueden ser descartados en la sanidad, en la educación, en el mundo financiero y económico, con base en unos algoritmos que manejan unos datos que, en muchos casos, están sujetos a importantes sesgos, resultados opacos y discriminaciones latentes.
Respecto a la cuestión normativa y en la evaluación de las consecuencias éticas de la IA, no aplica generar relaciones emocionales con las máquinas, es una trampa en la que no se puede caer. Esto nos puede destruir como personas y como civilización, tal como la conocemos. Podemos avanzar, pero poniendo al ser humano en el medio de nuestra sociedad y de nuestros intereses tecnológicos y científicos. Las máquinas son el medio y no el fin. Las personas tienen que ser tratadas por estos sistemas de forma justa, las tecnológicas tienen que ser transparentes en su uso y ser evaluadas por ello. Su uso debe ser siempre legal y no puede impedir el ejercicio de los derechos humanos fundamentales. Surgen voces también que piden una especie de juramento hipocrático de buenas prácticas a los ingenieros, técnicos y jurista implicados. Otra de las iniciativas que se plantean en este ámbito es la certificación de los algoritmos para evitar sesgos a través de organizaciones independiente del sector tecnológico.
En los últimos años existe una creciente preocupación por los aspectos éticos de la IA, han surgido muchas iniciativas a lo largo y ancho de nuestro mundo. Según Deloitte “los riesgos éticos son una preocupación principal para un tercio de los ejecutivos que esperan una transformación del negocio a corto plazo con la IA”. Sin duda, una mentalidad ética apoya la toma de decisiones basada en valores, centrándose en hacer no solo lo que es bueno para el negocio, sino lo que es bueno para los empleados, clientes y las comunidades en que viven y trabajan. Ello implica que las máquinas pueden ayudar a mejorar la condición humana, pero se hace necesario también aplicar barreras éticas a lo que se diseña y construye.
Hay actores en el ámbito internacional que abogan por garantizar un futuro en el que la innovación digital y el progreso tecnológico esté al servicio del genio y la creatividad humana y no a su gradual sustitución, como el propuesto desde la antropología cristiana a través del Call for an AI Ethic, que promueve una ética abierta al futuro con una actitud hacia la ciencia y la tecnología, confiada y disponible. Plantea la necesidad de acrecentar el diálogo entre los expertos en tecnología y los investigadores de las ciencias sociales que deberá extenderse hacia los ámbitos filosóficos y teológicos. Desde este ámbito de reflexión se plantean seis principios para una IA ética: trasparencia, inclusión, responsabilidad, imparcialidad, confiabilidad y seguridad-privacidad.
Para articular una estrategia global, necesitamos un marco internacional de valores, principios y acciones con el fin de orientar a los gobiernos en la formulación de sus leyes, políticas y otros instrumentos relativos a la IA, de conformidad con el derecho internacional. Por otro lado, es necesario que todos los actores implicados, los grupos de interés, las empresas, las instituciones…, aseguren la incorporación de la ética en todas las etapas del ciclo de vida de los sistemas de IA. Es la hora de proteger, promover y respetar los derechos humanos y las libertades fundamentales, la dignidad humana y la igualdad, fomentar el diálogo multidisciplinario entre las múltiples partes interesadas y promover el acceso equitativo a los avances y los conocimientos en el ámbito de la IA.