La inteligencia artificial, oportunidades y riesgos
Si decimos inteligencia artificial (IA) lo primero que se nos viene a la cabeza, al común de los mortales, son los robots, los artefactos inteligentes, las máquinas que piensan por nosotros, los famosos replicantes de “Blade Runner”, o el ordenador inteligente Hal 9000 de la película “2001: Odisea en el espacio”; mientras que los especialistas en la materia pensarán en modelos computacionales complejos, en algoritmos, en chabots, en “maching learning” o “deep learning”. Lo que sí ambos compartimos es una inquietud -más o menos consciente- por el impacto que supone y supondrá para la humanidad el uso de la IA a gran escala, y por la imperiosa necesidad de regular las condiciones de desarrollo de la misma. Las oportunidades y los riegos son la cara y la cruz de la IA.
Pero antes que nada debemos dejar claramente establecido que el término inteligencia artificial, en palabras de la Comisión Europea (2018) se aplica a los sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción -con cierto grado de autonomía- con el fin de alcanzar objetivos específicos. La IA no es algo tan novedoso o propio del Siglo XXI, puesto que existe desde la década del 50 de siglo pasado; ni tampoco constituye un desarrollo tecnológico e informático complejo aplicable solamente a entornos muy específicos.
En 1966, ELIZA -diseñada en el Massachusetts Institute of Techonology (MIT)- fue el primer chatbot que implementó lenguaje natural (NLP) para responder de forma automática y coherente como si fuera un psicólogo; también algunos recordarán cuando en 1997 la IA Deep Blue, creada por IBM, venció al campeón ajedrecista Gary Kaspàrov.
Seamos conscientes o no, convivimos con la IA a través de la domótica de un hogar, de los asistentes virtuales, de los vehículos autónomos, de los anuncios personalizados, de los filtros de para detectar correo fraudulentos, de las recomendaciones de producto de Amazon, de la información sobre el estado del tráfico que te brindan los sistemas de navegación, de las recomendaciones musicales de Spotify, de los drones que entregan paquetes, por mencionar algunas.
Tampoco es menos cierto que no hay un solo tipo de inteligencia artificial. Se suele agrupar a los sistemas de IA en dos grandes grupos: inteligencia artificial fuerte y débil. Stuart Russell y Peter Norvig diferenciaron, en 2009, los siguientes cuatro tipos:
- Sistemas que piensan como humanos y que automatizan actividades como la toma de decisiones o la resolución de un problema, como por ejemplo las redes neuronales artificiales.
- Sistemas que actúan como humanos y que realizan tareas de forma similar a nosotros, como los robots.
- Sistemas que usan la lógica racional, como los sistemas expertos
- Sistemas que actúan racionalmente, por tanto imitan de manera racional el comportamiento humano, como los agentes inteligentes
Pese a los diferentes ámbitos de aplicación (IA doméstica, IA industrial, IA comercial, IA sanitaria, IA educativa, etc.), todos ellos tienen en común estar basados en algoritmos.
A nivel gubernamental, el informe ‘Inteligencia Artificial en los servicios públicos’, elaborado por AI Watch -el servicio de conocimiento de la Comisión Europea para monitorizar el desarrollo, la captación y el impacto de la IA en Europa-, revela que está creciendo el interés en el uso de la IA para rediseñar los procesos de gobernanza y los mecanismos de formulación de políticas, así como para mejorar la prestación de servicios públicos, y el interés de los ciudadanos. De mayo de 2019 a febrero de 2020 recopilaron 230 iniciativas implementadas por entidades gubernamentales de los 27 países de la Unión Europea, Noruega, Suiza y Reino Unido. Con un 8% lideran las iniciativas Portugal y Países Bajos, mientras que España y Francia representan el 5% de estas y, con una sola iniciativa encontramos a Croacia, Grecia, Hungría, Chipre.
En el ámbito empresarial, un Estudio del Observatorio Nacional de Tecnología y Sociedad (ONTI) sitúa a España por encima de la media europea en la de las empresas que han incorporado la IA durante el pasado año.
Recientemente, la Comisión Europea ha publicado la Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen tanto normas armonizadas sobre inteligencia artificial como acciones destinadas a convertir a Europa en el centro mundial de la IA de confianza, que respete los derechos fundamentales así como los principios y valores propios de nuestro entorno europeo.
Además de fundamentar que estamos ante una gran oportunidad para la UE, la propuesta contempla cuatro niveles de sistemas inteligentes, según un criterio de riesgo para los derechos de las personas:
- Sistemas IA prohibidos (manipulación del comportamiento humano provocando perjuicios; que utilicen información personal para detectar las vulnerabilidades de los sujetos)
- Sistemas IA de alto riesgo (todos los sistemas de identificación biométrica a distancia)
- Sistemas IA de uso sujeto a condiciones (conlleva obligaciones específicas de transparencia. Es el caso de los asistentes conversacionales o chatbots)
- Sistemas IA de riesgo mínimo (La Comisión considera que la gran mayoría de los sistemas de IA entran en esta categoría. Permite el libre uso de aplicaciones de sistemas inteligentes en videojuegos con IA o los filtros de spam)
Aún quedan por delante unos años de negociación hasta que vea la luz el texto definitivo del Reglamento Europeo, recordemos que debe ser aprobado tanto por los Gobiernos de la UE como por la Eurocámara. Mientras tanto debemos seguir avanzando en conocer todo el potencial que nos brinda la IA, siendo conscientes de cómo afrontar esta oportunidad histórica y tecnológica y cómo minimizar riesgos. En ese sentido, al igual que lo hizo con la protección de datos, la Comisión Europea aspira a fijar los estándares internacionales en el sector de la inteligencia artificial.
Frente a los desafíos actuales en la Sociedad digital, la IA significará una mejora para el desarrollo de la humanidad siempre y cuando se creen y apliquen mecanismos adecuados para regularla, minimizando riesgos, y reconociendo que es una oportunidad tecnológica para Europa y, en concreto para España, que debe ser abordada con responsabilidad, con ética y, esencialmente, con un gran respeto hacia los derechos fundamentales.