Inteligencia Artificial, Robots y Ética
La ministra de Justicia, Pilar Llop, ha realizado recientemente unas declaraciones en las indica que la propuesta de Reglamento de Inteligencia Artificial puede ser «fundamental para garantizar el respeto a los derechos fundamentales». Ya tenemos un nuevo reglamento, dentro del marco europeo, en el que se trata de poner puertas al campo europeo de la tecnología, cuando ese campo es mucho más amplio.
La ministra participó en la reunión del Consejo de Ministros de Justicia e Interior de la Unión Europea, en la que se abordaron temas relacionados con la herencia digital, la Justicia adaptada a los niños y la inteligencia artificial. En este encuentro declaró que la Inteligencia artificial debe desarrollarse sobre «principios éticos y derechos fundamentales» (Expansión). Para tener una visión más completa de la iniciativa, es interesante leer los debates y Recomendaciones de UE sobre los aspectos éticos de la inteligencia artificial, robótica y tecnologías conexas.
Respecto a la ética de la Inteligencia Artificial, solo recordar que ésta se basa en los datos que cedemos los ciudadanos a los estados o los clientes a las empresas que les dan servicios, y por otro lado, las directrices que estos mismos estados y empresas de servicios dan a los algoritmos que emplea la inteligencia artificial para obtener tal o cual resultado. Un mismo dato, como por ejemplo que pagos hago con el móvil, puede servir para analizar mi comportamiento de compra y ofrecerme productos o servicios relacionados o para que hacienda cruce mis datos con mi renta declarada y ver si hay alguna inconsistencia, o si un autónomo está tratando de meter como gasto profesional, los gastos de las vacaciones.
El comportamiento ético, no es el del algoritmo, sino es el de las personas que deciden que objetivos persiguen. Cuantos mas datos se disponen de una persona, mas nos arriesgamos a que se realicen análisis perversos de los mismos. Pero son las personas y los organismos o empresas a las que pertenecen las que marcan los objetivos de la AI.
Sin embargo, debemos tener en cuenta que la regulación solo puede abarcar al territorio sobre el que se tienen jurisdicción, y los datos se mueven por todo el mundo. Lo que sí se puede regular que van a hacer los estados con esos datos.
Como indica Andrés Ortega. ARI 52/2021, en el mundo hay, a grandes rasgos, cinco regímenes de gobierno de la digitalización, que incluye la IA, y se diferencian por quién y en qué grado se ejerce el control sobre el mercado:
- El estadounidense, o “capitalismo de vigilancia”, en el que unos pocos proveedores de servicios digitales controla el mercado internacional, especialmente de control, sobre los datos de los usuarios y sobre la publicidad. Esto no excluye la intromisión de los servicios de inteligencia, como puso de manifiesto Edward Snowden.
- El chino, o “Estado de vigilancia”, en el que el Estado ejerce el control absoluto con el apoyo de unos pocos proveedores de servicios digitales, también controlados por él. El Estado chino centraliza los datos, porque son un instrumento de control político.
- El europeo, que busca una regulación centrada en las personas, o “humanista”. Los proveedores de servicios digitales se ven constreñidos por una regulación de la UE que se centra en la protección de los valores y derechos de los usuarios digitales, en primer lugar, la privacidad. El nuevo paso de la Comisión se sitúa en este marco. Es la propuesta de regulación de la IA más estricta que se haya puesto sobre la mesa.
- El de un conjunto de democracias –como el Reino Unido, Australia y Japón–, también preocupadas por el poder de las grandes plataformas estadounidenses y chinas, pero que carecen del poder de negociación de la UE.
- El del resto del mundo, compuesto principalmente por economías emergentes, con poco poder de mercado y poco poder regulador, que están entre unas (como África) y otras (como Rusia).
«La ética en la gestión de la Inteligencia Artificial pasa por la ética de las personas, de las empresas y de los estados. No de los algoritmos de AI.”
En este sentido, la UE, siempre más proteccionista, considera un conjunto de riesgos relacionados con la AI, y otros sistemas conexos que son los que trata de gestionar mediante
- Riesgos prohibidos, riesgos que son inadmisibles. Incluye los sistemas de IA que se consideren una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas. Son sistemas de AI que manipulan el comportamiento humano para eludir la voluntad de los usuarios
- De alto riesgo: está permitida, pero sujeta al cumplimiento de los requisitos de IA y la evaluación de la conformidad ex ante. Los sistemas de IA considerados de alto riesgo abarcan las tecnologías empleadas en: las infraestructuras críticas, sistemas que limiten la formación educativa o profesional; componentes de seguridad de los productos (Ej: cirugía ejercida por maquinas); selección de empleados; acceso a servicios públicos y privados esenciales mediante calificación de las personas; control de migraciones; y la administración de justicia y procesos democráticos. En este caso, los sistemas de IA de alto riesgo estarán sujetos a obligaciones estrictas antes de que puedan comercializarse, entre los que se cuentan la necesidad de una alta calidad de los datos que alimentan el sistema para minimizar los riesgos y los resultados discriminatorios.
- De riesgo limitado: se consideran sistemas de IA con obligaciones específicas de información/transparencia. Por ejemplo, en robots conversacionales los usuarios deberán ser conscientes de que están interactuando con una máquina para poder tomar una decisión informada de continuar o no.
- De riesgo mínimo o nulo: la inmensa mayoría de los sistemas de IA entra en esta categoría. La propuesta permite el uso de aplicaciones tales como videojuegos basados en la IA o filtros de correo basura. El proyecto de Reglamento no interviene aquí, ya que estos sistemas de IA sólo representan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos.
Para la gestión de estos riesgos se propone, una comisión reguladora en el Parlamento europeo, y el complimiento de reglas de gobierno, inicialmente voluntarias, registro de los sistemas de AI, monitorización por parte de los operadores de los datos y AI empleadas, y por supuesto un sistema de multas que haga que se nos quite de la cabeza cualquier comportamiento no ético.
Sin embargo, al igual que ocurre con la GDPR, ¿podrán los estados disponer de todos los datos y su capacidad de procesarlos sin que los ciudadanos podamos hacer nada para evitarlo?. Parece que los gobernantes solo se preocupan de las personas como clientes, cuando el Estado, sufragado por nuestros impuestos, debería ser concebido como una empresa prestataria de servicios a los ciudadanos, y por tanto regulada de igual manera. La regulación debería aplicar a todos aquellos con capacidad de usar los datos y la AI, no solo a las empresas privadas. Ahora bien, ¿Cómo se controlará la AI cuando los datos carecen de fronteras y las multinacionales americanas y chinas están fuera del control de la UE? ¿No va esta regulación europea a ralentizar aún mas el desarrollo de la digitalización en Europa y el desarrollo de empresas europeas?
Para ello deberíamos recordar las tres leyes de la robótica de Isaac Asimov:
- Primera Ley: Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
- Segunda Ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
- Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.1
Son tres reglas simples, que todo el mundo entiende en las que, si extendemos el concepto de daño, al de monitorización, manipulación y control, seguro que podemos hacer las personas, empresas y estados realicen una gestión efectiva y ética de la Inteligencia Artificial.
Team Leader Grupo de Expertos itsm4RPA-AI
Comité de Estándares de itSMF España