Empresas

INETUM: IA aplicada al Sector Público

En Inetum, reconocemos que las tecnologías de Inteligencia Artificial (IA) representan una profunda transformación que remodelará el funcionamiento de las organizaciones en el futuro cercano. Específicamente en el sector público, identificamos un enorme potencial para la implementación de la IA y los Sistemas de Decisión Automatizada (ADMS). Nuestra vasta experiencia y presencia activa en todos los niveles de la Administración nos posiciona de manera única para liderar esta transición y ofrecer soluciones de IA altamente efectivas y personalizadas a nuestros clientes del sector público.

Durante mucho tiempo, la industria ha destacado los beneficios potenciales de la IA en el sector público, incluyendo la optimización de procesos y la capacidad para responder a las demandas de los ciudadanos de manera más proactiva y personalizada. Sin embargo, el verdadero desafío radica en cómo se implementará este nuevo modelo y qué mecanismos de transparencia y rendición de cuentas estarán disponibles para los ciudadanos.

En Inetum, estamos comprometidos no sólo con la implementación de la IA, sino también con la creación de soluciones que sean transparentes y responsables. Estamos trabajando arduamente para asegurarnos de que nuestras soluciones de IA sean diferenciales y de gran valor para nuestros clientes, y que también tengan en cuenta las necesidades y derechos de los ciudadanos.

Inetum entiende que la aplicación efectiva de la IA en el sector público va más allá de la simple incorporación de tecnología. Se trata de un cambio fundamental en la forma en que pensamos sobre los procesos, las decisiones y la prestación de servicios. Al aprovechar nuestra amplia experiencia en el sector público, estamos diseñando soluciones de IA que no sólo se integran de manera fluida con los procesos y sistemas existentes, sino que también respetan y refuerzan los marcos jurídicos y éticos. Estas soluciones no sólo aportan eficiencia y precisión, sino que también mejoran la transparencia, la rendición de cuentas y la interacción con los ciudadanos.

La aplicación efectiva de la IA en el sector público va más allá de la simple incorporación de tecnología. Se trata de un cambio fundamental en la forma en que pensamos sobre los procesos, las decisiones y la prestación de servicios.

Los principios de nuestro modelo de IA parten de la base de una IA responsable, ética y centrada en las personas, para ello consideramos fundamental la alineación con el marco normativo/jurídico existente y futuro, puesto que las implicaciones de las futuras soluciones exceden en mucho de un concepto tecnológico. Nuestro marco de trabajo está alineado con la Ley de Inteligencia Artificial (IA Act), primera normativa sobre inteligencia artificial y con la normativa de actividad administrativa automatizada de sector público español, regulada en las leyes 39/40 2015 LCAP, LRJSP y RGPD (actual marco normativo para regular algoritmos automatizados). Con esta estrategia, Inetum pretende (pendiente de la adopción de la nueva normativa IA Act en el marco jurídico del sector público español), ayudar a la administración pública a dotar de garantías la puesta en producción de estos sistemas informáticos.

En Inetum, adoptamos una metodología rigurosa para el desarrollo de proyectos que incluyen Inteligencia Artificial. Esta metodología se basa en cuatro principios fundamentales.

Transparencia y Explicabilidad

En la implementación de la Inteligencia Artificial, Inetum atribuye una importancia primordial al principio de Transparencia y Explicabilidad. Esta priorización surge de la necesidad de evitar los riesgos asociados a los sistemas de IA que operan como “cajas negras”, cuyos procesos internos y métodos de toma de decisiones son incomprensibles para los usuarios y supervisores. Estos sistemas opacos pueden representar una amenaza para los derechos de los ciudadanos, especialmente en contextos donde la IA se utiliza para tomar decisiones que afectan directamente a los ciudadanos.

En Inetum, nos esforzamos por desarrollar e implementar sistemas de IA que sean explicables. Este nivel de explicabilidad permite a las personas cuestionar y desafiar las decisiones tomadas por la IA, promoviendo la responsabilidad y la justicia. Además, estamos comprometidos en fomentar una cultura digital que permita una comprensión más profunda de la IA. Esto incluye la comunicación clara de cómo funciona la IA, la creación de comunidades y espacios colaborativos durante las fases de diseño, y la promoción de la participación de todos los Stakeholders.

Evaluación de Riesgo

La evaluación de riesgos es un componente esencial en la implementación de sistemas de IA. Siguiendo las directrices del reglamento IA Act, Inetum establece una categorización de los sistemas de IA que implementa, teniendo en cuenta su aplicación en diferentes ámbitos del sector público como la educación, la sanidad, el empleo, entre otros. Estos ámbitos, a menudo catalogados como de alto riesgo, requieren una atención especial en la gestión de riesgos.

Con este propósito, Inetum ha adoptado una estrategia de gestión de riesgos que consiste en un proceso continuo e iterativo. Este proceso incluye la identificación y análisis de los riesgos conocidos y previsibles, tales como la discriminación o la protección de datos. Además, se realiza la estimación y evaluación de los riesgos que podrían surgir cuando el sistema de IA de alto riesgo se utilice de acuerdo con su finalidad prevista, así como en casos de uso indebido razonablemente previsible.

Para garantizar la efectividad de este proceso de gestión de riesgos, Inetum implementa controles de auditoría que verifican los resultados del seguimiento de este proceso. Esta práctica de auditoría permite a Inetum asegurarse de que los riesgos asociados con la implementación de sistemas de IA de alto riesgo se gestionan de manera efectiva, minimizando así la posibilidad de efectos perjudiciales.

Responsabilidad Humana

De acuerdo con el artículo 41 de la Ley 40/2015, del 1 de octubre, de régimen jurídico del sector público, es imperativo que los sistemas automatizados estén bajo supervisión humana.

En Inetum, estamos plenamente comprometidos con el cumplimiento de esta directriz. Nos esforzamos por diseñar interfaces hombre-máquina que faciliten una supervisión efectiva por parte de los empleados públicos. Estas interfaces permitirán a los supervisores humanos revisar y, si es necesario, intervenir en las acciones y decisiones tomadas por los sistemas de IA.

Para ello Inetum considera imprescindible diseñar un modelo de capacitación digital en IA que equipará a los empleados públicos con las habilidades y conocimientos necesarios para supervisar y manejar de manera efectiva los sistemas de IA.

Garantía Jurídica en Derecho Público

Una de las grandes necesidades para abordar estos proyectos no es un otra que dotar de garantías jurídicas suficientes para el uso de IA a la Administración Pública. Inetum identifica este punto como clave y por eso aborda estos proyectos desde un punto de vista multidisciplinar en donde la visión jurídica esta presente en gran parte de las fases del desarrollo de los sistemas de IA (diseño, prueba y puesto en servicio) así como en los controles de calidad (supervisión humana IA).

Algunos de los aspectos a asegurar por parte de estos perfiles en las diferentes fases expuestas serán:

  • Tratamiento de datos personales en entornos de IA.
  • Actividad automatizada previstas en la ley 40/2015 Régimen jurídico sector público y 39/2015 LPAC Procedimiento Administrativo Común.
  • Evaluación de riesgos, normativa europea IA Act.
Sergio Rodríguez Sánchez
Local&Regional Government Director
Inetum

Leave a Reply