Novedades

Contribución al ecosistema de inteligencia artificial

18/09/2024
Desde 2022, el Dr. Franz Mayr, catedrático asociado de Inteligencia Artificial y Big Data de la Facultad de Ingeniería, colabora con el grupo Data Science Uy. Este grupo tiene como objetivo reunir a personas interesadas en la ciencia de datos y la inteligencia artificial en Uruguay y lo viene realizando con periodicidad a través de meetups.
Contribución al ecosistema de IA en Uruguay

Las meetups, eventos de gran popularidad en el ámbito tecnológico, permiten a los participantes intercambiar conocimientos y conectar con expertos y entusiastas de la comunidad.

El desafío de organizar una conferencia: de la idea al éxito

En 2024 lograron el apoyo de 12 patrocinadores, entre ellos, la Universidad ORT Uruguay, para organizar una conferencia de un día completo.

Este evento, que se llevó a cabo el sábado 12 de setiembre, incluyó dos tracks paralelos y un panel sobre inteligencia artificial segura, moderado por Franz.

La convocatoria fue un éxito: más de 200 personas asistieron al evento. Además, la conferencia fue gratuita, con el propósito de vincular la academia y la industria, y divulgar sobre inteligencia artificial, ciencia de datos y los proyectos locales en estas áreas.

El panel sobre IA segura y su importancia en la actualidad

Según se explicaba en la convocatoria a la meetup: la IA está transformando industrias, mejorando productos y revolucionando la manera en que trabajamos y vivimos. Sin embargo, con este poder vienen riesgos, desde la posible discriminación algorítmica hasta la vulnerabilidad ante ataques cibernéticos. La construcción de IA segura no solo implica mitigar estos riesgos, sino también garantizar que las tecnologías emergentes beneficien a toda la sociedad. 

Es por esto que la ética, la transparencia, la regulación, el desarrollo técnico y la implementación sean responsabilidades compartidas que debemos asumir para mitigar los riesgos y maximizar los beneficios de la IA en la sociedad. 

El panel sobre inteligencia artificial segura contó con la participación de representantes de distintos ámbitos clave. Estuvieron presentes Lorena Etcheverry de la Universidad de la República (Udelar), Pablo Blanco de la empresa de desarrollo de software Roostrap, y Angie Lecot de AGESIC, la agencia gubernamental encargada de la regulación tecnológica. La composición del panel, que incluyó representantes de la academia, la industria y la regulación, permitió un intercambio amplio de ideas sobre la seguridad en los sistemas de inteligencia artificial.

Según Franz, “la inteligencia artificial segura se refiere al desarrollo de sistemas que no solo cumplan su función, sino que lo hagan de manera confiable, sin fallos que pongan en riesgo a la integridad de las personas, y contribuyan positivamente a la sociedad. Los enfoques para garantizar esta seguridad varían desde los regulatorios hasta los más técnicos, como la explicabilidad de modelos y la verificación formal de los sistemas”.

*Franz Mayr durante la meetup*

Investigación en la Facultad de Ingeniería

Este tema está directamente vinculado con la investigación que llevan a cabo en el grupo de investigación de la Facultad, Inteligencia Artificial Explicable liderado por el Dr. Sergio Yovine, y del que Franz es integrante.

Según cuenta Franz en esta entrevista el proyecto, titulado Verificación de Sistemas Inteligentes con Componentes con Capacidad de Aprendizaje, se centra en la verificación de sistemas de inteligencia artificial, uno de los aspectos más rigurosos en el ámbito de la seguridad en IA.

La verificación busca asegurar que los sistemas funcionan correctamente, minimizando el riesgo de errores mediante el desarrollo y la aplicación de procesos automáticos y matemáticamente sólidos.

Los sistemas de información actuales integran cada vez más inteligencia artificial, específicamente, componentes capaces de aprender. En este contexto, las redes neuronales artificiales sobresalen como uno de los modelos más exitosos de la IA en varios campos de aplicación.

Este fenómeno se extiende con gran rapidez a sistemas críticos de alto riesgo cuyas fallas pueden resultar en consecuencias graves, como causar pérdida de vidas o daños a personas o al medioambiente.

En el proyecto se mencionan ejemplos como el uso de IA en control de procesos de fusión nuclear, control de vehículos autónomos o diagnóstico médico.  Surge entonces la necesidad de garantizar el correcto funcionamiento de sistemas críticos que integran componentes de IA capaces de aprender. 

Este proyecto se ubica dentro del área general de la IA verificada, cuyo objetivo es diseñar sistemas de IA que tengan garantías sólidas de corrección con respecto a requisitos especificados matemáticamente.

Concretamente, se centra en la aplicación de técnicas fundadas en teorías lógico-matemáticas que habilitan la especificación del comportamiento del sistema y la demostración rigurosa de propiedades, en particular la extracción de modelos, la verificación basada en modelos y la síntesis de controladores.

Los resultados proveerán herramientas que contribuirán a la IA responsable en dos aspectos; explicabilidad y seguridad. En efecto, la extracción de modelos de redes neuronales artificiales es una técnica de explicabilidad, mientras que la verificación y síntesis fundadas en métodos formales permiten la detección temprana de errores o usos inapropiados y la posterior corrección de los errores y prevención de los usos indebidos. Estas herramientas serán disponibilizadas en forma de código de uso libre y público.

 

Recursos académicos