Noticias

IBM y la Fundación Linux AI avanzan por una Inteligencia Artificial confiable y responsable

Durante más de un siglo, IBM ha creado tecnologías que han cambiado profundamente la forma en que las personas trabajan y viven: el computador personal, el cajero automático, la cinta magnética, el lenguaje de programación Fortran, el disquete, el microscopio de efecto túnel, la base de datos relacional y más recientemente, la computación cuántica, por nombrar algunas. Con la confianza como uno de sus principios fundamentales, IBM pasó el siglo anterior creando productos en los que sus clientes pueden confiar, guiando su adopción y uso responsable, y respetando las necesidades y valores de todos los usuarios y comunidades a las que sirve.

Hoy, la Inteligencia Artificial (IA) está trayendo una transformación de escala similar. Y avanzar en los principios de confianza y transparencia es esencial para el desarrollo de esta tecnología. La responsabilidad no es solo hacer los avances técnicos necesarios para que la IA sea confiable y ética, sino también asegurar que estos algoritmos confiables funcionen como se pretende en las implementaciones de IA en el mundo real.

Para reforzar este concepto y la accesibilidad a las herramientas, IBM desarrolló tres toolkits Trusted AI de código abierto: AIFairness 360, Adversarial Robustness 360 y el AI Explainability 360 que han sido acogidos por el Comité de Asesoramiento Técnico de la Fundación Linux AI (LFAI) para incubar estos proyectos de Trusted AI en LFAI. La donación de estos proyectos a LFAI promoverá la misión de crear tecnologías responsables impulsadas por la IA y permitirá a la comunidad en general presentarse y co-crear estas herramientas bajo la dirección de la Fundación Linux.

Toolkits de Trusted AI 360 

  • El toolkit AI Fairness 360 (AIF360) es un kit de herramientas de código abierto que puede ayudar a detectar y mitigar sesgos no deseados en modelos de aprendizaje automático y conjuntos de datos. Proporciona aproximadamente 70 métricas para probar sesgos y 11 algoritmos para mitigar sesgos en conjuntos de datos y modelos. La experiencia interactiva AI Fairness 360 proporciona una introducción amigable a los conceptos y capacidades. Recientemente, AIF360 también anunció compatibilidad con Scikit Learn y una interfaz para usuarios de R.
  • La Adversarial Robustness 360 (ART) Toolbox es una biblioteca de Python para la seguridad del aprendizaje automático. ART proporciona herramientas que permiten a los desarrolladores e investigadores evaluar, proteger, certificar y verificar los modelos y aplicaciones de machine learning contra las amenazas de evasión, manipulación, extracción e inferencia. ART es compatible con todos los frameworks de aprendizaje automático más populares (TensorFlow, Keras, PyTorch, MXNet, scikit-learn, XGBoost, LightGBM, CatBoost, GPy, etc.), todos los tipos de datos (imágenes, tablas, audio, vídeo, etc.) y las tareas de aprendizaje automático (clasificación, detección de objetos, generación, certificación, etc.).
  • El año pasado, DARPA otorgó a los científicos de IBM Research una subvención para avanzar en la investigación en Inteligencia Artificial adversaria.
  • El AI Explainability 360 (AIX360) Toolkit es un completo conjunto de herramientas de código abierto con diversos algoritmos, códigos, guías, tutoriales y demostraciones que apoyan la interpretabilidad y la explicabilidad de los modelos de aprendizaje automático. La experiencia interactiva de la AI Explainability 360 proporciona una introducción amigable a sus conceptos y capacidades al recorrer casos de uso de ejemplo para diferentes tipos de consumidores.

Continuando la misión con el Comité de AI Confiable de la Fundación Linux AI 

El año pasado, IBM trabajó con Fundación Linux AI para establecer el Comité de Inteligencia Artificial Confiable de la Fundación,con la misión de avanzar en la práctica de una Inteligencia Artificial confiable. Desde entonces el comité ha crecido hasta incluir más de 10 organizaciones, trabajando para definir e instaurar principios de confianza en las implementaciones de IA. Una de las actividades que ha impulsado este comité es la integración de los toolkits Trust 360 en Apache Nifi o Kubeflow Pipelines, como una forma de potenciar workflows de machine learning confiables.

También reconoció que cuando se trata de promover una IA fiable, beneficiosa y equitativa, la tecnología es sólo una parte de la ecuación. Tenemos la responsabilidad de examinar el contexto más amplio de cómo se están diseñando e implementando los sistemas de IA, cómo se están utilizando y por quién, y evaluar su impacto en los usuarios y las comunidades.

En esta misión, las contribuciones de las ciencias sociales, la política, las leyes y las diversas perspectivas desempeñan un papel tan importante como la propia tecnología. 

Para más detalles sobre el anuncio visita: https://developer.ibm.com/blogs/ibm-and-lfai-move-forward-on-trustworthy-and-responsible-ai/

IBM dona toolkits de Trusted AI a la Fundación Linux AI

Yesica Flores

Soy Yes, blogger desde hace más de 5 años. Me he especializado en el viejo y olvidado arte de divagar. Contacto [email protected]

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.