14 septiembre, 2023

Principios de Confianza y Seguridad en IA


(image: 
https://es.vecteezy.com/)

Título original: The Vector Institute’s AI Trust and Safety Principles, june, 2023
(traducción libre)

Este instituto ha compartido un fuerte compromiso de desarrollar IA segura y confiable. Los modelos actuales de IA generativos muestran gran poder y fácil acceso. Al mismo tiempo, revelan riesgos tanto existenciales como a corto plazo de la IA.

El instituto Vector de Canadá ha propuesto seis principios de confianza y seguridad en IA para organizaciones internacionales que reflejan el diálogo, valores y mejores prácticas de las empresas, gobiernos y comunidades de investigación de renombre mundial.

Seguir estos principios desde la investigación hasta la implementación o comercialización ayudará a garantizar que los sistemas de IA sean seguros y confiables. Estos principios de confianza y seguridad pueden brindar orientación a otras organizaciones que desarrollan su propio código de conducta y políticas de IA.

Principios fundamentales de la IA

1. La IA debe beneficiar a las personas y al planeta

Nos comprometemos a desarrollar IA que promueva un crecimiento inclusivo, un desarrollo sostenible y el bienestar de la sociedad. El desarrollo y despliegue responsable de sistemas de IA deben considerar el acceso equitativo, y el impacto en la fuerza laboral, la educación, en el mercado, el medio ambiente y otras esferas de la sociedad. Este compromiso implica rechazar explícitamente el desarrollo de IA perjudicial, como sistemas de armas autónomas letales y métodos manipuladores para impulsar la participación, incluida la coerción política.

2. Los sistemas de IA deben diseñarse para reflejar valores democráticos

Nos comprometemos a incorporar adecuadas medidas de protección en los sistemas de IA para garantizar que cumplan con los derechos humanos, el estado de derecho, la equidad, la diversidad y la inclusión, y contribuyan a una sociedad justa y equitativa. Los sistemas de IA deben cumplir con las leyes y regulaciones y ajustarse a los requisitos multijurisdiccionales que respalden la interoperabilidad internacional de los sistemas de IA.

3. Los sistemas de IA deben reflejar los intereses de privacidad y seguridad de las personas

Reconocemos la importancia fundamental de la privacidad y la seguridad, y nos comprometemos a garantizar que los sistemas de IA reflejen adecuadamente estos valores para sus usos previstos.

4. Los sistemas de IA deben mantenerse robustos, seguros y seguros a lo largo de su ciclo de vida.

Reconocemos que mantener sistemas de IA seguros y confiables requiere la evaluación y gestión continua de sus riesgos. Esto implica implementar la responsabilidad en toda la cadena de valor a lo largo del ciclo de vida de un sistema de IA.

5. La supervisión de los sistemas de IA debe incluir la divulgación responsable.

Reconocemos que los ciudadanos y los consumidores deben poder comprender y cuestionar críticamente los resultados basados en IA. Esto requiere la transparencia y divulgación responsable de información sobre los sistemas de IA, y el apoyo a la alfabetización y formación en IA para todas las partes interesadas.

6. Las organizaciones deben ser responsables.

Reconocemos que las organizaciones deben rendir cuentas a lo largo del ciclo de vida de los sistemas de IA que implementen u operen de acuerdo con estos principios, y que la legislación gubernamental y los marcos regulatorios son necesarios.

Metodología

Los Principios Fundamentales de IA del Vector Institute se basan en el enfoque de IA ética desarrollado por la OCDE. Además de los principios de confianza y seguridad, también son necesarias definiciones claras para el despliegue responsable de los sistemas de IA. Como punto de partida, el Vector Institute reconoce la definición de un sistema de IA de la Organización para la Cooperación y el Desarrollo Económicos (OCDE). 

A partir de mayo de 2023, la OCDE define un sistema de IA de la siguiente manera:

"Un sistema de IA es un sistema basado en máquinas capaz de influir en el entorno al producir una salida (predicciones, recomendaciones o decisiones) para un conjunto dado de objetivos. Utiliza datos e insumos basados en máquinas y/o humanos para (i) percibir entornos reales y/o virtuales; (ii) abstraer estas percepciones en modelos a través de análisis de manera automatizada (por ejemplo, con aprendizaje automático) o manual; y (iii) utilizar la inferencia de modelos para formular opciones de resultados. Los sistemas de IA están diseñados para operar con diversos niveles de autonomía".

Vector Institute también reconoce que las definiciones ampliamente aceptadas de los sistemas de IA pueden revisarse con el tiempo. Hemos visto cómo el desarrollo rápido de modelos de IA puede cambiar tanto la perspectiva experta como la opinión pública sobre los riesgos de la IA. A través del proyecto de gestión de riesgos de IA de Vector, colaboramos con muchas organizaciones y reguladores para evaluar varios tipos de riesgos de IA. Estas discusiones informaron el lenguaje sobre riesgos e impacto en los principios.

La naturaleza dinámica de este desafío exige que las empresas y las organizaciones estén preparadas para revisar sus principios a medida que responden a la cambiante naturaleza de la tecnología de IA.


No hay comentarios:

Publicar un comentario

La Inteligencia Artificial (IA), la docencia y la investigación

 La IA está transformando de manera significativa la sociedad y la educación. La IA contribuye a transformar y redefinir los roles del docen...