Skip to content

Latest commit

 

History

History
181 lines (135 loc) · 15.4 KB

references.md

File metadata and controls

181 lines (135 loc) · 15.4 KB

Références

Liste de lecture

Travaux dans ce domaine

L'Institute for Ethical AI & Machine Learning maintient un panorama très complet des inititives réglementaires, rapports, guidelines, frameworks divers et variés en lien avec la pratique et l'usage de l'IA et la data science : voir leur repository Awesome AI Guidelines sur Github.

Guidelines, liste de principes ou de thèmes-clés

  • Méta-étude 'The global landscape of AI ethics guidelines'

  • EU Draft Ethics guidelines for trustworthy AI and pilot assessment survey

    7 Key requirements:

    • Human agency and oversight
    • Technical robustness and safety
    • Privacy and data governance
    • Transparency
    • Diversity, non-discrimination and fairness
    • Societal and environmental well-being
    • Accountability
  • OECD AI Principles focused on 'Responsible stewardship of trustworthy AI'

    The Recommendation identifies five complementary values-based principles for the responsible stewardship of trustworthy AI:

    • AI should benefit people and the planet by driving inclusive growth, sustainable development and well-being.
    • AI systems should be designed in a way that respects the rule of law, human rights, democratic values and diversity, and they should include appropriate safeguards – for example, enabling human intervention where necessary – to ensure a fair and just society.
    • There should be transparency and responsible disclosure around AI systems to ensure that people understand AI-based outcomes and can challenge them.
    • AI systems must function in a robust, secure and safe way throughout their life cycles and potential risks should be continually assessed and managed.
    • Organisations and individuals developing, deploying or operating AI systems should be held accountable for their proper functioning in line with the above principles.
  • The Institute for Ethical AI & Machine Learning: Awesome AI guidelines and The Responsible ML Principles:

    The Responsible Machine Learning Principles:

    1. Human augmentation: I commit to assess the impact of incorrect predictions and, when reasonable, design systems with human-in-the-loop review processes
    2. Bias evaluation: I commit to continuously develop processes that allow me to understand, document and monitor bias in development and production.
    3. Explainability by justification: I commit to develop tools and processes to continuously improve transparency and explainability of machine learning systems where reasonable.
    4. Reproducible operations: I commit to develop the infrastructure required to enable for a reasonable level of reproducibility across the operations of ML systems.
    5. Displacement strategy: I commit to identify and document relevant information so that business change processes can be developed to mitigate the impact towards workers being automated.
    6. Practical accuracy: I commit to develop processes to ensure my accuracy and cost metric functions are aligned to the domain-specific applications.
    7. Trust by privacy: I commit to build and communicate processes that protect and handle data with stakeholders that may interact with the system directly and/or indirectly.
    8. Data risk awareness: I commit to develop and improve reasonable processes and infrastructure to ensure data and model security are being taken into consideration during the development of machine learning systems.
  • PWC IA responsable:

    6 thèmes :

    • Renforcer la sécurité de l'IA avec validation, surveillance et vérification
    • Créer des modèles d'IA transparents, extensibles et prouvables
    • Créer des systèmes éthiques, compréhensibles, légaux
    • Améliorer la gouvernance avec des modèles d'exploitation et des processus de l'IA
    • Tester le biais dans les données, les modèles et l'utilisation d'algorithmes par l'homme
  • Google recommended practices for AI: Fairness, Interpretability, Privacy, Security

Déclarations, chartes, serments

Autres

En cours d'étude

Extrait du rapport Ethics and Algorithms toolkit - Mesures à évaluer

Ethics and Algorithms toolkit est une boite à outils développée par la municipalité de San Francisco et différents organismes publics et privés. Cette boite à outils est en deux partie :

  • Une partie d'évaluation des risques ;
  • Une liste de mesures pour atténuer les risques en fonction des réponses données lors de la première partie.

Si cette liste de mesures est surtout réalisée dans le cadre de projets "publics" de mise en place d'algorithmes, certaines mesures peuvent être retenues dans un contexte plus général, par exemple :

  • Un Comité de Révision Institutionnelle a été mis en place, en charge :

    • d'examiner et approuver les projets de recherches;
    • valider la mise en oeuvre d'un algorithmes.
  • Lorsque le projet a un impact social et public, un conseil consultatif est mis en place, comprenant les parties prenantes du projet ainsi que des représentants du grand public.

  • Lorsque le projet a un impact social et public, un dialogue est entretenu avec le grand public à travers différents canaux :

    • Organisation d'enquête auprès du public ;
    • Mise en place d'un plan de communication et de l'envoi de mémo / newsletters auprès du public ;
    • Organisation de meeting / conférence pour présenter les données et usages utilisés ;
    • Ouverture des données utilisées en ligne ;
    • Ouverture d'un repo Github.
  • Lorsqu'un projet est controversé avant même son démarrage, un moratoire doit être mis en place afin d'indentifier de nouvelles sources de données.

  • Des outils de tests automatiques des algorithmes (exemple : matrice de confusion) doivent être mis en place pour évaluer la performance d'un algorithme tout au long de son existance.

  • Un mécanisme d'arbitrage humain doit être mis en place s'il permet d'améliorer la performance d'un algorithme.

  • Le transfert du suivi de la performance d'un algorithme à un organisme tier permet de retirer un degré de subjectivité.

  • Lorsqu'il y a absence de certaines données, ou qu'un échantillon de données est trop petit, des mécanismes de poids sont mis en place pour avoir une meilleure représentation de la population bénéficiaire de l'algorithme.

  • Des professionnels de la Data Science et du monde académique peuvent être engagés pour auditer un algorithme.

  • Les différentes parties prenantes d'un projet d'algorithme sont capables d'expliquer chaque risque identifié lié au projet de cet algorithme.

Extrait du AI Now Report 2019 - Mesures à évaluer

Le AI Now Report 2019 est rapport réalisé par le AI Now Institut, centre de recherche interdisciplinaires en charge d'évaluer les impacts sociaux de l'Intelligence Artificielle. Les recommandations présentées sont plutôt d'ordre gouvernementales et en lien avec la réglementation. Certaines idées méritent cependant d'être discutées.

  • Les politiques de diversité mises en place au sein de l'organisation prennent en compte les spécificités de l'Intelligence Artificielle et les risques sur les algorithmes mis en place.

  • Les impacts environnementaux des projets de mise en place d'algorithme à grande échelle doivent être publiés auprès du grand public.

  • Les collaborateurs, avec ou sans l'aide de leur syndicat, doivent pouvoir contester l'utilisation d'un algorithme intrusif.

  • Les collaborateurs partie prenantes de la mise en place d'un algorithme doivent être au courant de la finalité de cette algorithme et décider de contester sa mise en place.

  • Le climat, la santé et les déplacements géographiques doivent être pris en compte dans l'évaluation d'un algorithme.

  • Les chercheurs en algorithmie doivent être responsables des risques et menaces de leurs algorithmes et doivent mieux documenter les origines de leurs modèles et données utilisées.

Notes et observations

  • Beaucoup de travaux s'intéressent à l'éthique par les usages et par la non-reproduction de discrimination
  • Il y a cependant très peu de choses sur comment un modèle est élaboré (voir le papier de Quantum Black)
  • Le plus complet est peut-être le questionnaire d'évaluation de l'UE, mais il est loin d'être actionnable, opérationnel (63 questions dont de nombreuses sont des questions très ouvertes), et son processus d'élaboration et d'évolution est relativement fermé
  • Des référentiels de la sécurité des systèmes d'information, bien plus généraux, pourraient être utilisés comme références pour éviter d'être redondant sur certains points. Par exemple le guide de la sécurité des données personnelles de la CNIL.