

Gouvernance
de I.A. (Intelligence Artificielle)
Les organisations continuent de développer leur prise de conscience et leur compréhension des risques liés à l'éthique de l'IA et de la manière dont ceux-ci peuvent entraîner des impacts négatifs importants. La norme nationale CIO SC du Canada fournit aux organisations des lignes directrices claires pour protéger les valeurs humaines et intégrer l'éthique dans les systèmes de prise de décision automatisés
Votre défi: OPÉRATIONNALISER
PRODAGO A CRÉÉ LE PLAYBOOK OPÉRATIONNEL
Nous avons créé le manuel opérationnel pour la conception et l'utilisation éthiques des systèmes de décision automatisés .
Nous aidons les organisations canadiennes à
-
évaluer leur état de préparation opérationnelle pour le manuel;
-
identifier les lacunes;
-
gérer les risques éthiques de l'IA ;
-
agir sur la transformation requise.
Et opérationnaliser pleinement la gestion de l'éthique de l'IA, selon les directives établies.
Qu'est-ce que cela signifie pour vous?
La vitesse. Prodago combine un contenu organisé (playbook opérationnel) et des services professionnels d'experts pour vous guider dans la mise en œuvre des directives du Conseil dans tous vos projets d'IA.
Contactez-nous pour une consultation gratuite. Nous déterminerons ensemble s'il y a lieu pour nous d'aider.

Prodago a documenté les pratiques d'exploitation pour tous les principaux modèles et cadres d'IA. Dans le tableau de gauche, nous voyons les différents ensembles de lignes directrices et comment ils se comparent les uns aux autres. Le décompte dans les cellules fait référence au nombre de pratiques d'exploitation sous-jacentes à chaque domaine.
Le tableau de droite est un exemple du droit de la personne a explosé au niveau de la pratique opérationnelle.

Rights of the person
Trois façons de commencer
Évaluation de l'état de préparation à la gouvernance
IA
Évaluation des politiques / directives / normes d'éthique internes de votre organisation par rapport aux exigences du CIO Strategy Council Ethical Design and Use of Automated Decision Systems. L'évaluation comprend:
La création d'un manuel opérationnel d'éthique de l'IA pour votre organisation, basé sur vos politiques / directives / normes d'éthique internes.
●
Analyse des écarts entre votre playbook et le Prodago Operational Playbook pour la norme CIOSC
Analyse de la maturité de votre organisation pour atténuer les risques éthiques de l'IA en fonction des lacunes de votre playbook opérationnel
Évaluation de l'état de préparation opérationnelle
IA
Évaluation (au sein de vos processus d'IA) des pratiques opérationnelles éthiques soutenant les exigences de conception éthique et d'utilisation des systèmes décisionnels automatisés du CIOSC
L'évaluation comprend:
Évaluation des pratiques opérationnelles éthiques dans le cycle de vie de la science des données de votre organisation. Les dimensions de l'évaluation pour toutes les pratiques opérationnelles comprennent l'existence, l'approbation, la responsabilité et l'efficacité par rapport aux résultats attendus
●
Identification des risques d'éthique de l'IA découlant de lacunes dans vos pratiques opérationnelles d'éthique de l'IA
●
Feuille de route de mise en œuvre suggérée, en fonction de votre tolérance au risque face aux risques identifiés
la gouvernance par conception
pour l'éthique IA
Intégrer les pratiques opérationnelles éthiques (issues du manuel opérationnel de Prodago) dans vos processus internes d'IA, créant ainsi une gouvernance éthique de l'IA dès la conception.
Si nécessaire - Cartographie de votre cycle de vie de la science des données
●
Mappage de chaque pratique d'exploitation éthique aux processus détaillés de votre cycle de vie de la science des données. L'exercice peut être étendu pour inclure des facettes de la gouvernance de l'IA autres que l'éthique de l'IA (confidentialité, sécurité, qualité, alphabétisation, etc.)
●
RACI complet pour les pratiques d'exploitation
Contactez-nous pour discuter de votre contexte et déterminer si nous pouvons vous aider
