Autodesk s’engage à développer, à déployer et à utiliser l’IA de manière responsable, éthique et sécurisée. Nous appliquons des processus de gouvernance stricts pour protéger les données personnelles et la propriété intellectuelle de nos clients. Nous mettons en œuvre des pratiques responsables de test et de surveillance tout au long du cycle de vie de l’IA afin de limiter ou d’éviter les risques liés à la production de résultats biaisés, à l’accentuation des défis sociaux ou à la génération de nouveaux risques.
Nous respectons des normes strictes dans les domaines de l’acquisition et de la gestion des données, ainsi qu’en matière d’entraînement et de création de modèles d’IA équitables et sûrs.
Nous communiquons sur la conception, le développement et l’utilisation prévue des systèmes et des données d’IA.
Nous respectons les choix de nos clients et nous conformons aux lois et aux réglementations.
Nous appliquons des méthodes rigoureuses pour créer des systèmes d’IA à la fois précis, justes et cohérents.
Nous nous engageons à protéger les données, la propriété intellectuelle et la vie privée, et à produire des résultats fiables.
L’objectif des politiques et de la gouvernance d’Autodesk en matière d’IA est de créer de la valeur et de réduire les risques sur le plan de la confidentialité des données et de la propriété intellectuelle. Cet e-book détaille les normes et pratiques rigoureuses adoptées par Autodesk pour développer une IA de confiance au sein de ses produits.
Dans le cadre de notre engagement continu à maintenir une approche responsable de l’IA, nous avons élaboré des fiches sur la transparence de l’IA pour communiquer des informations sur les fonctionnalités d’IA utilisées dans nos produits, les sources de données, ainsi que les mesures de protection de la vie privée et de sécurité mises en place.
Autodesk s’est volontairement engagée à appliquer le Pacte européen sur l’IA, qui encourage les entreprises à planifier la mise en œuvre des mesures de ce pacte dans toute l’UE.
Le programme Pour une IA responsable d’Autodesk est le socle sur lequel reposent nos principes et nos pratiques dans ce domaine. C’est également dans ce cadre que nous collaborons avec les gouvernements et les groupes industriels œuvrant en faveur d’une IA responsable.
L’organisme d’approbation d’Autodesk, dirigé par son responsable général, applique et révise en permanence des directives et processus destinés à analyser et à réduire les risques liés à l’IA. Nous évaluons régulièrement les pratiques, les normes et les tendances émergentes du secteur afin de favoriser un développement et une utilisation responsables de l’IA conformément aux lois et aux réglementations internationales applicables à l’intelligence artificielle, à la propriété intellectuelle, mais aussi à la protection des données et de la vie privée.
Au sein du consortium de l’Artificial Intelligence Safety Institute, Autodesk collabore avec le National Institute of Standards and Technology (NIST) pour développer des lignes directrices et des normes reposant sur des données scientifiques et empiriques à des fins d’évaluation de l’IA et d’élaboration de politiques, posant ainsi les bases d’une IA sûre dans le monde entier.
Autodesk est un membre actif de la Content Authenticity Initiative (CAI), dont l’objectif est de créer un système sécurisé visant à certifier la provenance des contenus numériques et à garantir la transparence des contenus multimédias. Le travail réalisé dans le cadre de cette initiative est entièrement conforme aux spécifications techniques publiées en 2022 par la Coalition for Content Provenance and Authenticity (C2PA) ou C2PA Content Credentials.
Parcourez les réponses à vos questions ou contactez un agent pour obtenir de l’aide.
Réduisez les risques d’exposition aux logiciels malveillants et de défaillances logicielles en optant pour des logiciels Autodesk authentiques conçus par Autodesk.
Avez-vous subi une panne liée à un produit ou à un service Autodesk ? Vérifiez l’état en temps réel de vos services cloud.
Aidez-nous à améliorer la sécurité de nos produits en signalant des exécutions de code à distance, des contournements d’authentification ou d’autres vulnérabilités.