(VOVWORLD) - Lundi, le G7 s’est entendu sur les principes directeurs d’un code de conduite sur l’intelligence artificielle. Cette initiative, qui s’inscrit dans le cadre du “processus d’Hiroshima”, vise à lutter contre les abus et les risques liés à l’IA comme la persuasion personnalisée, les menaces de cybersécurité et la propagation de fausses nouvelles.
Alors que l’IA continue d’évoluer, la position proactive du G7 en faveur de l’atténuation des risques s’avère plus que nécessaires. Le “code de conduite” volontaire et la formation d’une équipe dédiée à la gestion des risques représentent des étapes importantes vers une utilisation plus responsible de l’IA. L’objectif est de s’assurer que les avantages de cette technologie l’emportent sur ses risques.
Le code encourage les entreprises à identifier, évaluer et atténuer les risques tout au long du cycle de vie de l’IA. De même, il recommande de publier des rapports publics sur les capacités, les limites et l’utilisation de l’itelligence artificielle et d’investir dans des contrôles de sécurité robustes.