La France fera un usage "responsable" de l'intelligence artificielle dans le domaine militaire et ne développera pas de "robots tueurs", a promis vendredi la ministre française des Armées Florence Parly, en annonçant la création d'un comité éthique pour la défense.
"Terminator ne défilera pas au 14 Juillet", a résumé la ministre lors d'un discours consacré à l'IA et la défense, sur le campus de Saclay, en région parisienne.
Développement de l'IA
"Le développement de l'IA est désormais un lieu de compétition stratégique, une course à la puissance technologique, économique mais aussi militaire", et "je compte faire de l'IA une priorité de notre défense nationale", a-t-elle souligné, en évoquant "une technologie indispensable pour garantir notre supériorité opérationnelle".
"La France a des valeurs"
Mais "la France a des valeurs, la France respecte ses engagements internationaux, et la France sera fidèle à cette marque de fabrique", a-t-elle déclaré. "Nous choisissons la voie de la responsabilité, celle de protéger à la fois nos valeurs et nos concitoyens, tout en embrassant les opportunités fabuleuses offertes par l'IA".
"Le débat est légitime"
"La position française est sans ambigüité: la France refuse de confier la décision de vie ou de mort à une machine qui agirait de façon pleinement autonome et échapperait à tout contrôle humain", a-t-elle insisté, en écho aux inquiétudes sur les systèmes d'armes létaux autonomes (SALA). "Ces systèmes n'existent pas aujourd'hui sur nos théâtres d'opérations", mais "le débat est légitime", a commenté Mme Parly.
Comité d'éthique
La ministre a annoncé dans la foulée la création "dans les prochains mois" d'un comité d'éthique ministériel qui "aura vocation à traiter des questions posées par les technologies émergentes et leur emploi par l'homme dans le domaine de la défense".
0 Commentaires
Participer à la Discussion