L’AFCIA réclame l’interdiction légale de toute recherche en Intelligence Artificielle.
La vision des spécialistes est biaisée
L’AFCIA considère que l’Intelligence Artificielle n’est ni légitime ni éthique.
Cependant, même si tous ne partagent pas cette opinion, beaucoup sont, malgré tout, conscients de la réalité des risques.
Or la plupart des individus informés sur l’IA et préoccupés par la maîtrise de ses risques sont des scientifiques, souvent des chercheurs en Intelligence Artificielle.
Malgré la diversité des personnalités qui s’expriment, tous ces individus ont une formation, une activité et des centres d’intérêt similaires. Les spécialistes ne peuvent donc pas prétendre représenter tout le monde ni même la majorité !
Leurs propositions pour faire face aux risques de l’IA – dont ils ont parfois une conscience aiguë, vont dans le sens de la mise en place de règles éthiques, de comités éthiques etc… Le problème est selon eux : « comment s’assurer que les progrès de l’Intelligence Artificielle restent bénéfiques ? »
Insuffisance des règles éthiques
Les règles éthiques, et les éventuelles « barrières technologiques » qui seraient mises en place pour les respecter, ne présentent pas des garanties suffisantes contre une utilisation malveillante, et encore moins contre un processus de transfert progressif et délibéré des leviers de décision à des ordinateurs.
Lorsqu’un système à IA forte aura été mis au point, il deviendra pratiquement impossible d’en maîtriser l’évolution.
Cependant, l’effort continu et collectif nécessaire pour y parvenir, s’il est entravé assez tôt, est un obstacle suffisamment conséquent pour empêcher des initiatives isolées et surtout illégales de réussir.
Pour cette raison, l’AFCIA considère que la réponse appropriée est une interdiction légale pure et simple de la recherche en IA.
Levée de la protection de la propriété
Sous réserve de définir le domaine à interdire – qui ne saurait inclure toute la recherche algorithmique, loin s’en faut ! – l’application de cette interdiction serait très efficacement garantie par une mesure simple : la levée de la protection de la propriété et de la propriété intellectuelle des systèmes mis au point. S’il n’y a pas de rentabilité commerciale, il n’y a pas d’effort de recherche.
Cette mesure aurait également pour effet d’empêcher l’accaparement d’un pouvoir disproportionné par un acteur économique privé, aux dépens de la collectivité.
Deux revendications immédiates : publicité et étude d’impact
Nous réclamons immédiatement :
- L’obligation, pour toute entreprise publique ou privée, de déclarer tout projet de recherche en IA. Cette obligation s’appliquerait à toute entreprise ayant une activité commerciale en France, même si elle n’y conduit pas ses activités de recherche.
- L’obligation de réaliser une étude d’impact avant tout projet de recherche en IA, par une commission constituée d’administrateurs, de spécialistes pluridisciplinaires (comprenant informaticiens, sociologues, philosophes, psychologues) et de citoyens. A l’instar des démarches préalables aux projets d’aménagement d’intérêt général, cette étude d’impact devrait être assortie d’une enquête publique.
Le danger de la recherche de Défense
La recherche du profit et la curiosité intellectuelle sont deux moteurs primordiaux de la recherche en Intelligence Artificielle.
Nul n’ignore cependant que de lourds investissements en Intelligence Artificielle sont réalisés par le lobby militaro-industriel au motif de la Défense ou de la Sécurité, échappant souvent au contrôle du public ou du législateur sous le prétexte du secret d’Etat.
Il est indispensable que la France montre la voie en proposant une Convention internationale de renonciation aux armes intelligentes.
La Convention doit prévoir l’immunité à tout ressortissant d’un Etat signataire qui dévoilerait à la communauté internationale une éventuelle violation des règles dont il serait témoin.
En savoir plus sur AFCIA
Subscribe to get the latest posts sent to your email.