lundi 17 décembre 2012

Skynet

Des robots de guerre, des drones militaires et des machines armées automatisées sont utilisés dans le complexe militaro-industriel d’aujourd’hui. La plupart de ces dispositifs sont équipés d’une fonction « pilote automatique ». Seuls les robots de combat ne sont pas équipés d’une telle fonction.
 « Voici comment fonctionne le système d'intelligence d’un robot tueur: il doit se rendre à un point de coordonnées X et Y, y définir une cible par rayonnement thermique, et éliminer cette cible », explique Noel Sharkey, professeur de robotique et d'intelligence artificielle à l’Université de Sheffield (Royaume-Uni). « Mais il s’agit là d’un raisonnement « stupide ». Ce qui inquiète, c’est que ce robot ne va pas faire la distinction entre un soldat ennemi, un rebelle ou un civil ».

Les militaires et les scientifiques continuent à améliorer la précision des systèmes de combat automatisés. Selon eux, les robots tueurs aideront à réduire le nombre de soldats sur le terrain, en réduisant ainsi le nombre de tués.
 « Les scientifiques ont mis au point le drone Falcon HTV-2, qui est actuellement en phase de test. Il s’agit d’un avion autoguidé qui peut accélérer jusqu’à une vitesse de 20 000 km/h. Le pilote ne peut se trouver aux commandes d’un tel avion, il ne survivrait pas à une telle vitesse. D'ailleurs, l’homme aurait du mal à se concentrer sur ce qu’il fait à une telle vitesse, il ne serait pas capable d’évaluer correctement la situation et de réagir à des ordres », poursuit Sharkey.

Le Département de la Défense des États-Unis a rendu public un rapport sur les systèmes automatisés de combat, qui explique quelles sont les caractéristiques des armes autonomes et semi-autonomes. A la fin de ce rapport, une liste des lacunes et des vulnérabilités de ces armes est dressée. Cette liste est grande. Elle inclut notamment des aspects importants comme la possibilité de piratage informatique des systèmes de programmation, des interférences radio, des pièges radars, l’usurpation d'identité ou l'interception du signal crypté dans le but de piratage.
 « Les technologies qui existent actuellement sont un pas vers l’utilisation des machines tueuses automatisées que l’homme ne serait plus en mesure de contrôler. Les algorithmes à l’intérieur du logiciel de ces machines sont tellement complexes que le système émettrait parfois des erreurs qu’un homme ne pourrait pas résoudre seul. Certains systèmes interagiraient avec d'autres systèmes, et nous ne pourrions pas contrôler leur relation. Nous n’aurions pas non plus le contrôle de la réaction à un signal d’erreur que le système recevrait », s’inquiète Mark Avrum Gubrud, docteur en physique et en mathématiques à l'Université de Princeton.

Avec tous le dangers de l'utilisation de robots militaires autonomes, la décision d'y recourir appartient aux entreprises productrices d'armes militaires. L’organisation internationale de défense des Droits de l’Homme Human Rights Watch, en collaboration avec des experts de l’école juridique de l'Université de Harvard a publié un rapport intitulé Losening Humanity : The Case Againts Killer Robots (Perte de l'humanité : une affaire contre les robots tueurs). Ce rapport traite de la nécessité d'arrêter l'utilisation, la production, et le développement des robots tueurs entièrement automatisés. Le rapport prône l'élaboration de normes du droit international qui régulent la circulation de ces machines militaires dans le monde pour empêcher leur production et leur propagation incontrôlée.
 « Je ne crois pas que les robots, peu importe à quel point sont développées leurs technologies, puissent suivre les normes internationales pour la protection des civils pendant des conflits armés »,considère Bonnie Docherty, experte sur les questions militaires de Human Rights Watch. « Rien ne pourra les retenir, même pas la pitié pour les civils, car ils ne la ressentent pas. D’ailleurs, il est difficile de prendre les actions des robots tueurs sous contrôle. Leurs actions aveugles peuvent porter atteinte à la politique de dissuasion par l'intimidation ».

Des spécialistes qualifiés et des technologies de pointe sont utilisés actuellement dans l’armement. Mais la plupart des chercheurs appellent les concepteurs à ne pas équiper les robots avec des armes et les utiliser plutôt à des fins pacifiques.
« Les robots doivent aider l’homme à faire face aux problèmes complexes qui sont une routine », conclut Gubrud. « Et les hommes doivent travailler avec les hommes. L’utilisation des robots dans des domaines où la vie de l’homme est menacée n’est pas justifiée. La vie coûte cher, et nous devons en prendre soin, qu’elle soit la nôtre ou celle d’autrui ».

Les experts sont d’accord sur le fait que les robots doivent être employés uniquement dans les sphères civiles, par exemple dans l’agriculture ou la médecine. Ces machines doivent aider les hommes et non pas les tuer. Sur le champ de bataille, le facteur humain joue par certains moments un rôle décisif. Quant au robot, il ne peut que copier le comportement de l’homme sans faire le choix de ce qui est « humain » ou non.


Des drones sur la liste de jouets de Noël... par hussardelamort

Aucun commentaire:

Enregistrer un commentaire

Le blog est fermé. Allez sur la nouvelle rubrique des moutons écrasés (la suite)

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.