Technologie et guerre : le pouvoir aux robots ?

Disponible jusqu'au 24/07/2025 - 23:59Disponible jusqu'au 24/07/2025
Quelles technologies sont actuellement utilisées dans les guerres et quelles seront-elles à l’avenir ? Les armes du futur ressembleront-elles à « Terminator » ?
Découvrir et prendre position sur les évolutions technologiques dans le domaine militaro-industriel
TV5 JWPlayer Field
Chargement du lecteur...
Durée
15:08

Vidéo

Geopolitis-TechnologieGuerre-Robot-Video
Ressources pédagogiques
  • B2

B2 avancé

Voir les fiches
Grammaire : argumentation
Parler : Parler
Regarder : Regarder
Vocabulaire : politique et société
Vocabulaire : technologies
Écouter : Écouter
Fiche enseignant
Fiche apprenant
Contenus complementaires
    Avions ou hélicoptères sans pilotes, robots tueurs ou démineurs ont investi les champs de bataille des armées modernes. C'est déjà une réalité. Mais l'évolution rapide des techniques permet de voir encore plus loin. Les robots sont de plus en plus autonomes, ils pourraient le devenir totalement dans un avenir qui ne relève pas nécessairement de la science-fiction.
    Production
    RTS / TV5MONDE
    Chaîne d'origine
    RTS
    - Modifié le
    10/08/2021
    LE CONTEXTE
     
    Bienvenue sur Geopolitis. Ce n'est pas un robot qui vous parle. Mais qui sait, dans quelques années, ce sera peut-être le cas. En tout cas, la réalité, aujourd'hui, c'est que les robots non seulement sont parmi nous, mais, surtout, ils apprennent et ils commencent, si l'on ose dire, à devenir intelligents. C'est vrai notamment dans le secteur de l'armement, donc du complexe militaro-industriel. C'est tout un secteur de l'intelligence artificielle qui est désormais au service de la guerre, la nouvelle guerre qu'on appellera ici la techno-guerre.
     
    Il y a ce que les spécialistes nomment « la rupture », à savoir un changement radical d'approche en matière de préparation à la guerre du futur. Prenons un premier exemple : le nucléaire. L'histoire montre que ce sont des États, des gouvernements qui étaient demandeurs, et qui décidaient que des chercheurs et des ingénieurs allaient créer une bombe atomique. Aujourd'hui, démarche inverse, ce sont de plus en plus des chercheurs et des inventeurs notamment du secteur privé qui proposent aux personnels politique et militaire de nouvelles armes, des machines, qui apprennent, qui décident, et qui, peut-être, parce qu'elles deviendraient vraiment intelligentes, finiraient par nous échapper.
     
    Car les développements technologiques sont impressionnants ; ils sont source d'immenses espoirs, mais aussi d'intenses réflexions. On va tout de suite voir un exemple avec les drones. Un drone, tout le monde sait désormais de quoi il s'agit. Mais voici qu'une université américaine a mis au point un drone que l'on contrôle, que l'on pilote par la pensée.
     
    Extrait vidéo
     
    Voilà un cas de figure qui soulève bien des questions : piloter par la pensée, oui, mais est-ce fiable ? Est-ce que l'on peut imaginer faire la guerre, à distance, par la pensée ? Le robot lui peut-il ne pas comprendre, voire désobéir ? Car, c'est là le grand défi : grâce à l'intelligence artificielle, on met désormais au point des machines qui apprennent, qui font des synthèses, en somme, qui décident.
     
    On peut donc imaginer, dans un délai rapproché, des machines dites « intelligentes » sur les champs de bataille. On est passé du stade où ces robots faisaient ce que l'homme leur disait de faire à des machines dites « autonomes » qui décident d'ores et déjà comment réaliser ce qu'elles ont à faire. Et, bientôt, on en viendra au stade où ce sont elles, les machines, qui seront en mesure de décider ce qu'elles ont à faire. Actuellement, tout le secteur militaro-industriel vit à l'heure des sciences dites NBIC, nanotechnologie, biotechnologie, informatique et sciences cognitives. Certains tirent déjà des sonnettes d'alarme, tel le grand astrophysicien Stephen Hawking qui le dit tout net : « attention, une intelligence artificielle complète pourrait mettre fin à la race humaine ».
     
     
     
     
    LE REPORTAGE
     
    Des robots qui peuvent apprendre
     
    Nous avons tous en mémoire ces images d'Arnold Schwarzenegger dans son rôle de Terminator, un robot doué d'une programmation telle qu'il parle, qu'il agit, qu'il se répare, qu'il réfléchit et qu'il arrive à ses fins, presque comme un être humain, tout est dans le « presque ». En tout cas, à défaut d'être « vivant », il est « autonome ». C'est une arme autonome à lui tout seul. La plupart de ces armes autonomes n'ont pas, pas encore, de visage quasi humain ; elles ressemblent encore à ce qu’elles sont, des machines. Les partisans de ces armes autonomes affirment que les capteurs et l'intelligence artificielle au service de ces systèmes autonomes sont un plus, par rapport à, disons un soldat, classique. L'arme autonome serait capable de mieux identifier les objectifs militaires, de mieux éviter les pertes civiles, et ne serait pas influencée par des émotions négatives telles que la peur, la colère ou le désir de vengeance. Réplique de ceux qui se méfient de telles armes : jamais ces machines ne seront capables de discernement, elles ne seront aucunement dotées de qualités humaines telles que la pitié ou la compassion.
     
     
    Des robots qui peuvent tuer
     
    Les militaires les appellent les RLA : les robots létaux autonomes. Ce sont des robots tueurs. Sans intervention d'un opérateur humain, ces robots sont capables d'adapter leur fonctionnement selon les circonstances changeantes de l'environnement dans lequel ils sont déployés. Dans un avenir très proche, on les verra en action. L'homme aura mis au point des machines intelligentes qui, sans contrôle humain, seront destinées à tuer d'autres êtres humains. Ce constat amène d'ores et déjà de nombreuses organisations à lancer un moratoire, à défaut d'une interdiction, de ces RLA.
     
     
    Des robots qui peuvent nous surpasser
     
    L'homme s'exprime en termes forts, même si c'est par l'intermédiaire de son ordinateur, en raison de sa paralysie liée à la maladie neuro-dégénérative dont il est atteint. Stephen Hawking, l'astrophysicien britannique mondialement connu, sait de quoi il parle en matière d'intelligence artificielle : il est le premier à se servir des toutes nouvelles technologies et il explique que les formes primitives d'intelligence artificielle déjà développées se sont effectivement montrées très utiles. Pour autant, ajoute-t-il, une fois que les hommes auraient développé une intelligence artificielle complète, le problème serait que cette dernière se développerait seule et, surtout, se redéfinirait de plus en plus vite. En somme, conclut l’astrophysicien, ce développement incontrôlé de l'intelligence artificielle pourrait signifier la fin de l'humanité.
     
     
     
     
     
    L’ÉDITORIAL
     
    Il faut s'y résoudre : la fusion est d'ores et déjà programmée entre l'homme et la machine; deux domaines jusqu'ici fort différents et soigneusement séparés, mais qui tendent à se confondre : d'une part, la mécanisation de l'homme, et, d'autre part, l'humanisation des machines. Le premier domaine nous est connu. Notre corps est « augmenté », comme on dit aujourd'hui, par des éléments technologiques tels que les prothèses bioniques, les puces implantées et tout ce que la révolution des nanotechnologies nous promet. À présent, il convient de définir, pour mieux le maitriser, le second domaine, celui de l'humanisation des machines, entendons par là la notion de capacité de réflexion et de décision donnée à telle ou telle machine, selon des critères qui seraient proches de ceux de l'homme, donc, très voisins de ce que certains appellent déjà la « conscience artificielle ». Ce qui doit nous inquiéter, c'est qu'il y a un fossé qui se creuse de plus en plus, entre ce que la technologie du 21e siècle va permettre, et ce que nos réflexions éthiques et culturelles pourraient nous autoriser à réaliser. C'est à nous de décider. Pas aux machines !