Robots tueurs, guerre 4.0

Disponible jusqu'au 29/05/2028 - 23:59Disponible jusqu'au 29/05/2028
Des robots capables de tuer sans intervention humaine remplaceront-ils bientôt les soldats sur les champs de bataille ?
Organiser une table ronde sur les armes létales autonomes.
TV5 JWPlayer Field
Chargement du lecteur...
Durée
7:26

Vidéo

FRI-Geopolitis-robots-video
Ressources pédagogiques
  • C1

C1 expérimenté

Voir les fiches
Parler : Parler
Regarder : Regarder
Vocabulaire : sciences et techniques
Écouter : Écouter
Écrire : communiqué de presse
Éducation aux médias : analyse du montage
Fiche enseignant
Fiche apprenant
Contenus complementaires
    Les domaines de la robotique et de l'intelligence artificielle progressent à grands pas, ce qui soulève de nombreuses questions éthiques.
    Chaîne d'origine
    RTS
    - Modifié le
    10/08/2021
    Marcel Mione, présentateur de l’émission (voix off)
    Appliquée au domaine de la guerre, l'intelligence artificielle a déjà produit toutes sortes de machines bizarres comme cet AlphaDog de Boston Dynamics certes encore maladroit, mais conçu pour transporter des charges lourdes. Beaucoup plus agile, ce robot serpent développé par les Israéliens pour se faufiler entre les lignes ennemies. Dans la zone de démarcation qui sépare les deux Corées, l'armée du Sud a déployé ses drôles de soldats sentinelles baptisés SGR-A1 (Sentry Guard Robot) mis au point par la firme Samsung. Ces engins peuvent repérer les mouvements, identifier la cible. En fonction du niveau de danger, le robot peut alors avec ou sans intervention humaine choisir de lancer une alerte sonore, tirer des balles en caoutchouc ou faire feu avec des munitions réelles. L'armée américaine a testé en 2016 dans le désert de Californie des drones offensifs capables d'évoluer en essaim. Une fois largués par les chasseurs, ces mini-drones ont évolué de manière coordonnée adaptant par eux-mêmes leur trajectoire les uns aux autres sans jamais se gêner. Les capacités fulgurantes de l'intelligence artificielle permettent d'imaginer des armes de guerre totalement autonomes, autonomes signifiant qu'une fois engagées, elles pourront agir, repérer une cible, l’identifier et finalement l’abattre sans intervention humaine. Faudrait-il les interdire ? Peut-on déléguer à un robot le droit de tuer ? L’astrophysicien britannique Steven Hawking imagine les pires scénarios.
    Stephen Hawking
    Les formes primitives de l'intelligence artificielle actuelle se sont révélées très profitables mais je pense que les développements futurs pourraient entraîner la fin de l'humanité.
    Marcel Mione, (voix off)
    Plusieurs centaines de chercheurs en intelligence artificielle, des stars de la Silicon Valley comme Elon Musk ont adressé une lettre ouverte aux Nations unies. Il demande l'interdiction des armes autonomes ; elles pourraient tomber facilement aux mains de despotes ou de groupes terroristes.
     
    Marcel Mione, présentateur de l’émission 
    Bonjour Madame !
    Aude Billard, professeure à l’École Polytechnique fédérale de Lausanne
    Bonjour !
    Marcel Mione, présentateur de l’émission 
    Vous dirigez à l'école polytechnique fédérale de Lausanne le laboratoire d'algorithmes et de systèmes d'apprentissage, vous avez travaillé dans l'intelligence artificielle à l'université de Californie du Sud, à Édimbourg aussi. Vous refusez pour vos recherches des fonds qui proviendraient de secteurs militaires. C'est par conviction éthique ?
    Aude Billard, professeure à l’École Polytechnique fédérale de Lausanne
    Oui parfaitement. C'est très important pour moi. Nos applications ne doivent pas être militaires, en tout cas pas volontairement. Si l'armée s'en empare bien sûr c'est un autre problème mais ce n'est en tout cas pas le but de ma recherche.
    Marcel Mione, présentateur de l’émission 
    Pensez-vous qu'il faille interdire les armes autonomes ? Est-ce qu'on peut les interdire ?
    Aude Billard, professeure à l’École Polytechnique fédérale de Lausanne
    Alors c’est deux questions : est-ce qu'on peut les interdire ? Je pense que c'est très difficile, voire quasi impossible et puis, est-ce qu'on doit les interdire ? Pour moi, c'est un faux problème qui se rapporte à la problématique de pourquoi utiliser des armes. Pour moi, si on utilise une arme autonome, non autonome, semi-autonome pour tuer quelqu'un, le résultat est le même : on a tué quelqu'un. Donc, d'un principe éthique pour moi, on ne devrait pas tuer quelqu'un, je ne vois pas de distinction à faire et je m'inquiète en fait de la distinction qu'on essaie de faire parce que pour moi, on repousse le problème. Et le problème en amont est celui de vouloir utiliser des armes de plus en plus sophistiquées, de plus en plus précises.
    Marcel Mione, présentateur de l’émission 
    Les scientifiques qui réclament l'interdiction prétendent que ces armes munies d'intelligence artificielle pourraient tomber facilement aux mains de despotes, de groupes terroristes et en cela elles seraient aussi dangereuses que l'armement nucléaire. Qu'est-ce que vous en pensez ?
    Aude Billard, professeure à l’École Polytechnique fédérale de Lausanne
    Alors, je pense que c'est correct effectivement, que malheureusement, ce sera plus facile que l'arme nucléaire de se procurer ce type d'armes et de les développer parce que finalement cette intelligence artificielle, et bien elle ne demande pas les mêmes configurations, les mêmes matériaux. Ce sont des choses qui sont quand même à la portée de petits groupes ou de grands groupes potentiellement. Donc effectivement, c'est un danger - c’est-à-dire - et aussi c’est la rapidité avec laquelle on peut développer des choses de plus en plus complexes, ça veut dire que ça nous amène aussi un peu à cette course à l'armement c'est-à-dire qu'on s'améliore. Alors c'est un peu différent de l’arme nucléaire justement dans le sens où ce sera à la portée de toutes les nations. Alors Ppeut-être que ça les met plus sur un pied d'égalité de ce point de vue-là, et d'un autre côté, ça augmente les risques de l'utilisation d'armes par de plus en plus de groupes à différents buts.
    Marcel Mione, présentateur de l’émission 
    Qu’est-ce qu'un robot aujourd'hui, un robot militaire fait mieux qu'un soldat humain ?
    Aude Billard, professeure à l’École Polytechnique fédérale de Lausanne
    Essentiellement, être beaucoup plus précis. Bon, faut pas oublier que déjà toutes les armes que l'on utilise, que ce soient des armes de poing sont déjà, dans une large mesure, automatisées et ça, depuis des siècles, à commencer par les anciens canons qui, de toute façon étaient dirigés. Enfin, personne ne prend la balle, l’emmène, fait tout le mouvement balistique pour la jeter dans le cœur de la personne. Ça a toujours été derrière une machine qui le faisait ; tout ce qu'on fait, c'est appuyer sur un trigger (une gâchette). Donc elles sont beaucoup plus précises. Maintenant on a en plus la capacité de pouvoir analyser des images extrêmement rapidement, de pouvoir cibler des cibles visuellement qu'on ne pourrait jamais faire en tant qu'êtres humains, de pouvoir en cibler plusieurs, de pouvoir faire des déploiements de machines en configuration, donc c'est vrai que ce sont des choses qui ne sont pas possibles à cette vitesse et à ce niveau de précision chez l'homme.
    Marcel Mione, présentateur de l’émission 
    Mais quand même, il y a quand même beaucoup d'obstacles à la réalisation d'armes totalement autonomes :, des obstacles technologiques ?
    Aude Billard, professeure à l’École Polytechnique fédérale de Lausanne
    Oui alors, il faut venir déjà à la définition de q. Qu'est-ce que c'est déjà un robot totalement autonome ? Pour moi, un robot totalement autonome qui tuerait c'est un robot qui vit, qui a sa propre intelligence, sa propre petite vie et puis il est là dans son petit coin de bitume et puis un jour il se dit : « tiens qu'est-ce que je pourrais faire aujourd'hui ? Allons donc tuer quelqu'un ! ». Non, ça, ça n'existe pas. On n'a pas ce niveau d'intelligence et d'autonomie.
    Marcel Mione, présentateur de l’émission 
    Et ça n'existera jamais ?
    Aude Billard, professeure à l’École Polytechnique fédérale de Lausanne
    Pfff, ha ha ha, je ne suis pas Madame Soleil, je ne peux pas dire. Dans le futur, on ne sait jamais ce qui va se passer mais au jour d'aujourd'hui non, dans les années qui viennent non plus. Alors (àÀ l’heure ?) d'aujourd'hui, il y a toujours un être humain qui - en tout cas - appuie sur un petit bouton, définit aussi la cible, faut pas oublier ça. Il y a quand même une définition de la cible qui est d'ailleurs la difficulté. C'est quoi une cible ? Et surtout, qu'est-ce qui n'est pas une cible ? Donc l'être humain reste, dans une large mesure, en contrôle, en tout cas au départ, de la décision de vouloir tuer. Après, c'est une machine effectivement qui génère en fait l'acte mais ça, encore une fois, ça l'a toujours été depuis pratiquement la nuit des temps.
    Marcel Mione, présentateur de l’émission 
    Les robots militaires, on pourrait y voir aussi finalement certains avantages, c'est-à-dire on n’enverrait plus des soldats se faire tuer au front et on enverrait des machines se faire tuer. Finalement, c'est peut-être bien ?
    Aude Billard, professeure à l’École Polytechnique fédérale de Lausanne
    Dans le sens où il n'y aurait plus de morts d'hommes… Je n'y crois pas. C'est ce qu'on essaye de… C'est ce que certains de mes collègues essayent d'avancer comme, disons comme un côté positif, comme argument positif. Je n'y crois pas parce je pense que la raison pour laquelle les êtres humains utilisent une armée, tuent, essaient d'utiliser d'autres êtres humains, c'est finalement pour faire souffrir. Donc, on sait très bien que si on détruit l'armée opposée mais que c'est une armée de robots, il y aura pas le même sentiment qui sera généré ailleurs, et on le voit bien avec les terroristes et donc y aura pas cette réponse qu'on espère. En fait, j'ai le sentiment que les guerres c'est surtout une réponse d'émotion. On génère une émotion, une souffrance chez l'autre, et puis après c'est comme ça qu'on monte dans la bataille.