9.3 C
New York
Vendredi, mai 1, 2026

Que signifient les robots soldats ukrainiens pour l’avenir de la guerre ? | Guerre Russie-Ukraine

Dans une scène qui rappelle un jeu de guerre informatique, trois soldats fatigués au combat, vêtus d’un camouflage de neige blanche, émergent d’une ruelle déchirée par la guerre, les mains levées au-dessus de la tête.

Ils s’accroupissent, suivant les ordres qui leur sont donnés, la peur et le choc gravés sur leurs visages alors qu’ils regardent le canon d’une mitrailleuse montée sur un soi-disant robot terrestre.

Histoires recommandées

liste de 4 élémentsfin de liste

Ces images, publiées en janvier par la société de défense ukrainienne DevDroid, montreraient le moment où des soldats russes ont été capturés par un robot ukrainien utilisant l’intelligence artificielle.

En avril, le président ukrainien Volodymyr Zelensky a déclaré que, pour la « première fois dans l’histoire de cette guerre, une position ennemie était prise exclusivement par des plates-formes sans pilote – systèmes au sol et drones ».

« Les systèmes robotiques au sol ont déjà effectué plus de 22 000 missions sur le front en seulement trois mois », a-t-il écrit dans un article sur X, aux côtés d’images de machines vertes avec des chenilles de char et des armes montées sur le dessus.

Mais pour les analystes qui ont étudié l’intersection de l’intelligence artificielle (IA) et de la guerre, les images reflètent une évolution attendue – une évolution qui se déroulera bien au-delà des lignes de front en Ukraine alors que le monde se débat avec les implications éthiques de son contrôle.

Drones, drones navals et chiens robots

Pendant des années, les militaires ont utilisé des robots terrestres principalement pour la neutralisation des bombes et la reconnaissance.

Mais en Ukraine, leur rôle s’est rapidement étendu, certaines brigades signalant que jusqu’à 70 % des fournitures de première ligne sont désormais livrées par des systèmes robotiques plutôt que par des soldats.

Ces machines transportent des munitions, de la nourriture et des fournitures médicales et évacuent les troupes blessées des positions dangereuses.

Pourtant, la vue de systèmes robotiques se déplaçant sur le champ de bataille fait partie d’un changement beaucoup plus vaste dans la guerre, qui se construit depuis des décennies.

Le débat moderne sur l’IA dans la guerre a été largement motivé par la montée en puissance des opérations de véhicules aériens sans pilote (UAV) aux États-Unis au début des années 2000.

En 2002, le drone MQ-1 Predator a été utilisé par les États-Unis pour mener l’une des premières frappes aériennes ciblées en Afghanistan, marquant un tournant dans la manière dont les guerres pouvaient être menées à distance.

Son utilisation s’est développée rapidement tout au long des années 2000 et a culminé entre la fin des années 2000 et le milieu des années 2010, notamment au Pakistan, au Yémen et en Somalie.

À mesure que l’IA progresse, le débat s’étend au-delà des opérations de contrôle à distance.

L’accent s’est déplacé vers des systèmes capables d’aider à identifier les cibles, à prioriser les frappes et à guider les décisions sur le champ de bataille, soulevant des questions plus profondes sur le degré d’autonomie qui devrait être délégué aux machines.

Les analystes affirment que la question de l’autonomie doit rester centrale, plutôt que d’être éclipsée par les développements technologiques rapides, aussi frappant que soit la vue de machines de plus en plus anthropomorphes sur le champ de bataille.

« Ces technologies sont là pour rester », a déclaré à Al Jazeera Toby Walsh, un expert en IA à l’Université de Nouvelle-Galles du Sud. Il a décrit les opérations militaires basées sur l’IA comme « la troisième révolution de la guerre ».

La transformation s’étend également au-delà des cibles foncières.

Les drones navals remplis d’explosifs ont déjà remodelé les batailles en mer Noire, tandis que des systèmes sous-marins autonomes sont développés pour les missions de surveillance, de déminage et de sabotage par les militaires du monde entier.

Les chiens robots, quant à eux, sont déjà testés pour des missions de surveillance, de reconnaissance et de déminage, certaines versions expérimentales étant même équipées d’armes.

Implication humaine

Ces dernières années, l’émergence de drones entièrement autonomes ou soi-disant « robots tueurs » a déclenché un débat féroce après qu’un rapport des Nations Unies a suggéré que des drones à munitions errants Kargu-2 de fabrication turque, fonctionnant en mode entièrement autonome, avaient identifié et attaqué des combattants en Libye en 2020.

L’incident a suscité d’intenses discussions entre experts, militants et diplomates du monde entier, alors qu’ils étaient aux prises avec les implications morales et éthiques d’une machine prenant – et exécutant – la décision de prendre une vie humaine.

Cependant, il faut se concentrer davantage sur le débat réglementaire sur l’utilisation de systèmes d’armes semi-autonomes, « où les humains sont encore soi-disant au courant », a déclaré à Al Jazeera Anna Nadibaidze, chercheuse postdoctorale en politique internationale au Centre d’études sur la guerre de l’Université du Danemark du Sud.

Une préoccupation majeure, a-t-elle déclaré, est de savoir si « suffisamment de temps et d’espace » sont accordés à « l’exercice du jugement humain nécessaire dans le contexte de la guerre ».

L’ampleur de l’implication humaine est souvent un sujet sur lequel les observateurs doivent prendre les militaires au mot ; une tâche difficile lorsque leurs actions laissent la confiance en pénurie, a déclaré Toby Walsh.

Dans le cas de la robotique au sol en Ukraine, un opérateur humain est jusqu’à présent resté aux commandes, dirigeant des machines qui peuvent encore être arrêtées par des obstacles tels qu’un terrain accidenté.

Cependant, lorsque Amnesty International est impliquée dans le processus décisionnel, comme c’est le cas dans les attaques israéliennes sur Gaza et dans la région au sens large, l’ampleur des attaques qui ont entraîné « d’énormes dommages collatéraux et des pertes civiles pour un petit nombre de cibles militaires » remet en question les règles du droit international humanitaire et, en particulier, l’idée de proportionnalité, a déclaré Walsh.

Le problème, selon Nadibaidze, est qu’il est difficile d’appliquer des règles sur l’utilisation de l’IA dans la guerre, car il appartient essentiellement à « chaque armée de décider ce qu’elle considère comme un rôle de citoyenneté pour l’humain, et il n’y a pas suffisamment de débat international sur ce sujet ».

Un rapport d’avril de l’Institut international de recherche sur la paix de Stockholm avertissait que la chaîne d’approvisionnement en IA est également fragmentée, mondiale et fortement dépendante des technologies civiles, ce qui complique encore davantage les efforts visant à gouverner ou contrôler les utilisations militaires de l’IA.

Le Département de la Défense des États-Unis et le Pentagone intègrent systématiquement des systèmes logiciels développés en privé dans leur appareil de guerre.

Au milieu de l’année dernière, le ministère de la Défense a attribué à OpenAI un contrat de 200 millions de dollars pour mettre en œuvre l’IA générative dans l’armée américaine, ainsi que des contrats de 200 millions de dollars pour xAI et Anthropic.

« Si nous ne faisons pas attention, la guerre sera bien plus terrible, bien plus meurtrière, bien plus rapide, bien plus rapide, à laquelle les humains ne pourront plus réellement participer, parce qu’ils n’auront pas la vitesse, la précision ou la capacité de réagir », a prévenu Walsh.

L’Ukraine comme terrain d’essai

La technologie et l’IA ne sont pas intrinsèquement nocives, affirment les experts : c’est la manière dont elles sont utilisées qui compte.

En Ukraine, des systèmes robotiques au sol ont également été utilisés pour secourir des civils et fournir un soutien logistique dans des conditions dangereuses et fortement minées.

Pourtant, ce qui se passe sur la ligne de front constitue, à bien des égards, un terrain d’essai, et la communauté internationale devra réfléchir à la manière dont ces technologies pourraient être appliquées et réglementées dans les conflits futurs.

Il y a également place à un optimisme prudent. Malgré « l’échec moral » des actions d’Israël à Gaza, a déclaré Walsh, la communauté internationale reconnaît que ces questions doivent être abordées, y compris une série de réunions de l’ONU axées sur la réglementation des systèmes d’armes létaux autonomes.

L’Institut des Nations Unies pour la recherche sur le désarmement (UNIDIR), un organisme autonome au sein de l’ONU qui mène des recherches indépendantes sur le désarmement et la sécurité internationale, devrait se réunir en juin pour examiner les implications de l’IA pour la paix et la sécurité internationales.

Ce n’est pas la première fois que de nouvelles technologies d’armement menacent de bouleverser l’ordre fondé sur des règles, a déclaré Walsh, citant les armes chimiques comme exemple. Bien qu’imparfaits, des accords internationaux ont finalement été mis en place pour les placer sous un certain niveau de contrôle.

« De nombreux acteurs basés dans les pays du Sud souhaitent une réglementation, et des initiatives régionales pourraient donc se former », a déclaré Nadibaidze, ajoutant que même si ces efforts n’incluent pas initialement les grandes puissances ou les principaux développeurs de technologies, ils pourraient néanmoins contribuer à façonner les normes émergentes.

- Advertisement -

Related Articles

Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments

Stay Connected

0FansJ'aime
0SuiveursSuivre
22,900AbonnésS'abonner
- Advertisement -

Latest Articles

0
Would love your thoughts, please comment.x
()
x