Ah, l’intelligence artificielle (IA) ! Cette merveille technologique qui promet de résoudre tous nos problèmes, de rendre nos vies plus faciles et de nous propulser vers un avenir radieux. Mais que se passe-t-il lorsque cette technologie soi-disant neutre est utilisée dans des contextes militaires, notamment dans des conflits aussi asymétriques que celui entre Israël et la Palestine ? C’est là que les choses deviennent un peu moins roses et beaucoup plus compliquées.
Google et l’Armée Israélienne
Selon des rapports récents, Google a gentiment offert à l’armée israélienne un accès accru à ses outils d’IA dès le début de la guerre contre Gaza en octobre 2023. Des documents obtenus par le Washington Post révèlent que Google a répondu aux demandes urgentes du ministère de la Défense israélien pour élargir l’utilisation de ses technologies, particulièrement Vertex AI. Parce que, bien sûr, quand on parle de guerre, rien de tel qu’un bon algorithme pour ajouter un peu de piment à la situation.
Cette collaboration s’inscrit dans le cadre du projet « Nimbus », un partenariat de 1,2 milliard de dollars entre Google, Amazon et le gouvernement israélien. Google affirme que ce contrat n’est pas dirigé vers des charges de travail militaires sensibles. Mais bon, pouvons-nous réellement croire une entreprise, qui, il y a quelques semaines, avait annoncé supprimer les bloqueurs de nuisances sur son navigateur Chrome simplement pour le profit, qui utilise les données de ses utilisateurs à des fins de propagande commerciale ?
Rappelons-nous que le slogan de Google était « Don’t be evil » (Ne soyez pas méchant). Ironique, n’est-ce pas ?
Conséquences Humanitaires
L’utilisation de l’IA dans des contextes militaires pose des défis éthiques considérables. En premier lieu, l’IA peut être utilisée pour cibler des populations civiles, augmentant ainsi le risque de pertes humaines. Dans le cas de Gaza, l’armée israélienne a utilisé un outil d’IA interne appelé Habsora pour identifier des milliers de cibles palestiniennes. Les commandants israéliens ont exprimé des préoccupations quant à la précision de cette technologie, soulignant les dangers de se fier trop à des recommandations algorithmiques. Parce que, vous savez, les algorithmes ne font jamais d’erreurs, n’est-ce pas ?
De plus, l’IA peut être utilisée pour surveiller et contrôler des populations, violant ainsi des droits humains fondamentaux. La surveillance massive et l’analyse des données personnelles peuvent être utilisées pour réprimer des mouvements de résistance et maintenir un état de siège, comme c’est le cas à Gaza. Rien de tel qu’un bon vieux Big Brother pour garder tout le monde sous contrôle.
Réactions Internes et Protestations
L’implication de Google dans ce conflit a suscité une dissidence interne significative. Des employés de Google ont organisé des sit-in pour protester contre le projet Nimbus, ce qui a conduit à des licenciements et à des tensions au sein de l’entreprise. Sous la bannière de « #NoTechForApartheid », ces employés ont dénoncé l’utilisation de la technologie de leur entreprise dans des opérations militaires qui violent les droits humains. Nous soutenons bien évidement leur prise de position.
Sources :
Image par REUTERS/Loren Elliott
Laisser un commentaire