Épisode 8 : L’IA est-elle sûre ?
Les systèmes d’IA sont capables de rechercher dans d’énormes volumes de données personnelles, y compris les antécédents criminels et d’autres caractéristiques considérées comme des “facteurs de risque”. Récemment, des organisations se sont inquiétées de l’intention du gouvernement français d’utiliser la surveillance par l’IA à l’approche des Jeux olympiques de Paris. L’évolution la plus redoutée dans un avenir proche est l’émergence d’armes mortelles autonomes pilotées par l’IA.
Sources:
There’s software used across the country to predict future criminals. And it’s biased against blacks : Pro Publica
A new look at the intersection of predictive policing, poverty and stress in LA : Centre of Health Journalism
LAPD ended predictive policing programs amid public outcry. A new effort shares many of their flaws : The Guardian
Predictive policing: When AI predicts criminal activity : Digital World
London Underground Is Testing Real-Time AI Surveillance Tools to Spot Crime : WIRED
Paris 2024 Olympics: Concern over French plan for AI surveillance : BBC
Russia illegally used facial recognition to arrest protestor, human rights court rules : Politico
‘The Gospel’: how Israel uses AI to select bombing targets in Gaza : The Guardian
Israel under pressure to justify its use of AI in Gaza : Politico
As A.I.-Controlled Killer Drones Become Reality, Nations Debate Limits : The New York Times
Ukraine is ‘extraordinary laboratory’ for military AI, senior DOD official says : Defensescoop