Cheap Drones, AI, maak drone surveillance alomtegenwoordig

Deel dit verhaal!
AI als een service toegepast op goedkope drones betekent dat elke wetshandhavingsinstantie nu zijn eigen vloot drones kan hebben om burgers te bespioneren. Natuurlijk zullen ze van tijd tot tijd wetsovertreders betrappen, maar de rechten en privacy van onschuldige burgers zullen worden vertrapt. ⁃ TN-editor

betaalbare consumententechnologie heeft bewaking goedkoop gemaakt en gecodificeerde AI-software heeft het automatisch gemaakt.

Die twee trends zijn deze week samengevoegd, toen dronefabrikant DJI partneredJuni 5 met Axon, het bedrijf dat Taser-wapens en politiecamera's maakt, om drones te verkopen aan lokale politiediensten in de Verenigde Staten. Nu heeft de lokale politie niet alleen toegang tot drones, maar worden beelden van die vliegende camera's automatisch geanalyseerd door AI-systemen die niet openbaar worden gemaakt.

Beeldmateriaal wordt geüpload of gestreamd naar Axons digitale cloud voor politiecamera's, zoals de lichaamscamera's het verkoopt momenteel, waar het kan worden geanalyseerd door Axon's AI en kan worden gebruikt voor alles, van crowd monitoring tot zoeken en redden, het bedrijf schrijft op haar website.

Dit klinkt vaag, maar AI onderzoek gepubliceerd twee dagen eerder door academici uit India en het VK laat precies zien hoe een dergelijk dronesysteem kan worden gebruikt. Het papier, getiteld "Eye in the Sky", beschrijft hoe drone-beelden kunnen worden gebruikt om "gewelddadige personen" in realtime te detecteren.

Om de AI te trainen, vlogen de onderzoekers met een drone om 2,000-foto's te maken van mensen die deden alsof ze elkaar pijn deden. Maar omdat de onderzoekers geen echte gegevens hebben gebruikt en de informatie die de AI heeft geanalyseerd zorgvuldig hebben samengesteld om het verschil te leren tussen geweld en normale menselijke bewegingen, is er geen garantie dat het goed zou werken in de echte wereld, David Sumpter, auteur van In de minderheid: onderzoek naar de algoritmen die ons leven beheersenschreef op Medium.

"Wat het algoritme heeft gedaan, is individuen classificeren met hun handen of benen in de lucht als gewelddadig," schreef Sumpter. Anderen, zoals Google ethics hawk Meredith Whittaker, tweeted dat het onderzoek gebrekkig was en dat "AI geconfronteerd wordt met een toenemende ethische crisis."

Andere onderzoekers, waaronder Google (pdf) en Facebook, hebben ook uitgebreid onderzoek gedaan om hetzelfde probleem op te lossen door na te gaan hoe mensen bewegen en wat die bewegingen kunnen aangeven dat ze doen.

Maar de onderzoekers van "Eye in the Sky" proberen bepaalde poses te associëren met intentie. De onderzoekers bespreken geen vals-positieven voor acties die verkeerd kunnen worden geïnterpreteerd als geweld, zoals spelen-vechten, een vlieg van de schouder slaan of iemand pakken die valt.

Ongeacht vragen over de legitimiteit van de AI, The Verge meldt dat de onderzoekers goedkeuring hebben gekregen om de technologie te testen tijdens twee festivals in India in oktober.

Met $ 160 voor een Papegaai drone zoals het "Eye in the Sky" -team dat werd gebruikt, en een paar centen voor Amazon's cloud AI-platform, iedereen met een coderingsachtergrond had een soortgelijk systeem kunnen maken. Zelfs tieners en komkommerboeren bouwen hun eigen AI-systemen.

Lees hier het hele verhaal ...

Inschrijven
Melden van
gast

1 Reactie
Oudste
Nieuwste Meest Gestemd
Inline feedbacks
Bekijk alle reacties