Experts: Europese landen moeten sociale kredietscore verbieden

Europa
Deel dit verhaal!
Technocraten in de EU zijn gebrand op totale bewaking en controle van mensen, maar een onafhankelijke adviesgroep op hoog niveau heeft gewaarschuwd voor het gebruik van AI voor grootschalig toezicht en sociale kredietwaardigheid. ⁃ TN-editor

Een onafhankelijke deskundigengroep belast met het adviseren van de Europese Commissie om haar regelgevende reactie op kunstmatige intelligentie te informeren - om het verklaarde doel van EU-wetgevers om ervoor te zorgen dat AI-ontwikkelingen "human centric" zijn, te ondersteunen - heeft haar beleids- en investeringsaanbevelingen gepubliceerd.

Dit volgt eerdere ethische richtlijnen voor "betrouwbare AI", gepubliceerd door de High Level Expert Group (HLEG) voor AI terug in april, toen de Commissie de deelnemers ook opriep om de ontwerpregels te testen.

De volledige beleidsaanbevelingen van de AI HLEG omvatten een zeer gedetailleerd 50-paginadocument - dat hieruit kan worden gedownload webpagina. De groep, die werd opgericht in juni 2018, bestaat uit van een mix van industrie-AI-experts, vertegenwoordigers van het maatschappelijk middenveld, politieke adviseurs en beleidsdragers, academici en juridische experts.

Het document bevat waarschuwingen over het gebruik van AI voor massale surveillance en scores van EU-burgers, zoals China's sociale-kredietsysteem, met de groep die pleit voor een volledig verbod op "AI-enabled massale scores van individuen". Het dringt er ook bij regeringen op aan zich niet in te zetten voor algemene bewaking van populaties voor doeleinden van nationale veiligheid. (Dus misschien is het net zo goed dat het VK heeft gestemd om de EU te verlaten, gezien de swingende staat surveillance bevoegdheden het werd van kracht aan het einde van 2016.)

"Hoewel er een sterke verleiding kan zijn voor regeringen om de samenleving te 'beveiligen' door een doordringend surveillancesysteem op basis van AI-systemen te bouwen, zou dit uiterst gevaarlijk zijn als het tot extreme niveaus wordt gestuwd," schrijft de HLEG. "Regeringen moeten zich ertoe verbinden niet deel te nemen aan massale surveillance van individuen en alleen betrouwbare AI-systemen in te zetten en aan te schaffen, ontworpen om de wet en de grondrechten te respecteren, afgestemd op ethische principes en sociaal-technisch robuust."

De groep dringt er ook op aan dat commercieel toezicht op personen en samenlevingen wordt "tegengegaan" - wat suggereert dat het antwoord van de EU op de potentie en het potentieel voor misbruik van AI-technologieën moet omvatten dat ervoor moet worden gezorgd dat online mensen volgen "strikt in overeenstemming is met fundamentele rechten zoals privacy ”, Inclusief (de groep specificeert) als het gaat om 'gratis' diensten (zij het met een kleine waarschuwing over de noodzaak om te overwegen hoe bedrijfsmodellen worden beïnvloed).

Vorige week schoot de Britse waakhond voor gegevensbescherming een nog specifieker schot in de boeg van de online gedragsadvertentie-industrie - waarschuwend dat adtech's massale verwerking van persoonlijke gegevens van webgebruikers voor het richten van advertenties voldoet niet aan de EU-privacynormen. De industrie kreeg te horen dat haar inbreukmakende praktijken moeten veranderen, zelfs als het kantoor van de Information Commissioner nog niet op het punt staat de hamer neer te halen. Maar de hervormingswaarschuwing was duidelijk.

Terwijl EU-beleidsmakers werken aan het vormgeven van een rechten-respecterend regelgevingskader voor AI, en proberen de komende tien jaar vooruitstrevende technologische ontwikkelingen in de regio te sturen, lijkt de bredere aandacht en controle die zullen trekken naar digitale praktijken en bedrijfsmodellen te stimuleren een opruiming van problematische digitale praktijken die zich tot nu toe hebben kunnen verspreiden onder geen of zeer lichte aanrakingsregulering.

De HLEG roept ook op tot steun voor het ontwikkelen van mechanismen voor de bescherming van persoonsgegevens, en voor individuen om "hun gegevens te beheersen en te versterken" - volgens hen zouden "enkele aspecten van de vereisten van betrouwbare AI" aan de orde komen.

“Er moeten hulpmiddelen worden ontwikkeld om een ​​technologische implementatie van de AVG te bieden en privacybehoud / privacy te ontwikkelen door technische ontwerpmethoden om criteria, causaliteit bij de verwerking van persoonsgegevens van AI-systemen (zoals federated machine learning) te verklaren,” schrijven ze.

“Ondersteuning van de technologische ontwikkeling van anonimisering en coderingstechnieken en ontwikkeling van normen voor veilige gegevensuitwisseling op basis van persoonlijke gegevenscontrole. Bevordering van de educatie van het grote publiek in het beheer van persoonlijke gegevens, inclusief het bewustzijn van en de empowerment van individuen in op AI-gegevens gebaseerde besluitvormingsprocedures. Creëer technologieoplossingen om personen informatie en controle te geven over hoe hun gegevens worden gebruikt, bijvoorbeeld voor onderzoek, over toestemmingsbeheer en transparantie over de Europese grenzen, evenals eventuele verbeteringen en resultaten die hieruit voortvloeien, en ontwikkel normen voor veilige gegevensuitwisseling op basis van persoonlijke gegevenscontrole. "

Lees hier het hele verhaal ...

Inschrijven
Melden van
gast

1 Reactie
Oudste
Nieuwste Meest Gestemd
Inline feedbacks
Bekijk alle reacties