Wetenschappers protesteren tegen nieuw dodelijk AI-wapenlab gelanceerd aan de Zuid-Koreaanse universiteit

Deel dit verhaal!
Zuid-Korea is een technocratie van bovenaf, en er is dus geen rem op het gebruik van universitaire middelen om technologie te ontwikkelen die kan worden gebruikt voor oorlogvoering; in dit geval zijn het autonome moordenaarsrobots uitgerust met kunstmatige intelligentie. ⁃ TN Editor

De KAIST-universiteit heeft naar verluidt in februari een nieuw AI-wapenlaboratorium gelanceerd, waardoor tientallen onderzoekers dachten dat de producten "het potentieel hebben om terreurwapens te zijn".

Oby Walsh, professor aan de Universiteit van New South Wales in Sydney, organiseerde de boycot met andere onderzoekers van 49.

Hij zei in een open brief: “Als ze worden ontwikkeld, zullen autonome wapens ... het mogelijk maken dat oorlog sneller wordt uitgevochten en op een grotere schaal dan ooit tevoren.

"Ze zullen het potentieel hebben om terreurwapens te zijn."

KAIST zei dat het "niet van plan was om deel te nemen aan de ontwikkeling van dodelijke autonome wapensystemen en dodelijke robots".

Universiteitsvoorzitter Sung-Chul Shin zei dat de universiteit zich "aanzienlijk bewust" was van ethische bezorgdheid over AI.

Maar gisteren kondigden de onderzoekers een boycot van de universiteit aan en zeiden dat ze af zouden zien van het bezoeken van KAIST, het ontvangen van bezoekers van de universiteit of samenwerken met haar onderzoeksprogramma's totdat het beloofde te stoppen met het ontwikkelen van de wapens.

De wetenschappers voegden eraan toe: “Ze hebben het potentieel om terreurwapens te zijn.

“Despoten en terroristen zouden ze kunnen gebruiken tegen onschuldige bevolkingsgroepen en daarbij alle ethische beperkingen wegnemen.

"De doos van Pandora zal moeilijk te sluiten zijn als hij wordt geopend."

Professor Walsh erkende dat er veel goed gebruik was van robotica en kunstmatige intelligentie in het leger.

De wetenschappers haalden effectieve verboden op eerdere wapentechnologieën aan en drongen er bij KAIST op aan om elk werk aan dodelijke autonome wapens te verbieden en af ​​te zien van AI-gebruik dat mensenlevens zou schaden.

Maar hij zei dat ze niet mochten beslissen "wie er leeft of sterft".

De brief, ook ondertekend door topexperts op het gebied van diep leren en robotica, werd voorafgaand aan de bijeenkomst van maandag in Genève door 123 VN-lidstaten vrijgegeven over de uitdagingen van dodelijke autonome wapens, beschreven als "moordenaarrobots".

Lees hier het hele verhaal ...

Inschrijven
Melden van
gast

0 Heb je vragen? Stel ze hier.
Inline feedbacks
Bekijk alle reacties