DeepMind van Google ontdekt hoe u resultaten kunt onthouden en sneller kunt leren

AI-geheugen DeepMind
Deel dit verhaal!

Deze ontwikkeling heeft er waarschijnlijk toe geleid dat Google's technocraat / transhuman Ray Kurzweil verklaarde dat de singulariteit in 2029 zal worden bereikt in plaats van in 2045. Herinnering is een gevaarlijke uitkomst als ze in het begin defect zijn, of erger nog, bevooroordeeld zijn over de input die ze heeft gecreëerd. Op basis van AI 'herinneringen' zal het leren zeker toenemen, maar zal verder leren gebaseerd zijn op de werkelijkheid of slechts een wenselijk computermodel?  TN Editor

Hoewel AI-systemen veel menselijke mogelijkheden kunnen evenaren, duurt het 10 langer om te leren. Nu, door de manier waarop de hersenen werken te kopiëren, heeft Google DeepMind een machine gebouwd die het gat dichtt.

Intelligente machines hebben mensen in het vizier. Diepgaande machines hebben al bovenmenselijke vaardigheden als het gaat om taken zoals gezichtsherkenning, videogames spelen, en zelfs het oude Chinese spel Go. Het is dus gemakkelijk om te denken dat mensen al outgunned zijn.

Maar niet zo snel. Intelligente machines lopen nog steeds achter op mensen op een cruciaal prestatiegebied: de snelheid waarmee ze leren. Als het bijvoorbeeld gaat om het beheersen van klassieke videogames, hebben de beste deep-learningmachines zo'n 200 uur speeltijd nodig om dezelfde vaardigheidsniveaus te bereiken die mensen in slechts twee uur bereiken.

Dus computerwetenschappers zouden heel graag een manier hebben om de snelheid waarmee machines leren te versnellen.

Vandaag beweren Alexander Pritzel en vrienden bij Google's DeepMind-dochter in Londen dat precies te hebben gedaan. Deze jongens hebben een diepgaande leermachine gebouwd die in staat is om nieuwe ervaringen snel te verwerken en er vervolgens naar te handelen. Het resultaat is een machine die aanzienlijk sneller leert dan anderen en de potentie heeft om mensen te matchen in de nabije toekomst.

Eerst wat achtergrondinformatie. Diep leren gebruikt lagen van neurale netwerken om patronen in gegevens te zoeken. Wanneer een enkele laag een patroon herkent dat het herkent, stuurt het deze informatie naar de volgende laag, die naar patronen in dit signaal zoekt, enzovoort.

Dus bij gezichtsherkenning kan de ene laag zoeken naar randen in een afbeelding, de volgende laag voor cirkelvormige patronen van randen (het soort dat ogen en monden maken) en de volgende voor driehoekige patronen zoals die gemaakt door twee ogen en een mond. Wanneer dit alles gebeurt, is de uiteindelijke uitvoer een indicatie dat een gezicht is gezien.

Natuurlijk zit de duivel in de details. Er zijn verschillende feedbacksystemen om het systeem te laten leren door verschillende interne parameters aan te passen, zoals de sterkte van verbindingen tussen lagen. Deze parameters moeten langzaam veranderen, omdat een grote verandering in één laag catastrofaal het leren in de volgende lagen kan beïnvloeden. Dat is de reden waarom diepe neurale netwerken zoveel training nodig hebben en waarom het zo lang duurt.

Pritzel en co hebben dit probleem aangepakt met een techniek die ze neurale episodische controle noemen. "Neurale episodische controle toont dramatische verbeteringen in de snelheid van leren voor een breed scala van omgevingen," zeggen ze. "Kritiek is dat onze agent in staat is om snel succesvolle strategieën vast te leggen zodra deze worden ervaren, in plaats van te wachten op veel optimalisatiestappen."

Het basisidee achter de aanpak van DeepMind is om de manier waarop mensen en dieren snel leren te kopiëren. De algemene consensus is dat mensen situaties op twee verschillende manieren kunnen aanpakken. Als de situatie bekend is, hebben onze hersenen er al een model van gevormd, waarmee ze uitzoeken hoe ze zich het beste kunnen gedragen. Dit maakt gebruik van een deel van de hersenen dat de prefrontale cortex wordt genoemd.

Lees hier het hele verhaal ...


Zie ook De nieuwe AI van Google wordt slimmer dankzij een werkgeheugen

Inschrijven
Melden van
gast

0 Heb je vragen? Stel ze hier.
Inline feedbacks
Bekijk alle reacties