Onderzoekers van UC Berkeley hebben een robotleertechnologie ontwikkeld waarmee robots de toekomst van hun acties kunnen voorstellen, zodat ze kunnen achterhalen hoe ze objecten kunnen manipuleren die ze nog nooit eerder zijn tegengekomen. In de toekomst zou deze technologie zelfrijdende auto's kunnen helpen anticiperen op toekomstige gebeurtenissen op de weg en intelligentere robotassistenten in huizen produceren, maar het eerste prototype is gericht op het leren van eenvoudige handmatige vaardigheden, volledig uit autonoom spel.
Met behulp van deze technologie, genaamd visuele vooruitziende blik, kunnen de robots voorspellen wat hun camera's zullen zien als ze een bepaalde reeks bewegingen uitvoeren. Deze robotachtige verbeelding is voorlopig nog steeds relatief eenvoudig - voorspellingen die slechts enkele seconden in de toekomst worden gedaan - maar ze zijn genoeg voor de robot om erachter te komen hoe hij objecten op een tafel kan verplaatsen zonder hindernissen te storen. Cruciaal is dat de robot deze taken kan leren uitvoeren zonder enige hulp van mensen of voorkennis over fysica, de omgeving of wat de objecten zijn. Dat komt omdat de visuele verbeelding volledig uit het niets is geleerd door onbewaakte en toezichtloze verkenning, waarbij de robot met objecten op een tafel speelt. Na deze speelfase bouwt de robot een voorspellend model van de wereld en kan dit model gebruiken om nieuwe objecten te manipuleren die hij nog niet eerder heeft gezien.
"Op dezelfde manier als we ons kunnen voorstellen hoe onze acties de objecten in onze omgeving zullen bewegen, kan deze methode een robot in staat stellen om te visualiseren hoe verschillend gedrag de wereld eromheen zal beïnvloeden," Sergey Levine, universitair docent bij de afdeling elektrotechniek en computerwetenschappen van Berkeley, wiens laboratorium de technologie heeft ontwikkeld. "Dit kan intelligente planning van zeer flexibele vaardigheden in complexe, realistische situaties mogelijk maken."
[the_ad id = "11018 ″]
Het onderzoeksteam zal een demonstratie van de visuele vooruitziende technologie op de Conferentie van Neural Information Processing Systems in Long Beach, Californië, op december 5.
De kern van dit systeem is een diepgaande leertechnologie gebaseerd op convolutionele terugkerende videovoorspelling, of dynamische neurale advectie (DNA). Op DNA gebaseerde modellen voorspellen hoe pixels in een afbeelding van het ene frame naar het volgende bewegen op basis van de acties van de robot. Recente verbeteringen aan deze klasse modellen, evenals sterk verbeterde planningsmogelijkheden, hebben robotcontrole op basis van videovoorspelling mogelijk gemaakt om steeds complexere taken uit te voeren, zoals speelgoed over obstakels glijden en meerdere objecten verplaatsen.