Een nieuwe technologie stelt robots in staat het resultaat van hun eigen acties te voorspellen voordat zij deze acties daadwerkelijk uitvoeren. Robots kunnen hierdoor zelfstandig ontdekken hoe zij een object kunnen manipuleren, ook als zij dit object nog nooit eerder hebben gezien.
Het gaat om een technologie genaamd ‘visual foresight’, dat is ontwikkeld door onderzoekers van de Amerikaanse University of California Berkeley (UC Berkeley). De technologie is toegepast op een Baxter collaboratieve robot van het bedrijf Rethink Robotics, die hiermee geheel zelfstandig zonder tussenkomst van een mens en zonder voorkennis over fysica kan leren welke invloed een bepaalde handeling op een object heeft. Dit stelt de robot in staat zelfstandig objecten te manipuleren, ook als het niet bekend is met de vorm, afmetingen of andere eigenschappen van het specifieke object.
De kern van de technologie bestaat uit een deep learning technologie die ‘dynamic neural advection’ (DNA) wordt genoemd. Deze technologie is ontwikkeld door promovendus Chelsea Finn van de UC Berkeley, assistent-professor van de afdeling Elektrotechniek en Computerwetenschappen van de UC Berkeley Sergey Levine en onderzoeker Ian Goodfellow van OpenAI. Finn, Levine en Goodfellow publiceerden in oktober 2016 een onderzoekspaper over DNA. De DNA-technologie verdeelt het beeld dat door camera’s op een robot wordt vastgelegd in verschillende hokjes. Het model voorspelt vervolgens hoe pixels van het beeld zich tussen hokjes zullen verplaatsen indien de robot bepaalde handelingen uitvoert.
De robot baseert zich hierbij op een voorspellend model dat de robot zelfstandig heeft gegenereerd. Dit model wordt gecreëerd op basis van ervaringen die de robot opdoet tijdens een leerfase, die door de onderzoekers de ‘speelfase’ wordt genoemd. Hierbij krijgt de robot op een tafel een reeks objecten gepresenteerd en krijgt het de opdracht hiermee te spelen. De camera’s registreren de handelingen die de robot met objecten uitvoert en de invloed die deze handelingen hebben op de objecten. Op basis hiervan wordt met behulp van de DNA-technologie een voorspellend model gegenereerd. Dit model stelt de robot vervolgens in staat te voorspellen hoe bepaalde handelingen zullen uitpakken voordat deze daadwerkelijk worden uitgevoerd, ook bij objecten die de robot nog nooit eerder heeft gezien.
“Op dezelfde manier waarop wij ons kunnen voorstellen hoe onze acties objecten in onze omgeving zullen bewegen, kan deze methode robots in staat stellen te visualiseren hoe verschillend gedrag de wereld om hen heen zal beïnvloeden”, legt Levine. “Dit maakt intelligente planning van zeer flexibele vaardigheden in complexe situaties in de echte wereld mogelijk.” Finn voegt toe: “In het verleden leerden robots vaardigheden van een menselijke begeleider die hen hielp en feedback gaf. Wat dit werk spannend maakt is dat robots nu geheel zelfstandig een reeks vaardigheden kunnen aanleren voor het visueel manipuleren van objecten.”
De universiteit wijst erop dat de voorspellingen die hun Baxter robot met het DNA-model kan maken op dit moment relatief eenvoudig zijn. Zo is de robot in staat het resultaat van zijn handelingen slechts enkele seconden van te voren te voorspellen. Dit is echter voldoende om de robot in staat te stellen objecten op een tafel rond allerlei obstakels te bewegen, zonder hiermee in botsing te komen. Daarnaast kan de robot met behulp van het DNA-model meerdere objecten op een tafel herpositioneren.
Indien de technologie wordt doorontwikkeld voorziet de universiteit interessante toepassingen. Zo zou de technologie kunnen worden gebruikt om autonome auto’s in staat te stellen gebeurtenissen op de weg vooraf te voorspellen. Ook kunnen DNA-modellen helpen intelligente robotassistenten in thuissituaties slimmer te laten opereren.
“Kinderen kunnen over hun wereld leren door te spelen met speelgoed, deze heen en weer te bewegen, vast te pakken, enzovoort. Ons doel met dit onderzoek is een robot in staat te stellen hetzelfde te doen: te leren hoe de wereld werkt door autonome interactie”, aldus Levine. “De mogelijkheden van deze robot zijn nog beperkt, maar zijn vaardigheden zijn geheel zelfstandig aangeleerd en stellen het in staat complexe fysieke interacties met objecten te voorspellen die het nooit eerder heeft gezien door voort te bouwen op bestaande geobserveerde patronen van interacties.”
“Mensen leren vaardigheden om objecten te manipuleren zonder leerkracht aan met behulp van miljoenen interacties met uiteenlopende objecten die zij gedurende hun leven hebben. Wij hebben aangetoond dat het mogelijk is een robotsysteem te ontwikkelen dat ook gebruik maakt van een grote hoeveelheid autonoom verzamelde data om breed inzetbare manipulatievaardigheden aan te leren, in het specifiek vaardigheden om objecten te duwen”, aldus Frederik Ebert, een promovendus van de UC Berkeley.
De onderzoekers van de UC Berkeley willen het model doorontwikkelen en geavanceerdere modellen voor robots te bouwen. Deze modellen moeten robots in staat gaan stellen complexere taken uit te voeren, zoals het oppakken en neerzetten van objecten, het manipuleren van zachte of vervormbare objecten zoals kleding of touw, en het assembleren van producten.
Auteur: Wouter Hoeffnagel
Bron: University of California Berkeley
Bron foto: Pixabay / DirtyOpi