Laatste nieuws:

, 21 april 2022 10:02

Robots leren problemen op te lossen zoals wij dat doen

Kunnen robots hun eigen werkwijze aanpassen om complexe taken op te lossen? Onderzoekers van de Chalmers University of Technology in Zweden denken van wel. Zij hebben een nieuwe vorm van AI ontwikkeld die zich, door het observeren van menselijk gedrag, kan aanpassen om taken uit te voeren in een veranderlijke omgeving. De hoop is dat robots die hiertoe in staat zijn, veel beter met mensen zullen kunnen samenwerken.

‘Explainable AI’ laat robots leren van mensen.'
‘Explainable AI’ laat robots leren van mensen.
1/1
"Robots die in menselijke omgevingen werken, moeten zich kunnen aanpassen aan het feit dat mensen uniek zijn, en dat we dezelfde taak misschien allemaal op een andere manier oplossen. Een belangrijk gebied in de ontwikkeling van robots is daarom om robots te leren hoe ze naast mensen in dynamische omgevingen kunnen werken", zegt Maximilian Diehl, promovendus aan de faculteit elektrotechniek van de Chalmers University of Technology en hoofdonderzoeker achter het project.
Wanneer mensen een eenvoudige taak uitvoeren, zoals het dekken van een tafel, kunnen we de uitdaging op verschillende manieren aanpakken, afhankelijk van de omstandigheden. Als er onverwacht een stoel in de weg staat, kunnen we ervoor kiezen die te verplaatsen of eromheen te lopen. We wisselen af tussen het gebruik van onze rechter- en linkerhand, we nemen pauzes, en voeren allerlei ongeplande handelingen uit.
Maar robots werken niet op dezelfde manier. Ze moeten nauwkeurig worden geprogrammeerd en instructies krijgen om hun doel te bereiken. Deze aanpak maakt ze zeer efficiënt in omgevingen waar ze voortdurend hetzelfde patroon volgen, zoals verwerkingslijnen in fabrieken. Maar om succesvol met mensen te kunnen samenwerken op gebieden zoals gezondheidszorg of klantgerichte functies, moeten robots veel flexibelere manieren van werken ontwikkelen.

‘Explainable AI'

De onderzoekers van de Chalmers University wilden onderzoeken of het mogelijk is om een robot meer menselijke manieren aan te leren om taken op te lossen - om een 'uitlegbare AI' te ontwikkelen die tijdens een demonstratie algemene in plaats van specifieke informatie verzamelt, zodat hij vervolgens een flexibel en aanpasbaar pad naar een langetermijndoel kan uitstippelen. Explainable AI (XAI) is een term die verwijst naar een type kunstmatige intelligentie waarbij mensen kunnen begrijpen hoe het tot een bepaalde beslissing of resultaat is gekomen.

Objecten stapelen

De onderzoekers vroegen verschillende mensen om dezelfde taak - het stapelen van stapeltjes kleine kubussen - twaalf keer uit te voeren, in een VR-omgeving. Elke keer werd de taak op een andere manier uitgevoerd, en de bewegingen die de mensen maakten werden gevolgd via een set lasersensoren.
"Wanneer wij mensen een taak hebben, verdelen we die in een keten van kleinere subdoelen onderweg, en elke actie die we uitvoeren is gericht op het vervullen van een tussenliggend doel. In plaats van de robot een exacte imitatie van menselijk gedrag aan te leren, richtten we ons op het identificeren van wat de doelen waren, kijkend naar alle acties die de mensen in het onderzoek uitvoerden", zegt Karinne Ramirez-Amaro, assistent-professor aan het Department of Electrical Engineering.
De unieke methode van de onderzoekers hield in dat de AI zich concentreerde op het extraheren van de intentie van de subdoelen, en bibliotheken samenstelde bestaande uit verschillende acties voor elk subdoel. Vervolgens creëerde de AI een planningstool die kon worden gebruikt door een TIAGo-robot - een mobiele dienstrobot die is ontworpen om binnen te werken. Met behulp van de tool was de robot in staat automatisch een plan te genereren voor een bepaalde taak, namelijk het op elkaar stapelen van kubussen, zelfs wanneer de omgevingsomstandigheden werden gewijzigd.
Kortom: de robot kreeg de opdracht de kubussen te stapelen en koos vervolgens, afhankelijk van de omstandigheden, die bij elke poging enigszins veranderden, voor zichzelf een combinatie van verschillende mogelijke acties om een volgorde te vormen die tot voltooiing van de taak zou leiden. De resultaten waren buitengewoon succesvol.

Succespercentage 100 procent

"Met onze AI maakte de robot plannen met een succespercentage van 92% na slechts één menselijke demonstratie. Wanneer de informatie van alle twaalf demonstraties werd gebruikt, liep het slagingspercentage op tot 100%", aldus Maximilian Diehl.
Het werk werd gepresenteerd op de robotconferentie IROS 2021, een van 's werelds meest prestigieuze conferenties op het gebied van robotica. In de volgende fase van het project zullen de onderzoekers onderzoeken hoe robots met mensen kunnen communiceren en kunnen uitleggen wat er fout is gegaan en waarom, als ze een taak niet goed uitvoeren.
"Het kan nog enkele jaren duren voordat we echt autonome en multifunctionele robots zien, vooral omdat er nog veel afzonderlijke uitdagingen moeten worden aangepakt, zoals computervisie, besturing en veilige interactie met mensen. Wij geloven echter dat onze aanpak zal bijdragen aan het versnellen van het leerproces van robots, waardoor de robot al deze aspecten kan verbinden en toepassen in nieuwe situaties", aldus Maximilian Diehl.
Het onderzoek werd uitgevoerd in samenwerking met Chris Paxton, onderzoekswetenschapper bij NVIDIA . Het project werd ondersteund door het Chalmers AI Research Centre (CHAIR).

ab op Twitter

TwitterlogoVolg ab nu ook op Twitter!

Onze accountnaam is: @aenb

Agenda meer (1)

30 november 2022 -
Engineering Event SAFETY

Geen nieuws meer missen?

Meldt u dan direct aan voor de gratis ab nieuwsbrief.

 

Knop nieuwsbriefMet de gratis ab nieuwsbrief wordt u wekelijks op de hoogte gehouden over het aandrijven en besturen nieuws. U ontvangt wekelijks het laatste nieuws en elke maand een themanieuwsbrief.

 

Direct aanmelden