Eerst leerden robots nog van mensen in het project RoboBrain, waarin de lessen werden opgeslagen en nu vertellen ze dat aan elkaar. Een robot aan Cornell University leerde mokken op te pakken en sloeg zijn leerproces op in RoboBrain. Een robot aan een heel andere universiteit gebruikte RoboBrain om ook mokken op te pakken, maar dan in een heel andere omgeving en configuratie.

Geen kopie, maar interpretatie

Kortom, de robot hoeft niet meer door dat aftastende proces en maakt gebruik van de geassimileerde overgenomen kennis uit het collectieve robotbrein. Vorige week deed de ontwikkelaar van RoboBrain en leerprogramma TellMeDave, Ashutosh Saxena, het proces uit de doeken, schrijft MIT's Technology Review.

Het is geen simpele kopieactie waarbij robots elkaar vertellen welke posities de armen moeten aannemen, maar twee totaal verschillende platforms moeten de informatie uit RoboBrain intepreteren. De volgende stap is dat ze dat helemaal onbegeleid doen en zelf uitvogelen hoe een actie werkt. Voor je het weet gaan robots ons vertellen dat zij de missie wel uitvoeren en dat we een stresspil moeten slikken.

Robot Baxter van Brown University brengt de geleerde lessen van partner PR2 in de praktijk: