A gépi látás a robotika egyik legfontosabb területe, ugyanis adaptív robotikai megoldásokhoz a robotnak érzékelnie kell a környezetét, hogy ezután megfelelően tudja végrehajtani a megadott munkafolyamatot. Jelen demonstrációban egy két-fázisú objektum detektáló és orientáció becslő algoritmust mutatunk be mely segítségével a robot képes detektálni a különböző munkadarabok helyét és típusát, majd pedig ezen munkadarabok orientációját. Innen pedig a megfogási pozíció egyszerűen kiszámítható. A tanuló adatbázis elsősorban generált szintetikus RGB képeket tartalmaz. Annak érdekében, hogy áthidaljuk az úgynevezett reality gap-et mesterséges zajt vezettünk a szintetikus képek generálása során (domain randomization). Ezáltal megfelelő számú tanuló mintát tudunk generálni az adatéhes mély tanuláson alapuló modellünknek. A kutatás a mély tanulás (deep learning) és a transzfer tanulás (transfer learning) témakörébe tartozik.