View Single Post
https://www.youtube.com/watch?v=QzafMWj3yRc

Dette er et greit eksempel på både rosbag, transformasjonstre og URDF.

Det du ser er rådata i sanntid som ikke er prosessert på noen måte. En drone har en påmontert servo som har en 3D laserscannner opp ned festet på enden. Orienteringen til dronen måles av IMU-sensor ombord. Vinkelen mellom grunnlinjen og servoen rapporteres omtrent 100 ganger i sekundet. Ut ifra staten til aktuatoren brukes modellen av systemet (URDF'en) til å transformere punktene som kommer fra sensoren til en global referanse. Akkurat disse sekundene tiltes servoen fra -M_PI/2 -> +M_PI/4 eller noe sånt.

Faktisk så er det en høykvalitets IMU sensor (Xsens MTI til 4000,-, du får standard IMU til en 50-lapp) montert i samme orienterting som sensoren i seg selv. Tanken var at det ville bli nødvendig for nøyaktighet. Det som viser seg ved gjennomgang av datastrømmene er at det faktisk er høyere nøyaktighet fra systemt beskrevet over enn fra IMU'en direkte. Fra et mekanisk-ingeniør-perspektiv er det forbamna imponerende.

Det er vanskelig å se hva som faktisk blir scannet. Til høyre ser du havnen like ved småpudden. Det er med andre ord snakk om et område med over 50 meter i radius som scannes med 300.000 punkter i sekundet. Alle transformeres i sanntid og proesesseres i flere sekvenser når systemet kjører. Jeg klarer ærilg talt ikke forstå at det er mulig.

https://www.google.com/maps/place/Vi...71!4d5.3292004
Sist endret av Tøffetom; 11. januar 2020 kl. 01:04. Grunn: Automatisk sammenslåing med etterfølgende innlegg.