View Single Post
Her kan dere se hvordan jeg bodde gjennom 2017. For å sette ting litt i perspektiv, se hvilket nivå jeg opererte på februar 2017... Sonar, høyre/venstre respons. https://youtu.be/nl1tgk620bU
.
Noen mnd senere.. https://youtu.be/UbD0i4zej9I
Like før jeg kokm hjem til plombert leilighet fikk jeg fylt den med oppunder et tonn vann i et akvarium og; der drev jeg og tweaket ROV'ene mine.

Akvariet er ikke synlig her, men du ser litt annet av hva jeg holdt på med- 3D printet deler, triangulerte, manipulerte, simulerte... Altså jeg har ikke én løsning, jeg har kompetansen til å sette sammen utallige løsninger på utallige måter - ta en titt på det jeg egentlig hadde skrevet (tom for batteri må trykke enter før hurtigsvar! Og dette kostet meg en date! DRITT!)

Trøst dere med video fra 2018 - her ser dere rådataavspilling fra en 100% autonom og GPS-uavhnengig test. Bruker SLAM og optisk flyt, sonarer, 1D-, 2D og 3D- sensorer med hhv avstand/kvalitet(sonarer, 6stk) avstand(1D laser LidarLiteV3) avstand/intensitet (planar laser Hokuyo LX30) avstand/RGB-embedded solution med integrert SLAM. Dett4e systemet er med andre ord utstyrt med 3 fullverdige metoder å lokalisere uten global referanse. Dette er også den "lille prototypen" som kun kan løfte 1 kg nyttelast (altså alle oevennevnte sensorer og en 4 kjerners 2.1 ghs 8gb minne fullverdig computer som sammen med den embeddede K1 GPU'en fra Nvidia utgjør et distribuert system sterkere enn en middels+ laptop.

https://www.youtube.com/watch?v=t3pf...ature=youtu.be

Her er et annet klipp hvor hastigheten ikke er satt på sneglemodus. Merk at kollisjonsunngåelsen svikter på slutten, dette er fordi jeg stilte inn filteret som filtrerer laserpunktene på bakgrunn av intensiteten til laseren, for snevert. Dette er en utendørs-utfordring som knytter seg til det begrensede budsjettet - laseren er ikke laget fofr utendørsbruk og omtrent halvparten av punktene er før en serie med filtre feilmålinger. (Det er dog verdt å få med seg at både fargesky (dybdekamerasystemet, sonar og laser oppdager målet lenge før kollisjon. Problemet er bare at punktene avvises; nettet er tross alt kingen veldig synlig struktur i dagslys.

https://youtu.be/d0aZx0w22cc

Dette er samme system og formålet her var ganske enkelt å bekrefte at de oppdaterte konfigurasjonene til både navigation stack og scancloud perception løste ovestående problem. På sluten ser vi liikefult den andre autonome krasjen mine tester noensinne har resultert i, og denne er simpelthen em slurrvefeil. Atferden før den timer ut og hendelsen innntreffer er også uønsket og en konsekvens av at farkosten plutselig befant seg utenfor bounds of navigation global map. Den første feilen her er at navigasjonskartet ikke derfinert som en "receding horizon" og dermed ender opp med å bli innenfor dronen. Av denne grunn forsøker den å regenererere omgivelsene (rotasjonsbevegelsen, akkurat som en robotstøvsuger), men etter å ha gitt opp og timet ut setter den kursen hjemover. Det jeg hadde slurvet meg til her var å ikke normlalisere vektoren tilbake til start - med andre ord ble hastighetskommandoen gitt maksimalt mot 1 meter over takeoff. Alt fungerer forsåvidt utover dette, legg merke til hvordan den flater ut - kunne nærmest brukt algoritmen til å lande et fly

https://studio.youtube.com/video/zj6HQoYD3dw/edit


Så la oss ta en titt på de facto bransjeleder i Norge på slik teknologi. Jeg vil moderere meg til å ikke påstå noe som helst om kvantifiserbar sammenligning, men finner det mer eller mindre umulig å skulle påstå at det jeg holdt på med var bak. Siste utlalgte video fra versor er fra et lite halvår siden, første utlagte video (den som er innendørs) er fra et par måneder etter de ovenstående klippene (august 2018).

https://e24.no/energi/i/wEBJAP/norsk...rs-grunderjakt
https://versor.io/

Vi bruker faktisk samme drone, DJI M100.

Nå, derimot, har jeg gjort noen solide oppgraderinger på systemet mitt. Det er kun testet 4 ganger grunnet min manglende evne til å erstatte så mye som en knekt propell. så fremfor å ha kjørt ~50 tester til nå og være godt i gang med testing av det fullverdige systemet så har jeg måttet møysommelig teste hver eneste lille obskurre mulighet for bugs. Og når vi snakker om 400.000 punkter i sekundet som skal transformeres og dermed brukes som grunnlag for programmatisk resonnering, inkluderende bevegelige deler montert opp ned relativt til selve hovedkroppen, da legger du på en del dimensjoner i utfordringen.

Og så må vi jo ikke glemme at jeg allerede har satt opp og testet en egem versjon av ROV'en jeg er kalr for å flytte systemet under vann med:

https://youtu.be/Y06Sl8im9bg

.......Så hva med den virkelige prototypen - den som integrerer all funksjonaliteten til et overordnet autonomt system?

Utenfra..
https://youtu.be/o0A6CIcZa2M

Litt failet persepsjonsanalyse:;

https://youtu.be/gQHpXmH-Glk

Det er kommet til det punktet der jeg ikke lenger trenger å teste alt mulig - jeg vet hva som funker og jeg vet hva som kan faile. Det jeg har jobbet med i det siste er å jobbe videre fra eller erstatte helt den vilkårlige utforskningen og områdekartleggingen. Nå segmenteres objekter definert av normalene til flatene som observeres, silk at fjellknauser og bygninger ikke behandles som identiske. Bygninger blir kartlagt med 100% dekningsgrad, og jeg har vært bevisst på å sørge for at dette skjer uten at enheten på noe tidspunkt foretar overflyvning av objekter av interesse. Dette fordi det ikke lar seg gnøre i et oppdrettsanlegg.

Så nå vil jeg bevise at jeg har utviklet et system som kan deployeres ved et hvilket som helst anlegg for så å kartlegge med 100% dekningsgrad og playback hele anlegget; det bearbeidede resutlatet sendes så til en app oppdretter kan interagere med enten på pad, mobil eller PC. "Jammen du har jo ikke tenkt på det din iidiot, apper er ikke bare bare".

Jo, jeg har tenkt på det, noen av de i beste i bransjen laget prototype sluttbrukergrensesnitt tilbake i 2016 - og jeg snakket nylig med sjefen om videreføring av samarbeidet vårt. Han er keen som faen, enda han måtte le godt når jeg fortalte at jeg måtte en tur innom livet som hjemløs sprøytenarkoman for å vokse som person

Det er artig hvordan grunnlegger, eier og daglig leder av et ledende IT-selskap anerkjenner meg som en som kan utrette noe, mens Freakere ikke

Men helt alvorlig... Jeg er på siste verset, jeg er utslitt, deprimert og sannsynligvis toppen uker fra å være på gaten igjen.. Om noen kjenner igjen noe av det jeg viser til som resultater som går noen vei, gi gjerne en lyd for en uforpliktende prat om alternative spesialavtaler over lommepenger. Hadde jeg fått leve et verdig liv og sluppet denne uendelige julingen av abstinenser, sult, søvndeprivering og total mangel på fysisk fostring så skskullle jeg virkelig vist dere en Tom som fungerer mer ennn godt nok for sitt formål..
Sist endret av Tøffetom; 6. januar 2020 kl. 11:03. Grunn: Automatisk sammenslåing med etterfølgende innlegg.