• No results found

Implementering av fargedeteksjon

Utstyr og Implementering

4.4 Implementering av metode

4.4.5 Implementering av fargedeteksjon

Teori om ulike fargerom er gitt i Kapittel 2.4.

Valg av metode for fargedeteksjon

Komplekse fargemetoder, nevnt i Kapittel 2.4 kan gi større immunitet mot belysningsend-ring, men krever bruk av maskinlæring for å trene opp en klassifiserer. Til dette kreves et stort omfang av bildedata. Derfor ble det bestemt å bruke en enkel fargemetode til egen-skapsdetektering som ser på fargelikheten ved to kjøretøybilder. Først ble det testet å bruke fargehistogram til å sammenlikne et fast område på et kjøretøy i forskjellige bilder. Kort forklart så representer et histogram fargefordelingen i et bilde. Det viste seg utfordrende å sammenlikne histogrammene grunnet fargeforskyvning som skjedde ved små lysendringer og kamerainnstillinger. Dette oppstod til tross for stor reduksjon av antall mulige fargeverdier.

En metode som viste seg å være mer robust mot slike variasjoner, var å beregne middelverdi for pikselintensiteten (fargen) for et fast område av kjøretøyet. På grunn av sitt store flateareal, velges dette området til å være et lite bildeutsnitt av panseret. Uthenting av panserutsnitt er forklart i nedenfor i dette delkapittelet.

Siden flere kjøretøy har samme farge, er det umulig å finne eksakt kjøretøy ved å bare se på fargelikheten i et område. I oppgaven er det derfor valgt å bruke fargelikheten til å skille vekk kjøretøy som ikke likner. Dermed blir antallet resterende kjøretøy som må sammenlignes ved strukturbaserte metoder, færre.

Valg av fargerom

For at ikke feil kjøretøy skal elimineres, må et fargerom velges ut fra robusthet og invarians mot lysendringer. Derfor må et fargerom kunne skille ut luminansen fra fargene. YCbCr fargerommet ble valgt siden det ga best pålitelighet ut i fra testing, særlig på gråfarget kjøre-tøy, se Kapittel 5.4. I testen ble RGB, YCbCr og HSV fargerom vurdert. Lab fargerom ble ikke vurdert på grunn av krevende konvertering fra RGB.

Implementering

På grunn av at lastebiler har en mye mer kompleks panser som inneholder mange forskjellige strukturer, har implementeringen av panserutsnitt blitt avgrenset til å kun omfatte lette kjøretøy. Panseret på disse kjøretøyene har i de fleste tilfellene en jevn farge og dermed vil metoden fungere mer pålitelig på disse kjøretøyene. For å sammenlikne fargen i to panserutsnitt, er det viktig at området de er hentet ifra på kjøretøyene er identisk. Algoritmen finner et panserutsnitt ved å ta utgangspunkt i skiltposisjonen og sidespeilene. Sistnevnte detekteres ved hjelp av hjørnedeteksjon. Blokkdiagram for implementeringen er vist i Figur 4.11.

Figur 4.11 Blokkdiagram for fargedeteksjon.

Panserdeteksjon

Til uthenting av panserutsnitt, dannes et adaptivt vindu som skaleres i forhold til skiltstørrel-sen. Dette gir robusthet mot skalaendringer som oppstår grunnet til forskjellige kamera-zoom og -posisjoner. Bredden på panservinduet settes lik skiltbreddenWpanser=Wskilt og høyden er definert ved 3 ganger skiltbreddenHpanser=3×Hskilt. Vinduet er vist i Figur 4.12.

Senteret av panserutsnittvinduet settes i y-retning til å være midtveis mellom skiltsenteret og høydeposisjonen til sidespeilene. Vindusenteret i x-retning er funnet ved å ta utgangspunkt i skiltsenteret. I tilfeller der skilt ikke blir detektert, tas det utgangspunkt i området der kjøretøyet har sin ”tyngde” av hjørner i x-retning, også kaltmassesenteret(frontsenteret).

Dette begrepet er forklart i Figur 4.7.

Sidespeilene blir funnet ved å velge ut mest høyre- og venstre-liggende hjørne på bildet.

Detektering av hjørner utføres ved skyggefjerning der FAST hjørnedetektor er valgt. For å forbedre sjansen til korrekt detektering, fjernes hjørner som representerer usannsynlig områder for sidespeil. Dette området er markert som uskarpt i Figur 4.13.

4.4 Implementering av metode 65

Figur 4.12 Deteksjon av panserutsnitt fra samme kjøretøy ved forskjellig observasjonspunkter.

Figur 4.13 Røde prikkene vises detektert sidespeil.

For de to detekterte sidespeilene, regnes det ut en middelverdi av høydeposisjonen.

Om det er for stor høydeforskjell mellom detektert venstre og høyre hjørne, det vil si avstand>50 piksel, velges høyden til hjørnet som er nærmest bildesenteret. Høyden brukes så som referansepunkt sammen med skiltposisjonen for å sentrere vinduet som henter ut et panserutsnitt. Ved en kameraposisjon som gir en vinkling på kjøretøyet, velges bare et sidespeilet som referansepunkt.

Bildenormalisering og konvertering til YCbCr

For å fjerne høyfrekvent støy i panserutsnittet, er det viktig at bildet først blir glattet. Til

dette brukes et gaussisk glattefilter medσ =2. Ved en sammenligning av farge, er det også viktig at kontrasten normaliseres. Til dette brukes gammakorreksjon. Hvitbalanse-filtrering ble også vurdert, men ulike artikler har skiftende mening om virkningen [61]. Axis Q1615-E nettverkskamera har en automatisk funksjon for hvitbalansering. Denne funksjonen fører til at farger i et bilde vises likt uansett temperatur til lyskilden og derfor unnlates implementering av denne funksjonen i Matlab. Videre konverteres RGB bildet av frontutsnittet til YCbCr fargerom. Verdien avY fargekanalen er i området [16,235], mensCb og Cr er i området [16,230]. Disse blir normalisert til en verdi[0,1].

Beregning av middelverdi og sammenlikning

For hver fargekanal, dannes det et fargehistogram. Beregningen av middelverdien er forklart i likning (2.14). Ved matching, sammenlignes middelverdien mot andre fronter for å finne hvilke som har lik farge. Dette gjøres ved å beregne avstand i form avmiddel absolutt avvik forklart i likning (2.15). Her vil den største mulige avstanden ha verdien 1 og den miste vil gi 0. Vurdering av match somlikellerulikgjøres videre ut fra likning (4.6) der avstandendMAE sammenliknes mot en grenseverditdist.

Her beregnes avstand forY ogCbCradskilt. Avstand forY beregnes først. Om resultatet gir en avstand over en satt verdi, regnes kjøretøyene som ulik. Derimot hvis en match klassifiseres somlik, vil videre en avstand forCbCrberegnes ut fra likning (2.15) hvorN=2.

Å skilleY fraCbCrgir metoden større robusthet mot lysendringer.