• No results found

3. METODE

3.4 A NALYSETEKNIKKER

Det neste steget i arbeidet med innsamlet data er å prosessere den til informasjon som kan ligge til grunn for å trekke konklusjoner. Som omtalt i delkapittel 3.2 har vi valgt å samle inn både kvantitative og kvalitative data. Med utgangspunkt i problemstillingens natur vil vi legge spesielt stor vekt på numerisk kvantitativ data i arbeidet med besvarelsen, samt bruke kvalitativ data som et supplement. Vi vil derfor fokusere på analyseteknikker av kvantitative data i dette delkapittelet. Teoretisk grunnlag for statistisk analyse er hentet fra kapittel 12 i Saunder, Lewis og Thornhill (2016), med mindre annet er referert til i teksten. I det følgende skal vi gi en overordnet presentasjon av analyseteknikker vi har anvendt i arbeidet med kvantitative data. Mer spesifikke beskrivelser og fremgangsmåter vil være omtalt i de aktuelle påfølgende kapitlene. Vi har brukt Excel og IMB SPSS Statistics i analysen av det kvantitative datamaterialet.

Common size-analyse

I kapittel 5 gjennomfører vi en common size-analyse for å avdekke sentrale poster i bedriftenes regnskap, samt variasjoner blant selskapene. Vi har teknisk gjennomført analysen i Excel. En common size-analyse gir en oversikt over ulike finansielle poster i prosent av en selvvalgt variabel. Å fremstille et regnskap i relative fremfor absolutte tall gjør det enklere å analysere over tid og sammenligne selskaper av ulik størrelse. Bruk av common size kan tydeliggjøre trender som ikke er like fremtredende ved presentasjon av rådata i et regnskap. Analysen gir gjennomsnittlig fordeling av de ulike postene, samt minimums- og maksimumsverdier på observasjoner. I analysen kan man også velge å inkludere medianen og standardavviket for å redusere betydningen av ekstremverdier og gi et mer presist bilde av virkeligheten.

Resultatregnskap, balanseregnskap og kontantstrømoppstilling kan presenteres i et fellesformat ved bruk av common size-analyse. Ved common size-analyse er det viktig å være klar over at forholdstallene kun er et hjelpemiddel og supplement til det originale regnskapet som studeres. En får ikke et helhetlig bilde av selskapets finansielle prestasjon, og det kan følgelig ikke trekkes konklusjoner basert på common size-analyser alene.

Korrelasjonsanalyse

I kapittel 5 og 6 bruker vi korrelasjonsanalyser for å studere samvariasjon mellom potensielle lønnsomhetsdrivere, finansielle nøkkeltall og selskapets historiske lønnsomhet. Vi har gjennomført denne analysen i statistikkprogrammet IMB SPSS Statistics. En korrelasjonsanalyse gjennomføres ved å regne ut en korrelasjonskoeffisient mellom to variabler og gir et målbart lineært forhold mellom to variabler. Korrelasjonskoeffisienten er et tall mellom -1 og +1 som representerer styrken på forholdet mellom to numeriske eller rangerte variabler. Jo høyere positiv verdi jo sterkere er samvariasjonen, hvilket vil si at endring i en variabel er ledsaget av endring i den andre variabelen. Følgelig representerer verdien +1 en perfekt korrelasjon mellom to variabler, der verdien på den ene variabelen øker så øker også verdien på den andre. Perfekt negativ samvariasjon har en korrelasjonsverdi på -1, og da vil nedgang i den ene variabelen føre til en tilsvarende økning i den andre variabelen.

Hvis korrelasjonskoeffisienten har verdi 0 betyr det at variablene ikke har noe samvariasjon og er uavhengige. Ved endring i den ene variabelen skjer det ingen endring i den andre.

I denne masterutredningen gjennomfører vi korrelasjonsanalyser mellom to numeriske variabler og bruker Pearsons korrelasjonskoeffisient (Keller, 2012). Formelen for utregning av korrelasjonskoeffisient mellom variabel X og Y er:

𝐶𝑜𝑟𝑟[𝑋, 𝑌] = 𝐶𝑜𝑣(𝑋, 𝑌)

√𝑉𝑎𝑟(𝑋)𝑉𝑎𝑟(𝑌)

Der:

Cov(X,Y) Kovarians mellom X og Y Var(X) og Var(Y) Variablenes (X og Y) varians

Forutsetninger ved bruk av Pearsons koeffisient er:

1. Begge variablene er numeriske.

2. Begge variablene er tilnærmet normalfordelt.

3. Det er et lineært forhold mellom de to variablene.

4. Ingen av variablene inneholder betydelige ekstremverdier.

Korrelasjonskoeffisienten gir oss innsikt i hvordan de to variablene endrer seg i forhold til hverandre, men sier ingenting om hvilken av variablene som initierer endringen.

Korrelasjonskoeffisienten er ikke tilstrekkelig for å fastslå årsakssammenheng mellom variablene, med andre ord kausalitet.

Regresjonsanalyse

For å belyse eventuelle kausaliteter mellom variablene utledet fra innsamlet datamateriale vil vi i kapittel 7 gjennomføre regresjonsanalyser. Dette vil være standard lineære regresjoner med minste kvadraters metode. Vi vil gjennomføre multiple regresjonsanalyser, herunder også trinnvise regresjoner som baklengs, forlengs og stegvis regresjon.

Regresjonsanalyse er en statistisk kvantitativ analyseteknikk. Vi har gjennomført analysen i statistikkprogrammet IMB SPSS Statistics. Regresjonsanalysen måler styrken på forholdet mellom en avhengig variabel og en eller flere uavhengige variabler ved å angi effekten av den/de uavhengige variablene på den avhengige. Ved å gjennomføre en regresjonsanalyse får man også forklaringsfaktoren R2 og justert R2. Dette er tall mellom 0 og 1. Forklaringsfaktoren angir hvor godt variasjonen i den avhengige variabelen kan forklares med variasjonen i de uavhengige variablene. Verdien 0 angir fravær av kausalitet mellom den avhengige og de uavhengige variablene, mens verdien 1 angir perfekt årsakssammenheng der endringen i de uavhengige variablene kan forklare all variasjon i den avhengige variabelen.

Fem forutsetninger må være oppfylt ved bruk av regresjonsanalyse:

1. Multikollinearitet – Forutsetning om fravær av korrelasjon mellom to eller flere uavhengige variabler ved gjennomføring av multippel regresjon, ettersom det vanskeliggjør separasjon av effektene fra den enkelte uavhengige variabelen på den avhengige.

2. Linearitet – Forutsetning om et lineært forhold mellom den avhengige og den uavhengige variabelen. Ekstremverdier kan ødelegge forutsetningen om linearitet og bør avdekkes, og eventuelt ekskluderes fra datasettet før gjennomføringen av analysen. Ved multippel regresjonsanalyse med flere uavhengige variabler kan verdier for en eller flere variabler bryte med forutsetningen om linearitet og om nødvendig bli transformert til for eksempel logaritme.

3. Autokorrelasjon – Forutsetning om at verdien på den avhengige variabelen på et tidspunkt t ikke er relatert til verdien i forutgående periode, (t-1), i en regresjonsanalyse som omfatter tidsseriedata. Ved autokorrelasjon kan resultatene av regresjonsanalysen være mindre pålitelige.

4. Normalitet – Forutsetning om at observasjonene for både den avhengige og uavhengige variabelen er tilnærmet normalfordelt.

5. Heteroskedastisitet – Forutsetning om at variansen til verdiene for de avhengige og uavhengige variablene er ulik.

Multippel regresjon

I vår utredning bruker vi regresjonsanalyse med flere uavhengige variabler, omtalt som multippel regresjon. Vi skal gjennomføre analyser for å måle hvorvidt lønnsomhetsfaktorer utledet i kapittel 6 kan forklare relative lønnsomhetsprestasjoner i utvalget.

Trinnvis regresjonsanalyse – forlengs, baklengs og stegvis

Vi skal også gjennomføre forlengs, baklengs og stegvis regresjonsanalyse. Dette er trinnvise regresjonsanalyser som automatisk blir fremstilt i statistikkprogramvaren. Det er et statistisk verktøy som brukes i utprøvende stadier for å identifisere viktige forklaringsvariabler (Minitab, 2017). Prosessen legger systematisk til den mest signifikante variabelen, eller fjerner den minst signifikante variabelen under hvert trinn. Med mange uavhengige variabler kan det blir krevende å konstruere den mest signifikant sterke regresjonsmodellen. Forlengs og baklengs er to typer trinnvise modeller der forskjellen er at man starter med alle eller ingen av de uavhengige variablene, for å videre fjerne eller legge til én og én variabel. Den stegvise regresjonsanalysen er en mer dynamisk fremgangsmåte, ved at den i tillegg til å legge til variabler kan fjerne variabler etter hvert som modellen blir utarbeidet. I prosessen tar statistikkprogramvaren hensyn til variablenes f-verdi når det legger til eller fjerner variabler.

Utfordringer med trinnvis regresjonsanalyse (Minitab, 2017):

• Hvis to uavhengige variabler er svært korrelert kan bare én ende opp i modellen til tross på at begge kan potensielt være like viktige.

• Prosedyren kan passe flere modeller, og statistikkprogrammet kan velge en modell som passer godt til dataene basert på tilfeldigheter.

• Trinnvis regresjon stopper ikke alltid med modellen som gir den høyeste forklaringsfaktoren, 𝑅2.

• Ettersom trinnvis regresjonsanalyse er et automatisert verktøy har man ved denne prosedyren ikke adgang til å inkludere kunnskapen en analytiker besitter i forhold til dataene. Automatiske prosedyrer kan ikke nødvendigvis vurdere spesiell kunnskap analytikeren kan ha om dataene. Derfor er den automatisk genererte modellen kanskje ikke den beste i alle tilfeller.