*Nettavisen* Nyheter.

Lynkurs i konjunkturanalyse

Forvirringen er total rundt den økonomiske utviklingen. Derfor skal jeg denne gang forsøke å klargjøre hva som skiller klassisk konjunkturanalyse fra det som i dag har blitt gjengs økonomisk analyse.

På bakgrunn av kommentarer til artikler i denne spalten og andre henvendelser vil jeg bruke tiden denne gang til å kjapt gå gjennom den klassiske, sykliske konjunkturanalysen slik den utøves med bruk av trege, sammenfallende og ledende indikatorer.

Det kan ofte være en fordel å kjenne til historien bak ulike intellektuelle retninger før man surrer seg langt inn i tankerekkene. Dessverre er det slik også i økonomifaget at fagfolk har en tendens til å overvurdere sin egen innsats i et historisk perspektiv; fagets ledere kan proklamere at man nærmest har kommet til veis ende, mens ettertiden vurderer fagutviklingen i et helt annet lys.

Det jeg her omtaler som «klassisk konjunkturanalyse», er en fagretning hvor Wesley Clair Mitchell (1874-1948) regnes som pionéren. Så tidlig som i 1913 ga han ut det som av mange regnes som hans viktigste verk, «Business Cycles». I forordet skriver han følgende:

«This book offers an analytic description of the complicated processes by which seasons of business prosperity, crisis, depression, and revival come about in the modern world. The materials used consist chiefly of market reports and statistics concerning the business cycles which have run their course since 1890 in the United States, England, Germany and France».

Mitchell sverget ikke til noen teori. I stedet så han på konjunktursyklusen som en naturlig del av kapitalismen, og han håpet at nøye studier av økonomiske data kunne hjelpe ham med å forstå verden bedre. Han hadde lite til overs for den voksende skaren av økonomer som kastet seg over de nye statistiske metodene, med sterkt fokus på korrelasjon og regresjon.

Det er umulig å forestille seg i dag hvilken posisjon Mitchell hadde for omtrent 100 år siden. Da Friedrich Hayek (1899-1992), som fikk Nobels minnepris i økonomi i 1974, kom til USA i 1923, ble han sjokkert over at hans amerikanske kolleger ikke lenger brydde seg om Irving Fisher (1867-1947) eller noen av de andre store navnene innen neoklassisk økonomi.

«I must confess that from my predominantly theoretical interest the first impression of American economics was disappointing. I soon discovered that the great names which were household words to me were regarded as old-fashioned men by my American contemporaries, that work on their lines had moved no further than I knew already, and that the one name by which the eager young men swore was the only one I had not known until Schumpeter gave me a letter of introduction addressed to him, Wesley Clair Mitchell. Indeed business cycles and institutionalism were the two main topics of discussion».

Så fra å være blant datidens største økonomer, er Mitchell i dag nærmest glemt. Hva skjedde?

Mitchell huskes blant mange i dag som én av grunnleggerne av National Bureau of Economic Research (NBER). NBERs første jobb var å systematisere data i USA slik at den økonomiske analysen ble mindre plaget av støy. Det er for øvrig NBER som fortsatt lager de offisielle kronologiene, start- og sluttdatoer, for amerikanske konjunktursykluser.

I 1946 ga Mitchell ut sitt andre storverk, «Measuring Business Cycles». Denne gang skrev han sammen med Arthur F. Burns. Kort tid etter, i 1947, skrev Tjalling C. Koopmans en artikkel om det empiriske verket. «Measuring Without Theory» var den knusende tittelen på Koopmans-artikkelen. At Koopmans senere fikk Nobels minnepris i økonomi, oppsummerer nok det som var i ferd med å skje med økonomifaget lenge før Den andre verdenskrig: De endelige teorienes tid var kommet, hvor den matematisk presisjonen fra fysikken og ingeniørfagene var målet.

Det blir nok i overkant å forsøke å lage et fullgodt overblikk over det som har skjedd i det økonomiske faget de siste 100 årene her, og den interesserte leser bør i stedet kaste seg over boken «The Myth of the Rational Market» av Justin Fox (2009). Den anbefales på det sterkeste.

Hvis jeg likevel skal forsøke meg på en kort og dermed upresis oppsummering av økonomifagets utvikling, så må det være at matematikken tok over for den empiriske nysgjerrigheten ett eller annet sted på veien. Altfor mange økonomistudenter har de siste tiårene gått ut av høyskolene og universitetene med hodet fullt av teorier de ikke forstår rekkevidden av, og som ikke holder vann når de testes empirisk. Justin Fox har i den sammenheng en illustrerende historie, basert på flere intervjuer med Eugene Fama, én av det moderne finansfagets størrelser. For noen år siden skrev Kenneth R. French og Fama en artikkel hvor de konkluderte med at «Offsetting actions by misinformed investors do not typically suffice to cause the price effects of erroneous beliefs to disappear with the passage of time». Dermed sto Fama og French minst ett skritt nærmere dem som tidligere hadde påpekt markedets manglende evne til å arbitrere bort feilprisinger - et poeng som er svært viktig for at det tunge fundamentet av matematiske likninger i økonomifaget ikke skal slå sprekker.

Forfatteren Fox ringte Fama etter å ha lest et tidlig utkast av paperet og spurte professoren hva han nå mente om beregningen av kapitalkostnaden, som er en grunnstein i finans.

«Det er derfor jeg ikke underviser i corporate finance lenger», skal Fama ha sagt til Fox.

Jeg synes denne historien belyser presisjonen i økonomifaget. Vi har i mange tiår trodd at økonomi og finans hadde funnet sin plass blant de mer presise vitenskapene som matematikk, fysikk og ingeniørfagene. Så viser det seg at én av fagets ypperste hopper av fra deler av faget (corporate finance regnes som en viktig del av finansfaget). Det reiser spørsmålet om økonomifaget har vært på et blindspor i mange tiår, slik mange er i sin ungdom. Blindsporet er ikke alltid bortkastet, men en god erfaring å ha med seg videre. Spørsmålet er hva man skal gjøre med denne erfaringen.

Heldigvis fikk jeg tidlig en anelse om at detaljkunnskap, regresjoner og dataserier ikke er nok for å lykkes i markedet. Autister kan briljere med detaljkunnskap og kompliserte matematiske beregninger, men det gjør dem ikke nødvendigvis til en vinner i markedet. Man trenger noe mer. Da jeg fikk delansvaret for de taktiske aksjeposisjonene i et stort kapitalforvaltningsmiljø for fem, seks år siden, tok jeg med meg erfaringen fra forvaltningen og analysen av enkeltaksjer for å forsøke å skjønne de brede markedstrendene. Omstillingen var større enn jeg forestilte meg - for selv om jeg naturligvis så at man ikke kunne komme til bunns i all informasjon, var det likevel et ufattelig stort datatilfang å hente innspill fra. Hvor skulle man begynne?

Jeg har alltid vært fascinert av forventnings- og beslutningsdannelsen i markedet. Derfor fikk jeg i sin tid satt et enormt datamateriale i system, og ut fra dette materialet forsøkte jeg å se etter intuitive mønstre som hadde en viss støtte i den teoretiske litteraturen. Den praktiske erfaringen med diskusjoner i en investeringskomité var også svært verdifull. Jeg tar neppe helt feil når jeg hevder at ni av ti slike komitéer bruker 90 prosent av tiden på å diskutere vekst og inflasjon. Problemet oppstår når man ikke har et 100 prosent felles begrepsapparat. Da kan enighet se ut som uenighet, og uenighet kan kamufleres som enighet. Treffsikkerhet i begrepsapparatet er kanskje det viktigste på veien mot en bedre markedsforståelse, slik jeg ser det. Som med alle andre språk, tar det lang tid før man behersker et nytt begrepsapparat. Når man behersker det nye språket, vil «gresk» med ett fortone seg som meningsfylt informasjon.

I jakten på et begrepsapparat som passer den taktiske allokeringsanalysen, endte jeg opp med arven etter Mitchell. Sånn sett hoppet jeg over det som mange oppfatter som moderne finansanalyse, til fordel for den empiriske skolen. Heldigvis har ikke arven fra Mitchell og Burns stått stille. Fra 1939 av begynte Geoffrey H. Moore i NBER. Her arbeidet han tett med Mitchell og spesielt Burns. Moore var analysesjef i NBER fra 1965 til 1969 og senere etablerte han Center for International Business Cycle Research ved Columbia University. Allerede på 1950-tallet utviklet Moore ledende indikatorer for USA og fra midten av 1970-tallet av tok han dette arbeidet ut i verden og lanserte ledende indikatorer for industrilandene i Nord-Amerika, Europa og Asia. Senere grunnla han Economic Cycle Research Institute (ECRI). Det er de økonomiske indikatorene fra ECRI som danner grunnlaget for det jeg har kalt «klassisk konjunkturanalyse».

Hva er så klassisk konjunkturanalyse? For det første representerer det et begrepsapparat hvor man deler inn økonomiske nøkkeltall i fire kategorier:

1) Støy.

2) Etterslepende (lagging) indikatorer.

3) Sammenfallende (coincident) indikatorer.

4) Ledende indikatorer.

Den observante leser vil kanskje spørre i forhold til hva er det disse indikatorene er henholdsvis støy, etterslepende, sammenfallende eller ledende. Her skiller den klassiske konjunkturanalysen seg klart fra konvensjonell analyse. Mens konvensjonell analyse fokuserer på nivået i indikatorene, har den klassiske analysen innsett at det er for vanskelig å si så mye om nivået. Derfor fokuserer den klassiske analysen bare på vendepunktene i økonomien.

Merk at en perfekt nivåanalyse implisitt vil fange opp vendepunktene. Problemet er at man ennå ikke har kommet i mål med en perfekt nivåanalyse. Konvensjonelle analyser gir likevel et inntrykk av at man kan si noe treffsikkert om både nivå og vendepunkter, og derfor vil den mer ydmyke vendepunktsanalysen fremstå som underlegen i forhold til de matematisk mer sofistikerte nivåanalysene. Vendepunktsanalyse ber brukeren om å gi opp kontroll for å oppnå mer kontroll, det vil si å akseptere feil for å gjøre mindre feil. Det lite intuitive argumentet er godt belyst bl.a. her.

Fordi den klassiske konjunkturanalysen fokuserer på vendepunktene i økonomien, er den ikke egnet til å si så mye om den mer langsiktige utviklingen. En full konjunktursyklus kan vare mange år, men i snitt har det vist seg at det tar tre, fire år fra en topp i konjunkturene til neste topp. Denne begrensningen ved klassisk konjunkturanalyse er det en del som ikke vil akseptere. Derfor ender de opp med å diskutere langsiktige utsikter og trender, selv om rammeverkets styrke er det sykliske, mellomlangsiktige perspektivet.

Merk også at man ender opp med en helt annen matematikk når man fokuserer på vendepunkter i stedet for nivå. Det matematiske og statistiske begrepsapparatet som så mange er skolert i, er av mindre verdi når man bare ser på vendepunkter. Den viktigste forskjellen mellom klassisk og moderne økonomisk analyse, er kanskje nettopp denne:

Mens konvensjonell økonomisk analyse fokuserer på nivået i vekst og inflasjon, konsentrerer klassisk konjunkturanalyse seg om vendepunktene i de to makroøkonomiske variablene.

I tillegg bør det understrekes at den klassiske analysen fikk et gjennombrudd på 1980-tallet. Mens man tidligere hadde fokusert på klassiske konjunktursykluser, som munner ut i en resesjon, begynte man å fokusere på veksttaktsykluser i tillegg. I mange tilfeller vender veksttakten ned fra et høyt til et lavt nivå, uten at kriteriene for en resesjon er til stede. Da har man å gjøre med en veksttaktsyklus, og ikke en klassisk konjunktursyklus. ECRI har gjort tilgjengelig datoer for både veksttaktsykluser og klassiske konjunktursykluser her. Omtrent halvparten av de historiske veksttaktsyklusene har endt opp med å bli en resesjon. Med andre ord har man hatt dobbelt så mange veksttaktsykluser som klassiske konjunktursykluser. I og med at aksjemarkedet er sensitivt også for veksttaktsykluser, er det av stor verdi for investorer å vite hvor man står i en slik syklus. Det er med andre ord viktig å fokusere på vendepunkter i økonomien, selv om de skjer fra ekstremt lave nivåer - slik som i 2009.

Merk for øvrig at hvis man skal måle makroøkonomiske datas egenskaper i forhold til de fire kategoriene ovenfor, er det åpenbart at det kan ha mye å si for konklusjonen om man er nivå- eller vendepunktsfokusert.

Når man ender opp med et sett av data som empirisk har hatt konsistente egenskaper i forhold til de fire kategoriene ovenfor, har man kommet et langt stykke videre.

Fordi markedet er en ledende indikator i seg selv, er det intuitivt at fokus for en investor bør være på ledende indikatorer. Fordi ledende indikatorer er bare én av fire kategorier, er det åpenbart et ledende indikatorer vil stå alene ved de viktige vendepunktene. Mennesket er et flokkdyr, og derfor er en suksessfull bruk av ledende indikatorer vanskeligere enn mange tror. De ledende indikatorene snudde allerede i desember i 2008, og fortsatt skytes det på pianister som videreformidler noter fra de ledende indikatorene. En kjapp titt på kommentarene i siste ukes blogg illustrerer dette poenget. Og da det samme budskapet ble formidlet i begynnelsen av juni, var det åpenbart at de aller fleste hadde øynene på alt annet enn gode ledende indikatorer.

Det er alltid enklere å observere et skifte i etterslepende, sammenfallende eller ledende indikatorer i ettertid. Investoren har imidlertid ikke tid til å vente for lenge, og mine beregninger viser at makroøkonomisk analyse er verdiløs dersom man er tre, fire måneder for sent ute med å ta signalene ved vendepunkter i økonomien. For å time et vendepunkt i sanntid, brukes de tre D-ene eller P-ene for å klassifisere signifikansen i omslaget. De tre bokstavene står for henholdsvis «depth»/«pronounced», «duration»/«persistent» og «diffusion»/«pervasive». Når en økonomisk bevegelse kjennetegnes ved at den er stor, langvarig og bred i forhold til historiske erfaringer, er oddsene gode for at man snakker om en bevegelse som virkelig er et omslag. Som en tommelfingerregel sier man at minst tre måneder med data må til for at man kan snakke om at vendepunktet har vart lenge nok. Merk for øvrig at mye økonomisk analyse bare ser på størrelsen og varigheten i et omslag, mens den klassiske konjunkturanalysen aldri vil flagge et vendepunkt hvis ikke breddekriteriet tilfredsstilles. Alle de tre kriteriene må oppfylles, ellers har man ikke å gjøre med et regimeskifte.

I og med at ledende indikatorer (long leading indicators) normalt snur mer enn et halvt år før sammenfallende indikatorer og BNP, er klassisk konjunkturanalyse og ledende indikatorer et egnet verktøy i markedsanalysen. Man vil neppe treffe hver gang, og derfor er ledende indikatorer uegnet når grådighet og mangel på tålmodighet får prege investeringsbeslutningene. Mange er likevel ikke førnøyde med de ledende indikatorene alene. De vil dykke dypere ned i materien og se på de underliggende komponentene. Problemet er at de ledende indikatorene (i likhet med de etterslepende og sammenfallende) er konstruert slik at det er helheten som er det viktige, og ikke fokuset på detaljene. Breddekriteriet («diffusion»/«pervasive») tar hånd om detaljene fordi man gjennom denne D-en eller P-en forsøker å fange opp falske signaler. At helheten er det viktigste i den klassiske konjunkturanalysen, er et problem for analysemiljøer hvis de må ha et selgende budskap for å få oppmerksomhet. Når man ikke kan henge konklusjonen på en enkel historie, men må peke på subtile interaksjoner på tvers av økonomien, er det forståelig at bruken av ledende indikatorer ikke slår an mange steder.

Jakten på det perfekte analyseverktøy eller en guru, er dømt til å ende med skuffelser og økonomiske tap i markedet. Full kontroll er en farlig illusjon. Selv har jeg endt opp med det jeg tror er det nest beste - et verktøy som har mer enn 100 års testing bak seg, og som historisk har fungert bedre enn det meste.

Nettavisen ønsker en åpen og levende debatt.

Her kan du enkelt bidra med din mening.