Sogni e incubi econometrici

Tempo stimato di lettura: 6 minuti

good20dream20bad20dream1

Quando Haveelmo e Ragnar Frisch “crearono” l’econometria, a partire dagli anni 30, si riteneva che questa scienza potesse aiutare l’economista in tre aree:

  1. la scoperta di modelli teorici (risolvendo così un problema lasciato aperto dal falsificazionismo popperiano)
  2. la misurazione dei parametri dei modelli
  3. il controllo delle teorie.

Dato che non sono un econometrista, bensì un appassionato di storia del pensiero, premetto subito che non esporrò alcuna matematica e quindi dovrò dare per scontate molte conoscenze. Per chi fosse arrugginito, o a digiuno ma curioso, qui in inglese trovate una chiara e efficace introduzione. Per i cultori della materia specifico che quanto dirò riguarda esclusivamente la metodologia econometrica moderna emersa dagli anni 60 a oggi con i lavori del Johnston. Quanto esporrò sono delle osservazioni epistemologiche relative alla supposta adeguatezza del moderno metodo econometrico. Partiamo.
L’econometria lavora con metodi di regressione lineare, cioè cerca di fittare i dati storici tracciando la migliore delle rette lineari, come mostrato in figura.

Grafico regress

Regress multipla

Dove le varie X sono le variabili indipendenti (regressori o esogene), i beta i parametri da stimare e u il termine di errore che si suppone racchiudere la struttura probabilistica del modello.
Gauss a inizio del 19mo secolo individuò una metodologia fantastica per determinare i parametri della retta di regressione, il metodo dei minimi quadrati ordinari (OLS). In verità Legendre pubblicò prima di lui un libro in merito, ma dagli immensi archivi di appunti di Gauss emerse la priorità della scoperta, nonchè una più profonda comprensione di quanto esposto, che portò a determinare che OLS fosse il più efficente fra tutti gli stimatori lineari unbiased (c.d.BLUE, best linear unbiased estimator).
Come in molte opere umane, anche la tecnica OLS si basa su alcune assunzioni per poter restituire stime consistenti e efficenti, ipotesi fra le quali spicca per esempio la nota linearità dei rapporti fra le variabili, e certe altre caratteristiche che qui non elencheremo ma la cui importanza è fondamentale.
Cosa succede in genere al buon econometrista? Parte da un modello teorico, lo regredisce sui dati, e quasi sempre si imbatte in uno o più problemi per cui non è soddisfatta una o più delle fondamentali assunzioni di cui sopra. A questo punto il povero analista ha poche scelte: buttare via tutto, oppure affidarsi a metodi che utilizzano stimatori diversi da OLS (qua ne trovate un elenco), e alla bisogna procedere anche con i c.d. “data mining”, “data snooping”, e sampling.

Distinguiamo le due opzioni aperte all’econometrico, e partiamo dal sampling e le tecniche di data selection.
Queste sono una specie di “accanimento terapeutico” sui dati per far in modo che fittino con il modello, secondo una nota battuta che circola fra gli economisti:

i dati prima o poi confessano, se li torturi abbastanza a lungo

Le tecniche di sampling sono tante: la scelta dell’intervallo temporale dei dati da inferire e di quelli da sottoporre a controllo; la selezione dei dati su cui effettivamente procedere con la regressione; oppure una trasformazione o una aggregazione diversa dei dati stessi.
Cosa hanno queste tecniche di sampling in comune fra di loro? Essenzialmente possono prestare il fianco all’obiezione che siano arbitrarie, fatte apposta per fittare i dati al proprio disegno preordinato..
Torniamo per esempio con la memoria al campione di dati usati da Phillips per determinare la relazione fra disoccupazione e salari nominali: egli eliminò dal suo campione i dati delle due guerre mondiali, perchè in quei casi l’inflazione incasinava i risultati. Peccato che così perdesse di vista l’importanza che le aspettative di inflazione rivestono nella sua curva, e che M.Friedman riscoprirà a fine anni 60.
Anche Solow, per usare la regressione lineare sul suo modello di crescita a tecnologia neutrale, dovette usare alcune serie storiche invece di quelle concettualmente più adatte, ma almeno fu talmente onesto da indicarne le assunzioni implicite (supporre che in ogni momento l’offerta di lavoro e di capitale influenzino la disoccupazione allo stesso modo, qui pag.314).
Tutta la storia del pensiero economico è piena di battaglie sulla fallacia dei metodi di aggregazione utilizzati per i dati, qualcuno lo abbiamo visto parlando anche di Keynes e del modello a croce di Hansen, forse il più noto è la c.d. Controversia fra le due Cambridge.

Consideriamo ora invece la prima opzione. La scelta di stimatori diversi da OLS viene ritenuto trattarsi di un problema eminentemente statistico e non epistemologico: non comporterebbe cioè alcuna perdita di coerenza fra metodo usato e efficace conoscenza e rappresentazione veritiera del fenomeno economico allo studio. Sarà vero?
Intanto mi preme notare che, generalmente di fronte a problemi con le fondamentali assunzioni di cui sopra, il moderno approccio econometrico suggerisce di tenere buono il modello teorico di partenza, e concentrarsi sul termine di errore, nella frenetica ricerca di un metodo di stima alternativo a OLS. Questo approccio ricorda Mill e la sua cieca fiducia nella validità della introspezione.
L’enfasi è sul modello originario e le tecniche per scegliere lo stimatore ottimale per “salvare” il modello. Ad occhio e croce non è precisamente una metodologia che garantisca coerenza fra teoria e dati, anche se l’approccio econometrico applicato è ovviamente più complesso e completo di come lo descrivo succintamente qui.
Questa metodologia è fondata qualora si supponga che il modello teorico di partenza sia veramente la rappresentazione esatta del c.d. Data Generation Model, e che i dati disponibili misurino esattamente i concetti teorici sottesi al modello.
Sulla centralità del termine di errore si può fare un’ulteriore osservazione epistemologica. Si suppone che esso riesca a catturare una serie di fenomeni: errori di approssimazione, errori di misurazione, errori di fallace aggregazione, variabili omesse e variabilità del comportamento umano. Basta uno sguardo per rendersi conto che sia un compito impari.
Sulla coerenza di usare stimatori alternativi, vediamo solo un esempio di fallacia del metodo, che non scelgo casualmente ma in onore del premio Nobel 2015 Angus Deaton: in caso di correlazione fra le variabili regressori e gli errori, un metodo alternativo a OLS consiste nell’introdurre una variabile strumentale nella equazione.
Naturalmente va da sè che in questi casi il grosso rischio, quello cioè di scadere nell’arbitrarietà, sta in agguato proprio nella scelta della variabile strumentale, che pare scelta più per la sua capacità di restituire esiti statistici robusti piuttosto che economicamente interessanti e teoricamente fondati. Deaton nella sezione I del suo paper ce ne da numerosi esempi. La scelta delle variabili strumentali dovrà basarsi su valutazioni di tipo teorico altrimenti possiamo dare il bacio d’addio alla capacità esplicativa e epistemologica del modello.
In breve l’econometria ha fatto passi da gigante nella misurazione delle teorie economiche, ma non nella loro scoperta e controllo (punti 1 e 3 all’inizio dell’articolo).

Ma allora l’economia e in generale gli studi sociali sono o non sono “scienza”? Questo dilemma ha arrovellato ogni filosofo e economista da due secoli.
I lettori saranno tentati di credere che io sia dell’opinione che non la sia, così come sono convinto che un amico di Piano Inclinato, cui è dedicato questo pezzo, creda con certezza che io non consideri l’econometria una scienza onesta.
Ammetto che sono tentato, anche perchè continuo a ragionare ormai inerzialmente in termini “galileiani”: la “vera” scienza è soprattutto sperimentale, ma l’economia per ragioni ovvie non lo è, anche se decidessimo di fare esperimenti sulla pelle della gente.
Come sosteneva Mill, essa è e rimarrà una scienza inesatta, troppo vincolata alle fluttuazioni e capricci della sua componente sociale, per cui le sue assunzioni e “leggi” possono ben modificarsi nel tempo al modificarsi dei conportamenti, delle preferenze, delle aspettative e del processo tramite cui esse si formano.
Tuttavia c’è un motivo per cui sono invece propenso a credere nella scientificità dell’economia. O almeno confidarci. L’economia è scienza perchè si basa su metodi scientifici, cioè su una serie di metodologie e tecniche che possono essere replicate, controllate e verificate. L’importante è che gli autori degli studi espongano onestamente e completamente i dati, le tecniche e gli accorgimenti utilizzati affinchè vengano correttamente tarati e pesati e verificatane la coerenza.
C’è una sostanziale differenza fra una metodologia che da indicazioni precise e replicabili e un’altra che faccia riferimento a passaggi ambigui o oscuri. Altrimenti anche la lettura delle interiora o dei fondi di caffè diventa scienza.
Indicazioni precise e replicabilità: queste le parole discriminanti.
Certo che, davanti a risultati come quelli esposti in un survey della Federal Reserve di ottobre 2015, si rimane perplessi o imbarazzati:

Replicabilità

Ma questa mia interpretazione non è esente, temo, da altre problematiche….
Il mio punto di vista fa ricadere l’economia (e ogni altra scienza) nel campo degli specialisti: solo una profonda conoscenza dei meccanismi e delle varie teorie e dei metodi statistico-matematici permetterebbe una effettiva discriminazione fra teorie buone e non, e modelli empirici coerenti e non.
L’economista “da bar” resta estraneo a tutto ciò, pertanto la sua adesione ad una teoria o un’altra continua a dipendere da scelte extra scientifiche. Al peggio da mode che segue ma non capisce nella loro completezza e complessità.
E mi par già di vedere il gentil Alieno sobbalzare sulla sedia a leggere questa frase da parte di un contribuente al proprio sito di divulgazione economica, e cercare febbrilmente il nostro “contratto” per farne coriandoli 😉
Sostiamo un attimo e riflettiamo: la scienza non è un campo elitario, sacerdotale, chiuso, essa bensì è sempre accessibile a chiunque…con dedizione, sforzo, impegno paziente e continuo, e umiltà. E talvolta…

.

Come avevo già scritto, spesso ho avuto modo di verificare che l’adesione a una piuttosto che ad altre teorie non sempre poggiava su motivi prevalentemente economici. Anche grandi economisti lo ammisero: Tobin, Solow e in parte Samuelson ammisero che erano giovani studenti quando la rivoluzione keynesiana scoppiò e che, a differenza dei loro mentori rimasti con la testa alle teorie classiche, loro rimasero affascinati dalle potenzialità applicative della nuova teoria che apriva loro le porte dei Consigli Economici Federali e governativi.
Il potere insomma, perché

Nove anelli furono dati ai re degli uomini, che più di tutto bramano il potere

Biblografia: Oltre a quanto esplicitamente citato, per chi volesse studiare l’econometria approfonditamente, su internet sono reperibili i testi di C.A.Favero (1999) e W.H.Greene (2002). Sulla epistemologia dell’econometria un altro testo di riferimento è Spanos (2006).

Related Posts Plugin for WordPress, Blogger...

Beneath Surface

Alla soglia degli anta decide di tornare alla sua passione giovanile: la macroeconomia. Quadro direttivo bancario, fu nottambulo ballerino di tango salòn, salsa cubana e rueda. Oggi condivide felicemente la vita reale con le sue due stupende donne.

Latest posts by Beneath Surface (see all)

Precedente W.S.Burroughs ovvero beat on the rocks (jukebox all'idrogeno) Successivo Aspettando un'amica

Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.