Parte de | Economia , estatística |
---|---|
Pessoas chave |
Ragnar Frisch James Heckman Daniel McFadden |
A Econometria é um ramo da economia que visa estimar e testar modelos de negócios .
A econometria como disciplina teve origem na década de 1930 com a criação da Econometrics Society por Irving Fisher e Ragnar Frisch (1930) e a criação da revista Econometrica (1933). Desde então, a econometria continuou a se desenvolver e assumir uma importância cada vez maior dentro da economia .
A econometria teórica centra-se essencialmente em duas questões, identificação e estimativa estatística .
A econometria aplicada usa métodos econométricos para compreender áreas da economia, como a análise do mercado de trabalho , economia da educação ou para testar a relevância empírica dos modelos de crescimento.
A econometria aplicada utiliza tanto dados de um protocolo experimental, seja um experimento de laboratório ou uma experiência de campo , quanto dados diretamente da observação da realidade sem manipulação do pesquisador. Quando o econometer usa dados diretamente da observação da realidade, é comum identificar experiências naturais para encontrar uma situação quase experimental. Às vezes falamos de uma revolução de credibilidade , um termo polêmico, para designar a ascensão meteórica desses métodos de pesquisa na disciplina e na economia em geral.
A econometria nasceu por volta dos anos 1930. No entanto, herda a evolução da estatística ocorrida durante o século XIX e no início do século XX. com o estabelecimento da Econometrics Society e da Cowles Commission nos Estados Unidos, por um lado, e o Departamento de Economia Aplicada da Universidade de Cambridge, no Reino Unido, por outro.
No entanto, alguns autores como Mary Morgan ou Philippe Le Gall se empenharam em mostrar que existiam antes dos anos 1930 programas científicos semelhantes à econometria, em particular pelo desejo de aproximar economia e estatística. Na Inglaterra , William Stanley Jevons tentou combinar economia e estatística dessa forma. Nos Estados Unidos, Henry Moore Ludwell tinha feito um esforço semelhante em 1908. Na França, Le Gall vê o trabalho de Augustin Cournot , de John Edmond Briaune e Jules Regnault precursores de econometria na XIX th século. Em seguida, ele considerou uma segunda geração no início do XX ° século com Lucien Março , Henry Bunle e Marcel Lenoir .
O primeiro Prêmio Nobel de economia foi concedido em 1969, juntamente com os dois principais fundadores da econometria: Ragnar Frisch e Jan Tinbergen. Durante a década de 1940, a Cowles Commission, um grupo de pesquisa que trabalhava na University of Chicago e depois na Yale University, construiu as bases do método econométrico em relação à análise econômica, ao cálculo de probabilidade e à estatística matemática.
Foi com a criação da empresa de econometria e da Comissão Cowles que a econometria ganhou um marco institucional.
A empresa de econometria foi fundada em 29 de dezembro de 1930em Cleveland .
Em 1930 , Ragnar Frisch e Irving Fisher fundaram a Econometric Society ( Econometric Society ), cujo objetivo principal é "promover os estudos quantitativos que tendem a trazer o ponto de vista da perspectiva teórica empírica na exploração de problemas econômicos" , então em 1933 , Frisch criou a revista Econometrica que se tornou o principal veículo para o pensamento econométrico.
O trabalho da Cowles Commission for Research in Economics (um grupo de pesquisa criado em 1932 na University of Colorado , que se mudou para a University of Chicago e depois para a Yale University .
A origem do termo econometria é atribuída a Ragnar Frisch . No editorial do primeiro número da revista Econometrica , ele definiu os objetivos da econometria: “Seu principal objetivo deve ser promover estudos que visem a unificação de abordagens quantitativas teóricas e empíricas dos problemas econômicos e que sejam orientados por princípios construtivos e rigorosos. pensamento semelhante ao que domina nas ciências naturais ( Frisch 1933 ). "
Em 1935, Jan Tinbergen apresentou um primeiro modelo econométrico na reunião da sociedade econométrica de Namur . Ele foi então contratado pela Liga das Nações para testar a relevância da teoria dos ciclos econômicos e publicou seus resultados em 1939. John Maynard Keynes se opôs fortemente ao método de Tinbergen.
O primeiro avanço importante na econometria vem de uma solução formal para o problema da identificação . Dizemos que um modelo é identificável se todos os seus parâmetros podem ser obtidos a partir da distribuição conjunta de variáveis observáveis.
O trabalho da comissão de Cowles concentra-se na identificação e estimativa do modelo de equações simultâneas.
Em 1944, Trygve Haavelmo publicou um artigo seminal na Econometrica intitulado The Probability Approach in Econometrics, no qual defendia a ideia de que os modelos econômicos devem ser probabilísticos para serem consistentes com os dados.
A década de 1960 viu o desenvolvimento de modelos que descrevem a atividade econômica por sistemas de equações em grande escala (notadamente o trabalho de Lawrence Klein, Prêmio Nobel de Economia em 1980, Henri Theil, ou aqueles mais metodológicos de Denis Sargan).
A partir de meados da década de 1970, os métodos derivados da análise de séries temporais permearam profundamente a econometria (métodos de George EP Box e Gwilym M. Jenkins, modelos dinâmicos multidimensionais e teoria da não causalidade desenvolvida por Clive Granger e Christopher Sims). A microeconometria também apareceu nas décadas de 1970 e 1980, graças em particular ao trabalho de Zvi Grilliches, bem como de Daniel L. McFadden e James J. Heckman, ambos vencedores do Prêmio Nobel de Economia em 2000.
Nas décadas de 1960 e 1970 , o avanço da tecnologia da informação levou ao surgimento de modelos macroeconômicos projetados para fins de previsão . Por exemplo, o modelo de Brookings inclui 400 equações. A partir de 1970 foram usados modelos padrão como o da Wharton.
O desenvolvimento do poder computacional de computadores e bancos de dados microeconômicos permitiu o desenvolvimento da microeconometria com o trabalho de James Tobin no modelo tobit , Mundlak em modelos de efeito fixo (1961), o trabalho de James Heckman em modelos de seleção , o trabalho de Daniel McFadden em modelos de escolha discreta e o trabalho de James Heckman e Burton Singer em modelos de duração (1984).
A partir da década de 1960, testemunhamos o nascimento da econometria de dados em painel . Chamamos dados de painel em que observamos uma unidade estatística (indivíduo, empresa, domicílio, Estado) em diferentes momentos. Esses dados permitem controlar a heterogeneidade individual que não pode ser medida pelas variáveis observadas.
Divulgação do trabalho da empresa de econometria na FrançaMarianne Fischman e Emeric Lendjel analisaram o interesse manifestado pelos integrantes do grupo X-CRISE pela econometria já na década de 1930. Na verdade, eles compartilhavam com os integrantes da sociedade econométrica a preocupação em entender a crise econômica. Robert Gibrat, junto com Georges Guillaume, forma um grupo de trabalho sobre econometria dentro do X-Crisis. Ele regularmente oferece “Notas sobre Econometria”, permitindo que os membros da X-Crisis se mantenham atualizados. François Divisia participa da empresa de econometria. No entanto, os autores explicam que o X-Crisis foi mais um local de divulgação do trabalho econométrico do que um local de investigação.
Em estudo publicado em 2006, os economistas Kim, Morse e Zingales classificaram os artigos publicados nas principais revistas de economia e tendo recebido um grande número de citações conforme sua principal contribuição fosse teórica, empírica ou metodológica. No início da década de 1970, apenas 11% dos artigos mais citados eram empíricos, enquanto, no final da década de 1990, 60% dos artigos mais citados eram estudos empíricos e quantitativos. Este desenvolvimento testemunha uma profunda transformação da ciência econômica que tem sido criticada em particular por não ser tão descritiva quanto poderia levar a crer.
Os diferentes campos da econometria compartilham uma metodologia estatística comum. Aplicativos mais específicos usam procedimentos específicos de processamento de dados que discutiremos nas próximas duas seções.
Os métodos estatísticos da econometria são construídos a partir do modelo de regressão, que é uma estrutura matemática que descreve a reação de uma variável a outras variáveis na presença de elementos aleatórios não observáveis. Seja Y uma quantidade (por exemplo, a demanda de uma família ou o número de desempregados) que observaremos para diferentes famílias ou diferentes períodos de tempo.
A econometria de modelos mal especificados, que pergunta quais características do fenômeno podem ser exibidas ou suprimidas pela aproximação, foi desenvolvida para superar as limitações dos modelos de regressão. Outra estratégia para superar as limitações dos modelos de regressão é tornar os modelos estudados cada vez mais complexos. Os modelos lineares são substituídos, por exemplo, por polinômios ou por modelos não lineares mais elaborados. Podemos também adotar, o que é cada vez mais comum, uma abordagem “não paramétrica”.
Apesar de suas várias extensões, o modelo de regressão não é adequado para estimar modelos estruturais. A teoria das equações simultâneas constitui a primeira extensão do modelo de regressão que tornou possível considerar uma situação de equilíbrio; ela desempenhou um papel importante na econometria. Os modelos desenvolvidos no âmbito desta teoria são caracterizados por diversas equações, como o modelo de oferta e demanda acima mencionado, cuja resolução permite o cálculo do equilíbrio. Muito esquematicamente, a consideração de várias equações transforma variáveis exógenas em endógenas. Os métodos estatísticos usuais (estimação de mínimos quadrados) não permitem estimar as equações estruturais e novos procedimentos estatísticos tiveram que ser estabelecidos (mínimos quadrados duplos, mínimos quadrados triplos).
Seguindo o trabalho de Lars P. Hansen em particular, uma abordagem bastante geral da econometria estrutural foi desenvolvida: o método generalizado dos momentos (GMM). Cada agente ou tipo de agente é representado fazendo suas escolhas por uma operação de maximização de um objetivo, o que resulta na resolução de uma equação. Esta equação é obtida cancelando as derivadas parciais em relação às variáveis de escolha do objetivo, e constitui a condição de primeira ordem da maximização. Supõe-se que essa condição de fato só se concretiza na média (daí o nome do método dos momentos), o que permite a introdução de erros e variáveis não observáveis. O conjunto de comportamentos dos diferentes agentes é então modelado por um sistema de condições a partir do qual a estimativa dos elementos desconhecidos é deduzida dos dados observados. O trabalho mais recente em econometria relaxa a noção de média e associa de forma mais complexa as relações comportamentais dos agentes econômicos e a distribuição de probabilidade dos dados observados. Nos modelos de escolhas financeiras, o retorno médio de um investimento não é suficiente e introduzimos, por exemplo, as probabilidades de eventos raros como a falência de uma empresa ou uma grande crise no mercado de ações.
Abordagem estrutural e abordagem de forma reduzidaA abordagem estrutural é freqüentemente oposta à abordagem de forma reduzida. Na abordagem estrutural, o econometer parte de um modelo econômico formal e busca identificar e estimar os parâmetros do modelo a partir de observações de certas quantidades previstas pelo modelo. Por exemplo, em um modelo de demanda, os parâmetros da função de utilidade do consumidor determinam a curva de demanda em um mercado; observando a quantidade de demanda em diferentes níveis de preços, é então uma questão de estimar os parâmetros da função utilidade que poderiam dar origem a esses níveis de demanda. Da mesma forma, em um modelo de oferta, em que a quantidade de oferta de um mercado depende, em particular, de parâmetros da função de produção das empresas desse mercado, a observação das quantidades de oferta permite, em certas condições, identificar os parâmetros de produção. função neste mercado.
Na abordagem estrutural, o modelo econômico prevê uma relação precisa entre os dados observados pelo econometer (por exemplo, as quantidades de demanda em certos níveis de preços) e os parâmetros que se busca estimar (por exemplo, os parâmetros da função de utilidade do consumidor) . Observando um, podemos, portanto, estimar o outro com relativa precisão. Mas o risco da abordagem estrutural reside no fato de que, com um modelo econômico diferente, os mesmos dados dariam origem a parâmetros estimados diferentes. A qualidade da estimativa do parâmetro depende, portanto, do uso do modelo econômico apropriado e, portanto, de fortes suposições que nem sempre é possível defender por outros meios que não seja por argumentos de plausibilidade.
Na abordagem de forma reduzida, em vez de estimar todas as equações ou parâmetros de um modelo, o econometer estima uma versão simplificada do modelo. É menos uma questão de obter uma quantificação precisa e mais de determinar se duas quantidades ou objetos de estudo dependem positiva ou negativamente um do outro, muitas vezes causalmente (por exemplo, se um ano adicional na escola leva a um risco reduzido de gravidez durante a adolescência) . A vantagem dessa abordagem é ser mais agnóstica e, portanto, mais robusta ao uso de um modelo econômico errôneo; por outro lado, a quantificação é menos precisa e não se pode necessariamente usar os dados para distinguir os mecanismos econômicos em jogo.
O objetivo da econometria teórica é determinar quais conclusões podem ser tiradas dos dados e um conjunto de suposições. Os problemas podem ser separados em duas classes amplas: problemas de identificação e problemas de inferência estatística . Os problemas de identificação visam determinar quais conclusões podem ser obtidas caso se observe uma quantidade infinita de dados. Por outro lado, problemas de inferência estatística (ou estimativa) procuram determinar quais conclusões podem ser tiradas de um número finito de observações.
Em um artigo de 1949 intitulado “ Problemas de identificação na construção de modelos econômicos ”, Tjalling Koopmans define a noção de identificação como o estudo das conclusões que alguém poderia tirar se conhecesse a distribuição de probabilidade das observações.
Historicamente, a noção de identificação foi construída em torno do problema da simultaneidade. O problema da simultaneidade surge em particular quando se quer identificar a curva de oferta e a curva de demanda a partir da observação das quantidades trocadas em um mercado e dos preços.
Dentre as abordagens não estruturais, desenvolveu-se um programa de pesquisa em torno da avaliação de políticas públicas e do modelo causal de Neyman-Rubin . Neste programa de pesquisa, consideramos um modelo econômico muito simples no qual definimos para cada indivíduo duas variáveis de interesse, uma que corresponde ao caso em que o indivíduo não recebe o tratamento (ou seja, a política que desejamos avaliar) e a outro que corresponde ao caso em que o indivíduo recebe este tratamento. Para cada indivíduo, uma das duas variáveis é observada e a outra é contrafactual. Este modelo é geralmente atribuído a Donald Rubin e Jerzy Neyman . Neste programa de pesquisa, buscamos organizar experimentos aleatórios em grande escala para avaliar o efeito do tratamento, ou encontrar situações quase-experimentais que permitam avaliar o efeito do tratamento de forma convincente.
Na literatura sobre avaliação de políticas públicas, as experiências de campo são consideradas o método mais relevante para avaliar o efeito de uma política pública. Esses métodos são cada vez mais populares e, correlativamente, considerados os mais confiáveis a ponto de às vezes falarmos de uma revolução de credibilidade , um termo polêmico.
A microeconometria estuda empiricamente o comportamento dos agentes econômicos a partir de observações produzidas por institutos, administrações ou empresas estatísticas. O primeiro tipo de agente económico é constituído pelas empresas, e estudamos as funções de produção que sintetizam as relações técnico-económicas entre as quantidades produzidas e as quantidades dos factores de produção (mão-de-obra, matérias-primas, capital, etc.) ou o custo funções que relacionam o custo de produção às quantidades produzidas e aos preços dos fatores de produção. Essas segundas relações têm um caráter mais econômico porque incorporam a estratégia de minimização de custos da empresa. Os consumidores são o segundo tipo de agente econômico; olhamos quanto eles gastam em diferentes tipos de bens e quanto economizam. A função de demanda de um bem expressa a despesa destinada a esse bem de acordo com seu preço, renda familiar, características sociodemográficas, preço de bens substitutos, etc. Em geral, o domicílio é a unidade de observação, mas alguns modelos muito bons examinam o processo de tomada de decisão dentro do próprio domicílio.
Os vários aspectos do mercado de trabalho são amplamente estudados. A importância do desemprego tem, por exemplo, conduzido à criação de modelos de duração do desemprego em que esta depende das características do indivíduo, do mecanismo de chegada das ofertas de emprego, das medidas de ajuda ao desempregado e do tipo de saída do desemprego. A Figura 3 exemplifica o resultado desse tipo de modelo ao apresentar uma estimativa da taxa de saída do desemprego para dois tipos de população. De uma forma mais geral, os econometeres (e demógrafos) estudaram os mecanismos de transição dos indivíduos entre as diferentes fases que definem a situação individual face ao mercado de trabalho (formação, emprego estável ou precário, desemprego, inatividade, reforma, etc.).
Foi dada especial atenção ao mercado de trabalho feminino, à decisão de trabalhar (modelos de participação) e ao nível desta participação. Estes estudos foram realizados principalmente em países do norte da Europa, onde a participação feminina é menor e o trabalho a tempo parcial é mais desenvolvido do que na França. Os economistas do trabalho também estão interessados nos mecanismos de determinação de salários e, portanto, no papel da qualificação do trabalhador. A economia da educação é um campo importante da modelagem econométrica.
A referência ao modelo básico de mercado competitivo muitas vezes não é relevante para descrever a interação de um pequeno número de agentes. Em seguida, usamos formalizações da teoria dos jogos. Suponha, por exemplo, que se deseje estudar as respostas de um pequeno número de empresas a uma licitação. Usaremos um modelo que divide o preço oferecido para cada empresa em um custo de produção mais uma margem, cujo tamanho depende da estratégia da empresa que arbitra entre o aumento dos lucros e a diminuição da probabilidade de ganhar o mercado. .
Os modelos de escolha qualitativa são um componente importante dos métodos estatísticos em microeconometria. Verifica-se que a decisão de um agente económico é frequentemente baseada em duas ou num número finito de possibilidades (utilizar o transporte público ou o seu veículo pessoal, comprar ou não comprar casa, escolher energia para aquecer a sua casa, etc.). O objetivo do estudo é, então, explicar essa escolha dicotômica ou politômica por um conjunto de variáveis. Muitos modelos foram examinados para lidar com escolhas qualitativas em relação, em particular, à teoria microeconômica do consumidor. O trabalho de Daniel McFadden relaciona-se em particular com essa modelagem.
O econometer também deve, muitas vezes, explicar simultaneamente uma escolha qualitativa e uma variável quantitativa associada a essa escolha. Durante uma pesquisa de emprego, estudamos, por exemplo, uma população feminina. Algumas mulheres trabalham e seus salários são observáveis. Aqueles que não trabalham (por escolha ou por constrangimento), entretanto, têm um salário potencial (ou latente) que é por natureza não observável. Seria incorreto ignorar no estudo dos salários o fato de que este último é observado apenas para uma determinada categoria de empregados; este viés de seleção deve ser corrigido por métodos estatísticos apropriados. Esses métodos foram desenvolvidos em particular por James Heckman.
Esse processamento de dados é usual em estatísticas, mas a originalidade da econometria dentro da pesquisa estatística é considerar as más qualidades dos dados (dados parcialmente observados, não respostas, etc.) como resultado em parte de decisões comportamentais de agentes econômicos e como um característica essencial do fenômeno estudado. Como já destacamos, um elemento importante dessa modelagem consiste na introdução de variáveis aleatórias não observáveis, características da heterogeneidade individual e explicativas, em particular, do viés de seleção.
Os dados macroeconômicos ou financeiros são geralmente séries temporais, ou seja, quantidades observadas em diferentes períodos de tempo. O objetivo é analisar a dinâmica das variáveis consideradas, mais precisamente, sua evolução, a propagação da variação de uma sobre as outras, suas causalidades, suas variações sazonais. O estudo aprofundado desses fenômenos dinâmicos é um componente essencial da econometria.
O ponto de vista mais simples e descritivo é o tratamento de uma única variável observada em momentos diferentes. Estudamos as interdependências temporais desta variável de modo a modelar seu valor em t em função de suas realizações em períodos anteriores.
O desenvolvimento de modelos dinâmicos complexos examinando várias séries em conjunto estuda a determinação de uma variável por sua própria história e pelo passado de outras quantidades. Nesse sentido, os modelos vetoriais autorregressivos (VARs) são uma classe de modelos muito popular em econometria.
Um conjunto de séries cronológicas é qualificado como estacionário se o mecanismo que gera essas variáveis não muda com o tempo. A estacionariedade implica, por exemplo, que o efeito de seis meses de um aumento de preços sobre os salários era da mesma natureza nas décadas de 1970 e 1990, o que certamente é falso. Em geral, as séries econômicas não satisfazem a condição de estacionariedade. A não estacionariedade é outra forma de levar em consideração a especificidade de cada período. Foi só no início da década de 1980 que o estudo explícito da não estacionariedade passou a ocupar o primeiro plano na pesquisa econométrica.
Nos modelos de ruptura, as próprias relações ou os parâmetros que as caracterizam podem mudar. Esses modelos respondem ao que se denomina crítica de Robert E. Lucas (Prêmio Nobel de 1995), que pode ser resumida no seguinte argumento: uma medida de política econômica terá um duplo efeito; um efeito direto, descrito pelas relações (se a renda familiar aumenta, o consumo aumenta) e um efeito sobre o comportamento do consumidor (os trade-offs consumo-poupança mudarão) que resulta em uma modificação das relações. Esses dois efeitos podem se compensar e dificultar as previsões macroeconômicas. Formalmente, os modelos de ruptura se resumem a relações não lineares às vezes descontínuas entre variáveis.
A década de 1970 também marcou o questionamento dos modelos macroeconométricos tradicionais. Em particular porque, devido à sua ineficácia em explicar e prever a estagflação após os choques do petróleo , eles serão acusados de não terem bases microeconômicas suficientes . Lucas, por exemplo, mostra já em 1972 a ligação entre as expectativas dos agentes econômicos e a variação dos coeficientes estruturais dos modelos macroeconométricos. Sua conclusão é, então, que qualquer medida de política econômica leva a uma mudança no comportamento dos agentes e, consequentemente, esses agentes são capazes de se contrapor às políticas governamentais antecipando-se a elas. Isso reduz consideravelmente o interesse das políticas orçamentária e monetária .
Na economia do crescimento , Gregory Mankiw, David Romer e David Weil usam um modelo de regressão linear para testar empiricamente a relevância do modelo de Solow . Eles mostram que o modelo de Solow mais capital humano é consistente com os dados observados.
Daron Acemoglu , Simon Johnson e James Robinson usam regressão linear para estimar o efeito das instituições no desenvolvimento atual dos países.
Já em 1975, Isaac Ehrlich usou métodos econométricos para medir o efeito dissuasor da pena de morte .
Steven Levitt usa um modelo de variável instrumental linear para estimar o efeito causal do número de policiais sobre o crime.
Existe uma vasta literatura sobre as escolhas educacionais e a estimativa dos retornos privados da educação. Michael Keane e Kenneth Wolpin estimam um modelo de educação e escolha de ocupação para uma coorte de homens americanos nascidos em 1979. Eles mostram que seu modelo fornece previsões consistentes com os dados.
Existem também muitos estudos que procuram encontrar os determinantes do sucesso acadêmico. Entre esses trabalhos, alguns enfocam o tamanho da classe. Joshua Angrist e Victor Lavy (in) usaram um método de descontinuidade de regressão para estimar o efeito causal do tamanho da classe no desempenho dos alunos das crianças a partir de dados israelenses. Os autores usam a regra de Maimônides de que não deve haver mais de 40 alunos por turma como um experimento natural para encontrar variações no tamanho da turma independente do nível do aluno.
Uma parte significativa da econometria está associada à estimativa das funções de produção. Podemos tomar como exemplo o artigo de Steven Olley e Ariél Pakes .
A função de produção de uma empresa determina como a empresa transforma recursos, chamados fatores de produção (por exemplo, capital e trabalho), em produtos acabados. A estimativa da função de produção de cada empresa permite medir a sua produtividade, ou seja, a relação entre a quantidade de recursos utilizados e a quantidade de bens ou serviços produzidos. Com esta estimativa, torna-se então possível medir não só a produtividade média das empresas de um setor e a sua evolução ao longo do tempo, mas também medir as diferenças de produtividade, por exemplo entre empresas do mesmo setor, ou d '' estudar a contribuição de cada empresa à produtividade de seu setor ou da economia em geral.
A estimativa econométrica das funções de produção não é necessariamente direta. A escolha dos fatores de produção por uma empresa não é independente do seu nível de produtividade, o que implica que uma aplicação direta do método dos mínimos quadrados daria resultados estatisticamente enviesados. Para remediar isso, Olley e Pakes foram pioneiros em um sub-ramo que sugere outras técnicas de estimativa, principalmente com base em uma abordagem com uma variável instrumental.
A cliometria é uma escola de história econômica quantitativa que usa os métodos da econometria para entender a história.
Há uma controvérsia entre os proponentes de um forte programa de econometria estrutural e os proponentes de métodos quase experimentais e do modelo causal de Neyman e Rubin. Por exemplo, em 2010 no Journal of Economic Perspectives , econometers Joshua Angrist e Jörn-Stephen Pischke defendem a ideia de que a econometria se tornou credível graças ao desenvolvimento de métodos quase-experimentais e à abordagem de Neyman e Rubin . Por outro lado, Michael Keane defende a ambição do programa estrutural e a ideia de que é necessário ter um modelo econômico para interpretar os parâmetros estimados e fazer análises ex ante das políticas públicas.