16 resultados para Economia - Modelos estatísticos
em Repositório da Universidade Federal do Espírito Santo (UFES), Brazil
Resumo:
A integração de tecnologias de informação e comunicação no contexto educacional tem sido tema de diversos congressos e simpósios ao redor do mundo e no Brasil. Neste sentido, vários estudos têm sido realizados com o objetivo de se obter metodologias que tornem efetivo o emprego das novas tecnologias no ensino. Este artigo mostra um estudo que investigou a interação entre estudantes universitários da área de ciências exatas e um ambiente de modelagem computacional qualitativo em atividades de modelagem expressiva. Os resultados obtidos mostram que os estudantes foram capazes de criar e modificar o modelo do sistema proposto a partir de suas próprias concepções.
Resumo:
O artigo trata da posição teórica de Keynes relativamente à economia clássica e à abordagem denominada herética. A primeira seção resgata os traços distintivos das escolas clássica e neoclássica segundo a demarcação proposta por Keynes, bem como as críticas por ele dirigidas às principais teses defendidas por essas linhagens teóricas. A seguir, retoma-se a sua avaliação dos argumentos subconsumistas, indicando-se os seus pontos de convergência e distanciamento dessa visão econômica. Na continuação, apresentam-se as interpretações neoclássicas ao problema da demanda, comentando-se a relação da obra de Keynes com a tradição marshalliana. A última seção avalia a teoria neoclássica do produto real sob condições cíclicas e introduz a versão de Keynes para o equilíbrio agregado definido pelas propensões a gastar e a investir, além de indicar o componente de fragilidade da leitura marshalliana de sua estrutura teórica. Por fim, comenta-se a contribuição de Keynes ao conhecimento econômico da época perante a escola clássica e os hereges.
Resumo:
O artigo versa sobre a doutrina econômica e social de Thomas Carlyle, célebre autor escocês do século dezenove. Inicialmente, são revistos alguns aspectos essenciais da sociedade e do capitalismo industrial na Inglaterra durante o período. Resgatam-se, a seguir, as influências religiosas e filosóficas do pensamento social de Carlyle. Após, discutem-se sua concepção da história e a versão da Revolução Francesa por ele formulada para, na seqüência, introduzir sua crítica da economia vitoriana. Ao final, avaliam-se os avanços e contradições de sua teoria social.
Resumo:
O artigo trata do debate ocorrido entre Sismondi e os economistas ricardianos, na primeira metade do século dezenove, a respeito do equilíbrio dos mercados, do papel da competição e dos efeitos da maquinaria nas sociedades industriais. A seção inicial reconstitui os principais termos do discurso crítico de Sismondi direcionado à ortodoxia clássica. A seguir, detalham-se as respostas elaboradas por McCulloch e Torrens em defesa da livre concorrência, do caráter ilimitado da demanda e do avanço da mecanização na atividade produtiva. A terceira seção considera a argumentação posterior de Sismondi na qual ele reitera sua teoria das crises de superprodução a partir de uma abordagem histórica do capitalismo. Ao final, procede-se a uma breve avaliação da herança ricardiana à economia política em vista da controvérsia examinada.
Resumo:
Diante do colapso financeiro de 2008, este trabalho retoma a teoria econômica proposta por Hyman P. Minsky com o objetivo de esclarecer as circunstâncias que propiciaram uma crise financeira tão profunda. A estrutura analítica de Minsky é marcada pela Hipótese da Instabilidade Financeira, a qual aponta para fatores endógenos ao próprio sistema capitalista como o principal causador de instabilidades financeiras. Este processo, caracterizado principalmente por um avanço desfavorável no nível de endividamento dos agentes, constrói um ciclo de estágios que pode se desenvolver para uma crise financeira ou um colapso sistêmico, definidos como “Momento Minsky” e “Colapso Minsky”. Este cenário descrito por Minsky, também analisado à luz de teorias mais recentes como as de Gary A. Dymski e Alessandro Vercelli, é conhecido por “ciclo minskyano”. Ao adotar estes preceitos da análise teórica de Minsky, é possível visualizar como o processo de desregulamentação e fragilização financeira dos Estados Unidos nas décadas de 1980 e 1990 proveram condições para a crise do subprime e, posteriormente, o colapso financeiro de 2008. De maneira similar, é possível observar que a análise teórica de Minsky também é aplicável à crise que afeta a economia brasileira no final de 2008. A fragilização financeira que se inicia no Brasil poucos anos antes da crise, acentuada no setor exportador de commodities, cria a condição para o “momento Minsky brasileiro”, demonstrando que apesar das falhas da análise teórica de Minsky, que supõe uma economia fechada com características da economia estadunidense, é possível visualizar uma relação de causa e efeito da recente crise financeira com a teoria minskyana.
Resumo:
Esta dissertação enfoca o tema do desenvolvimento sustentável no setor bancário, destacando-se a elaboração e implementação do The Economics of Ecosystems and Biodiversity (TEEB) em sua aplicação no setor bancário brasileiro. Sistematiza o referencial teórico-conceitual sobre desenvolvimento sustentável realçando as distinções entre a economia tradicional e a Economia Ecológica. Sistematiza, ainda, o embasamento teórico-conceitual sobre regulação ambiental, enfatizando sua transição dos modelos de regulação direta, para as abordagens de policy mix, com destaque para os pagamentos por serviços ambientais (PSA) e o TEEB. Assim, aborda iniciativas de sustentabilidade no setor bancário no Brasil, destacando-se a participação do banco Santander na elaboração do TEEB Brasil. Ressalta como considerações finais que apesar da progressiva multiplicação de iniciativas de sustentabilidade no setor bancário, tais processos ainda são incipientes e persistem indefinições de formatação de regulação específica para o setor bancário no que tange à sustentabilidade.
Resumo:
Esta dissertação enfoca o tema do desenvolvimento sustentável no setor bancário, destacando-se a elaboração e implementação do The Economics of Ecosystems and Biodiversity (TEEB) em sua aplicação no setor bancário brasileiro. Sistematiza o referencial teórico-conceitual sobre desenvolvimento sustentável realçando as distinções entre a economia tradicional e a Economia Ecológica. Sistematiza, ainda, o embasamento teórico-conceitual sobre regulação ambiental, enfatizando sua transição dos modelos de regulação direta, para as abordagens de policy mix, com destaque para os pagamentos por serviços ambientais (PSA) e o TEEB. Assim, aborda iniciativas de sustentabilidade no setor bancário no Brasil, destacando-se a participação do banco Santander na elaboração do TEEB Brasil. Ressalta como considerações finais que apesar da progressiva multiplicação de iniciativas de sustentabilidade no setor bancário, tais processos ainda são incipientes e persistem indefinições de formatação de regulação específica para o setor bancário no que tange à sustentabilidade.
Resumo:
A partir da década de 1970, a literatura que trata daqueles setores de infraestrutura, cujo funcionamento requer um acompanhamento específico do Estado, vale dizer através da regulação, absorveu grande parte dos conceitos fundamentais desenvolvidos pelas escolas institucionalistas, notadamente pela Nova Economia Institucional (NEI). Entretanto, apesar dos avanços alcançados, esta literatura ainda carece de alguns desenvolvimentos teóricos e estudos empíricos que contribuam de forma decisiva. Tais questões estão ligadas, por exemplo, à evolução dos cenários e às condições econômicas que são alteradas a partir de mudanças significativas nas condições tecnológicas e que acabam por alterar significativamente aquela estrutura industrial para qual o modelo regulatório foi desenhado. Nesse sentido, as contribuições da Economia da Regulação e da NEI carecem de elementos evolucionários, notadamente schumpeterianos. O principal objetivo da dissertação é investigar como alguns elementos de inspiração schumpeteriana podem em algum grau ser aplicados à economia da regulação e neste sentido contribuir com proposições naqueles temas que essa escola fincou sua abordagem característica: o progresso tecnológico e o comportamento estratégico inovativo das empresas. Nesse sentido, o problema de pesquisa desse trabalho pode ser assim colocado: como pode ser entendido o papel do progresso tecnológico e da inovação nas teorias da regulação? A hipótese assumida neste trabalho é que não se pode desconsiderar a tecnologia e suas diversas implicações para a análise dos setores regulados, constatação essa cada vez mais clara, dadas as recentes transformações dessas indústrias: uma das principais características dos setores regulados, a partir da década de 1990, é o surgimento de novos marcos regulatórios e uma alteração progressiva dos modelos organizacionais que predominavam até então e um movimento de adaptação à margem da regulação vigente. Os resultados empíricos mostram que as transformações tecnológicas e institucionais ocorridas a partir de 1995 na indústria brasileira de telecomunicações alteraram significativamente a estrutura industrial e a dinâmica concorrencial do setor, colocando ao desenho regulatório – da Anatel – novos e complexos desafios, sobretudo, o de se adaptar à margem da dinamicidade característica das telecomunicações. Neste novo contexto, as funções regulatórias são mais complexas, o que exige um duplo processo de aprendizagem: quanto às estruturas de mercado e quanto ao comportamento estratégico das empresas.
Resumo:
Esta tese se propôs investigar a lógica inferencial das ações e suas significações em situações que mobilizam as noções de composição probabilística e acaso, bem como o papel dos modelos de significação no funcionamento cognitivo de adultos. Participaram 12 estudantes adultos jovens da classe popular, voluntários, de ambos os sexos, de um curso técnico integrado ao Ensino Médio da Educação de Jovens e Adultos. Foram realizados três encontros, individualmente, com registro em áudio e planilha eletrônica, utilizando-se dois jogos, o Likid Gaz e o Lucky Cassino, do software Missão Cognição (Haddad-Zubel, Pinkas & Pécaut, 2006), e o jogo Soma dos Dados (Silva, Rossetti & Cristo, 2012). Os procedimentos da tarefa foram adaptados de Silva e Frezza (2011): 1) apresentação do jogo; 2) execução do jogo; 3) entrevista semiestruturada; 4) aplicação de três situações-problema com intervenção segundo o Método Clínico; 5) nova partida do jogo; e 6) realização de outras duas situações-problema sem intervenção do Método Clínico. Elaboraram-se níveis de análise heurística, compreensão dos jogos e modelos de significação a partir da identificação de particularidades de procedimentos e significações nos jogos. O primeiro estudo examinou as implicações dos modelos de significação e representações prévias no pensamento do adulto, considerando que o sujeito organiza suas representações ou esquemas prévios relativos a um objeto na forma de modelos de significação em função do grau de complexidade e novidade da tarefa e de sua estrutura lógico matemática, que evoluem por meio do processo de equilibração; para o que precisa da demanda a significar esse aspecto da 13 realidade. O segundo estudo investigou a noção de combinação deduzível evidenciada no jogo Likid Gaz, identificando o papel dos modelos de significação na escolha dos procedimentos, implicando na rejeição de condutas de sistematização ou enumeração. Houve predominância dos níveis iniciais de análise heurística do jogo. O terceiro estudo examinou a noção de probabilidade observada no jogo Lucky Cassino, no qual a maioria dos participantes teve um nível de compreensão do jogo intermediário, com maior diversidade de modelos de significação em relação aos outros jogos, embora com predominância dos mais elementares. A síntese das noções de combinação, probabilidade e acaso foi explorada no quarto estudo pelo jogo Soma dos Dados (Silva, Rossetti & Cristo, 2012), identificando-se que uma limitação para adequada compreensão das ligações imbricadas nessas noções é a implicação significante – se aleatório A, então indeterminado D (notação A D), com construção de pseudonecessidades e pseudo-obrigações ou mesmo necessidades locais, generalizadas inapropriadamente. A resistência ou obstáculos do objeto deveria provocar perturbações, mas a estrutura cognitiva, o ambiente social e os modelos culturais, e a afetividade podem interferir nesse processo.
Resumo:
No âmbito da condução da política monetária, as funções de reação estimadas em estudos empíricos, tanto para a economia brasileira como para outras economias, têm mostrado uma boa aderência aos dados. Porém, os estudos mostram que o poder explicativo das estimativas aumenta consideravelmente quando se inclui um componente de suavização da taxa de juros, representado pela taxa de juros defasada. Segundo Clarida, et. al. (1998) o coeficiente da taxa de juros defasada (situado ente 0,0 e 1,0) representaria o grau de inércia da política monetária, e quanto maior esse coeficiente, menor e mais lenta é a resposta da taxa de juros ao conjunto de informações relevantes. Por outro lado, a literatura empírica internacional mostra que esse componente assume um peso expressivo nas funções de reação, o que revela que os BCs ajustam o instrumento de modo lento e parcimonioso. No entanto, o caso brasileiro é de particular interesse porque os trabalhos mais recentes têm evidenciado uma elevação no componente inercial, o que sugere que o BCB vem aumentando o grau de suavização da taxa de juros nos últimos anos. Nesse contexto, mais do que estimar uma função de reação forward looking para captar o comportamento global médio do Banco Central do Brasil no período de Janeiro de 2005 a Maio de 2013, o trabalho se propôs a procurar respostas para uma possível relação de causalidade dinâmica entre a trajetória do coeficiente de inércia e as variáveis macroeconômicas relevantes, usando como método a aplicação do filtro de Kalman para extrair a trajetória do coeficiente de inércia e a estimação de um modelo de Vetores Autorregressivos (VAR) que incluirá a trajetória do coeficiente de inércia e as variáveis macroeconômicas relevantes. De modo geral, pelas regressões e pelo filtro de Kalman, os resultados mostraram um coeficiente de inércia extremamente elevado em todo o período analisado, e coeficientes de resposta global muito pequenos, inconsistentes com o que é esperado pela teoria. Pelo método VAR, o resultado de maior interesse foi o de que choques positivos na variável de inércia foram responsáveis por desvios persistentes no hiato do produto e, consequentemente, sobre os desvios de inflação e de expectativas de inflação em relação à meta central.
Resumo:
Este trabalho tem por objetivo discutir o surgimento de um programa de pesquisa na Ciência Econômica, no que concerne a análise das assimetrias de informação, as diferenças epistemológicas e as implicações em termos de equilíbrio ótimo de Pareto, em contraponto à abordagem neoclássica standard. Em busca de tal objetivo, foi necessário destacar o método de ambos os paradigmas; todavia, era igualmente necessário discutir a filosofia/epistemologia da ciência envolvida e que serviria de base para uma abordagem relacionada a mudanças paradigmáticas na ciência. No capítulo 1, discutimos a epistemologia da ciência, a partir de três autores: Popper, Kuhn e Lakatos. Definimos o conjunto de hipóteses que podem ser associadas ao método empregado pela Escola Neoclássica, a partir da filosofia da ciência proposta por Lakatos. Em seguida, no capítulo 2, fizemos uma longa exposição do método neoclássico, definindo os axiomas inerentes às preferências bem-comportadas, apresentando algebricamente o equilíbrio geral walrasiano, exemplificando o relaxamento de hipóteses auxiliares do modelo neoclássico a partir de Friedman e, por fim, aplicando o instrumental neoclássico ao relaxamento da hipótese auxiliar de perfeição da informação, a partir do modelo desenvolvido por Grossman & Stiglitz (1976), bem como da expansão matemática desenvolvida pelo presente trabalho. Finalmente, encerramos a presente dissertação com o capítulo 3, no qual, basicamente, expomos as principais contribuições de autores como Stiglitz, Akerlof e Arrow, no que concerne a mercados permeados por informações assimétricas e comportamentos oportunistas. Procuramos mostrar as consequências para o próprio mercado, chegando a resultados em que o mesmo era extinto. Apresentamos a segunda parte do modelo de Grossman & Stiglitz, enfatizando a natureza imperfeita do sistema de preços, sua incapacidade de transmitir todas as informações sobre os bens ao conjunto dos agentes, e, por fim, discutimos tópicos variados ligados à Economia da Informação.
Resumo:
O Painel Intergovernamental sobre Mudanças Climáticas (IPCC) através do seu Quarto Relatório de Avaliação das Mudanças Climáticas Globais (IPCC-AR4), publicado em 2007, atribui as emissões de gases de efeito estufa como a principal causa do aumento médio das temperaturas e alerta para uma elevação entre 1,8 ºC e 6,4 ºC até 2100, podendo modificar assim a aptidão climática para as culturas agrícolas em diversas regiões do planeta. Diante disso, existe a necessidade de substituição dos combustíveis fósseis por fontes renováveis e limpas de energia, como o etanol. A cana-de-açúcar apresenta-se, portanto, como uma cultura estratégica na produção do etanol. O presente trabalho teve como objetivos: 1) avaliar o desempenho dos Modelos Climáticos Globais (MCGs) do IPCC-AR4 na simulação de dados climáticos de temperatura do ar e precipitação pluviométrica para o período anual e mensal; 2) elaborar o zoneamento agroclimático da cana-de-açúcar para a América do Sul considerando o clima referência e o futuro para as décadas de 2020, 2050 e 2080 em função do cenário de emissão A1B considerado pessimista e que usa um equilíbrio entre todas as fontes de energia. Para a avaliação do desempenho dos MCGs, foram utilizados dados climáticos médios mensais observados de precipitação e temperatura do ar provenientes do Climatic Research Unit (CRU) e dados simulados oriundos dos 22 MCGs do IPCC (cenário 20c3m) compreendidos entre o período de 1961-1990, além do Multimodel (ensemble) – MM que é a média da combinação dos dados de todos os modelos. O desempenho dos MCGs foi avaliado pelos índices estatísticos: desvio padrão, correlação, raiz quadrada da média do quadrado das diferenças centralizadas e o “bias” dos dados simulados com os observados, que foram representados no diagrama de Taylor. Para a etapa da elaboração do zoneamento agroclimático procedeu-se o cálculo dos balanços hídricos (referência e futuros) da cultura, pelo método de Thornthwaite & Mather (1955). Para o cenário referência, utilizaram-se dados das médias mensais da precipitação e temperatura provenientes do CRU, enquanto que para as projeções futuras, dados provenientes das anomalias do Multimodel (ensemble) – MM para as décadas de 2020, 2050 e 2080, que foram ajustados, obtendo-se assim as projeções futuras para cada período analisado. Baseado nos mapas temáticos reclassificados de deficiência hídrica anual, temperatura média anual, excedente hídrico anual e no índice de satisfação das necessidades de água (ISNA), realizou-se uma sobreposição dessas informações obtendo assim, os mapas finais do zoneamento agroclimático da cana-de-açúcar. Posteriormente ao zoneamento, realizou-se a análise das transições (ganhos, perdas e persistências) entre as classes de aptidão climática da cultura. Os resultados mostram que o Multimodel (ensemble) – MM para o período mensal apresenta o melhor desempenho entre os modelos analisados. As áreas inaptas correspondem a maior parte da América do Sul e uma expressiva transição entre as classes de aptidão climática da cultura.
Resumo:
Nos anos mais recentes, observa-se aumento na adoção das técnicas de silvicultura de precisão em florestas plantadas no Brasil. Os plantios de eucalipto ocorrem preferencialmente em áreas com baixa fertilidade de solo e consequentemente baixa produtividade. Logo, para otimizar ao máximo a produção, é necessário saber o quanto essa cultura pode produzir em cada local (sítio). Objetivou-se aplicar uma metodologia que utiliza técnicas de estatística, geoestatística e geoprocessamento, no mapeamento da variabilidade espacial e temporal de atributos químicos do solo cultivado com eucalipto, em área de 10,09 ha, situada no sul do estado do Espírito Santo. Os atributos químicos da fertilidade do solo estudados foram: fósforo (P), potássio (K), cálcio (Ca) e magnésio (Mg), no ano da implantação do povoamento do eucalipto, em 2008, e três anos após, em 2011. O solo foi amostrado em duas profundidades, 0-0,2 m e 0,2-0,4 m, nos 94 pontos de uma malha regular, com extensão de 33 x 33 m. Os dados foram analisados pela estatística descritiva e, em seguida, pela geoestatística, por meio do ajuste de semivariogramas. Diferentes métodos de interpolação foram testados para produzir mapas temáticos mais precisos e facilitar as operações algébricas utilizadas. Com o auxílio de índices quantitativos, realizou-se uma análise geral da fertilidade do solo, por meio da álgebra de mapas. A metodologia utilizada neste estudo possibilitou mapear a variabilidade espacial e temporal de atributos químicos do solo. A análise variográfica mostrou que todos os atributos estudados apresentaram-se estruturados espacialmente, exceto para o atributo P, no Ano Zero (camada 0-0,2 m) e no Ano Três (ambas as camadas). Os melhores métodos de interpolação para o mapeamento de cada atributo químico do solo foram identificados com a ajuda gráfica do Diagrama de Taylor. Mereceram destaque, os modelos esférico e exponencial nas interpolações para a maioria dos atributos químicos do solo avaliados. Apesar de a variação espacial e temporal dos atributos estudados apresentar-se, em média, com pequena variação negativa, a metodologia usada mostrou variações positivas na fertilidade do solo em várias partes da área de estudo. Além disso, os resultados demonstram que os efeitos observados são majoritariamente em função da cultura, uma vez que não foram coletadas amostras de solo em locais adubados. A produtividade do sítio florestal apresentou-se com tendências semelhantes às variações ocorridas na fertilidade do solo, exceto para o magnésio, que se mostrou com tendências espaciais para suporte de elevadas produtividades, de até 50 m3 ha-1 ano-1. Além de mostrar claramente as tendências observadas para as variações na fertilidade do solo, a metodologia utilizada confirma um caminho operacional acessível para empresas e produtores florestais para o manejo nutricional em florestas plantadas. O uso dos mapas facilita a mobilização de recursos para melhorar a aplicação de fertilizantes e corretivos necessários.
Resumo:
Esta dissertação foi desenvolvida com o objetivo de investigar os efeitos da instalação e das características do Conselho Fiscal e do Comitê de Auditoria sobre a qualidade das informações contábeis no Brasil. As características estudadas foram à independência e a qualificação dos membros. As proxies da qualidade da informação contábil foram relevância, tempestividade e conservadorismo condicional. A amostra utilizada foi composta por empresas brasileiras, listadas na Bolsa de Valores, Mercadorias e Futuros de São Paulo (BM&FBovespa), com liquidez anual superior a 0,001, no período de 2010 a 2013. Os dados foram coletados na base de dados Comdinheiro e nos Formulários de Referência das empresas, disponíveis no sítio eletrônico da Comissão de Valores Mobiliários (CVM) ou BM&FBovespa. Os modelos de qualidade da informação foram adaptados ao recorte metodológico e estimados pelo método dos mínimos quadrados ordinários (MQO), com erros-padrão robustos clusterizados por firma. Os resultados revelaram efeitos da instalação dos órgãos analisados sobre as proxies de qualidade da informação contábil. A instalação do Conselho Fiscal impactou positivamente a relevância do patrimônio líquido, enquanto a instalação do Comitê de Auditoria, a relevância do lucro. Esses resultados podem indicar diferenças no direcionamento da atenção desses órgãos: em proteger o patrimônio da entidade para os acionistas (Conselho Fiscal) ou em assegurar números mais confiáveis sobre o desempenho dos administradores (Comitê de Auditoria). Paralelamente, os resultados para a instalação do Conselho Fiscal de forma permanente inferiu força desse órgão como mecanismo de controle, ao invés da instalação somente a pedido dos acionistas. Já, a implementação do Conselho Fiscal Turbinado se mostrou ineficiente no controle da qualidade das informações contábeis. Na análise das características, a independência dos membros do Comitê de Auditoria impactou a relevância do lucro. Ao passo que a independência do Conselho Fiscal impactou a relevância do patrimônio líquido e o conservadorismo condicional (reconhecimento oportuno de perdas econômicas). Essas associações foram mais significantes quando os membros do Conselho Fiscal eram independentes dos acionistas controladores. Na análise da qualificação dos membros, foram encontradas evidências positivas na relação entre a relevância do patrimônio líquido e a maior proporção de membros do Conselho Fiscal com qualificação em Business (Contabilidade, Administração e Economia). O conservadorismo condicional foi maior na medida em que a qualificação dos membros do Conselho Fiscal convergia para a Contabilidade. Os resultados da qualificação dos membros do Comitê de Auditoria demonstraram relevância do lucro na presença de, ao menos, um Contador e na maior proporção de membros com qualificação tanto em Contabilidade como em Business; sendo mais significante conforme a qualificação dos membros do Comitê de Auditoria convergia para a Contabilidade.
Resumo:
A economia informal compõe o mundo do trabalho de todas as sociedades capitalistas, em menor ou em maior grau. No Brasil, historicamente observa-se que esse fenômeno tem sido sempre muito abrangente, sobretudo motivado pelo e resultante do contexto socioeconômico, jurídico e político. Devido às idiossincrasias nacionais, desde o surgimento do mercado de trabalho no país, esta situação persiste em diversos panoramas e com vários matizes, obstaculizando uma melhor performance global da economia brasileira e negando oportunidades de desenvolvimento individual e social ao longo do tempo. Sendo assim, e através do prisma da Economia Social e do Trabalho, o objetivo desta dissertação é analisar os principais fatores conjunturais e estruturais da informalidade observada no mercado nacional de trabalho no interregno 1980-2012, apresentando a dimensão desse problema e expondo suas raízes econômicas e institucionais, a fim de contribuir com novos elementos para o debate da informalidade em nível nacional. A hipótese central dessa pesquisa é de que o elevado GI no Brasil persiste essencialmente – mesmo que com diferentes especificidades históricas – ao nível das mentalidades dos diversos agentes, isto é, antes de ter-se um mercado nacional de trabalho com um alto GI, tem-se uma sociedade brasileira altamente informal. A instituição “trabalho informal” persiste como um hábito incrustado mesmo diante de mudanças de ordem socioeconômica, o que impede que grande parcela da população brasileira tenha acesso ao trabalho formalizado e decente (a là OIT). É mister que haja maior efetividade das leis e aprimoramentos institucionais acompanhados de coordenação e “vontade política”, alicerçados pela tomada de consciência crescente da sociedade civil no que se refere à importância da formalização e aos males da informalidade tanto para seus cidadãos quanto para a nação. Sugere-se como uma possível alternativa para diminuir o GI de forma mais consistente a consideração, para além dos aspectos econômicos e jurídicos, do arcabouço cultural, histórico, comportamental e dos hábitos sociais incrustados que os condicionam e os orientam. Isto porque são estes os eixos que norteiam o processo de desenvolvimento individual e social. Nesse sentido, o estudo (de caráter descritivo e analítico) é fundamentado pelas teorias sistêmicas e multidisciplinares desenvolvidas por Karl Paul Polanyi e Amartya Kumar Sen, interpretadas como artífices de uma vida digna, além de apregoarem o “reincrustamento” da economia na sociedade e, por analogia, o “desincrustamento” da informalidade institucionalmente enraizada na sociedade brasileira. Isso se dará à medida que forem expandidas as liberdades instrumentais e substantivas, em uma espécie de “causação circular cumulativa” aplicada à questão da informalidade, tendo como “efeito colateral altamente desejável” o desenvolvimento socioeconômico. As principais contribuições deste estudo emergiram justamente das concepções teóricas dos dois autores, combinadas aos nexos de convergência estabelecidos entre a economia brasileira, seus desdobramentos institucionais e a informalidade no mercado nacional de trabalho no período estudado.