84 resultados para CODIGOS CORRETORES DE ERROS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O modelo racional de decisão tem sido objeto de estudo constante na academia de vários países, contribuindo para evolução do ser racional como importante tomador de decisão. A evolução destes estudos tem aberto questionamentos quanto à capacidade de racionalidade que temos como tomadores de decisão, deleitando assim em várias teorias novas que pesquisam estas limitações no decidir. Especialmente aplicadas a teorias econômicas, estudos como Inteligência Artificial, Contabilidade Mental, Teoria dos Prospectos, Teoria dos Jogos entre outras se destacam neste cenário de estudo das finanças comportamentais. A contabilidade como ferramenta de apoio as decisões financeiras ocupa posição de destaque. Esta tem em seu escopo de trabalho normas (aquilo que deveria ser feito) que regulam sua atuação, em alguns casos esta regulamentação não é precisa em suas especificações, deixando janelas que levam seus profissionais a erros de interpretação. A imprecisão contábil pode causar viés em suas classificações. Os profissionais, deparados com este legado podem se utilizar de heurísticas para interpretar da melhor maneira possível os acontecimentos que são registrados na contabilidade. Este trabalho tem a intenção de análise de alguns pontos que consideramos importantes quando temos imprecisão contábil, respondendo as seguintes perguntas: a imprecisão de normas contábeis causa viés na decisão? O profissional que se depara com imprecisão contábil se utiliza de Heurística para decidir? Quais os erros mais comuns de interpretação sob incerteza contábil? Para que o assunto fosse abordado com imparcialidade de maneira a absorver retamente quais são as experiências dos profissionais que atuam na área contábil, foi elaborado um questionário composto por uma situação possível que leva o respondente a um ambiente de tomada de decisões que envolva a prática contábil. O questionário era dividido em duas partes principais, com a preocupação de identificar através das respostas se existe imprecisão contábil (sob a luz do princípio da prudência) e quais heurísticas que os respondentes se utilizam com mais freqüência, sendo o mesmo aplicado em profissionais que atuam na área contábil e que detenham experiências profissionais relacionadas à elaboração, auditoria ou análise de demonstrações contábeis. O questionário aplicado na massa respondente determinou, através das respostas, que existe, segundo os profissionais, interpretações diferentes para os mesmos dados, caracterizando assim zona cinzenta, segundo Penno (2008), ou seja, interpretações que podem ser mais agressivas ou mais conservadoras conforme a interpretação do profissional. Já quanto às estratégias simplificadoras, ou heurísticas, que causam algum tipo de enviesamento no processo decisório, alguns foram identificadas como: associações pressupostas, interpretação errada da chance, regressão a media e eventos disjuntivos e eventos conjuntivos, que reforçam a pesquisa dando indícios de que os respondentes podem estar tomando decisões enviesadas. Porém, não se identificou no estudo tomada de decisões com enviesamentos como recuperabilidade e insensibilidades ao tamanho da amostra. Ao final do estudo concluímos que os respondentes têm interpretações diferenciadas sobre o mesmo assunto, mesmo sob a luz do princípio contábil da prudência, e ainda se utilizam de estratégias simplificadoras para resolverem assuntos quotidianos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho contribui a discussão de diversificação internacional no contexto de investidores brasileiros com referência na moeda local (Reais). O trabalho testa as seguintes hipóteses: (1) se a adição de ativos internacionais não aumenta a eficiência (melhora na relação retorno/risco) de carteiras somente com ativos brasileiros, (2) se carteiras de menor risco exigem mais alocações internacionais e, (3) se alocação de ativos é parecida para investidores com referências em dólar ou em reais. Esse trabalho utiliza modelos já conhecidos de fronteiras eficientes com aplicação de técnicas que utilizam rotinas de Monte Carlo para suavizar possíveis erros na estimação dos retornos das classes de ativos, que incorporam ainda incertezas sobre o câmbio. Nas simulações são utilizadas uma cesta de ativos locais e uma cesta de ativos que melhor representa o mercado internacional. Apesar da grande maioria dos investidores brasileiros utilizarem muito pouco ativos internacionais em suas carteiras, seja por motivos de Home Bias, fatores históricos macroeconômicos evidenciados pelas altas taxas de juros ou limitações regulatórias, os resultados empíricos demonstram que existem ganhos de eficiência para as carteiras de investidores brasileiros ao se incluir ativos internacionais na alocação de ativos. Esses ganhos de eficiência são evidenciados para todos os perfis de risco, desde os mais conservadores até os perfis mais agressivos. Os resultados mostram que quanto maior o perfil de risco da carteira, maior é a alocação internacional que maximiza a eficiência da carteira. E por último, a referência da moeda muda significativamente a alocação eficiente de carteiras, carteiras com referência em dólar exigem menos diversificação com ativos em reais do que carteiras com referência em Reais exigem diversificação com ativos internacionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo a estimação e comparação entre modelos VECM com a abordagem de modelos TVECM, na modelagem e estudo do desalinhamento cambial e como o ajuste do câmbio real para que procede. Como estratégia a ser abordada serão considerados modelos de correção de erros com características distintas. Utilizaremos como abordagem linear a técnica de cointegração proposta por Johansen (1988), a abordagem tradicional. Como técnica não linear utilizaremos a abordagem inicialmente proposta por BALKE, FOMBY(1997), que consideram um mecanismo de correção de erros de forma a incorporar características TAR e SETAR. Para a análise da presença ou não de não linearidade na correção de erros entre as séries, foram realizados neste trabalho os testes de Kapetanios, Shin e Snell (2003), Hansen e Seo(2002) e Seo (2006)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de analisar o impacto na Estrutura a Termos de Volatilidade (ETV) das taxas de juros utilizando dois diferentes modelos na estimação da Estrutura a Termo das Taxas de Juros (ETTJ) e a suposição em relação a estrutura heterocedástica dos erros (MQO e MQG ponderado pela duration), a técnica procede em estimar a ETV utilizando-se da volatilidade histórica por desvio padrão e pelo modelo auto-regressivo Exponentially Weighted Moving Average (EWMA). Por meio do teste de backtesting proposto por Kupiec para o VaR paramétrico obtido com as volatilidades das ETV´s estimadas, concluí-se que há uma grande diferença na aderência que dependem da combinação dos modelos utilizados para as ETV´s. Além disso, há diferenças estatisticamente significantes entre as ETV´s estimadas em todo os pontos da curva, particularmente maiores no curto prazo (até 1 ano) e nos prazos mais longos (acima de 10 anos).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A área que enfocamos é a de processamento de dados. o que nos interessará neste trabalho é o controle na forma de uma redundância que acompanha o código. Abrange os CÓDIGOS DETETORES DE ERROS, sendo já bastante difundida na forma de DÍGITOS VERIFICADORES OU DE CONTROLE, para códigos numéricos decimais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Outliers são observações que parecem ser inconsistentes com as demais. Também chamadas de valores atípicos, extremos ou aberrantes, estas inconsistências podem ser causadas por mudanças de política ou crises econômicas, ondas inesperadas de frio ou calor, erros de medida ou digitação, entre outras. Outliers não são necessariamente valores incorretos, mas, quando provenientes de erros de medida ou digitação, podem distorcer os resultados de uma análise e levar o pesquisador à conclusões equivocadas. O objetivo deste trabalho é estudar e comparar diferentes métodos para detecção de anormalidades em séries de preços do Índice de Preços ao Consumidor (IPC), calculado pelo Instituto Brasileiro de Economia (IBRE) da Fundação Getulio Vargas (FGV). O IPC mede a variação dos preços de um conjunto fixo de bens e serviços componentes de despesas habituais das famílias com nível de renda situado entre 1 e 33 salários mínimos mensais e é usado principalmente como um índice de referência para avaliação do poder de compra do consumidor. Além do método utilizado atualmente no IBRE pelos analistas de preços, os métodos considerados neste estudo são: variações do Método do IBRE, Método do Boxplot, Método do Boxplot SIQR, Método do Boxplot Ajustado, Método de Cercas Resistentes, Método do Quartil, do Quartil Modificado, Método do Desvio Mediano Absoluto e Algoritmo de Tukey. Tais métodos foram aplicados em dados pertencentes aos municípios Rio de Janeiro e São Paulo. Para que se possa analisar o desempenho de cada método, é necessário conhecer os verdadeiros valores extremos antecipadamente. Portanto, neste trabalho, tal análise foi feita assumindo que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers. O Método do IBRE é bastante correlacionado com os preços alterados ou descartados pelos analistas. Sendo assim, a suposição de que os preços alterados ou descartados pelos analistas são os verdadeiros valores extremos pode influenciar os resultados, fazendo com que o mesmo seja favorecido em comparação com os demais métodos. No entanto, desta forma, é possível computar duas medidas através das quais os métodos são avaliados. A primeira é a porcentagem de acerto do método, que informa a proporção de verdadeiros outliers detectados. A segunda é o número de falsos positivos produzidos pelo método, que informa quantos valores precisaram ser sinalizados para um verdadeiro outlier ser detectado. Quanto maior for a proporção de acerto gerada pelo método e menor for a quantidade de falsos positivos produzidos pelo mesmo, melhor é o desempenho do método. Sendo assim, foi possível construir um ranking referente ao desempenho dos métodos, identificando o melhor dentre os analisados. Para o município do Rio de Janeiro, algumas das variações do Método do IBRE apresentaram desempenhos iguais ou superiores ao do método original. Já para o município de São Paulo, o Método do IBRE apresentou o melhor desempenho. Em trabalhos futuros, espera-se testar os métodos em dados obtidos por simulação ou que constituam bases largamente utilizadas na literatura, de forma que a suposição de que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers não interfira nos resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é composta por três ensaios sobre a gestão educacional no Brasil. Os dois primeiros abordam o processo de municipalização do ensino fundamental, destacando suas características e consequências. O terceiro ensaio discute a composição de um indicador de qualidade educacional que melhor reflita a gestão escolar. No primeiro ensaio procuramos entender, separadamente para cada um dos ciclos do ensino fundamental, como o processo de municipalização ocorreu, a partir da decomposição do aumento na proporção de crianças matriculadas em escolas municipais, e quais foram seus efeitos a partir de uma análise descritiva dos dados. No período de 1996 a 2011 foram adicionados à matrícula municipal mais de 2,5 milhões de alunos de 1a a 4a série e mais de 3,0 milhões de alunos de 5a a 8a série, em paralelo à diminuição de 3,67 milhões de matrículas do primeiro ciclo no total e ao aumento de apenas 894 mil matrículas do segundo ciclo. Os resultados da decomposição indicam que para o primeiro ciclo do ensino fundamental os novos alunos matriculados em escolas municipais foram absorvidos em função do aumento no tamanho médio das escolas municipais já existentes; enquanto para o segundo ciclo, os resultados sugerem que a criação de escolas é um forte componente explicativo do aumento na matrícula municipal. Como consequências, temos indícios de que as escolas que transferiram sua gestão apresentaram melhora considerável dos indicadores escolares. Ainda, observamos que a opção pela municipalização pode ter ocorrido naquelas escolas com condições de infraestrutura e insumos escolares mais precárias. Por fim, observamos uma mudança no perfil dos alunos da 4a série do ensino fundamental em função da descentralização administrativa caracterizada por piora das características socioeconômicas médias dos alunos nas escolas transferidas após a mudança de gestão. No segundo ensaio avaliamos econométricamente esses possíveis impactos do processo de municipalização do ensino fundamental sobre o desempenho escolar medido em taxa de aprovação, taxa de abandono, taxa de distorção idade-série e notas em exames de proficiência. Esta análise é feita através da metodologia de diferenças em diferêncas com intensidade de tempo. Analisamos ainda, se os ganhos do processo de descentralização foram diferenciados pelo nível socioeconômico das regiões, a partir da estimação de impactos heterogêneos nas variáveis explicativas. Por fim, avaliamos como o programa de accountability do governo brasileiro, a divulgação do IDEB (Índice de Desenvolvimento da Educação Básica), afetou o desempenho dos alunos em paralelo ao processo de municipalização do ensino fundamental. Os resultados estimados indicam que a relação entre a administração municipal e o desempenho escolar é positiva e crescente com o tempo de exposição ao tratamento. Ainda, que ocorreu redução da desigualdade dos indicadores educacionais - taxa de aprovação, taxa de abandono e taxa de distorção idade-série - em função da descentralização administrativa entre as escolas do primeiro ciclo do ensino fundamental. Por outro lado, o processo de descentralização da gestão escolar levou a aumento da desigualdade nos resultados educacionais medidos por exames de proficiência entre os alunos da 4a e da 8a séries do ensino fundamental. Por fim, observamos que na maioria dos casos analisados, a descentralização administrativa associada ao programa de accountability gerou melhores resultados em termos de desempenho escolar do que quando aplicada de forma isolada, corroborando os resultados encontrados na literatura internacional. No terceiro e último ensaio propomos a criação de um indicador que reflita a qualidade da escola associada aos fatores escolares e que evite dois problemas encontrados em estudos anteriores: indicadores de proficiência em nível que refletem mais o background familiar do aluno do que a qualidade da escola; e estimações de valor adicionado muito sensíveis a erros de mensuração. Assim, os indicadores são obtidos através de um modelo estrutural em que se modela a variável latente de qualidade da escola de modo a corrigir o potencial viés dos estudos anteriores. Utilizamos dados brasileiros para aplicações desses indicadores e revisitamos os fatores de família, escola e gestão para saber quais elementos têm maiores impactos sobre os resultados de educação como proficiência. Os resultados mostram que o ordenamento das escolas pelos indicadores de qualidade difere do ordenamento obtido pelos indicadores com a proficiência em nível e é menos instável do que o ordenamento obtido a partir dos indicadores de valor adicionado puro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma das principais vantagens das estratégias de negociação em pares está relacionada à baixa correlação com os retornos do mercado. Ao tomar posições compradas e vendidas, estas estratégias são capazes de controlar a magnitude do beta de mercado, mantendo-se praticamente zero ou estatísticamente não significativas. A idéia consiste na realização de arbitragem estatística, aproveitando os desvios de preços de equilíbrio de longo prazo. Como tal, elas envolvem modelos de correção de equilíbrio para os pares de retornos dos ativos. Nós mostramos como construir uma estratégia de negociação de pares que é beneficiada não só pela relação de equilíbrio de longo prazo entre os pares de preços dos ativos da carteira, mas também pela velocidade com que os preços ajustam os desvios para o equilíbrio. Até então, a grande maioria das estratégias envolvendo negociação em pares se baseavam na hipótese de que a obtenção de retornos positivos estaria relacionada à reversão à média caracterizada pela relação de cointegração dos pares, mas ignorava a possibilidade de seleção dos pares testando a velocidade de ajustamento do Vetor de Correção de Erros desta relação. Os resutados deste trabalho indicaram baixos níveis de correlação com o mercado, neutralidade das estratégias, associados a retornos financeiros líquidos e Índice de Sharpe anualizados de 15,05% e 1,96 respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta pesquisa é fornecer informações que propiciem ao gestor de convênios, condição necessária para apresentar uma prestação de contas com maior probabilidade de aceitação por parte da FINEP. Foram pesquisadas as causas dos erros mais frequentes detectados na execução financeira dos projetos que impedem a aprovação da prestação de contas no momento da análise. A pesquisa foi realizada em duas etapas: pesquisa documental e tratamento dos dados. A primeira etapa foi qualitativa constando de coleta de dados e análise documental. O período analisado foi de 01/01/2013 a 30/11/2013, por serem as mais recentes, abrangendo convênios assinados entre 2001 e 2012. Nesta pesquisa foram considerados todos os convênios analisados no período acima referido, apoiados com recursos FNDCT para desenvolvimento de estudos e pesquisas, analisados pela FINEP, e com ao menos uma impropriedade. A pesquisa documental foi realizada no Departamento de Prestação de Contas de Convênio, Termos e Acordos de Cooperação - DPC1, responsável pelo acompanhamento da execução financeira dos convênios na FINEP. Cabe informar que foram analisados 2.476 convênios ao todo no ano de 2013, sendo 1.248 aprovados e 1.228 com alguma impropriedade. A segunda etapa da pesquisa foi quantitativa, e a técnica por saturação, utilizando estatística descritiva com análise exploratória dos dados. O tratamento dos dados foi realizado a partir da distribuição de frequência observada. Como resultado da pesquisa, observa-se que as dez impropriedades mais recorrentes correspondem a 90% de todas as impropriedades do período analisado. Diante disto, cabe a proposta de orientação ao convenente, através de um FAQ no site da FINEP, abordando assuntos afetos a convênios assinados com recursos FNDCT, de fácil entendimento e acesso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é composta de três artigos que analisam a estrutura a termo das taxas de juros usando diferentes bases de dados e modelos. O capítulo 1 propõe um modelo paramétrico de taxas de juros que permite a segmentação e choques locais na estrutura a termo. Adotando dados do tesouro americano, duas versões desse modelo segmentado são implementadas. Baseado em uma sequência de 142 experimentos de previsão, os modelos propostos são comparados à benchmarks e concluí-se que eles performam melhor nos resultados das previsões fora da amostra, especialmente para as maturidades curtas e para o horizonte de previsão de 12 meses. O capítulo 2 acrescenta restrições de não arbitragem ao estimar um modelo polinomial gaussiano dinâmico de estrutura a termo para o mercado de taxas de juros brasileiro. Esse artigo propõe uma importante aproximação para a série temporal dos fatores de risco da estrutura a termo, que permite a extração do prêmio de risco das taxas de juros sem a necessidade de otimização de um modelo dinâmico completo. Essa metodologia tem a vantagem de ser facilmente implementada e obtém uma boa aproximação para o prêmio de risco da estrutura a termo, que pode ser usada em diferentes aplicações. O capítulo 3 modela a dinâmica conjunta das taxas nominais e reais usando um modelo afim de não arbitagem com variáveis macroeconômicas para a estrutura a termo, afim de decompor a diferença entre as taxas nominais e reais em prêmio de risco de inflação e expectativa de inflação no mercado americano. Uma versão sem variáveis macroeconômicas e uma versão com essas variáveis são implementadas e os prêmios de risco de inflação obtidos são pequenos e estáveis no período analisado, porém possuem diferenças na comparação dos dois modelos analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A principal explicação sugerida pela literatura para o viés do preço futuro em relação à taxa de câmbio que prevalecerá no futuro é a existência de um prêmio de risco. Aplicamos aqui os principais modelos teóricos e técnicas econométricas para identificação e mensuração do prêmio de risco aos dados brasileiros do mercado futuro de câmbio posteriores ao Plano Real. Identifica-se um prêmio de risco que varia ao longo do tempo, o qual correlaciona-se com os fundamentos macroeconômicos da economia. A partir de 1999, coerentemente com a introdução da livre flutuação cambial, observou-se uma diminuição da importância do prêmio de risco relativamente aos erros de previsão na composição do forward discount. As técnicas empregadas permitem-nos avaliar importantes questões de política econômica, como o quanto podem cair as taxas de juros reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Dissertação analisa em que medida os critérios contidos na Lei 12.527/11, conhecida como a Lei de Acesso à Informação, são atendidos pelo Sistema Integrado de Gestão de Aquisições – SIGA, do Estado do Rio de Janeiro. O pilar desta pesquisa é o inciso IV do art. 8º da referida Lei, que determina a divulgação dos registros de despesas, juntamente com os procedimentos licitatórios e os contratos celebrados, objetivando especialmente, transparência dos gastos públicos. A efetivação das compras públicas através da internet, é uma implementação da governança eletrônica, dimensão política mais avançada do governo eletrônico, proporcionando inúmeras vantagens como a celeridade nos processos licitatórios. Além disso, as transações efetuadas por meio de sistema são facilmente rastreáveis por auditorias. As informações registradas em um ambiente único garantem o cumprimento integrado de normas diminuindo erros. O pregão na forma eletrônica é, atualmente, a modalidade mais utilizada pela Administração Pública, pois vem ao encontro das demandas por transparência nos atos públicos E a análise apresentada neste trabalho É recomendada por destacara relevância da análise do site de compras eletrônicas do Estado do Rio de Janeiro, o Sistema Integrado de Gestão de Aquisições – SIGA. Para criar um parâmetro entre o SIGA e os sistemas utilizados por outros Estados, foram analisadas informações disponibilizadas nos pregões ocorridos durante o ano de 2014. Esta pesquisa mais ampla objetiva balizar o SIGA, do Estado do Rio de Janeiro, montando um ranking de transparência E o site ficou em quarto lugar, empatado com o Estado do Amazonas, atrás de São Paulo, Rio Grande do Sul e Mato Grosso.A metodologia qualitativa favoreceu a leitura valorativa do emprego do SIGA, em busca do atendimento a política pública de significativo impacto social da modalidade enfocada devido a resultados rápidos e abertura participativa de acompanhamento cidadão.As entrevistas reforçaram essa característica inerente à postura qualitativa do estudo, com percepções e informações oportunas.As considerações finais destacam avanços e limitações nos sistemas de compras eletrônicas governamentais existentes. O Siga, embora consolidado, em uso desde 2009, por todos os órgãos estaduais do Rio de Janeiro, necessita, ainda, aperfeiçoamento a implantar-se durante 2015, quando novas pesquisas devem acompanhar o movimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Decision makers often use ‘rules of thumb’, or heuristics, to help them handling decision situations (Kahneman and Tversky, 1979b). Those cognitive shortcuts are taken by the brain to cope with complexity and time limitation of decisions, by reducing the burden of information processing (Hodgkinson et al, 1999; Newell and Simon, 1972). Although crucial for decision-making, heuristics come at the cost of occasionally sending us off course, that is, make us fall into judgment traps (Tversky and Kahneman, 1974). Over fifty years of psychological research has shown that heuristics can lead to systematic errors, or biases, in decision-making. This study focuses on two particularly impactful biases to decision-making – the overconfidence and confirmation biases. A specific group – top management school students and recent graduates - were subject to classic experiments to measure their level of susceptibility to those biases. This population is bound to take decision positions at companies, and eventually make decisions that will impact not only their companies but society at large. The results show that this population is strongly biased by overconfidence, but less so to the confirmation bias. No significant relationship between the level of susceptibility to the overconfidence and to the confirmation bias was found.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A preocupação com a segurança do paciente, fator importante na dimensão da qualidade do cuidado de saúde, é, atualmente, um tema de grande relevância entre pesquisadores do todo o mundo. Os “erros” ocorrem em qualquer local onde se prestam cuidados de saúde e na maioria das situações são passíveis de medidas preventivas. O objetivo deste estudo de caso para ensino é desvelar, através de uma revisão bibliográfica, o debate em torno do tema da segurança do paciente a partir do século XXI, enfocando sua relevância enquanto problema global de saúde pública. Além disso, este estudo discorre sobre os desafios relacionados às lacunas e perspectivas neste tema e sua abordagem na realidade brasileira. Os resultados da análise sugerem que a investigação sobre a segurança do paciente apresenta falhas nas suas abordagens a serem melhor definidas e estabelecidas. Foram identificadas ainda, as barreiras, como grande demanda dos prontos-socorros das grandes cidades, o medo do profissional que cometeu o erro, adesão de todos os profissionais e dos gestores, e desafios para serem enfrentados, como o desenvolvimento de estratégias e ações políticas de saúde específicas, tanto para a pesquisa na área de saúde quanto para a literatura de saúde pública em gestão pública.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Lei 11.284/2006 é um importante marco legal da atividade de gestão florestal do Brasil. O manejo florestal sustentável de florestas públicas, até então exercido exclusivamente pelo Estado, passou a ser passível de concessão com o advento dessa Lei. A chamada “concessão florestal” se insere, portanto, na nova orientação político-econômica brasileira dedesestatização”, privilegiando o princípio da eficiência. Como resultado, a atividade de exploração sustentável de produtos florestais passa a ser transferida pelo Estado, por intermédio do Serviço Florestal Brasileiro, à iniciativa privada. Para o sucesso de uma concessão florestal, os licitantes interessados precisam de uma estimativa da capacidade produtiva da “Unidade de Manejo Florestal”. O estudo disponibilizado pelo Serviço Florestal Brasileiro para fazer essa estimativa é o inventário florestal que, resumidamente, tem a importante missão de antecipar às características vegetais de área que será objeto da concessão. E os resultados desse estudo são a principal fonte de informação para que o licitante calcule o valor que irá ofertar ao Poder Concedente. Ocorre que, por questões técnico-metodológicas que fogem ao conhecimento jurídico, os estudos de inventário florestal estão sujeitos a erros de grande escala, retratando, de maneira ilusória, a realidade da vegetação que compõe área que será concedida. Isto é um risco intrínseco à atividade de exploração sustentável de produtos florestais. Diante desse contexto, caberia ao Serviço Florestal Brasileiro administrar o risco do inventário florestal da maneira mais eficiente possível. Entretanto, não é isso que vem ocorrendo nos contratos de concessão florestal. Sobre a distribuição de riscos em contratos de concessão, a doutrina especializada no tema oferece critérios que, quando seguidos, possibilitam uma alocação dos riscos peculiares a cada atividade à parte que melhor tem condições de geri-los. Esses critérios aumentam a eficiência da concessão. Contudo, os contratos de concessão florestal até hoje celebrados não vêm considerando esses importantes critérios para uma eficiente distribuição de riscos. Como consequência, o risco do inventário florestal é, igualmente a outros inúmeros riscos, negligenciado por esses contratos, aumentando-se a ineficiência dos contratos de concessão. Diante desse panorama, os licitantes interessados na concessão adotam duas posturas distintas, ambas igualmente rejeitáveis: a postura do Licitante Conservador e a postura do Licitante Irresponsável. Esses perfis de licitantes geram, respectivamente, ineficiência à concessão e, caso o erro do inventário florestal efetivamente ocorra, a possibilidade de inviabilidade da concessão. Como resposta a isso – que é exatamente o “problema” que pretendo resolver –, proponho uma solução para melhor administrar o risco do inventário florestal. Essa solução, inspirada em uma ideia utilizada na minuta do contrato de concessão da Linha 4 do Metrô de São Paulo, e baseando-se nos critérios oferecidos pela doutrina para uma distribuição eficiente dos riscos, propõe algo novo: a fim de tornar a os contratos de concessão florestal mais eficientes, sugere-se que o risco do inventário florestal deve ser alocado na Administração Pública, e, caso o evento indesejável efetivamente ocorra (erro do inventário florestal), deve-se, por meio do reequilíbrio econômico-financeiro do contrato, ajustar o valor a ser pago pelo concessionário ao Poder Concedente. Como consequência dessa previsão contratual, as propostas dos licitantes serão mais eficientes, permitindo-se alcançar o objetivo primordial da Lei 11.284/2006: aumento da eficiência da exploração florestal sustentável e preservação do meio ambiente e dos recursos florestais.