980 resultados para Procedimento de ancoragem ortodôntica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho visa sistematizar um modelo para previsão e explicação dos movimentos de curto prazo da estrutura a termo de taxas de juros pré-fixada em reais do Brasil, baseado na relação dos movimentos em questão com os níveis e alterações que se processam nas variáveis macroeconômicas relevantes. A metodologia usada foi dividir o procedimento em duas etapas: Na primeira etapa, o modelo de Svensson (1994) é usado para ajustar a Estrutura a Termo de Taxas de Juros de cada data específica para obter os parâmetros daquela data. Isso é conseguido através da maximização da estatística R2 na regressão de mínimos quadrados, como sugerido no artigo original de Nelson e Siegel (1987). Então, as medianas dos dois parâmetros de decaimento utilizados são calculadas e mantidas arbitrariamente constantes para facilitar os cálculos da segunda etapa. Na segunda etapa, uma vez que os estimadores que melhor se ajustam às curvas de juros foram obtidos, outra regressão de MQO é realizada considerando os betas de Svensson dependentes de variáveis macroeconômicas de estado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho procura identificar quais variáveis são as mais relevantes para previsão da taxa de câmbio real do Brasil e analisar a robustez dessas previsões. Para isso foram realizados testes de cointegração de Johansen em 13 variáveis macroeconômicas. O banco de dados utilizado são séries trimestrais e compreende o período de 1970 a 2014 e os testes foram realizados sobre as séries combinadas dois a dois, três a três e quatro a quatro. Por meio desse método, encontramos nove grupos que cointegram entre si. Utilizando esses grupos, são feitas previsões fora da amostra com a partir das últimas 60 observações. A qualidade das previsões foi avaliada por meio dos testes de Erro Quadrático Médio, teste de Diebold-Mariano e, além disso, foi utilizado um modelo de passeio aleatório do câmbio real como benchmark para o procedimento de Hansen. Todos os testes mostram que, à medida que se aumenta o horizonte de projeção, o passeio aleatório perde poder preditivo e a maioria dos modelos são mais informativos sobre o futuro da o câmbio real efetivo. O horizonte é de três a quatro anos à frente. No caso do teste de Hansen, o passeio aleatório é completamente eliminado do grupo final de modelos, mostrando que é possível fazer previsões superiores ao passeio aleatório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A atividade de fusões e aquisições, também conhecida no mercado como M&A (Mergers and Acquisitions), tem sido uma relevante estratégia adotada pelos CEOs para garantir a competitividade em mercados doméstico e internacional, sendo justificada por diversos fatores, dentre eles: necessidade de crescimento, aumento do market share, criação e/ou aumento de barreiras de entrada, aquisição de conhecimento (capital humano, tecnologia e processos) e busca por sinergias. Ainda que existam estudos sobre M&A visando uma melhor compreensão dos problemas relacionados ao alinhamento entre a estratégia e a tomada de decisão, dos fatores críticos de sucesso, melhores práticas para condução de due diligence (processo de investigação e auditoria), valorações econômicas e integrações na implementação da fusão ou aquisição, poucos se debruçaram em analisar as armadilhas do processo decisório de M&A, no que diz respeito aos vieses psicológicos existentes ao longo da tomada de decisão. Desta forma, o objetivo central da presente pesquisa é apresentar a consolidação da análise das principais armadilhas que interferem no processo decisório de fusões e aquisições. De maneira complementar, também se almejou alcançar os seguintes objetivos intermediários: compreender o processo de fusões e aquisições; identificar as principais etapas e pontos de decisão no processo decisório de fusões e aquisições; analisar as armadilhas inerentes a uma tomada de decisão. Assim, foi realizada uma pesquisa qualitativa que, além de revisão de literatura, contou com a realização de entrevistas com 15 profissionais que tiveram atuação relevante em projetos de M&A de empresas brasileiras que adquiriram, foram adquiridas ou realizaram fusões entre 2009 e 2015, em diversos segmentos da indústria. As informações obtidas foram compiladas e analisadas através da metodologia de Análise de Discurso. Como resultado, esta pesquisa mostrou que decisões de M&A são extremamente complexas e apresentam alto grau de incerteza, o que implica em um maior risco da ocorrência de armadilhas psicológicas. Dentre as armadilhas que exercem maior influência nas decisões de fusões e aquisições, de acordo com este estudo, a contextualização foi a que apresentou maior dominância, seguida pela evidência de confirmação e ancoragem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é propor a utilização do arcabouço teórico das opções reais e a posterior aplicação do modelo binomial na avaliação de projetos relacionados à exploração e produção de petróleo, tendo em vista a flexibilidade gerencial, os riscos e as incertezas técnicas e de mercado que norteiam o setor petrolífero upstream. Ademais, a aplicação do modelo proposto capta o papel crucial da volatilidade do preço do petróleo na avaliação da decisão de investimento e revela a existência dos custos irrecuperáveis extremos decorrentes do ativo real, neste caso, a unidade marítima de petróleo. Assim, com o intuito de prolongar o ciclo de produção de unidade marítima de petróleo com características preestabelecidas, propõe-se a avaliação econômica de duas alternativas tecnológicas para a extensão de vida útil da plataforma marítima objeto de estudo, sendo estas alternativas tratadas como opções de expansão. As alternativas propostas são duas: o afretamento da UMS (Unidade de Manutenção e Segurança) acoplada à plataforma e a docagem da plataforma a partir da desmobilização, isto é, o descomissionamento, e envio da plataforma ao estaleiro. Na aplicação da primeira opção, a UMS se configura em uma embarcação equipada com toda a estrutura necessária para a realização de serviço de manutenção e revitalização, sem que ocorra interrupção da produção de petróleo. Por outro lado, a opção de descomissionamento é desprovida de receita até o retorno da plataforma do estaleiro. No que tange à metodologia do presente trabalho, o modelo binomial com probabilidades de risco neutro é aplicado considerando a receita proveniente da produção de petróleo de uma plataforma marítima com sistema de produção flutuante com 14 poços, sendo 10 produtores e 4 injetores e sustentada por 8 linhas de ancoragem. Também é definida a volatilidade do projeto como sendo a volatilidade do preço do petróleo. Por fim, as opções de expansão podem ser exercidas a qualquer momento antes da data de expiração das opções, data esta coincidente para ambas as opções e referente ao término de contrato de afretamento da UMS, que corresponde ao período de cinco anos. Neste período de cinco anos, as duas alternativas são exercidas a partir do primeiro ano, com receitas e custos distintos em virtude das especificidades decorrentes das alternativas tecnológicas propostas. A partir da aplicação do modelo binomial com probabilidades de risco neutro sob o enfoque das opções reais, as duas alternativas tecnológicas são tratadas como opções americanas na avaliação econômica da revitalização e manutenção da plataforma marítima. Também realiza-se a análise tradicional do VPL para as duas alternativas. As duas análises apontam para a escolha da UMS como alternativa ótima de expansão da vida útil da plataforma. Ademais, a análise sob o enfoque das opções reais capta um valor adicional em ambas as alternativas tecnológicas, fruto das características inerentes à indústria petrolífera. Quanto à estrutura do trabalho em questão se divide em cinco capítulos: introdução, referencial teórico, metodologia, apresentação dos resultados e as considerações finais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desse trabalho é realizar um procedimento de back-test da Magic Formula no IBX-100, a fim de reunir evidencias sobre a eficiência de tal metodologia no processo de seleção das melhores ações e formação de carteiras que superem o desempenho do IBX-100 no longo prazo. Desenvolvida por Joel Greenblatt, a Magic Formula é uma metodologia de formação de carteiras que consiste em escolher ações com altos ROICs e Earnings Yields, seguindo a filosofia de Value Investing. Diversas carteiras foram montadas no período de janeiro de 2000 a junho de 2015 utilizando diferentes combinações de número de ativos por carteira e períodos de permanência. Nem todas as carteiras apresentaram retornos superiores ao índice de mercado. Aparentemente, as carteiras com mais ações e períodos de permanência mais longos apresentam desempenho superior às carteiras menores e com rotatividade maior (períodos de permanência mais curtos). A carteira de 10 ações, com período de permanência de 1 ano, apresentou o maior CAGR dentre todas as outras (17,77%), superando o CAGR de 13,17% do IBX-100 no mesmo período. Esse resultado foi superior mesmo quando ajustado ao risco. Independentemente do período de permanência e número de ações, todas as carteiras apresentaram riscos sistemáticos menores do que o índice IBX-100 (todos os betas foram significativos e menores do que 1). Por outro lado, os alfas das carteiras foram muito baixos e, raramente, significativos, sugerindo que a gestão ativa de acordo com os critérios da Magic Formula não adiciona retornos substancialmente maiores do que o retorno relacionado à variações de mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo verificar a existência e a relevância dos Efeitos Calendário em indicadores industriais. São explorados modelos univariados lineares para o indicador mensal da produção industrial brasileira e alguns de seus componentes. Inicialmente é realizada uma análise dentro da amostra valendo-se de modelos estruturais de espaço-estado e do algoritmo de seleção Autometrics, a qual aponta efeito significante da maioria das variáveis relacionadas ao calendário. Em seguida, através do procedimento de Diebold-Mariano (1995) e do Model Confidence Set, proposto por Hansen, Lunde e Nason (2011), são realizadas comparações de previsões de modelos derivados do Autometrics com um dispositivo simples de Dupla Diferença para um horizonte de até 24 meses à frente. Em geral, os modelos Autometrics que consideram as variáveis de calendário se mostram superiores nas projeções de 1 a 2 meses adiante e superam o modelo simples em todos os horizontes. Quando se agrega os componentes de categoria de uso para formar o índice industrial total, há evidências de ganhos nas projeções de prazo mais curto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This Master Thesis consists of one theoretical article and one empirical article on the field of Microeconometrics. The first chapter\footnote{We also thank useful suggestions by Marinho Bertanha, Gabriel Cepaluni, Brigham Frandsen, Dalia Ghanem, Ricardo Masini, Marcela Mello, Áureo de Paula, Cristine Pinto, Edson Severnini and seminar participants at São Paulo School of Economics, the California Econometrics Conference 2015 and the 37\textsuperscript{th} Brazilian Meeting of Econometrics.}, called \emph{Synthetic Control Estimator: A Generalized Inference Procedure and Confidence Sets}, contributes to the literature about inference techniques of the Synthetic Control Method. This methodology was proposed to answer questions involving counterfactuals when only one treated unit and a few control units are observed. Although this method was applied in many empirical works, the formal theory behind its inference procedure is still an open question. In order to fulfill this lacuna, we make clear the sufficient hypotheses that guarantee the adequacy of Fisher's Exact Hypothesis Testing Procedure for panel data, allowing us to test any \emph{sharp null hypothesis} and, consequently, to propose a new way to estimate Confidence Sets for the Synthetic Control Estimator by inverting a test statistic, the first confidence set when we have access only to finite sample, aggregate level data whose cross-sectional dimension may be larger than its time dimension. Moreover, we analyze the size and the power of the proposed test with a Monte Carlo experiment and find that test statistics that use the synthetic control method outperforms test statistics commonly used in the evaluation literature. We also extend our framework for the cases when we observe more than one outcome of interest (simultaneous hypothesis testing) or more than one treated unit (pooled intervention effect) and when heteroskedasticity is present. The second chapter, called \emph{Free Economic Area of Manaus: An Impact Evaluation using the Synthetic Control Method}, is an empirical article. We apply the synthetic control method for Brazilian city-level data during the 20\textsuperscript{th} Century in order to evaluate the economic impact of the Free Economic Area of Manaus (FEAM). We find that this enterprise zone had positive significant effects on Real GDP per capita and Services Total Production per capita, but it also had negative significant effects on Agriculture Total Production per capita. Our results suggest that this subsidy policy achieve its goal of promoting regional economic growth, even though it may have provoked mis-allocation of resources among economic sectors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No contexto do Capital Asset Pricing Model (CAPM), este trabalho investiga a significância da alavancagem financeira na construção do risco sistemático. Testamos com dados brasileiros o procedimento de desalavancagem e realavancagem do beta comumente realizado por analistas financeiros para a construção do custo de capital próprio de empresas não negociadas em bolsa de valores. Os resultados apontam que a inclusão do tax shield na fórmula de desalavancagem/realavancagem e a utilização de valores de mercado produzem resultados mais robustos, ao passo que as divisões por setores possuem pouca capacidade como segmentadores de classe de risco sistemático.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No Brasil os emissores de cartão de crédito realizam periodicamente aumento de limites do cartão, para clientes que possuem bom comportamento creditício. O objetivo do nosso estudo é analisar os efeitos desse aumento no uso que o cliente tem do seu cartão, com a hipótese de que o cliente passará a utilizar mais o cartão, seja por anchoring, visto que ele se importa em sempre ter uma reserva de limite para eventuais emergências, ou por se sentir priorizado pelo banco, ou até mesmo por demanda reprimida de crédito. Para isso, analisamos uma base de aumento de limite, com grupo de teste e controle, de clientes selecionados para aumento de limite, e observamos que o aumento fez com que os clientes aumentassem seus gastos, seu saldo devedor, passaram a fazer mais transações e timidamente passaram a rotativar. Após observar esses efeitos, dividimos o grupo em dois: Clientes com utilização média menor ou igual a 50% antes da ação e clientes com utilização média maior que 50% antes da ação. Para os clientes do teste dos dois grupos observamos um aumento no gasto mensal, no número de transações mensal, no saldo devedor e no número de clientes rotativando. Essa diferença foi maior no grupo de maior utilização pré tratamento, mas mesmo clientes que inicialmente pareciam ter uma demanda de crédito menor, mostraram-se sensíveis a utilizar mais devido ao aumento do limite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Não é de hoje que o país assiste à descoberta de incontáveis casos de desvios de recursos públicos ou mesmo à má gestão de contratos de obra pública que ocasionam, além de grave prejuízo ao Erário, danos à sociedade, muitas vezes desprovida da utilidade que seria proporcionada pelo pactuado. Essas condutas normalmente são ensejadas por projetos de engenharia que podem ser considerados meras peças de ficção, pois não representam o esforço correto para a execução do bem que se deseja construir. A Lei nº 8.666/93 permite a licitação com base em projeto básico, o que, segundo a atual onda de pensamento brasileira, seja da doutrina, dos órgãos de controle, do Poder Legislativo e até mesmo da mídia, é, de fato, um sério problema a ser enfrentado, pois a sua contratação dá margem a aditivos, entendidos como os grandes vilões das obras públicas. Por isso, o Tribunal de Contas da União vem decidindo no sentido de fortemente restringir a possibilidade de alteração contratual e, além disso, tem capitaneado projetos no Congresso Nacional que visam praticamente à extinção da empreitada por preço unitário, espécie contratual na qual o risco do projeto, ainda sem as definições necessárias, acaba por ser assumido pela Administração contratante, responsável pela elaboração, e não pelo seu executor. Contudo, no caso de obras complexas de infraestrutura, deve-se perquirir se essa postura, que pretende acabar com a margem decisória do gestor público quanto à extensão da incompletude do projeto básico - e, portanto, do objeto do contrato -, merece ser repensada, não com vistas a possibilitar os recorrentes danos, mas no caminho de uma melhor programação das ações estatais. Isso porque nessas hipóteses, a busca por todas as informações necessárias para a confecção do projeto a ser ao final executado, no momento da elaboração do edital, ou é muito custosa ou simplesmente não é possível. Assim, seria mais eficiente a contratação integrada, prevista na Lei do Regime Diferenciado de Contratação, na qual o risco do projeto pode se alocado ao contratado. Ocorre que, como existem restrições, nem sempre é viável esse caminho. Nessa ordem de ideias, deve-se encontrar uma solução para que o tradicional contrato de obra pública supere os seus graves problemas de incentivos. A proposta do presente trabalho é a introdução de um procedimento de tomada de decisão transparente, que confira segurança jurídica e amplo conhecimento da sociedade, além de livre acesso aos órgãos de controle, a partir de critérios não apenas jurídicos, mas econômicos e técnicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho tem por objetivo explorar e descrever a percepção do profissional jurídico no município do Rio de Janeiro sobre o instituto da mediação. A mediação possui um enorme potencial para contribuir com a diminuição das demandas judicias e solucionar conflitos através da negociação com a presença de um terceiro imparcial. O profissional jurídico pode participar da mediação de diversas maneiras e sua visão com relação ao instituto é fundamental para que ocorra o conhecimento, a divulgação e a utilização desse procedimento. Por meio da análise dos fundamentos teóricos da mediação, da legislação brasileira e dos dados coletados pela aplicação de questionário, foi levantada a posição do profissional jurídico com relação ao instituto da mediação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em 26 de maio de 2015, foi sancionada a Lei nº 13.129/2015, que promoveu verdadeira reforma na Lei nº 9.307, 23 de setembro de 1996, a Lei de Arbitragem. Dentre as modificações introduzidas no direito arbitral brasileiro, possivelmente a mais importante delas é aquela prevista no § 1º do art. 1º da Lei de Arbitragem, que passou a admitir indistintamente o uso, pelo Estado, da via arbitral para dirimir conflitos relativos a direitos patrimoniais disponíveis, permitindo a inserção da correspondente cláusula compromissória nos contratos administrativos em geral e, inclusive, em convênios, contratos de gestão e termos de cessão e de permissão de uso. A presente dissertação de mestrado tem por objetivo, precisamente, o de permitir uma melhor compreensão do alcance da regra prevista no art. 1º, § 1º, da Lei nº 9.307/96, verdadeiro marco regulatório da arbitragem no setor público, e propor, concretamente, linhas de ação voltadas para fomentar o emprego do procedimento arbitral nos conflitos envolvendo a Administração Pública, em especial a regulamentação do instituto no seio da burocracia estatal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ‘Projeto Democracia Digital’ investiga iniciativas governamentais e da sociedade civil de e Democracia a partir das ações que se relacionam com a transparência pública, a participação digital e a disponibilização de dados abertos. Busca-se criar um ambiente de reflexão, interação, compartilhamento e debates sobre o fomento à participação popular, capaz de aprimorar o espaço político-democrático, auxiliando na compreensão do complexo modelo jurídico que organiza os canais de participação democrática e dos desafios da gestão pública brasileira ao implementá-los. O projeto tem duas vertentes. A equipe de pesquisadores da FGV Direito SP investiga o uso das Tecnologias de Informação e Comunicação (TICs) pela sociedade civil e a equipe de pesquisadores da FGV-EAESP foca o uso das TICs pelos governo municipais, estaduais e federal. Este relatório apresenta os resultados da equipe FGV-EAESP na etapa empírica, cujo objetivo é prospectar, analisar e mapear iniciativas governamentais de dados abertos, de transparência e de participação digital. Com isso, busca-se entender como os governos brasileiros estão se apropriando da tecnologia da informação na disponibilização de dados abertos e na execução de iniciativas de transparência e de participação digital, apontando os desafios enfrentados por governos e gestores públicos no país. A metodologia empregada consistiu em um conjunto de métodos quantitativos e qualitativos, e a fonte principal foram dados primários coletados a partir da observação de sites dos governos federal, estaduais e municipais. O procedimento de busca das iniciativas foi diferente para cada uma das três dimensões: Transparência, e Participação e Dados Abertos, e será detalhado no relatório de cada tema. Ao todo foram visitados: 125 websites governamentais, 18 portais de dados abertos (ou de transparência que indicam a existência de arquivos em formato aberto) e 18 portais de iniciativas de e Participação. A coleta de dados permitiu uma análises comparada entre as diferentes esferas de governo. A metodologia compreendeu também workshops com especialistas para validação dos instrumentos de pesquisa, antes do campo, e discussão dos resultados, após o campo. Encontrou-se um cenário de avanços em relação à prática dos anos recentes, porém de muitos desafios. Em suma, para transparência os resultados indicam que os dados disponibilizados são voltados principalmente para o atendimento das exigências legais e que há desigualdade entre a transparência dos governos observados. Para dados abertos, ainda é incipiente no Brasil a criação de portais de dados abertos e os dados financeiros são os mais disponibilizados. Já para e Participação, percebeu-se que as iniciativas se preocupam mais em informar os governos sobre a vontade pública do que em permitir a tomada de decisões pelos participantes envolvidos. O relatório está dividido em três volumes: volume 1 - Panorama da transparência governamental no Brasil; volume 2 - Experiências governamentais brasileiras de e Participação e volume 3 - Dados abertos nos municípios, estados e governo federal brasileiro. Este volume apresenta o panorama de transparência governamental.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ‘Projeto Democracia Digital’ investiga iniciativas governamentais e da sociedade civil de eDemocracia a partir das ações que se relacionam com a transparência pública, a participação digital e a disponibilização de dados abertos. Busca-se criar um ambiente de reflexão, interação, compartilhamento e debates sobre o fomento à participação popular, capaz de aprimorar o espaço político-democrático, auxiliando na compreensão do complexo modelo jurídico que organiza os canais de participação democrática e dos desafios da gestão pública brasileira ao implementá-los. O projeto tem duas vertentes. A equipe de pesquisadores da FGV Direito SP investiga o uso das Tecnologias de Informação e Comunicação (TICs) pela sociedade civil e a equipe de pesquisadores da FGV-EAESP foca o uso das TICs pelos governo municipais, estaduais e federal. Este relatório apresenta os resultados da equipe FGV-EAESP na etapa empírica, cujo objetivo é prospectar, analisar e mapear iniciativas governamentais de dados abertos, de transparência e de participação digital. Com isso, busca-se entender como os governos brasileiros estão se apropriando da tecnologia da informação na disponibilização de dados abertos e na execução de iniciativas de transparência e de participação digital, apontando os desafios enfrentados por governos e gestores públicos no país. A metodologia empregada consistiu em um conjunto de métodos quantitativos e qualitativos, e as fonte principais foram dados primários coletados a partir da observação de sites dos governos federal, estaduais e municipais. O procedimento de busca das iniciativas foi diferente para cada uma das três dimensões: Transparência, eParticipação e Dados Abertos, e será detalhado no relatório de cada tema. Ao todo foram visitados: 125 websites governamentais, 18 portais de dados abertos (ou de transparência que indicam a existência de arquivos em formato aberto) e 18 portais de iniciativas de eParticipação. A coleta de dados permitiu uma análise comparada entre as diferentes esferas de governo. A metodologia compreendeu também workshops com especialistas para validação dos instrumentos de pesquisa, antes do campo, e discussão dos resultados, após o campo. Encontrou-se um cenário de avanços em relação à prática dos anos recentes, porém com muitos desafios. Em suma, para transparência os resultados indicam que os dados disponibilizados são voltados principalmente para o atendimento das exigências legais e que há desigualdade entre a transparência dos governos observados. Para dados abertos, ainda é incipiente no Brasil a criação de portais de dados abertos e os dados financeiros são os mais disponibilizados. Já para eParticipação, percebeu-se que as iniciativas se preocupam mais em informar os governos sobre a vontade pública do que em permitir a tomada de decisões pelos participantes envolvidos. O relatório está dividido em três volumes: volume 1 - Panorama da transparência governamental no Brasil; volume 2 - Experiências governamentais brasileiras de eParticipação e volume 3 - Dados abertos nos municípios, estados e governo federal brasileiro. Este volume 2 apresenta o panorama das iniciativas governamentais de eParticipação.