906 resultados para Acidente de trânsito, estatística, Brasil
Resumo:
A manutenção de um sistema bancário hígido e com níveis de concorrência que estimulem a oferta de produtos financeiros que atendam à sociedade é um objetivo desejável, porém difícil de ser atingido. A dificuldade resine no trade-off, ainda não consensual, entre questões ligadas à estabilidade sistêmica e questões concorrenciais. Claramente, os sistemas bancários são indispensáveis no processamento de fluxo de capitais e na administração da intermediação entre poupadores e tomadores de crédito (Freixas e Roche, 2007). Essa atividade tem a característica marcante de risco de solvência (Diammond e Dybvig, 1983), mas, ainda assim, não há conformidade de motivo e forma de regulá-la (Dewatripont e Tirole, 1994). Sobre estas questões desenvolvemos uma análise histórico-institucional com o objetivo de contextualizar o estado atual no Brasil. Vale notar que, no setor bancário, também não há consenso sobre as formas de mensurar variáveis importantes para a literatura de Organização Industrial, como Poder de Mercado e Nível de Concorrência. Para contribuir com a discussão metodológica quanto às bases de dados e aos modelos de competição, foram realizados testes com os modelos Bresnahan e Lau (1982), Panzar e Rosse (1987) e Boone (2008), além das medidas usuais de concentração Cn e HHI, avaliando o setor bancário pelas unidades bancárias (CNPJ) e pelos Conglomerados Financeiros. Os testes apontam diferença estatística no uso destas bases a partir de 2004. Outra lacuna existente na literatura é a ausência de modelos para a simulação das variações da oferta de crédito provenientes de variações na estrutura ou modo de competição. Este trabalho também traz contribuições no entendimento das relações de Poder de Mercado e Nível de Competição no Mercado de Empréstimos Bancário brasileiro. Para tanto, são realizados testes, sobre uma estrutura de função de produção, onde os resultados confirmam as hipóteses clássicas quanto ao uso de poder de mercado de forma unilateral e à eficiência de escala, no nível do conglomerado bancário.
Resumo:
Foram pesquisados resíduos organoclorados em três tecidos humanos: sangue, leite materno e tecido adiposo. Sangue foi colhido de 122 indivíduos, leite materno de 19 lactantes e tecido adiposo de 23 pacientes submetidos a diversas cirurgias. Para cada tecido foram compostos dois grupos: um urbano e outro residente em áreas de intensa atividade agrícola. Os resíduos organoclorados pesquisados foram: α - HCH; γ-HCH; Aldrin; Dieldrin; Endrin; Heptacloro; Heptacloro epóxido; HCB; Mirex; o,p´DDD; o,p´DDT; Oxiclordane; p,p´Metoxicloro; p,p´DDD; p,p´DDE; p,p´DDT e Transnonacloro. Todos os doadores responderam a questionário com quesitos sobre idade, sexo, peso, atividade, local de residência, contato ou não com pesticidas. Foi testada, através de análise estatística, a relação entre presença/ausência de organoclorados nos diferentes tecidos e os dados levantados no questionário. Todas as amostras urbanas foram negativas para os organoclorados analisados. As amostras obtidas nas áreas de atividade agrícola foram positivas, com níveis crescentes de contaminação na seqüência sangue, leite materno, tecido adiposo. Os resultados das análises do presente trabalho foram comparados com resultados préexistentes no Rio Grande do Sul. Entre a pesquisa atual e as pesquisas anteriores usadas para comparação, verificou-se diminuição da incidência de organoclorados em todos os tecidos pesquisados. O OC p,p´DDE foi o único organoclorado encontrado em todos os tecidos e em todas as pesquisas, tanto atuais como anteriores usadas para comparação.
Resumo:
A presente dissertação visa identificar como se dá o uso da internet pelos brasileiros considerando as dimensões: governo eletrônico, lazer, informação, comunicação, educação, comércio eletrônico, e analisando itens são melhores discriminadores da dimensão bem como construir um indicador de precedência nos tipos de uso. Para tal será utilizada a fonte de dados secundária fornecida pelo centro de estudos CETIC referente à pesquisa TIC Domicílios 2009. E por intermédio da técnica estatística Teoria da Resposta ao Item (TRI) cada brasileiro da amostra receberá uma pontuação relacionada às suas respostas aos itens da dimensão. Este trabalho apresenta resultados que permitem explicar aspectos relacionados ao uso de internet pelos brasileiros. Para algumas dimensões agrupou-se os itens de modo a apresentar a dimensão discriminada em grupos. Para as dimensões de Comércio Eletrônico e de Governo Eletrônico concluiu-se que os itens de suas dimensões não discriminam grupos de brasileiros com relação o seu uso, pois pela curva característica do item, cada item discrimina os brasileiros na mesma dimensão da mesma forma. Já para Comunicação, Educação, Informação e Lazer são discriminados por grupos de itens mais prováveis ao uso pelo brasileiro e usos menos prováveis.
Resumo:
Esta dissertação avalia o Prêmio Nacional da Qualidade (PNQ), cujo papel, segundo a entidade mantenedora, é nortear a Excelência em Gestão no Brasil. O estudo utiliza os textos do modelo de excelência PNQ 2011, que, aliado à revisão de literatura acadêmica sobre o tema, deu suporte ao estudo empírico aqui apresentado. Esta pesquisa baseia-se em tema, perspectiva e metodologia diferentes de estudos prévios encontrados na literatura científica, e contribui para a identificação de fatores chaves para a avaliação da excelência em gestão, um trabalho que exercita o Prêmio Nacional da Qualidade (PNQ), em uma abordagem estatística multivariada, com sugestão de novos conhecimentos acadêmico e executivo. Para as 409 organizações respondentes, entre outubro e novembro de 2011 e janeiro de 2012, 262 apresentaram questionários válidos. A amostra é semelhante à realidade econômica do Brasil em 2011, composta por: 30% do setor Industrial e 70% do setor de Serviços, igual à composição do Produto Interno Bruto (PIB), segundo o IBGE, além de contar com representantes dos 21 segmentos de atuação, conforme classificação da revista Exame. Como principal resultado, 67,5%% da avaliação da excelência em gestão no Brasil se aplica à seis fatores chaves: 1) indicadores de desempenho, 2) resposta ágil aos clientes, 3) estímulos internos para resultado e excelência, 4) mitigação de impactos negativos à sociedade, 5) equidade social da força de trabalho e 6) participação de mercado, baseado no PNQ 2011, avaliado pela análise fatorial exploratória.
Resumo:
Os impactos da adoção das Normas Internacionais de Contabilidade (IFRSs) tem sido objeto de debates nos meios profissionais e acadêmicos, entretanto, pouco tem sido pesquisado sobre as repercussões da adoção dos IFRSs na atividade pericial criminal. Portanto, o objetivo deste estudo é captar e analisar a percepção dos Peritos Criminais Federais sobre os impactos da adoção dos IFRSs na atividade de perícia criminal oficial realizada em fraudes contábeis. Lastreou-se numa abordagem quantitativa e qualitativa utilizada para verificar associações entre as percepções, recorrendo-se ao teste Qui-quadrado de Pearson e a análise de conteúdo, respectivamente. Os resultados evidenciaram que a maior parte dos respondentes concorda parcial ou totalmente que a adoção dos IFRSs facilitará o trabalho de perícia criminal federal, encontrando associação estatística com a percepção de que fraudes cometidas sem engenharia financeira são mais fáceis de comprovar e com a percepção que um maior espaço para julgamentos técnicos tem impacto positivo na atividade de perícia criminal. Outros benefícios apontados foram o aumento da comparabilidade, a diminuição da complexidade e a valorização profissional. Entretanto, constatou-se como riscos a possibilidade de aumento nas contestações técnicas aos laudos periciais, o risco de viés e a necessidade de qualificação, porém sem associação estatística com a percepção de que os IFRSs facilitarão ou não o trabalho pericial. Não foram identificadas diferenças estatísticas de percepção em função do nível de conhecimento dos preceitos sobre os IFRSs e dos conhecimentos teóricos e práticos dos pesquisados. O estudo apresenta limitações que dizem respeito principalmente à generalização dos resultados, uma vez que a abordagem pretendida foi qualitativa e quantitativa e o número de questionários respondidos não possibilitou realizar testes estatísticos com maior robustez.
Resumo:
O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.
Resumo:
Aparentemente existe uma anomalia no mercado de ações, onde é possível prever excessos de retomo das ações baseando-se em dados passados de divulgação de lucro. Este fenômeno é estatisticamente significante e parece não ser um artefato de amostragem ou metodologia, mas de uma ineficiência de mercado. Estudos mostram uma tendência dos excessos de retornos acumulados das ações se movimentarem na direção da surpresa de lucro, e este movimento se estende por meses após a data de divulgação de lucro trimestral. Neste trabalho mostro que este fenômeno ocorre também no Brasil, mesmo utilizando uma amostra com especificidades do mercado brasileiro e utilizando dados de expectativas de lucro de analistas financeiros no lugar de previsão estatística.
Resumo:
Os impactos das variações climáticas tem sido um tema amplamente pesquisado na macroeconomia mundial e também em setores como agricultura, energia e seguros. Já para o setor de varejo, uma busca nos principais periódicos brasileiros não retornou nenhum estudo específico. Em economias mais desenvolvidas produtos de seguros atrelados ao clima são amplamente negociados e através deste trabalho visamos também avaliar a possibilidade de desenvolvimento deste mercado no Brasil. O presente trabalho buscou avaliar os impactos das variações climáticas nas vendas do varejo durante período de aproximadamente 18 meses (564 dias) para 253 cidades brasileiras. As informações de variações climáticas (precipitação, temperatura, velocidade do vento, umidade relativa, insolação e pressão atmosférica) foram obtidas através do INMET (Instituto Nacional de Meteorologia) e cruzadas com as informações transacionais de até 206 mil clientes ativos de uma amostra não balanceada, oriundos de uma instituição financeira do ramo de cartões de crédito. Ambas as bases possuem periodicidade diária. A metodologia utilizada para o modelo econométrico foram os dados de painel com efeito fixo para avaliação de dados longitudinais através dos softwares de estatística / econometria EViews (software proprietário da IHS) e R (software livre). A hipótese nula testada foi de que o clima influencia nas decisões de compra dos clientes no curto prazo, hipótese esta provada pelas análises realizadas. Assumindo que o comportamento do consumidor do varejo não muda devido à seleção do meio de pagamento, ao chover as vendas do varejo em moeda local são impactadas negativamente. A explicação está na redução da quantidade total de transações e não o valor médio das transações. Ao excluir da base as cidades de São Paulo e Rio de Janeiro não houve alteração na significância e relevância dos resultados. Por outro lado, a chuva possui efeito de substituição entre as vendas online e offline. Quando analisado setores econômicos para observar se há comportamento diferenciado entre consumo e compras não observou-se alteração nos resultados. Ao incluirmos variáveis demográficas, concluímos que as mulheres e pessoas com maior faixa de idade apresentam maior histórico de compras. Ao avaliar o impacto da chuva em um determinado dia e seu impacto nos próximos 6 à 29 dias observamos que é significante para a quantidade de transações porém o impacto no volume de vendas não foi significante.
Resumo:
Este trabalho tem por objetivo avaliar para o caso brasileiro uma das mais importantes propriedades esperadas de um núcleo: ser um bom previsor da inflação plena futura. Para tanto, foram utilizados como referência para comparação dois modelos construídos a partir das informações mensais do IPCA e seis modelos VAR referentes a cada uma das medidas de núcleo calculadas pelo Banco Central do Brasil. O desempenho das previsões foi avaliado pela comparação dos resultados do erro quadrático médio e pela aplicação da metodologia de Diebold-Mariano (1995) de comparação de modelos. Os resultados encontrados indicam que o atual conjunto de medidas de núcleos calculado pelo Banco Central não atende pelos critérios utilizados neste trabalho a essa característica desejada.
Resumo:
Concentrações de fluoreto, até 11 mg L-1, têm sido detectadas no aqüífero da Formação Santa Maria, Sistema Aqüífero Guarani, na região central do Estado do Rio Grande do Sul, Brasil. As águas subterrâneas são utilizadas para abastecimento público e levaram a incidência de fluorose dental. Esta área é a maior produtora de tabaco no Brasil, com uma longa história de aplicação de fertilizantes. Duas hipóteses são investigadas na busca de elucidar a origem das anomalias de flúor, a primeira, se refere à contaminação desencadeada pelo uso de fertilizantes fosfatados nas plantações de tabaco, e a segunda relacionada à causa natural, geogênica, determinada por interações rocha-fluido no aqüífero confinado. A hipótese antropogênica é testada nos solos e águas do aqüífero freático. O monitoramento das concentrações de fluoreto em campo, durante o período de dois anos e os experimentos de laboratório de retenção e lixiviação de fluoreto em solos mostram que este elemento é retido pelos solos argilosos. Durante o período de monitoramento das águas do freático, concentrações maiores que 0,16 mg L-1 não foram registradas, confirmando que o fluoreto é sorvido pelos solos argilosos ou transportado para horizontes mais permeáveis para superfície ou água subterrânea, em processo lento. Análise estatística fatorial e de agrupamento associada a técnicas de modelamento geoquímico apontaram as afinidades químicas das águas subterrâneas e possíveis origens para o fluoreto. As águas subterrâneas da Formação Santa Maria são distinguidas em quatro grupos hidroquímicos, o primeiro, cloretado sódico, evolui para águas subterrâneas bicarbonatadas sódicas, e ambos grupos apresentam anomalias de fluoreto. O terceiro grupo é de águas bicarbonatadas cálcicas e o quarto tem o magnésio como parâmetro característico. As hipóteses lançadas são também discutidas com base em análises de isótopos estáveis da água, e de sulfato e nitrato dissolvidos nas águas subterrâneas, que indicam a precipitação meteórica como a principal fonte de recarga do aqüífero estudado. A composição isotópica do sulfato da água é similar a do sulfato nos fertilizantes, não sendo possível distingui-lo de outras fontes que também apresentam assinaturas isotópicas semelhantes. No entanto, os isótopos do nitrato dissolvido nas águas subterrâneas e dos fertilizantes sugerem que não existe uma relação direta com o uso de fertilizantes NPK. Os dados apresentados indicam que os elevados teores de fluoreto no aqüífero da Formação Santa Maria resultam de interações água-rocha associadas à circulação de fluídos em estruturas tectônicas regionais levando a mistura de águas subterrâneas de aqüíferos mais profundos.
Resumo:
Este estudo buscou incluir mais um ponto de dados às evidências que se acumulam a partir do trabalho de Olivei e Tenreyro (2007, 2010), que encontrou evidências empíricas sobre a importância da rigidez dos salários nominais sobre os efeitos reais da política monetária, explorando a ligação entre os diferentes padrões dos reajustes salariais encontrados nos países e o comportamento do produto e dos preços diante de choques de política monetária. Para o Brasil, inovações na política monetária que ocorrem no segundo trimestre ou no quarto trimestre provocariam uma resposta mais intensa do PIB do ponto de vista da significância estatística. Por outro lado, os choques monetários que ocorrem no primeiro ou no terceiro trimestre são associados a reações do produto com pouca significância estatística. Para a inflação, não foram conseguidas respostas estatisticamente significantes para nenhum tipo de trimestre. Incentivado por informações concretas sobre o calendário dos reajustes salariais, que sugerem a redefinição de uma grande fração dos salários entre março e maio e entre outubro e novembro, propomos uma possível explicação para as respostas diferenciadas baseadas em alteração concentrada dos contratos dos salários.
Resumo:
Ao longo da história econômica, as instabilidades financeiras sempre despertaram interesses dos pesquisadores, que visavam entender os motivos pelos quais uma economia se tornava vulnerável em determinadas situações. Outros estudiosos procuravam desvendar as razões que levavam às instabilidades e, além do mais, procuravam relacionar as variáveis que tinham maior poder de explicação nos períodos de instabilidade. O presente trabalho focará nas pesquisas dos early warning indicators aplicados à economia brasileira, com o intuito de estimar quais são os indicadores mais aderentes na explicação dos movimentos da economia. Para tal, o trabalho está dividido da seguinte maneira: No primeiro capítulo, será abordada uma introdução do trabalho. Já no segundo capítulo, serão abordados os referenciais teóricos de autores que estudaram os motivos das instabilidades financeiras. Também consta a revisão dos estudos dos early warning indicators e do exchange market pressure aplicado à economia brasileira. Posteriormente, no terceiro capítulo, é feita uma análise econométrica, com os critérios de seleção dos indicadores. Além da justificativa das escolhas dos indicadores, serão estimados modelos dos impactos dos early warning indicators na economia brasileira. Após isto, também foi calculado o exchange market pressure para a economia brasileira. Por fim, concluí-se que, apesar dos modelos de early warning indicators não serem tão aderentes à realidade brasileira, a sua determinação estatística é de grande importância para o acompanhamento das tendências na economia.
Resumo:
O presente trabalho analisou em que medida a estrutura de mercado da indústria bancária brasileira – em níveis de concentração e competição – afeta o apetite ao risco de seus agentes. Para tanto, o estudo examinou a relação entre indicadores de concentração (C3 e HHI), competição (Estatística-H) e de risco (NPL, Z-score) para o período entre 2001 e 2013. A relação entre non-performing loans (NPL), concentração e competição foi empiricamente testada através de modelos de dados em painel. Os resultados indicam que a concentração bancária tem impacto significativo no NPL, sugerindo que sistemas mais concentrados são mais frágeis. Por outro lado, os resultados para competição e NPL indicam que em ambientes mais competitivos podem gerar sistemas financeiros menos instáveis.
Resumo:
O sistema político brasileiro atual é marcado pelo número expressivo de partidos e também pelo forte trânsito interpartidário: hoje, mais de 30 partidos disputam eleições e, tanto em cargos do legislativo quanto do executivo, o número de políticos com filiação exclusiva a uma única legenda vem caindo consideravelmente. Nesse cenário, a investigação das características do processo de migração entre partidos torna-se fundamental para a melhor compreensão do sistema político-partidário brasileiro. Buscando aprofundar o conhecimento sobre esse tema, nos propusemos a responder duas questões: 1. Como o resultado das eleições municipais e estaduais afetam a decisão dos prefeitos e vereadores de permanecerem fiéis ou migrarem de partido? 2. Qual a eficácia das estratégias de migrar ou permanecer fiel? Para responder a essas questões, utilizamos dados das eleições municipais para prefeito e vereador de 2000 a 2012 e estimamos os efeitos descritos acima por meio do Desenho de Regressão Descontínua e também utilizando o método de Variáveis Instrumentais.
Resumo:
Este trabalho visa sistematizar um modelo para previsão e explicação dos movimentos de curto prazo da estrutura a termo de taxas de juros pré-fixada em reais do Brasil, baseado na relação dos movimentos em questão com os níveis e alterações que se processam nas variáveis macroeconômicas relevantes. A metodologia usada foi dividir o procedimento em duas etapas: Na primeira etapa, o modelo de Svensson (1994) é usado para ajustar a Estrutura a Termo de Taxas de Juros de cada data específica para obter os parâmetros daquela data. Isso é conseguido através da maximização da estatística R2 na regressão de mínimos quadrados, como sugerido no artigo original de Nelson e Siegel (1987). Então, as medianas dos dois parâmetros de decaimento utilizados são calculadas e mantidas arbitrariamente constantes para facilitar os cálculos da segunda etapa. Na segunda etapa, uma vez que os estimadores que melhor se ajustam às curvas de juros foram obtidos, outra regressão de MQO é realizada considerando os betas de Svensson dependentes de variáveis macroeconômicas de estado.