1000 resultados para Eleição, estatística, Brasil, 1960
Resumo:
Esta tese pretende analisar a questão de ciclos políticos eleitorais em dois estudos, sendo o primeiro deles um teste empírico sobre a existência de ciclos políticos eleitorais nos municípios brasileiros e sua relação com a interação estratégica e o segundo faz uma investigação a respeito da existência de ciclos políticos eleitorais na taxa de câmbio, considerando não apenas o evento eleitoral, como também o início propaganda eleitoral gratuita nos meios de comunicação. O primeiro estudo busca testar a teoria de ciclos políticos eleitorais para os municípios brasileiros, levando em consideração as variáveis fiscais da microrregião, bem como sua contrapartida política. Em particular, este trabalho adiciona controles espaciais (fiscais e políticos) ao modelo tradicional de ciclos políticos eleitorais. O teste econométrico foi realizado para o período entre 1997 e 2008 usando a técnica de dados em painel com instrumentos, seguindo Lockwood e Migali (2009). Os resultados encontrados nas estimações sugerem que existe interação espacial para as despesas de saúde e educação (efeito marginal médio de R$ 1,42 per capita), mas não encontramos evidência de ciclo político por interações espaciais para estes gastos. Já para os gastos com investimentos, o ciclo político eleitoral é conduzido não por características intrínsecas do próprio município, mas sim pelo fato de que os gastos dos municípios localizados ao redor influenciam positivamente nos investimentos do município em questão (efeito marginal médio de R$ 1,23 per capita). No segundo estudo foi desenvolvido um teste empírico para tentar captar a relação dos momentos eleitorais (considerando as três últimas eleições presidenciais – 1998, 2002 e 2006) com a taxa de câmbio real no Brasil. O exercício estima a relação da taxa de câmbio com dummies de eleição e de propaganda eleitoral gratuita, através de modelos GARCH e EGARCH. Estima-se o efeito destas variáveis sobre a média da taxa de câmbio e a sua volatilidade, que pode ser aproximada como uma medida de risco. Os resultados encontrados sugerem que em 1998 o incumbente pode ter atuado não diretamente na apreciação cambial, mas sim na redução da volatilidade associada, diferentemente do que sugere a literatura associada a esta questão (como Lobo e Tufte (1998) e Leblang e Bernhard (2006)). Em 2006, para a variável de propaganda eleitoral, os resultados sugerem que a taxa de câmbio foi apreciada e também a sua volatilidade foi reduzida, quando da divulgação das pesquisas eleitorais, o que pode sugerir um indício de ciclo político eleitoral.
Resumo:
Esse trabalho analisa as características do mercado de aluguel de ações no Brasil entre agosto de 2007 e agosto de 2010, e busca identificar quais fatores contribuem, ou influenciam, na formação do preço cobrado para se alugar uma ação. Os resultados mostram que o volume de negócios das ações, a variável de risco relativo ao mercado, o fato de possuírem opções negociadas com base no ativo objeto, se estão prestes a pagar juros sobre capital próprio, se consideradas empresas de pequeno porte, e se pertencem a determinados setores de negócios, apresentam influencia estatística sobre a formação da taxa de aluguel.
Resumo:
A manutenção de um sistema bancário hígido e com níveis de concorrência que estimulem a oferta de produtos financeiros que atendam à sociedade é um objetivo desejável, porém difícil de ser atingido. A dificuldade resine no trade-off, ainda não consensual, entre questões ligadas à estabilidade sistêmica e questões concorrenciais. Claramente, os sistemas bancários são indispensáveis no processamento de fluxo de capitais e na administração da intermediação entre poupadores e tomadores de crédito (Freixas e Roche, 2007). Essa atividade tem a característica marcante de risco de solvência (Diammond e Dybvig, 1983), mas, ainda assim, não há conformidade de motivo e forma de regulá-la (Dewatripont e Tirole, 1994). Sobre estas questões desenvolvemos uma análise histórico-institucional com o objetivo de contextualizar o estado atual no Brasil. Vale notar que, no setor bancário, também não há consenso sobre as formas de mensurar variáveis importantes para a literatura de Organização Industrial, como Poder de Mercado e Nível de Concorrência. Para contribuir com a discussão metodológica quanto às bases de dados e aos modelos de competição, foram realizados testes com os modelos Bresnahan e Lau (1982), Panzar e Rosse (1987) e Boone (2008), além das medidas usuais de concentração Cn e HHI, avaliando o setor bancário pelas unidades bancárias (CNPJ) e pelos Conglomerados Financeiros. Os testes apontam diferença estatística no uso destas bases a partir de 2004. Outra lacuna existente na literatura é a ausência de modelos para a simulação das variações da oferta de crédito provenientes de variações na estrutura ou modo de competição. Este trabalho também traz contribuições no entendimento das relações de Poder de Mercado e Nível de Competição no Mercado de Empréstimos Bancário brasileiro. Para tanto, são realizados testes, sobre uma estrutura de função de produção, onde os resultados confirmam as hipóteses clássicas quanto ao uso de poder de mercado de forma unilateral e à eficiência de escala, no nível do conglomerado bancário.
Resumo:
Este trabalho analisa o desenvolvimento de dynamic capabilities em um contexto de turbulência institucional, diferente das condições em que esta perspectiva teórica costuma ser estudada. É feito um estudo de caso histórico e processual que analisa o surgimento das Dynamic Capabilities nos bancos brasileiros, a partir do desenvolvimento da tecnologia bancária que se deu entre os anos 1960 e 1990. Baseando-se nas proposições da Estratégia que analisam as vantagens competitivas das empresas através de seus recursos, conhecimentos e Dynamic Capabilities, é construído um framework com o qual são analisados diversos depoimentos dados ao livro “Tecnologia bancária no Brasil: uma história de conquistas, uma visão de futuro” (FONSECA; MEIRELLES; DINIZ, 2010) e em entrevistas feitas para este trabalho. Os depoimentos mostram que os bancos fizeram fortes investimentos em tecnologia a partir da reforma financeira de 1964, época em que se iniciou uma sequência de períodos com características próprias do ponto de vista institucional. Conforme as condições mudavam a cada período, os bancos também mudavam seu processo de informatização. No início, os projetos eram executados ad hoc, sob o comando direto dos líderes dos bancos. Com o tempo, à medida que a tecnologia evoluía, a infraestrutura tecnológica crescia e surgiam turbulências institucionais, os bancos progressivamente desenvolveram parcerias entre si e com fornecedores locais, descentralizaram a área de tecnologia, tornaram-se mais flexíveis, fortaleceram a governança corporativa e adotaram uma série de rotinas para cuidar da informática, o que levou ao desenvolvimento gradual das microfundações das Dynamic Capabilties nesses períodos. Em meados dos anos 1990 ocorreram a estabilização institucional e a abertura da economia à concorrência estrangeira, e assim o país colocou-se nas condições que a perspectiva teórica adotada considera ideais para que as Dynamic Capabilities sejam fontes de vantagem competitiva. Os bancos brasileiros mostraram-se preparados para enfrentar essa nova fase, o que é uma evidência de que eles haviam desenvolvido Dynamic Capabilities nas décadas precedentes, sendo que parte desse desenvolvimento podia ser atribuído às turbulências institucionais que eles haviam enfrentado.
Resumo:
Foram pesquisados resíduos organoclorados em três tecidos humanos: sangue, leite materno e tecido adiposo. Sangue foi colhido de 122 indivíduos, leite materno de 19 lactantes e tecido adiposo de 23 pacientes submetidos a diversas cirurgias. Para cada tecido foram compostos dois grupos: um urbano e outro residente em áreas de intensa atividade agrícola. Os resíduos organoclorados pesquisados foram: α - HCH; γ-HCH; Aldrin; Dieldrin; Endrin; Heptacloro; Heptacloro epóxido; HCB; Mirex; o,p´DDD; o,p´DDT; Oxiclordane; p,p´Metoxicloro; p,p´DDD; p,p´DDE; p,p´DDT e Transnonacloro. Todos os doadores responderam a questionário com quesitos sobre idade, sexo, peso, atividade, local de residência, contato ou não com pesticidas. Foi testada, através de análise estatística, a relação entre presença/ausência de organoclorados nos diferentes tecidos e os dados levantados no questionário. Todas as amostras urbanas foram negativas para os organoclorados analisados. As amostras obtidas nas áreas de atividade agrícola foram positivas, com níveis crescentes de contaminação na seqüência sangue, leite materno, tecido adiposo. Os resultados das análises do presente trabalho foram comparados com resultados préexistentes no Rio Grande do Sul. Entre a pesquisa atual e as pesquisas anteriores usadas para comparação, verificou-se diminuição da incidência de organoclorados em todos os tecidos pesquisados. O OC p,p´DDE foi o único organoclorado encontrado em todos os tecidos e em todas as pesquisas, tanto atuais como anteriores usadas para comparação.
Resumo:
O ensino médico brasileiro, no período entre 1960 e 1980, foi marcado pela ação de interesses que se expressram através da formulação de um conjunto de políticas. Dois conjuntos de interesses atuaram especificamente sobre o ensino médico brasileiro neste período. Existiu uma disputa entre o ensino de uma medicina alopática, curativa e individual, e o ensino de uma medicina preventiva que busca tratar o indivíduo e a população como um todo. E o segundo conjunto de interesses residiu na disputa entre a preocupação com a formação, no aluno, de uma mentalidade científica de pesquisa, e a mera substituição do diagnóstico feito pelo médico pelo diagnóstico produzido pela tecnologia inerente ao desenvolvimento da medicina alopática. Estes conjuntos de interesses interferiram na condução do processo educativo, como parte do processo de construção de uma hegemonia política. O modelo hegemônico do ensino médico deste período evidenciou o exercício destas relações de determinação. Assim também a análise histórica acerca de experiências que buscaram ou buscam introduzir um novo projeto educativo, demonstrou que esses interesses se exercem de modo marginal e interno ao modelo hegemônico, sempre na dependência da existência de conjunturas favoráveis.
Resumo:
A presente dissertação visa identificar como se dá o uso da internet pelos brasileiros considerando as dimensões: governo eletrônico, lazer, informação, comunicação, educação, comércio eletrônico, e analisando itens são melhores discriminadores da dimensão bem como construir um indicador de precedência nos tipos de uso. Para tal será utilizada a fonte de dados secundária fornecida pelo centro de estudos CETIC referente à pesquisa TIC Domicílios 2009. E por intermédio da técnica estatística Teoria da Resposta ao Item (TRI) cada brasileiro da amostra receberá uma pontuação relacionada às suas respostas aos itens da dimensão. Este trabalho apresenta resultados que permitem explicar aspectos relacionados ao uso de internet pelos brasileiros. Para algumas dimensões agrupou-se os itens de modo a apresentar a dimensão discriminada em grupos. Para as dimensões de Comércio Eletrônico e de Governo Eletrônico concluiu-se que os itens de suas dimensões não discriminam grupos de brasileiros com relação o seu uso, pois pela curva característica do item, cada item discrimina os brasileiros na mesma dimensão da mesma forma. Já para Comunicação, Educação, Informação e Lazer são discriminados por grupos de itens mais prováveis ao uso pelo brasileiro e usos menos prováveis.
Resumo:
Esta dissertação avalia o Prêmio Nacional da Qualidade (PNQ), cujo papel, segundo a entidade mantenedora, é nortear a Excelência em Gestão no Brasil. O estudo utiliza os textos do modelo de excelência PNQ 2011, que, aliado à revisão de literatura acadêmica sobre o tema, deu suporte ao estudo empírico aqui apresentado. Esta pesquisa baseia-se em tema, perspectiva e metodologia diferentes de estudos prévios encontrados na literatura científica, e contribui para a identificação de fatores chaves para a avaliação da excelência em gestão, um trabalho que exercita o Prêmio Nacional da Qualidade (PNQ), em uma abordagem estatística multivariada, com sugestão de novos conhecimentos acadêmico e executivo. Para as 409 organizações respondentes, entre outubro e novembro de 2011 e janeiro de 2012, 262 apresentaram questionários válidos. A amostra é semelhante à realidade econômica do Brasil em 2011, composta por: 30% do setor Industrial e 70% do setor de Serviços, igual à composição do Produto Interno Bruto (PIB), segundo o IBGE, além de contar com representantes dos 21 segmentos de atuação, conforme classificação da revista Exame. Como principal resultado, 67,5%% da avaliação da excelência em gestão no Brasil se aplica à seis fatores chaves: 1) indicadores de desempenho, 2) resposta ágil aos clientes, 3) estímulos internos para resultado e excelência, 4) mitigação de impactos negativos à sociedade, 5) equidade social da força de trabalho e 6) participação de mercado, baseado no PNQ 2011, avaliado pela análise fatorial exploratória.
Resumo:
Os impactos da adoção das Normas Internacionais de Contabilidade (IFRSs) tem sido objeto de debates nos meios profissionais e acadêmicos, entretanto, pouco tem sido pesquisado sobre as repercussões da adoção dos IFRSs na atividade pericial criminal. Portanto, o objetivo deste estudo é captar e analisar a percepção dos Peritos Criminais Federais sobre os impactos da adoção dos IFRSs na atividade de perícia criminal oficial realizada em fraudes contábeis. Lastreou-se numa abordagem quantitativa e qualitativa utilizada para verificar associações entre as percepções, recorrendo-se ao teste Qui-quadrado de Pearson e a análise de conteúdo, respectivamente. Os resultados evidenciaram que a maior parte dos respondentes concorda parcial ou totalmente que a adoção dos IFRSs facilitará o trabalho de perícia criminal federal, encontrando associação estatística com a percepção de que fraudes cometidas sem engenharia financeira são mais fáceis de comprovar e com a percepção que um maior espaço para julgamentos técnicos tem impacto positivo na atividade de perícia criminal. Outros benefícios apontados foram o aumento da comparabilidade, a diminuição da complexidade e a valorização profissional. Entretanto, constatou-se como riscos a possibilidade de aumento nas contestações técnicas aos laudos periciais, o risco de viés e a necessidade de qualificação, porém sem associação estatística com a percepção de que os IFRSs facilitarão ou não o trabalho pericial. Não foram identificadas diferenças estatísticas de percepção em função do nível de conhecimento dos preceitos sobre os IFRSs e dos conhecimentos teóricos e práticos dos pesquisados. O estudo apresenta limitações que dizem respeito principalmente à generalização dos resultados, uma vez que a abordagem pretendida foi qualitativa e quantitativa e o número de questionários respondidos não possibilitou realizar testes estatísticos com maior robustez.
Resumo:
O trabalho tem como objetivo comparar a eficácia das diferentes metodologias de projeção de inflação aplicadas ao Brasil. Serão comparados modelos de projeção que utilizam os dados agregados e desagregados do IPCA em um horizonte de até doze meses à frente. Foi utilizado o IPCA na base mensal, com início em janeiro de 1996 e fim em março de 2012. A análise fora da amostra foi feita para o período entre janeiro de 2008 e março de 2012. Os modelos desagregados serão estimados por SARIMA, pelo software X-12 ARIMA disponibilizado pelo US Census Bureau, e terão as aberturas do IPCA de grupos (9) e itens (52), assim como aberturas com sentido mais econômico utilizadas pelo Banco Central do Brasil como: serviços, administrados, alimentos e industrializados; duráveis, não duráveis, semiduráveis, serviços e administrados. Os modelos agregados serão estimados por técnicas como SARIMA, modelos estruturais em espaço-estado (Filtro de Kalman) e Markov-switching. Os modelos serão comparados pela técnica de seleção de modelo Model Confidence Set, introduzida por Hansen, Lunde e Nason (2010), e Dielbod e Mariano (1995), no qual encontramos evidências de ganhos de desempenho nas projeções dos modelos mais desagregados em relação aos modelos agregados.
Resumo:
Aparentemente existe uma anomalia no mercado de ações, onde é possível prever excessos de retomo das ações baseando-se em dados passados de divulgação de lucro. Este fenômeno é estatisticamente significante e parece não ser um artefato de amostragem ou metodologia, mas de uma ineficiência de mercado. Estudos mostram uma tendência dos excessos de retornos acumulados das ações se movimentarem na direção da surpresa de lucro, e este movimento se estende por meses após a data de divulgação de lucro trimestral. Neste trabalho mostro que este fenômeno ocorre também no Brasil, mesmo utilizando uma amostra com especificidades do mercado brasileiro e utilizando dados de expectativas de lucro de analistas financeiros no lugar de previsão estatística.
Resumo:
Os impactos das variações climáticas tem sido um tema amplamente pesquisado na macroeconomia mundial e também em setores como agricultura, energia e seguros. Já para o setor de varejo, uma busca nos principais periódicos brasileiros não retornou nenhum estudo específico. Em economias mais desenvolvidas produtos de seguros atrelados ao clima são amplamente negociados e através deste trabalho visamos também avaliar a possibilidade de desenvolvimento deste mercado no Brasil. O presente trabalho buscou avaliar os impactos das variações climáticas nas vendas do varejo durante período de aproximadamente 18 meses (564 dias) para 253 cidades brasileiras. As informações de variações climáticas (precipitação, temperatura, velocidade do vento, umidade relativa, insolação e pressão atmosférica) foram obtidas através do INMET (Instituto Nacional de Meteorologia) e cruzadas com as informações transacionais de até 206 mil clientes ativos de uma amostra não balanceada, oriundos de uma instituição financeira do ramo de cartões de crédito. Ambas as bases possuem periodicidade diária. A metodologia utilizada para o modelo econométrico foram os dados de painel com efeito fixo para avaliação de dados longitudinais através dos softwares de estatística / econometria EViews (software proprietário da IHS) e R (software livre). A hipótese nula testada foi de que o clima influencia nas decisões de compra dos clientes no curto prazo, hipótese esta provada pelas análises realizadas. Assumindo que o comportamento do consumidor do varejo não muda devido à seleção do meio de pagamento, ao chover as vendas do varejo em moeda local são impactadas negativamente. A explicação está na redução da quantidade total de transações e não o valor médio das transações. Ao excluir da base as cidades de São Paulo e Rio de Janeiro não houve alteração na significância e relevância dos resultados. Por outro lado, a chuva possui efeito de substituição entre as vendas online e offline. Quando analisado setores econômicos para observar se há comportamento diferenciado entre consumo e compras não observou-se alteração nos resultados. Ao incluirmos variáveis demográficas, concluímos que as mulheres e pessoas com maior faixa de idade apresentam maior histórico de compras. Ao avaliar o impacto da chuva em um determinado dia e seu impacto nos próximos 6 à 29 dias observamos que é significante para a quantidade de transações porém o impacto no volume de vendas não foi significante.
Resumo:
Este trabalho tem por objetivo avaliar para o caso brasileiro uma das mais importantes propriedades esperadas de um núcleo: ser um bom previsor da inflação plena futura. Para tanto, foram utilizados como referência para comparação dois modelos construídos a partir das informações mensais do IPCA e seis modelos VAR referentes a cada uma das medidas de núcleo calculadas pelo Banco Central do Brasil. O desempenho das previsões foi avaliado pela comparação dos resultados do erro quadrático médio e pela aplicação da metodologia de Diebold-Mariano (1995) de comparação de modelos. Os resultados encontrados indicam que o atual conjunto de medidas de núcleos calculado pelo Banco Central não atende pelos critérios utilizados neste trabalho a essa característica desejada.
Resumo:
Este trabalho pretende colaborar com o registro e esclarecimento da história da arquitetura moderna brasileira, a partir da produção do arquiteto Ruy Ohtake na década de 1960. Para isso, inicialmente apresenta o contexto histórico, político e cultural, nacional e internacional do período. Trata-se de um segundo momento para a arquitetura brasileira, após a fundação de Brasília, que faz com que a arquitetura brasileira seja respeitada e reconhecida internacionalmente. Focaliza a arquitetura paulista e a formação do arquiteto, em meio a um período de efervescência cultural. Aponta contingências e influências que vieram colaborar com a formação de um grupo coeso de arquitetos com uma produção que se destaca no cenário internacional. Em um segundo momento o trabalho se concentra na produção residencial do arquiteto no período em estudo, identificando particularidades e semelhanças dentro desta produção paulista. Busca referenciais nos precedentes nacionais, na arquitetura japonesa, e no raciocínio plástico vinculado ao abstracionismo geométrico derivado da convivência com as artes plásticas através de sua mãe, Tomie Ohtake. Uma breve apresentação de trabalhos de caráter público contrapõe a produção residencial. Enfim, trata-se de uma reflexão sobre a produção individual do arquiteto Ruy Ohtake, inserida na pluralidade de uma escola arquitetônica, através do exercício analítico de sua produção. Procurou-se identificar as raízes desta obra, suas bases conceituais, seus precedentes e suas particularidades e com isso colaborar para a compreensão de uma história recente em que a arquitetura protagoniza relações sociais, políticas e estéticas.
Resumo:
Concentrações de fluoreto, até 11 mg L-1, têm sido detectadas no aqüífero da Formação Santa Maria, Sistema Aqüífero Guarani, na região central do Estado do Rio Grande do Sul, Brasil. As águas subterrâneas são utilizadas para abastecimento público e levaram a incidência de fluorose dental. Esta área é a maior produtora de tabaco no Brasil, com uma longa história de aplicação de fertilizantes. Duas hipóteses são investigadas na busca de elucidar a origem das anomalias de flúor, a primeira, se refere à contaminação desencadeada pelo uso de fertilizantes fosfatados nas plantações de tabaco, e a segunda relacionada à causa natural, geogênica, determinada por interações rocha-fluido no aqüífero confinado. A hipótese antropogênica é testada nos solos e águas do aqüífero freático. O monitoramento das concentrações de fluoreto em campo, durante o período de dois anos e os experimentos de laboratório de retenção e lixiviação de fluoreto em solos mostram que este elemento é retido pelos solos argilosos. Durante o período de monitoramento das águas do freático, concentrações maiores que 0,16 mg L-1 não foram registradas, confirmando que o fluoreto é sorvido pelos solos argilosos ou transportado para horizontes mais permeáveis para superfície ou água subterrânea, em processo lento. Análise estatística fatorial e de agrupamento associada a técnicas de modelamento geoquímico apontaram as afinidades químicas das águas subterrâneas e possíveis origens para o fluoreto. As águas subterrâneas da Formação Santa Maria são distinguidas em quatro grupos hidroquímicos, o primeiro, cloretado sódico, evolui para águas subterrâneas bicarbonatadas sódicas, e ambos grupos apresentam anomalias de fluoreto. O terceiro grupo é de águas bicarbonatadas cálcicas e o quarto tem o magnésio como parâmetro característico. As hipóteses lançadas são também discutidas com base em análises de isótopos estáveis da água, e de sulfato e nitrato dissolvidos nas águas subterrâneas, que indicam a precipitação meteórica como a principal fonte de recarga do aqüífero estudado. A composição isotópica do sulfato da água é similar a do sulfato nos fertilizantes, não sendo possível distingui-lo de outras fontes que também apresentam assinaturas isotópicas semelhantes. No entanto, os isótopos do nitrato dissolvido nas águas subterrâneas e dos fertilizantes sugerem que não existe uma relação direta com o uso de fertilizantes NPK. Os dados apresentados indicam que os elevados teores de fluoreto no aqüífero da Formação Santa Maria resultam de interações água-rocha associadas à circulação de fluídos em estruturas tectônicas regionais levando a mistura de águas subterrâneas de aqüíferos mais profundos.