942 resultados para Prognóstico baseado em dados
Resumo:
A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.
Resumo:
Este estudo parte de um painel de 52 países entre 1990 e 2007 para verificar se o desalinhamento da taxa de câmbio real contribui para explicar a redução da inflação mundial quando comparada à decisão de adoção do Regime de Metas de Inflação por 25 países desta amostra. O modelo Ball-Sheridan (2005) é re-estimado com novos dados e estendido para considerar os fundamentos da taxa de câmbio e o desalinhamento cambial. Verifica-se que a adoção do regime de metas de inflação é relevante para explicar a redução das taxas de inflação, em particular nos países emergentes onde confere credibilidade à política monetária. Não se verifica que o desalinhamento cambial tenha efeito significativo na convergência da inflação mundial.
Resumo:
O objetivo deste trabalho é desenvolver um modelo de tomada de decisão, baseado em Teoria das Opções Reais, para empresas atuantes em mercados em consolidação. Tal modelo tem como objetivo indicar o momento mais adequado para o início de um processo de fusões e aquisições em determinado segmento econômico. O modelo a ser desenvolvido o será sob a ótica do aumento de poder e participação de mercado somente. O mercado brasileiro contém diversos setores da economia ainda fragmentados, que oferecem oportunidades a empresas já atuantes no mercado ou a investidores financeiros, como fundos de Private Equity, atuarem, direta ou indiretamente, respectivamente, como consolidadores de mercado, via fusões e aquisições de empresas. Oportunidades de aquisições podem ser vistas como opções reais. As aquisições sempre são associadas a custos substanciais. Como ao exercer uma opção, uma aquisição se torna rentável quando seu excedente supera seu investimento a ponto de compensar o prêmio da opção. Com este objetivo, analisou-se uma série de modelos de estratégias para aquisições, bem como modelos que explicam a motivação de ondas de fusões e aquisições. A partir do modelo desenvolvido por van den Berg e Smit (2007), adaptou-se o modelo ora apresentado para aplicação a um caso selecionado, o do segmento de serviços de apoio à medicina diagnóstica, cuja consolidação dos mercados de Brasília e Goiânia iniciou-se a partir de 2006. Tal exercício tem o objetivo de evidenciar ou não sua validade bem como condições para sua utilização.
Resumo:
Neste trabalho, através de estudos das correlações, análise de componentes principais e cointegração, é discutida a relação dos comportamentos de curto e longo prazos de índices de mercado de ações representativos de 7 países latino americanos e de suas relações com índices norte-americanos e com índices globais, no período entre Julho de 2001 e Outubro de 2006. Este período foi caracterizado por uma relativa tranqüilidade, se podemos assim classificar a menor volatilidade e tamanho dos retornos, quando comparado às freqüentes crises dos fins dos anos 90. Tanto a análise da matriz de correlação dos índices como dos Componentes Principais dos mesmos demonstra agrupamentos de alguns índices, indicando um comportamento similar de curto prazo destes índices ao longo do período estudado, com movimentos fortemente correlacionados. Contudo, os resultados obtidos neste estudo, dada a falta de cointegração de vários mercados acionários, sugerem que no longo prazo um investidor poderia ter mais proteção com a diversificação que inicialmente se poderia imaginar.
Resumo:
As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.
Resumo:
O objetivo do trabalho é investigar a relação de longo prazo entre capital e inovação, utilizando técnicas econométricas mais recentes, com dados em painel. Diversos testes alternativos de cointegração foram utilizados, como testes com coeficientes comuns e idiossincráticos entre os cross-sections (testes de Pedroni, de Kao e de Fischer), e testes onde a hipótese de cointegração é nula (teste de McCoskey e Kao), incluindo testes com quebras estruturais (teste de Westerlund). As conclusões principais são a evidência forte de que estoque de capital humano afeta de forma significativa o número de inovações. Tabém foram encontradas evidências de que a hierarquia de educação importe para o aumento de inovações.
Resumo:
O objetivo desse trabalho é analisar e precificar o prêmio de liquidez exigido pelos investidores nas negociações de debêntures do mercado secundário brasileiro, com base no yield to maturity diário desses papéis. Os testes econométricos foram realizados com base no modelo apresentado por Houweling, Mentink e Vorst (2005) e aplicado ao mercado de eurobonds nos períodos de 1999 a 2001. Foi implementado um modelo de 5 variáveis para controlar, através de betas e características, os outros tipos de risco determinantes do spread das debêntures que não a liquidez. O conhecido modelo de títulos de renda fixa de dois fatores Fama-French (1993) foi utilizado para controlar os riscos de crédito e de taxas de juros, foram incorporados efeitos marginais, através das características individuais (rating e duration) das debêntures e uma adaptação para as particularidades do mercado brasileiro foi realizada, com a inclusão de um fator baseado na taxa PréxDI da duration dos portfólios. Para esse estudo, foram consideradas 4 proxies de liquidez largamente utilizadas na literatura: Volume de Emissão, Idade da Emissão, Número de Transações no dia e Spread de Compra e Venda, sendo o modelo estimado uma vez para cada proxy analisada. Para realizar os testes de regressão e precificar o prêmio de liquidez no mercado secundário de debêntures do Brasil, todas as variáveis do modelo foram calculadas para cada uma das amostras de dados. Posteriormente, para cada proxy de liquidez foram construídos diariamente portfólios mutuamente excludentes, com as debêntures segregadas em portfólios de acordo com a proxy de liquidez em questão, conforme a metodologia proposta por Brennan e Subrahmanyam (1996). A base de dados, que somou 16.083 amostras, se fundamentou nas cotações de mercado fornecidas diariamente pelo Sistema Nacional de Debêntures no período de Maio de 2004 a Novembro de 2006. A hipótese nula de que não existe prêmio de liquidez embutido nos spreads das debêntures negociadas no mercado secundário brasileiro é rejeitada para todas as proxies analisadas. De acordo com a proxy de liquidez utilizada, o prêmio de liquidez no mercado secundário de debêntures varia de 8 a 30 basis points.
Resumo:
Este trabalho visa obter e verificar empiricamente um meta-modelo que possa apoiar e aprofundar a compreensão do fenômeno da resistência a sistemas de informação. Tratase de uma pesquisa explanatória e quantitativa na qual faz-se, por meio de uma extensa revisão da literatura mundial, o levantamento e consolidação das principais teorias e modelos existentes sobre o tema. Dessa forma, buscando obter um melhor entendimento do problema de pesquisa, propõe-se um meta-modelo de fatores pertinentes ao comportamento de resistência a sistemas de informação. Neste modelo, considera-se um conjunto de aspectos que, embora já abordados anteriormente, em sua maior parte ainda não haviam sido testados empiricamente, quais sejam: (i) as características idiossincráticas dos indivíduos, (ii) os aspectos técnicos inerentes aos sistemas de informação, (iii) as características da interação sócio-técnica, (iv) as características da interação de poder e políticas e, finalmente, (v) as características das organizações nas quais a tecnologia e o homem estão inseridos e interagem entre si. O instrumento de pesquisa utilizado no trabalho foi um questionário estruturado, aplicado via Internet, com suas questões contextualizadas quanto aos sistemas de gestão empresarial ERPs: Enterprise Resource Planning Systems. Obteve-se um total de 169 respondentes, considerando-se uma amostra composta exclusivamente por gestores de tecnologia da informação (TI) brasileiros e que tenham vivenciado pelo menos uma experiência de implantação de sistemas ERP ao longo de suas carreiras. Uma vez realizada a coleta dos dados, foram empregados testes estatísticos relativos à análise fatorial, visando alcançar um modelo definitivo. A partir do novo modelo encontrado, por meio da validação proporcionada pela análise fatorial, cada fator identificado representou uma causa para o comportamento de resistência a sistemas de informação. Por fim, testou-se também hipóteses a partir do novo modelo identificado, verificando-se as relações entre a percepção direta dos gestores quanto à resistência e os diversos fatores considerados relevantes para a explicação deste comportamento. Como resultado do estudo, consolidou-se um modelo de análise do comportamento de resistência a sistemas de informação, baseado na percepção do gestor de TI e contextualizado nos sistemas ERPs.
Resumo:
Introdução: Os tumores do Sistema Nervoso Central (SNC) constituem um grupo heterogêneo de neoplasias e representam o tumor sólido mais comum na infância e adolescência (DEANGELIS 2001). A tumorigênese é um processo de múltiplas etapas envolvendo alterações genéticas que levam a transformação progressiva de células normais para a formação de derivados altamente malignos (HANAHAN 2000). O receptor do fator de crescimento epidermal (EGFR) é um receptor transmembrana que atua num sistema de sinalização fundamental para a fisiologia normal da célula e na manutenção do estado tumorigênico (JORISSEM 2003). O EGFR e seus ligantes estão envolvidos em mais de 70% de todas as neoplasias (YARDEN 2001). Em vários tipos de tumores, incluindo os tumores cerebrais, o EGFR é expresso aproximadamente 100 vezes mais do que o número normal de receptores encontrados na superfície de células normais. A hiperexpressão do EGFR e do ErbB2, tem sido associada com neoplasias que apresentam um comportamento clínico mais agressivo (ALROY 1997). Objetivos: Analisar a expressão do gene do EGFR em tumores primários do SNC. Material e Método: Análise de 18 amostras de tumores primários do SNC em crianças de 01 a 14 anos de idade utilizando uma técnica semi-quantitativa de RT-PCR. A coleta das amostras foi feita no período de 2002 a 2004. Resultados: A amostra foi composta por: um astrocitoma grau I, três astrocitomas grau III, três astrocitomas grau IV, três carcinomas de plexo coróide, 1 craniofaringeoma, três ependimomas, um tumor neuroectodérmico primitivo e três meduloblastomas. 33% da amostra apresentou hiperexpressão de EGFR. Ao analisar-se os resultados de expressão do EGFR nas amostras de astrocitomas verificou-se um aumento na expressão do EGFR para os tumores de grau IV, com exceção de uma amostra que apresentou um índice baixo de 0.13 RNAm. Para as demais amostras de astrocitoma grau 3 a expressão do EGFR foi baixa e os pacientes apresentaram sobrevida com doença, uma vez que não foi possível realizar ressecção cirúrgica total. Conclusão:Ainda que este estudo forneça dados de uma população bastante heterogênea é possível evidenciar diferenças nítidas de expressão do EGFR entre as diversas histologias que compreendem os tumores pediátrico do SNC. Tais resultados sugerem um importante papel do EGFR nos tumores cerebrais da infância e encorajam a continuidade de investigações que elucidem a real aplicabilidade deste fator de crescimento como marcador prognóstico e alvo terapêutico.
Resumo:
As últimas décadas apresentaram grandes desafios para a gestão das organizações em geral. A globalização e o acirramento da concorrência têm exposto as fragilidades dos modelos de gestão das empresas menos preparadas. No mercado da educação superior privada no Brasil não é diferente. Este setor tem experimentado forte expansão da oferta, decorrente da percepção das oportunidades de negócio nesta área. Neste contexto, a gestão de Instituições de Ensino Superior (IES) têm representado um desafio para seus administradores. As características destas organizações exigem a adaptação do modelo de gestão às características de um mercado fortemente concorrencial e regulado pelo Estado. O presente trabalho propõe um modelo de apoio à gestão para uma Instituição de Ensino Superior baseado em indicadores de desempenho com vistas a garantir que as estratégias e as ações que delas se desdobrarem estejam alinhadas com sua visão. Para tanto, partiu-se de uma revisão bibliográfica acerca do tema medição de desempenho. Com o estudo de caso buscou-se identificar o atual modelo de gestão da IES, por meio de pesquisas qualitativa e quantitativa. Com a pesquisa foi possível identificar as necessidades da instituição e cruzá-las com os modelos de medição de desempenho estudados. Nesta etapa foi possível relacionar teoria e prática e identificar com a metodologia do grupo focado o melhor modelo de medição de desempenho a ser sugerido como apoio a gestão da instituição. A partir desta etapa é sugerido um modelo de medição de desempenho, baseado no Balanced Scorecard. Foram criadas cinco perspectivas, os objetivos estratégicos e os indicadores de desempenho a eles vinculados. Os resultados obtidos demonstram o cumprimento do objetivo deste estudo, com a proposição das relações de causa-e-efeito entre os objetivos estratégicos e o Mapa Estratégico da Instituição, que permitem alinhar estes objetivos às estratégias definidas.
Resumo:
A evolução das redes de computadores criou a necessidade de novos serviços de rede que fornecessem qualidade de serviços nos fluxos de dados dos usuários. Nesse contexto, uma nova área de pesquisa surgiu, o gerenciamento de QoS, onde foram apresentadas novas tarefas para o gerenciamento de recursos de rede que fornecem QoS. Uma delas, a descoberta de QoS, é responsável por identificar alvos numa rede de computadores. Um alvo é uma entidade capaz de implementar funcionalidades para o fornecimento de QoS. Essa dissertação apresenta uma proposta de modelo para a descoberta de QoS. O modelo é composto por duas partes: metodologia e arquitetura. A metodologia define os procedimentos para a realização da descoberta de QoS, enquanto a arquitetura define entidades que implementam tais procedimentos bem como o relacionamento entre essas entidades. O modelo proposto também tem por objetivo ser extensível, escalável e distribuído. Além disso, um protótipo baseado no modelo é apresentado.
Resumo:
Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.
Resumo:
Esta tese busca discutir problemas relacionados às finanças públicas municipais no país. Um aprimoramento de nosso federalismo fiscal, com maior descentralização de recursos e implementação de regras de transferências federativas com maiores incentivos pró-eficiência – aumentando os incentivos pró-obtenção de melhores resultados sociais por parte das unidades subfederadas – pode se revelar instrumento importante na melhoria de nossas condições sociais. Para isto, dividiu-se esta tese em quatro partes distintas. No primeiro capítulo, discutem-se os impactos das receitas petrolíferas sobre as finanças públicas municipais. As mudanças legais ocorridas no país na década de noventa do último século - relativas ao setor petrolífero - levaram a crescente (e concentrada) transferência de recursos do setor para os estados e municípios brasileiros. A forte sensação que estes estariam sendo desperdiçados de alguma forma vem suscitando discussões sobre a necessidade de se reformular sua distribuição. As recentes descobertas de megacampos petrolíferos no pré-sal do litoral brasileiro somente intensificaram este processo. Buscou-se identificar os efeitos destas transferências sobre as variáveis fiscais municipais no país. Detectou-se que não ocorreu substituição tributária, ou seja, estes recursos não diminuíram o esforço arrecadatório dos municípios. Em compensação, tanto os recursos cuja distribuição é bem mais concentrada (referentes aos royalties excedentes) quanto aqueles mais bem-distribuídos (referentes aos royalties originais) levaram as prefeituras a aumentar seus gastos correntes (piorando sua composição do ponto de vista social) e diminuir seus investimentos. O contrário parece ocorrer com os recursos cuja distribuição se dá de forma intermediária (os royalties referentes às participações especiais). No segundo capítulo, discute-se o impacto das receitas petrolíferas sobre a proficiência dos alunos até a quarta série primária das escolas públicas municipais. As receitas petrolíferas – agregadas ou não – não se mostraram estatisticamente significativas na explicação do desempenho observado pelos alunos da quarta série primária das escolas municipais em português ou matemática. Este resultado, entretanto, deve ser olhado com cautela, uma vez que não é trivial identificar como (e o tempo necessário) estes efeitos seriam gerados. Entretanto, diferentes fontes de receitas municipais impactariam de forma diferenciada as proficiências observadas nos testes de português e matemática, explicitando a necessidade de se entender melhor estas diferenças para se desenhar mecanismo mais eficiente de repasse de recursos constitucionais aos municípios. No terceiro capítulo, estudam-se os impactos das emancipações municipais ocorridas na década de 90 sobre o bem-estar das populações locais. Devido à Constituição Federal de 1988, o número de municípios no Brasil multiplicou-se fortemente na década de 90 do último século. Mais de mil municípios foram criados em todo o país, fazendo seu número ultrapassar a casa dos 5.500. Este processo tem sido interpretado de forma bastante negativa. Baseado em evidências anedóticas, se pressupõe que os atores políticos locais o utilizaram para se apropriar de maior parcela dos recursos transferidos de outros níveis governamentais. Entretanto, nenhum esforço mais sistemático foi realizado buscando calcular, de maneira efetiva, os resultados sociais líquidos deste processo. É isto que se busca fazer aqui, utilizando dados sobre os municípios mineiros - cujo número passa de 723 em 1991 para 853 em 2000. Foram detectados impactos positivos relacionados a diversas variáveis educacionais e de saúde. Ao mesmo tempo, o contrário ocorreu com os indicadores de pobreza e indigência. Este resultado mostra que o movimento observado de emancipação municipal talvez tenha sido bastante benéfico, sinalizando para a existência de mercados políticos eficientes nestas localidades, o que indicaria a necessidade de se manter uma maior autonomia local relativa a processos de emancipação de distritos. Por fim, no quarto capítulo, analisam-se os impactos de lei (implementada em Minas Gerais) que buscou aumentar os incentivos pró-eficiência das prefeituras municipais a partir das transferências federativas. Buscando melhorar as condições de vida dos municípios mineiros, o governo estadual mineiro instituiu, em 1995, a lei 12.040, conhecida como Lei Robin Hood. Esta permitia que 25% dos recursos de ICMS a serem distribuídos aos municípios mineiros se dessem sobre resultados observáveis em diversas áreas tais como saúde, educação, conservação ecológica, entre outras. Ou seja, esta instituía, em relação a estas transferências, um contrato de alto poder com os municípios relacionados às políticas públicas implementadas. O estudo destas transferências (relativas à educação e saúde) mostrou resultados dúbios. Resultados positivos relativos à educação e à saúde parecem ocorrer em todo o estado, mas os incentivos dados poderiam ser bem maiores - faz-se necessário um refinamento das regras da partilha destas transferências. Dada a relativa escassez deste tipo de contrato em transferências federativas, seja no Brasil, seja no restante do mundo, este resultado aponta a necessidade de utilização de instrumentos de maior poder nas relações federativas, buscando incrementar as condições de vida locais.
Resumo:
O objetivo do presente trabalho é analisar as características empíricas de uma série de retornos de dados em alta freqüência para um dos ativos mais negociados na Bolsa de Valores de São Paulo. Estamos interessados em modelar a volatilidade condicional destes retornos, testando em particular a presença de memória longa, entre outros fenômenos que caracterizam este tipo de dados. Nossa investigação revela que além da memória longa, existe forte sazonalidade intradiária, mas não encontramos evidências de um fato estilizado de retornos de ações, o efeito alavancagem. Utilizamos modelos capazes de captar a memória longa na variância condicional dos retornos dessazonalizados, com resultados superiores a modelos tradicionais de memória curta, com implicações importantes para precificação de opções e de risco de mercado
Resumo:
Diante dos problemas vivenciados no ensino da Física cabe ao professor a tarefa de tentar combater as dificuldades de seus alunos, proporcionando-lhes experiências de aprendizagem eficazes, procurando atualizar, tanto quanto possível, os instrumentos pedagógicos que utiliza. Considerando a especificidade experimental da Física, a realização de atividades de laboratório faz-se de grande importância. Porém, uma reflexão a respeito de como utilizar tais atividades é necessária para que possam realmente contribuir para uma aprendizagem significativa. Nesta busca, a utilização da aquisição automática de dados através de dispositivos do tipo CBL (do inglês Calculator Based Laboratory) pode, sem dúvida, trazer grande contribuição. Aliando-se à grande potencialidade do uso destes dispositivos, à inexistência de trabalhos divulgados envolvendo seu uso no ensino de Física no Brasil e, finalmente, ao fato deste ser um equipamento adquirido recentemente pelo Centro Federal de Educação Tecnológica de Pelotas, instituição na qual este trabalho foi desenvolvido, optou-se por propor nesta dissertação a utilização de tais equipamentos em laboratório didático de Física Térmica no ensino médio. Dentre os assuntos abordados cita-se: calor, temperatura e energia interna; resfriamento de um corpo; mudança de estado físico e pressão de vapor; transmissão do calor. Alguns destes assuntos não são normalmente abordados no ensino médio, como a lei de resfriamento e análise da curva de pressão de vapor. Outros tópicos levam a uma maior contextualização da Física, como umidade relativa do ar e formação de geada. Esta proposta é fundamentada pela teoria da aprendizagem significativa de David Ausubel e pela teoria da interação social de Lev Vigotski Através desta experiência de implementação em aulas regulares de ensino médio, espera-se verificar a possibilidade de sua utilização neste nível de ensino. Como produto deste trabalho de dissertação, foi produzido material instrucional que compreende guias experimentais e textos envolvendo os conteúdos abordados, assim como material hipermídia sobre transmissão do calor contendo algumas animações e teste interativo desenvolvidos em Flash MX. Todo este material foi concebido e implementado buscando levar o aluno a uma aprendizagem significativa dos conceitos físicos.