997 resultados para De cortes nobres dados prelimin


Relevância:

20.00% 20.00%

Publicador:

Resumo:

As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo do trabalho é investigar a relação de longo prazo entre capital e inovação, utilizando técnicas econométricas mais recentes, com dados em painel. Diversos testes alternativos de cointegração foram utilizados, como testes com coeficientes comuns e idiossincráticos entre os cross-sections (testes de Pedroni, de Kao e de Fischer), e testes onde a hipótese de cointegração é nula (teste de McCoskey e Kao), incluindo testes com quebras estruturais (teste de Westerlund). As conclusões principais são a evidência forte de que estoque de capital humano afeta de forma significativa o número de inovações. Tabém foram encontradas evidências de que a hierarquia de educação importe para o aumento de inovações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Salmonella permanece um importante problema na avicultura mundial e considerando os patógenos transmitidos por alimentos, a Salmonella aparece como um dos agentes principais em surtos de toxinfecções alimentares. Existem vários relatos de isolamento de Salmonella em frangos vivos e surtos alimentares, porém em carcaças de frangos e cortes a disponibilidade de dados é menor, assim como estudos de determinação do número de Salmonella presentes nas amostras, também são poucos. No presente estudo, foram analisadas 180 carcaças de frangos resfriadas, adquiridas em varejos, para determinação da ocorrência de contaminação por Salmonella pelo método de microbiologia convencional, ensaio imunoenzimático (ELISA) e determinação do número de células da bactéria pelo método do número mais provável (NMP) nos ágares para isolamento verde brilhante com novobiocina (BGN) e xilose-lisina tergitol 4 (XLT4). Neste mesmo estudo, foi determinado o perfil de resistência a antimicrobianos de 13 amostras de Salmonella isoladas das carcaças de frangos, e analisados 101 suabes de arrasto de camas aviárias, pelo método microbiológico convencional, para a presença do agente. Os resultados mostraram 15,8% de ocorrência de Salmonella nos suabes de arrasto e 12,2% de ocorrência nas carcaças de frangos resfriadas, pelo método de microbiologia convencional. O teste de ELISA detectou 11,3% de positividade para Salmonella nas carcaças de frangos resfriadas. A média de NMP de Salmonella por mL, na leitura pelo ágar XLT4 foi de 2,674 células e BGN foi de 1,282 células. As cepas de Salmonella apresentaram resistência aos antimicrobianos lincomicina, penicilina e estreptomicina (100%), josamicina e enrofloxacina (69,23%), amoxicilina (30,76%), clortetraciclina (23,07%), estreptomicina e estreptomicina + penicilina (15,83%) e 7,69% de resistência a doxiciclina e polimixina B. Os sorovares de Salmonella isolados no estudo foram Enteritidis, Agona, Risssen, Heidelberg e Livingstone, nas carcaças de frangos, e, Enteritidis, Agona, Ohio, Rissen, Tennessee, entérica O: 3,10 e entérica O: 6,71 nos suabes de arrasto. A análise dos resultados apresentou contaminação por Salmonella nas camas aviárias e presença de cepas de Salmonella, isoladas das carcaças, multiresistentes a antimicrobianos. Também demonstrou existir um número variável de células de Salmonella contaminando as carcaças de frango resfriadas que estão à venda ao consumidor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo do presente trabalho é analisar as características empíricas de uma série de retornos de dados em alta freqüência para um dos ativos mais negociados na Bolsa de Valores de São Paulo. Estamos interessados em modelar a volatilidade condicional destes retornos, testando em particular a presença de memória longa, entre outros fenômenos que caracterizam este tipo de dados. Nossa investigação revela que além da memória longa, existe forte sazonalidade intradiária, mas não encontramos evidências de um fato estilizado de retornos de ações, o efeito alavancagem. Utilizamos modelos capazes de captar a memória longa na variância condicional dos retornos dessazonalizados, com resultados superiores a modelos tradicionais de memória curta, com implicações importantes para precificação de opções e de risco de mercado

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diante dos problemas vivenciados no ensino da Física cabe ao professor a tarefa de tentar combater as dificuldades de seus alunos, proporcionando-lhes experiências de aprendizagem eficazes, procurando atualizar, tanto quanto possível, os instrumentos pedagógicos que utiliza. Considerando a especificidade experimental da Física, a realização de atividades de laboratório faz-se de grande importância. Porém, uma reflexão a respeito de como utilizar tais atividades é necessária para que possam realmente contribuir para uma aprendizagem significativa. Nesta busca, a utilização da aquisição automática de dados através de dispositivos do tipo CBL (do inglês Calculator Based Laboratory) pode, sem dúvida, trazer grande contribuição. Aliando-se à grande potencialidade do uso destes dispositivos, à inexistência de trabalhos divulgados envolvendo seu uso no ensino de Física no Brasil e, finalmente, ao fato deste ser um equipamento adquirido recentemente pelo Centro Federal de Educação Tecnológica de Pelotas, instituição na qual este trabalho foi desenvolvido, optou-se por propor nesta dissertação a utilização de tais equipamentos em laboratório didático de Física Térmica no ensino médio. Dentre os assuntos abordados cita-se: calor, temperatura e energia interna; resfriamento de um corpo; mudança de estado físico e pressão de vapor; transmissão do calor. Alguns destes assuntos não são normalmente abordados no ensino médio, como a lei de resfriamento e análise da curva de pressão de vapor. Outros tópicos levam a uma maior contextualização da Física, como umidade relativa do ar e formação de geada. Esta proposta é fundamentada pela teoria da aprendizagem significativa de David Ausubel e pela teoria da interação social de Lev Vigotski Através desta experiência de implementação em aulas regulares de ensino médio, espera-se verificar a possibilidade de sua utilização neste nível de ensino. Como produto deste trabalho de dissertação, foi produzido material instrucional que compreende guias experimentais e textos envolvendo os conteúdos abordados, assim como material hipermídia sobre transmissão do calor contendo algumas animações e teste interativo desenvolvidos em Flash MX. Todo este material foi concebido e implementado buscando levar o aluno a uma aprendizagem significativa dos conceitos físicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho estima o efeito das Interações Sociais no desempenho dos estudantes no Brasil, a partir dos dados do SAEB 2005. Os resultados apontam que Peer Effects explicam uma parte importante da proficiência observada no exame de Matemática. Além disto, encontramos evidências de que este efeito é concentrado nos alunos no topo da distribuição de habilidade, o que sugere que políticas de ability tracking podem ser ótimas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um Sistema gerenciador de Bancos de Dados (SGBD) possui como principal característica a capacidade de gerenciar bases de dados que representam parte do mundo real. Para que essa representação seja fiel, os dados presentes em uma base de dados devem obedecer a diversas regras conhecidas como restrições de integridade. Estas podem ser provenientes da realidade modelada, da implementação ou do modelo de dados utilizado. O suporte oferecido por sistemas gerenciadores de bancos de dados tradicionais não é suficientemente adequado a certas aplicações com necessidades que vão além das convencionais. Diversas aplicações necessitam armazenar dados históricos em conjunto com seus períodos de validade. Outras precisam armazenar versões de conjuntos de dados, gerenciando suas agregações e formas de representação. Através do suporte aos conceitos de tempo e de versão, provido por um SGBD, grande parte dessas necessidades é suprida. Este tipo de banco de dados usa o conceito de tempo para armazenar e controlar dados históricos enquanto o conceito de versão permite a gerência de alternativas de projeto. Existem atualmente diversos trabalhos e implementações relacionados à manutenção de restrições de integridade sobre bancos de dados tradicionais. Entretanto, restrições que consideram a gerência de tempo e de versões sobre dados ainda representam uma área de pesquisa praticamente inexplorada. De acordo com essa realidade, o primeiro objetivo do presente trabalho consiste em definir uma classificação de restrições de integridade para bases de dados com suporte a tempo e versões, a fim de prover uma base para o desenvolvimento de pesquisas relacionadas à sua especificação e manutenção. O segundo objetivo consiste em agregar ao Modelo Temporal de Versões (TVM), que suporta os conceitos de tempo e de versão, uma linguagem que permita a especificação de restrições de integridade. Esta linguagem considera características relacionadas à temporalidade e ao versionamento dos dados e das próprias restrições.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apesar das vantagens das funcionalidades de banco de dados temporais, já amplamente demonstradas na literatura, ainda não existe, comercialmente, um SGBD totalmente temporal. Algumas propostas já foram feitas, embora um pouco discretas, dando ênfase em apenas parte das funcionalidades temporais, já sinalizando que em breve será possível existir um SGBD puramente temporal. Uma dessas propostas se constitui na implementação de uma camada de software que simula um banco de dados temporal, chamada Pacote de Tempo de Validade – PTV. Ela foi desenvolvida para demonstrar algumas funções temporais de banco de dados de tempo de validade. Embora o PTV tenha funções para garantir a integridade de dados temporais na inserção de tuplas, além de outros controles, não apresenta funções de consultas temporais. Essas funções foram desenvolvidas neste trabalho com base no TSQL2, aumentando, portanto, as funcionalidades temporais do PTV. Elas foram desenvolvidas para o SGBD Oracle 9i e consistem da principal proposta desse trabalho, permitindo inclusive validar as funções de consultas temporais de outras propostas da literatura. A segunda proposta desse trabalho é prover aos desenvolvedores e pesquisadores dessa área, uma interface visual apropriada para o uso do PTV, permitindo, assim, a exploração máxima dos recursos temporais desse pacote.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse artigo estabelece uma base para pesquisas que tratam da relação entre pobreza, distribuição de recursos e operação do mercado de capitais no Brasil. O principal objetivo é auxiliar a implementação de políticas de reforço de capital dos pobres. A disponibilidade de novas fontes de dados abriu condições inéditas para implementar uma análise de posse de ativos e pobreza nas áreas metropolitanas brasileiras. A avaliação de distribuição de recursos foi estruturada sobre três itens: Capital físico, capital humano e capital social. A estratégia empírica seguida é de analisar três diferentes tipos de impactos que o aumento dos ativos dos pobres podem exercer no nível de bem estar social. A primeira parte do artigo avalia a posse de diferentes tipos de capitais através da distribuição de renda. Esse exercício pode ser encarado como uma ampliação de medidas de pobreza baseadas em renda pela incorporação de efeitos diretos exercidos pela posse de ativos no bem estar social. A segunda parte do artigo descreve o impacto de geração de renda que a posse de ativos pode ter sobre os pobres. Estudamos como a acumulação de diferentes tipos de capital impactam os índices de pobreza baseados na renda usando regressões logísticas. A terceira parte estuda o efeito que o aumento da posse de ativos dos pobres tem no melhoramento da habilidade dos indivíduos pobres em lidar com choques adversos da renda. Estudamos a interação entre a dinâmica da renda, imperfeições do mercado de capitais e comportamentos financeiros levando em consideração diferentes horizontes de tempo. As questões de longo prazo estão relacionadas com o estudo das flutuações de renda de baixa freqüência e ciclo da vida da posse de ativos usando análise de coorte. As questões de curto prazo estão relacionadas com o comportamento do pobre e as perdas de bem estar ao lidar com hiatos de alta freqüência entre renda e consumo desejado. A análise da dinâmica de renda e pobreza é conduzida a partir da combinação de dados de painel de renda com dados qualitativos sobre comportamento financeiro de curto prazo das famílias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudamos a evolução do número das pessoas com deficiência, através da consolidação e condensação de um vasto acervo de informações que abordam essa questão: Inquéritos de 1972 e de 1900, Censos de 1920 e 1940; microdados dos suplementos de saúde da Pesquisa Nacional de Amostras de Domicílios (PNAD/IBGE) de 1981 e 1998; da Pesquisa de Condições de Vida (PCV/Seade); e os microdados censitários de 1991 e 2000. O Censo Demográfico de 2000 informa que 24,5 milhões de brasileiros são portadores de deficiência no país, 14,5% da população, número bastante superior aos levantamentos anteriores: menos de 2%. Isto não ocorre porque tenha aumentado a incidência de deficiências, mas pela mudança dos instrumentos de coleta de dados seguindo as últimas recomendações da OMS, incorporando ao universo das deficiências os indivíduos com “alguma ou grande dificuldade de andar, ouvir ou enxergar”. Tal inovação permite realizar um diagnóstico diferenciado de acordo com o grau de deficiência. A fim de entender a evolução temporal das estatísticas a respeito da incidência de deficiências no Brasil, propomos a separação no grupo de deficientes em geral do grupo com maior gravidade das deficiências reportadas, aqui convencionadas como pessoas com incapacidade (PPIs). Três metodologias distintas (análises bivariadas, regressões logísticas e análise de correspondência) apontam a questão etária como principal determinante para o advento das deficiências em geral. O impacto da idade se apresenta menor no caso das incapacidades. Concluímos que o Censo Demográfico de 2000 ao incorporar no universo das deficiências aquelas do tipo “alguma ou grande dificuldade” acabou por classificar grande parte da população idosa com tal, o que sugere a aplicação de políticas distintas para esses dois grupos populacionais. Dada a transição demográfica ora em curso, projeções populacionais indicam que até 2025, mantidas as taxas de deficiência e incapacidades por faixa etária, a taxas agregadas devem atingir 18,6% e 3,01%, respectivamente, crescendo 30,6% e 19,3% em relação a 2000.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse artigo estuda a relação entre pobreza e distribuição de recursos no Brasil, tendo como principal objetivo a ajuda na implementação de políticas de reforço de capital dos pobres. A estratégia usada foi comparar o acesso a diferentes ativos, relacionados à saúde, ao longo da distribuição de renda, bem como o comportamento dos décimos de rendimento em função de medidas de necessidades e uso de cuidados médicos. Os dados foram extraídos de pesquisas domiciliares do IBGE (PNAD 1996/1998 e PME 1997), e fornecem condições inéditas no caso brasileiro para traçar um perfil de acesso dos pobres. Em geral, observou-se que os indivíduos nos primeiros décimos da distribuição de renda têm pior acesso a ativos de saúde, adoecem mais e consomem menos serviços de saúde, agravando, assim, a desigualdade de renda. É nesse sentido, que reforços no portifólio de ativos (capital físico, humano e saúde) são políticas estruturais de alivio à pobreza, uma vez que geram uma melhor saúde e, consequentemente, maiores rendimentos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Segundo a ONU há cerca de 500 milhões de deficientes no mundo e 80% vivem em países em desenvolvimento. A OMS (Organização Mundial de Saúde) estima que no Brasil existem 16 milhões de pessoas portadoras de deficiência, representando 10% da população. Já os dados do Censo 2000 nos informam que existem 24,5 milhões de portadores de deficiência no país. É importante frisar a importância desse número que corresponde a 14,5% da população brasileira, um número bastante superior aos levantamentos anteriores, onde se observava uma incidência de menos de 2%. Isto não ocorre porque tenha necessariamente aumentado a incidência de deficiências, mas pela melhora dos instrumentos de coleta de informações que seguem as recomendações da OMS. Esta análise refere-se às pessoas portadoras de deficiência bem sucedidas em termos profissionais, aqui entendida como aqueles que conseguem um posto no mercado formal de trabalho. Essa questão nos remete às políticas públicas existentes, que visam garantir um lugar no mercado de trabalho para as pessoas com deficiência. O primeiro ponto é que a média nacional de empregabilidade de PPDs é muito baixa, 2,05%, pouco acima da cota mínima exigida por lei. Apenas 5 estados possuem uma proporção de PPDS empregados no mercado de trabalho superior ao piso de 2%. Estes resultados revelam um alto grau de descumprimento da lei pelas empresas, a existência de um amplo espaço para o aumento da efetividade da lei, e a necessidade de diminuir a perda de eficiência econômica e aumentar a eficácia de políticas voltadas à inclusão social das PPDs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A mineração de dados é o núcleo do processo de descoberta de conhecimento em base de dados. Durante a mineração podem ser aplicadas diversas técnicas para a extração de conhecimento. Cada técnica disponível visa à realização de um objetivo e é executada de uma forma em particular. O foco desta dissertação é uma destas técnicas conhecida como detecção de desvios. A detecção de desvios é baseada no reconhecimento do padrão existente nos dados avaliados e a capacidade de identificar valores que não suportem o padrão identificado. Este trabalho propõe uma sistemática de avaliação dos dados, com o objetivo de identificar os registros que destoam do padrão encontrado. Para este estudo são aplicadas algumas técnicas de avaliação estatística. Inicialmente é apresentada uma revisão bibliográfica sobre descoberta de conhecimento em base de dados (DCBD) e mineração de dados (MD). Na seqüência, são apresentados os principais conceitos que auxiliam na definição do que é um desvio, quais as técnicas utilizadas para a detecção e a forma de avaliação do mesmo. Dando continuidade ao trabalho, a sistemática CRISP_DM é descrita por ser aplicada aos estudos de casos realizados. A seguir, são descritos os estudos de casos realizados que utilizaram as bases da Secretaria da Saúde do Rio Grande do Sul (SES). Finalmente, são apresentados as conclusões do estudo e possíveis trabalhos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa científica foi apresentada como trabalho de conclusão do curso de Doutorado em Economia e reúne três artigos na área de crescimento. O primeiro deles utiliza a metodologia desenvolvida por Kakwani, Khabdker e Son (2004) para analisar a existência de crescimento “pró-pobre” nas regiões brasileiras nos anos de 1995 a 2005. Foram utilizados como suporte medidas de pobreza P(0), P(1) e P(2) e o índice de GINI. Os resultados apontam que tais políticas causaram maior impacto nas regiões Sul e Sudeste do Brasil. O segundo artigo desenvolve três modelos econométricos em Dados de Painel para calcular as elasticidades renda-pobreza e desigualdade-pobreza para as regiões geográficas do Brasil, de forma desagregada. Para as estimativas foram usadas as medidas de proporção de pobres, hiato da pobreza e hiato da pobreza ao quadrado. Como fora observado que a elasticidade desigualdade-pobreza é maior do que a elasticidade crescimento-pobreza, a redução de desigualdade medida pelo índice de GINI, é mais sensível a queda dos níveis de desigualdade do que no crescimento da renda média. Finalmente, o terceiro artigo utiliza a metodologia desenvolvida por Kraay (2004), para analisar a importância de cada componente do crescimento “pró-pobre” para os estados das regiões do Brasil. No caso do nordeste o crescimento da renda tem sido relativamente mais importante do que a queda da desigualdade como fonte de crescimento “pró-pobre”. Já no sudeste, a redução desigualdade ganha mais relevância quando comparado ao nordeste.