986 resultados para erro refracional


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, o agronegócio brasileiro tem ganhado cada vez mais relevância para a economia nacional, apresentando significativos ganhos de produtividade. Estes ganhos ocorreram devido a maior absorção de tecnologia pelos produtores agrícolas, incluindo o uso de insumos, dentre os quais se destacam os fertilizantes. As vendas de fertilizantes no Brasil cresceram 5,9% entre 1991 e 2012, atingindo 29,5 milhões de toneladas em 2012. Apesar disso, no Brasil, poucos trabalhos tratam dos fatores que afetam as suas vendas. Justifica-se, assim o presente estudo que tem como objetivo analisar os principais fatores que afetam as vendas brasileiras de fertilizantes para a soja. A metodologia utilizada é a de séries temporais e o período da análise é o de 1988 a 2012. Para atingir o objetivo uma função de vendas foi estimada considerando as propriedades de integração e cointegração das séries temporais. O modelo proposto para explicar as vendas de fertilizantes para a soja incluíam as seguintes variáveis exógenas: área plantada de soja; preço dos fertilizantes para a soja; produtividade da soja e preço da soja. A variável preço da soja apresentou uma alta multicolinearidade com a área plantada de soja, e por isto não foi incluída no modelo final. Os resultados encontrados no estudo mostram que a área plantada é o fator que exerce maior influência sobre as vendas de fertilizantes para a soja, sendo que um choque positivo de 1% sobre o crescimento da área plantada tem efeito positivo de 1,8% sobre as vendas de fertilizantes para a soja. O preço dos fertilizantes para a soja resultou em um coeficiente negativo conforme era esperado. A produtividade da soja foi utilizada como uma proxy para a capitalização do produtor agrícola, e, assim como a área plantada, ela apresentou sinal positivo, embora de menor magnitude e não estatisticamente significativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A demanda pela produção comercial de madeira exótica e criação de gado é uma fonte comum de conflitos que pode produzir um efeito negativo na conservação da vida silvestre. Este conflito é particularmente evidente no sul do Brasil, onde as áreas protegidas não são grandes suficientes para garantir as necessidades de ocupação de espécies com grandes exigências territoriais, e onde a densidade humana é elevada. Desta maneira, a conservação destas espécies precisa ser assegurada com a manutenção de habitats fora das reservas oficiais. O objetivo desta tese foi identificar os padrões de perda de integridade ambiental na paisagem, buscando os limites nos quais a estabilidade de uma comunidade e de sua estrutura trófica podem ser severamente afetados (capítulo 2 e 3), de maneira que estes resultados possam ser utilizados como procedimentos para escolha de áreas a serem protegidas, recuperação ambiental, e seleção de modelos ecologicamente sustentáveis de manejo comercial. Vários características de grupos indicadores baseados na presençaausência de mamíferos florestais (>1kg) foram verificados para este propósito, incluindo a persistência, riqueza, e composição das comunidades, além da riqueza trófica e presença do maior predador da área, o puma Puma concolor. Explorou-se, também, as limitações do uso de estimativas de riqueza de espécies como diretriz exclusiva de ações de conservação. Os resultados mostraram que RE não estava necessariamente relacionada com a melhor integridade ambiental pressuposta, e corroborada através dos outros indicadores (capítulo 3). Adicionalmente, a RE variou com método amostral, resultado que emerge como impecilho para o uso exclusivo deste parâmetro como indicador (capítulo 4). Esta variação implica que inferências de RE baseadas em múltiplos estudos pode resultar em erro se os mesmos métodos amostrais não forem usados em todos eles. A maior parte das espécies amostradas são dependentes da floresta, sendo que a abordagem por indicadores confirmou esta relação, revelando que as comunidades de mamíferos florestais sofreram as maiores perdas em áreas menos florestadas. A configuração da paisagem poderia ser resumida em propriedades particulares de 600 ha, com florestas restritas a menos de 38% na escala de paisagem. Espécies extintas or quase extintas na configuração observada foram a ariranha Pteronura brasiliensis, tamanduá-bandeira Myrmecophaga tridactyla, onça-pintada Panthera onca, anta Tapirus terrestris. Espécies severamente ameaçadas foram o loboguará Chrysocyon brachyurus e queixada Tayassu pecari. Mesmo assim, informações da distribuição histórica destas espécies em ambientes de floresta-savana, antes da colonização completa por causasianos, indicam que a extensão naturalmente reduzida da floresta nestes ambientes não constituía-se em obstáculo para sua existência, a partir do que é possível inferir que a extinção das espécies foi provocada pelo padrão de ocupação rural e atitudes humanas incompatíveis com a existência destas. Atualmente, exceto pelas espécies com maior demanda florestal, muitas demostram uma surpreendente persistência em condições de cobertura florestal nativa de aproximadamente 10% na paisagem rural não urbanizada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desse trabalho é estimar a medida dinâmica VNET de profundidade de mercado para ações brasileiras a partir de dados de transação. VNET mede a diferença no número de ações compradas e vendidas no intervalo de tempo necessário para que o preço se movesse além de um determinado incremento. É uma medida de liquidez realizada para uma deterioração específica de preço que pode ser calculada seguidamente ao longo do dia, capturando assim a dinâmica de curto prazo da liquidez. Em particular, assume-se que essa duração de preços segue um modelo autorregressivo de duração condicional (ACD). A natureza pré-determinada do processo ACD é conveniente porque nos permite prever mudanças futuras na liquidez de uma ação. Assim, ao identificar os melhores momentos para realizar uma operação de compra ou venda, o VNET é um excelente ponto de partida para qualquer estratégia de execução ótima. Os resultados empíricos deste trabalho indicam que a profundidade de mercado medida pelo VNET varia com ágio de compra e venda, com o volume negociado, com o número de negócios, com a duração de preços condicional, e com o seu erro de previsão. Para estimar a curva de reação do mercado, variamos os intervalos de preço usados na definição das durações de preços.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A acidemia glutárica do tipo I (AG I) é um erro inato do metabolismo causado pela deficiência da glutaril-CoA desidrogenase (GCDH), uma enzima responsável pelo catabolismo da lisina, hidroxilisina e triptofano. A deficiência da atividade da GCDH leva ao acúmulo nos fluidos corporais e no cérebro predominantemente de ácido glutárico (AG) e em menor grau do ácido 3- hidroxiglutárico e do ácido glutacônico. Clinicamente, os pacientes apresentam macrocefalia ao nascimento e uma hipomielinização ou desmielinização progressiva do córtex cerebral. Crises de descompensação metabólica ocorrem usualmente entre 6 e 24 meses de vida, resultando numa destruição irreversível de regiões cerebrais suscetíveis, em particular o estriado, e subseqüentemente alterações severas dos movimentos, como distonia e discinesia. Apesar dos sintomas neurológicos severos e alterações neuropatológicas cerebrais importantes (atrofia cerebral), os mecanismos que levam ao dano cerebral na AG I são pouco conhecidos. No presente estudo, investigamos o efeito in vitro do AG sobre vários parâmetros do sistema glutamatérgico, tais como a união de glutamato a membranas plasmáticas sinápticas na presença e ausência de sódio, a captação de glutamato por fatias cerebrais e a liberação de glutamato induzida por potássio por preparações sinaptossomais de córtex cerebral e estriado ou cérebro médio de ratos ao longo do desenvolvimento. Primeiro, observamos que o AG diminui a união de glutamato Na+-independente a membranas sinápticas de córtex cerebral e cérebro médio de ratos de 7 e 15 dias de vida, evidenciando uma possível competição entre o glutamato e o AG por sítios de receptores glutamatérgicos. Visto que uma diminuição da união de glutamato Na+- independente pode representar uma interação do AG com receptores glutamatérgicos, investigamos se AG interage com receptores glutamatérgicos pela adição de antagonistas de receptores NMDA e não-NMDA. Verificamos que, em córtex cerebral de ratos de 15 dias de vida, o AG e o CNQX (antagonista de receptores não-NMDA) diminuem a união de glutamato em 20 e 40 %, respectivamente, e que a co-incubação desses compostos não provoca um efeito aditivo, sugerindo que a união do AG e do CNQX ao receptor não-NMDA ocorre provavelmente através do mesmo sítio. Resultados semelhantes foram encontrados em cérebro médio de ratos de 15 dias de vida. Por outro lado, o AG não alterou a união de glutamato na presença de sódio tanto em córtex cerebral como em cérebro médio e/ou estriado, sugerindo que o AG não compete pelos transportadores de glutamato. Também observamos que o AG diminui a captação de glutamato por fatias de córtex cerebral de ratos de 7 dias de vida, o que pode provavelmente resultar num excesso de glutamato na fenda sináptica levando à excitotoxicidade, o que pode ser relacionado com o dano cerebral característico dos pacientes com AG I. A inibição da captação de glutamato por fatias não foi prevenida pela pré-incubação com creatina e N-acetilcisteína, sugerindo que essa ação do AG provavelmente não se deva a um efeito indireto reduzindo o metabolismo energético ou aumentando a produção de radicais livres. Finalmente, verificamos que o AG não alterou a liberação de glutamato estimulada por potássio por sinaptossomas. Assim, concluímos que o AG pode alterar o sistema glutamatérgico durante o desenvolvimento cerebral, resultando em possíveis ações deletérias sobre o SNC que podem explicar ao menos em parte a neuropatogenia da AG I.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: A Síndrome de Morquio A (MPS IVA) é um Erro Inato do Metabolismo do grupo das Doenças Lisossômicas. Esta patologia é caracterizada pelo acúmulo e excreção de queratan e condroitin sulfato devido à deficiência da enzima lisossomal Galactose–6 sulfatase (GALNS; E.C.3.1.6.4). É uma doença rara cuja incidência varia entre 1:45.000 e 1:640.000. Os aspectos clínicos predominantes estão relacionados com o sistema osteo-articular com efeitos secundários sobre o sistema nervoso central, embora não haja déficit cognitivo. Os achados clínicos, evidentes a partir dos 2 anos, direcionam as análises bioquímicas para confirmação do diagnóstico através de avaliação dos glicosaminoglicanos urinários e de ensaios enzimáticos específicos. A doença é herdada de forma autossômica recessiva. O cDNA revela uma região codificante com 1566 nucleotídeos, que determina uma proteína com 522 aminoácidos. O gene contém 14 exons e foi mapeado em 16q24.3. Já foram descritas 148 mutações e 16 polimorfismos. O gene apresenta grande heterogeneidade molecular, sendo que 46,1% das mutações ocorreram menos de três vezes. Objetivo Identificar as mutações presentes no gene da GALNS em pacientes brasileiros com diagnóstico bioquímico para a MPS IVA; verificar se as mutações novas encontradas são causadoras do fenótipo patológico; e padronizar as técnicas de PCR e SSCP para análise do gene da GALNS. Materiais e Métodos: Seis casos-índice tiveram todo o gene da GALNS amplificados por PCR, seguido de seqüenciamento. Para as mutações novas, primers foram confeccionados para os respectivos exons e a patogenicidade testada por análise de freqüência em 100 controles normais. Condições de PCR e SSCP foram determinadas para cada um dos 4 exons com mutações novas. Sete pacientes novos com diagnóstico bioquímico foram analisados para os exons com as condições pré-estabelecidas. Os controles e pacientes com padrão alterado no gel de SSCP foram seqüenciados. Resultados: Em relação aos seis casos-índice 11 dos 12 alelos tiveram a alteração identificada, revelando seis mutações diferentes. Destas, quatro eram novas (p.G116S, p.N164T, p.L307P e p.S341R) e duas já descritas (p.R386C e p.G139S).Dos 100 controles analisados para cada exon nenhum apresentou o mesmo padrão de migração da amostra mutada, mas foram encontradas novas alterações (p.A107A, p.Y108Y e p.P357P). Entre os pacientes novos, sete dos 14 alelos foram identificados (p.N164T, p.G301C e uma mudança do quadro de leitura). Discussão: As quatro mutações novas identificadas foram consideradas patogênicas uma vez que não estavam presentes nos controles, indicando uma freqüência menor que 1% nesse grupo. As mutações p.G116S, p.N164T e p.G301C (freqüências de 14,3%, 14,3% e 19,0% dos alelos, respectivamente) foram consideradas recorrentes, além das já descritas e também recorrentes p.G139S e p.R386C. Nos quatro exons padronizados encontramos 40% das mutações descritas. Entre as diferentes mutações encontradas em nossos casos-índice uma nova (p.G116S) e duas já descritas (p.G139S e p.R386C) se localizam em regiões CpG. Conclusões: Foram identificadas alterações moleculares em 11 dos 12 alelos de seis pacientes brasileiros com MPS IVA, sendo que as quatro mutações novas encontradas puderam ser classificados como patogênicas; as técnicas de PCR e SSCP para os 4 exons do gene da GALNS foram padronizadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este livro apresenta textos que estudam os movimentos Law & Society e Law & Economics. Na primeira parte, temos “Relações não contratuais nos negócios: um estudo preliminar” (Stewart Macaulay), “Macaulay, Macneil e a descoberta da solidariedade e do poder no direito contratual” (Robert W. Gordon), “Descobrindo as dimensões implícitas dos contratos” (David Campbell e Hugh Collins) e “Os contratos como artefatos sociais” (Mark C. Suchman). Na segunda parte, temos “A eficiência da execução específica: rumo a uma teoria unificada dos remédios contratuais” (Thomas S. Ulen); “Medidas de danos para quebra de contrato” (Steven Shavell); “Limites da cognição e limites do contrato” (Melvin A. Eisenberg) e “Erro, dever de revelar a informação e direito dos contratos” (Anthony T. Kronman).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper I use Taylor's (2001) model and Vector Auto Regressions to shed some light on the evolution of some key macroeconomic variables after the Central Bank of Brazil, through the COPOM, increases the target interest rate by 1%. From a quantitative perspective, the best estimate from the empírical analysis, obtained with a 1994 : 2 - 2004 : 2 subsample of the data, is that GDP goes through an accumulated decline, over the next four years, around 0.08%. Innovations to interest rates explain around 9.2% of the forecast erro r of GDP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho investiga e analisa as diferenças das taxas anuais de inflação realizadas com relação às previsões dos agentes econômicos do mercado para um ano à frente. Os índices analisados foram o IPCA, IPA-M, IGP-M e o IGP-DI. Referente à previsão dos agentes para cada índice, foi feito uma análise estatística e uma análise de séries temporais através do modelo ARIMA. Este último explicou o erro de previsão dos agentes econômicos através de valores passados, ou defasados, do próprio erro de previsão, além dos termos estocásticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Reportagem exibida pelo Jornal Cultura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na literatura empírica, várias estimativas de taxas de retorno para educação têm sido reportadas, baseadas no modelo de Mincer (1958, 1974). No entanto, para que o coeficiente dos anos de estudo, em uma regressão do logaritmo da renda contra educação e experiência, seja entendido como taxa de retorno diversas hipóteses devem ser válidas. Baseado em Heckman, Lochner e Todd (2006) e Heckman, Ichimura, Smith e Todd (1998), testamos algumas de tais hipóteses como: linearidade nos anos estudo e separabilidade entre educação e experiência (paralelismo). Para isso, utilizamos dados da PNAD (1992-2004) e do Censo (1970-2000) e lançamos mão de regressões paramétricas e não-paramétricas (regressão linear local); e acabamos rejeitando tanto linearidade como paralelismo. Adicionalmente, relaxamos tais hipóteses e estimamos as taxas internas de retorno (T1Rs), baseado em Becker (1993), para se medir a ordem do viés em relação ao coeficiente escolar do modelo original de Mincer. Esta medida permite mensurar o tamanho do erro em diversos estudos quando os mesmos utilizam o modelo de Mincer. Obtemos vieses que chegaram a ordem de mais de 200%, como por exemplo a TIR em 2000 passando de 17.2% para todos níveis educacionais (retorno "minceriano") para 5.61% para mestrado/doutorado em relação ao nível superior, quando estimada não parametricamente, relaxando linearidade e paralelismo. Assim, diversos estudos no Brasil não consideram tais hipóteses e, conseqüentemente suas estimativas estão erradas e mais ainda, a magnitude deste erro é grande, podendo levar à conclusões distorcidas ou mal interpretadas. Assim, provemos também novas estimativas das TIRs, as quais devem ser tomadas como referência para a análise do comportamento dos agentes nos movimentos de demanda por educação e oferta de mão-de-obra. Por fim, corroboramos a evidência da literatura que os retornos educacionais estão decaindo ao longo das décadas, com exceção do nível superior que aponta para um crescimento nesta última década, mas em magnitude menor das obtidas em diversos estudos recentes, que se baseiam no modelo de Mincer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho busca descobrir qual modelo (CAPM e Grinold e Kroner) é o melhor para estimar o futuro retorno do índice Bovespa, ex-ante. Não foi utilizado o índice completo, mas uma versão simplificada do índice utilizando as 25 maiores posições do índice ao longo de todos os trimestres desde 2000 até 2013. Este grupo já representava mais de 60% do índice. No final foi observado que o modelo CAPM conseguiu apresentar o melhor poder de explicação tanto na relação retorno observado e esperado, quanto nas medidas de erro absoluto. O único modelo que o Grinold e Kroner apresentaram um melhor resultado foi no erro percentual absoluto médio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A preocupação com a segurança do paciente, fator importante na dimensão da qualidade do cuidado de saúde, é, atualmente, um tema de grande relevância entre pesquisadores do todo o mundo. Os “erros” ocorrem em qualquer local onde se prestam cuidados de saúde e na maioria das situações são passíveis de medidas preventivas. O objetivo deste estudo de caso para ensino é desvelar, através de uma revisão bibliográfica, o debate em torno do tema da segurança do paciente a partir do século XXI, enfocando sua relevância enquanto problema global de saúde pública. Além disso, este estudo discorre sobre os desafios relacionados às lacunas e perspectivas neste tema e sua abordagem na realidade brasileira. Os resultados da análise sugerem que a investigação sobre a segurança do paciente apresenta falhas nas suas abordagens a serem melhor definidas e estabelecidas. Foram identificadas ainda, as barreiras, como grande demanda dos prontos-socorros das grandes cidades, o medo do profissional que cometeu o erro, adesão de todos os profissionais e dos gestores, e desafios para serem enfrentados, como o desenvolvimento de estratégias e ações políticas de saúde específicas, tanto para a pesquisa na área de saúde quanto para a literatura de saúde pública em gestão pública.