969 resultados para Erros de medicação


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como é amplamente conhecido, o fim da dicotomia Leste-Oeste determinou novos centros de poder econômico através da constituição de blocos envolvendo países da Europa, das Américas e da região do Pacífico. Avaliar a influência desse fenômeno para a economia da América Latina é o objetivo desta dissertação. Mais especificamente, procurar-se-á analisar o processo de integração econômica dos países latino-americanos à luz dessa nova realidade mundial. Para adequada compreensão desse fenômeno, é importante fazer menção aos esforços integração latino-americana ocorridos no passado, levando em conta os acerto e, principalmente, os erros dessas experiências.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entre as causas de diarréia em suínos de crescimento e terminação, a infecção por L. intracellularis é uma das mais relevantes e é uma das principais justificativas para o uso excessivo de antimicrobianos na ração. O presente experimento visou a avaliar uma alternativa ao uso de medicamentos para o controle da infecção pela L. intracellularis, a vacinação. O teste foi realizado com uma vacina avirulenta já licenciada para uso em outros países (Enterisol® Ileitis) e que em avaliações realizadas em diversos países mostrou resultados, em sua maior parte, favoráveis. O experimento foi conduzido em uma empresa integradora, localizada no Estado de Santa Catarina entre os meses de Maio a Dezembro de 2004. Para tal foram usados 54.030 animais submetidos a quatro tratamentos, em delineamento fatorial 2 x 2, sendo avaliado o efeito de dois fatores: a administração ou não da vacina e o fornecimento de ração com antimicrobianos de forma contínua ou descontínua, durante os períodos de crescimento e terminação. O número de lotes que fizeram parte do experimento foi 128 (32 em cada tratamento) e o lote foi considerado como unidade experimental. A vacina foi administrada na água de bebida entre as semanas 3 e 4 de alojamento. Houve efeito da vacinação na conversão alimentar (P<0,05), a qual foi melhor nos animais vacinados. Além disso, ocorreu uma tendência (P=0,079) dos animais vacinados em apresentar menor coeficiente de variação no peso da carcaça quente. . Os animais que receberam medicação com antimicrobianos de forma descontínua tenderam a ganhar menos peso (P=0,078) do que os animais que receberam ração com antimicrobianos de forma contínua. O coeficiente de variação de peso da carcaça quente foi menor (P<0,05) nos animais que receberam ração de forma descontínua com antimicrobianos em comparação aos que receberam ração com antimicrobianos de forma contínua. Ocorreram poucos diagnósticos da presença do agente em lotes com e sem diarréia durante o experimento. É possível que o período experimental tenha havido baixa circulação do agente e que os efeitos favoráveis na conversão alimentar reflitam um controle da forma sub-clínica da infecção.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A asma brônquica é uma doença crônica inflamatória das vias aéreas que vem despertando preocupação crescente, em função do aumento na sua incidência e mortalidade observados nos últimos anos. Com o objetivo principal de avaliar a sua prevalência e seus fatores de risco, conduziu-se um estudo epidemiológico de base populacional, delineamento transversal, em uma amostra representativa de adultos de 20 a 69 anos de idade, residentes na zona urbana de Pelotas, RS. Foram entrevistadas 1.968 pessoas. Desse total, 446 pessoas foram aleatoriamente selecionadas para realizarem espirometria e, quando esta mostrava-se normal, teste de broncoprovocação com metacolina. Ainda foram realizados testes para atopia. Houve 9,6% de recusas para as entrevistas e 20,2% de perdas para os exames complementares. Mais de metade da amostra era constituída por pessoas com idade inferior a 50 anos, sendo 57% do sexo feminino e a maioria da raça branca. A renda familiar, na maioria da amostra, era de até três salários mínimos. A prevalência de “sintomas atuais de asma” foi de 6,0%. Observou-se variação na prevalência de asma com a utilização de diferentes critérios diagnósticos: asma cumulativa: 14,3%; diagnóstico médico de asma: 12,9%; asma atual: 4,7%; e sintomas atuais ou reversibilidade (obstrução com resposta ao broncodilatador ou broncoprovocação positiva): 9,3%. Gravidade da asma foi avaliada conforme história de hospitalização por asma, mais de seis visitas ao pronto-socorro por ano e internação em Unidade de Tratamento Intensivo. Cerca de 30% dos asmáticos preencheram algum critério de gravidade para asma. Apenas 20% dos pacientes com asma haviam consultado no último ano pela doença e somente 30% utilizava alguma medicação antiasmática. Em relação aos fatores de risco, na análise bruta, as variáveis associadas à prevalência de “sintomas atuais de asma” foram: sexo feminino, faixa etária dos 60 aos 69 anos, cor da pele não branca, baixas escolaridade e renda familiar, história familiar de asma e atopia, história pessoal de atopia, tabagismo, índice de massa corporal baixo e a presença de distúrbios psiquiátricos menores. Na análise multivariada, construiu-se um modelo teórico-hierarquizado cujas variáveis de um determinado nível foram controladas pelas variáveis de níveis precedentes e do mesmo nível. Permaneceram relacionados à presença de “sintomas atuais de asma” os seguintes fatores de risco, em ordem decrescente de razão de prevalência: história paterna e materna de asma (RP=5,4), presença de distúrbios psiquiátricos menores (RP=2,8); idade de 60 a 69 anos (RP=2,1); renda familiar inferior a 1,01 SM (RP=2,1); história pessoal de atopia (RP=1,9); e sexo feminino (RP=1,4). Os resultados do presente estudo salientam a variação na prevalência de asma com a utilização de diferentes critérios diagnósticos, e confirmam a importância dos fatores genéticos, sociais e relacionados ao estilo de vida na ocorrência da doença.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No contexto dinâmico atual do mercado de telecomunicação celular, é importante que as empresas celulares “escutem a voz do cliente” e entendam suas necessidades assim como os atributos que eles valoram. Adicionalmente, por trás destes atributos existem processos expandidos de fornecimento de serviços que embora sejam muitas vezes invisíveis para o cliente, são indispensáveis para atender suas necessidades. Nesse sentido, se faz necessário monitorar a qualidade nos processos, desde uma perspectiva do cliente, para poder garantir que os processos sejam reflexos dos atributos valorados por eles. Isto significa traduzir as necessidades do cliente em requisitos técnicos e de desenho mensuráveis, estabelecendo um processo de controle de indicadores de desempenho explícitos entre as partes participantes dos processos. A presente dissertação propõe um modelo de medição do grau de monitoramento da qualidade aplicado a empresas de telefonia celular que permite garantir que os atributos mais valorados pelos clientes sejam realmente atendidos, através de uma metodologia que inclui o levantamento e análise de todos os processos de apoio associados aos atributos mais valorados pelos clientes, a validação e priorização desses processos por um júri de expertos de telefonia celular, a proposta de um roteiro de qualidade e de indicadores de desempenho que visam identificar se os desejos dos clientes se refletem nos processos mais relevantes e finalmente termina com a aplicação do roteiro numa empresa especifica de telefonia celular. Os resultados obtidos demonstram que para os atributos escolhidos associados a atendimento no call center, atendimento na assistência técnica e faturamento pontual e preciso, os processos mais relevantes priorizados pelo Júri de executivos foram o encaminhamento sistêmico de acesso ao call center e o preparo dos atendentes na linha de frente no caso de call center, os de substituição temporal do aparelho e realização do diagnóstico do problema no aparelho no caso de assistência técnica e de processo de cadastro do serviço e processo de correção de erros detectados no controle de qualidade antes do faturamento no caso de faturamento. Finalmente, ressalta que no caso da empresa celular específica analisada, numa escala que vai de 0% até 100%, o roteiro de qualidade proposto deu uma nota de 72% no caso de call center, 22% no caso de assistência técnica e 68% no caso do faturamento. Isto indica que muitos dos processos analisados, que muitas vezes são transversais na empresa e envolvem muitas áreas, não são monitorados de forma completa para garantir a consecução dos atributos mais valorados pelos clientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Simulador de processos é uma ferramenta valiosa, pois possibilita desde a validação de projetos e sua operabilidade prática até aumentos de produção e redução de custos. Devido a estes e outros fatores, o interesse industrial em técnicas e pacotes computacionais para a modelagem, simulação e otimização de processos tem crescido muito nos últimos anos. Juntamente com este interesse cresce a qualidade das ferramentas disponíveis no mercado para tal, mas estas ainda não satisfazem totalmente as expectativas de seus usuários. Este trabalho consiste no projeto de um novo simulador genérico para processos dinâmicos que satisfaça os usuários de forma mais completa do que os disponíveis atualmente no mercado. Para tanto, foram reunidas e, quando necessário, desenvolvidas novas técnicas relativas à descrição, análise e solução de problemas dinâmicos. Uma nova linguagem de modelagem orientada a objetos e um sistema de tradução da representação nesta linguagem para sistemas de equações foram propostos. Métodos de análise dos sistemas de equações provenientes da modelagem foram desenvolvidos com o intuito de auxiliar o usuário na detecção de erros de modelagem. Algoritmos para solução de sistemas dinâmicos e estacionários foram reunidos e uma arquitetura interna foi proposta. Por fim, o sistema como um todo foi testado através de sua aplicação em problemas típicos e outros que não podem ser resolvidos diretamente com os pacotes computacionais disponíveis no mercado. O teste com os problemas práticos provou que a estrutura proposta é adequada e apresenta uma série de vantagens quando comparada com softwares largamente utilizados na simulação de processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese propõe-se a analisar os analistas de mercado de capitais de empresas brasileiras. Coletando informações do mercado e analisando o desempenho corrente das empresas, estes profissionais realizam projeções de resultados e fazem recomendações. Usando dados extraídos do sistema I/B/E/S, realiza-se uma abrangente pesquisa empírica das previsões e recomendações dos analistas, bem como de seu conteúdo informativo para o mercado brasileiro. O período de estudo foi entre janeiro 1995 a junho 2003. Inicialmente são discutidos conceitos e particularidades do modus operandi dos analistas de empresas brasileiras. A seguir, depois de uma revisão da literatura onde se documentam as principais contribuições e descobertas, procede-se a uma investigação da natureza dos erros de previsão dos analistas de empresas brasileiras. Características como a acurácia, viés e precisão das previsões dos analistas são apreciadas e contextualizadas em diferentes situações. Efetua-se um detalhamento analítico do conteúdo informativo dos diferentes tipos de revisões de previsões dos analistas e das surpresas provocadas pelo anúncio de resultados em desacordo com as expectativas. De modo geral, as revisões e as surpresas, na medida em que informarem o mercado, provocam variações de retornos. Encerra-se a tese com uma análise das recomendações dos analistas. Apura-se a distribuição percentual das recomendações, assim como os efeitos sobre os preços de recomendações de compra (buy) e de venda(sell). O desempenho das recomendações de consenso e o efeito das revisões de recomendações para cima (upgrade) e para baixo (downgrade) são exemplos de outros pontos analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é uma discussão crítica, sob a ótica da formação de expectativas, da relação que se interpõe entre ciência econômica, como corpo de conhecimento, e seus agentes. Primeiro, examinamos abordagens relevantes sobre expectativas na análise econômica, indicando suas insuficiências. Argumentamos que a incorporação de expectativa, em qualquer tratamento analítico, deve envolver, principalmente, fundamentos epistêmicos. Segundo, sob a perspectiva da teoria de modernidade reflexiva desenvolvida por Anthony Giddens, buscamos identificar bases plausíveis para uma teoria de expectativa econômica. Concluímos que o processo de formação de expectativa é construção social, a partir da interdependência entre expertos e leigos. Denominamos esta conclusão por hipótese de expectativas socialmente construídas (HESC). Terceiro, propusemos um arcabouço analítico para incorporar a HESC. Basicamente, informação de expectativa se difunde através da mídia e do contato face a face entre agentes. Nova informação não resulta necessariamente em revisão de expectativas, o que vai depender, principalmente, de conhecimento econômico e vizinhança do agente. Por último, um exemplo de aplicação: o modelo-HESC foi submetido a três experimentos macroeconômicos, e seus resultados comparados àqueles obtidos por Mankiw e Reis (2002). A primeira conclusão desta tese é metodológica: expectativas dos agentes em modelos macroeconômicos não são determinadas a partir de equações do próprio modelo. A segunda é normativa: conhecimento e vizinhança são capazes de perpetuar ineficiências decorrentes de erros de expectativas. A terceira está relacionado com economia positiva: as diferenças entre os resultados do modelo de informação-rígida obtidos pelos autores acima e aqueles do modelo-HESC apontam para novas possibilidades explanatórias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ICTM (Interval Categorizer Tesselation Model), objeto da presente tese, é um modelo geral para análise de espaços de natureza geométrica, baseado em tesselaçoes, que é capaz de produzir uma categorização confiável de conjunto de pontos de um dado espaço, de acordo com múltiplas características dos pontos, cada característica correspondendo a uma camada do modelo. Por exemplo, na análise de terrenos geográficos, uma região geográfica pode ser analisada de acordo com a sua topografia, vegetaçao, demografia, dados econômicos etc, cada uma gerando uma subdivisão diferente da região. O modelo geral baseado em tesselações não está restrito, porém, a análise de espaços bi-dimensionais. O conjunto dos pontos analisados pode pertencer a um espaço multidimensional, determinando a característica multi-dimensional de cada camada. Um procedimento de projeção das categorizações obtidas em cada camada sobre uma camada básica leva a uma categorização confiavel mais significante, que combina em uma só classificação as análises obtidas para cada característica. Isto permite muitas análises interessantes no que tange a dependência mútua das características. A dimensão da tesselação pode ser arbitrária ou escolhida de acordo com algum critério específico estabelecido pela aplicação. Neste caso, a categorização obtida pode ser refinada, ou pela re-definição da dimensão da tesselação ou tomando cada sub-região resultante para ser analisada separadamente A formalização nos registradores pode ser facilmente recuperada apenas pela indexação dos elementos das matrizes, em qualquer momento da execução. A implementação do modelo é naturalmente paralela, uma vez que a análise é feita basicamente por regras locais. Como os dados de entrada numéricos são usualmente suscetíveis a erros, o modelo utiliza a aritmética intervalar para se ter um controle automático de erros. O modelo ICTM também suporta a extração de fatos sobre as regiões de modo qualitativo, por sentenças lógicas, ou quantitativamente, pela análise de probabilidade. Este trabalho recebe apoio nanceiro do CNPq/CTPETRO e FAPERGS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A lei do preço único afirma que o mesmo ativo negociado em diferentes mercados deve apresentar preços equivalentes. Este trabalho busca verificar se o risco de crédito soberano brasileiro negociado no mercado internacional é precificado de forma semelhante tanto nos tradicionais mercados de títulos quanto no novo e crescente mercado de derivativos de crédito. Adicionalmente, utiliza-se a análise de Price Discovery para examinar qual dos mercados se move mais rapidamente em resposta às mudanças nas condições de crédito da economia brasileira. A análise empírica é feita por meio de modelos de séries de tempo, mais especificamente análise de cointegração e vetor de correção de erros. Os resultados confirmam a predição teórica da lei do preço único de que o risco de crédito brasileiro, tanto nos mercados de títulos quanto no mercado de derivativos de crédito, movem-se juntos no longo prazo. Por fim, a maior parte do Price Discovery ocorre no mercado de derivativos de crédito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A deficiência da semialdeído succínico desidrogenase, ou acidúria γ-hidroxibutírica, é um erro inato do metabolismo do ácido γ-aminobutírico. Bioquimicamente, é caracterizada pelo acúmulo de elevadas concentrações do ácido γ-hidroxibutírico nos tecidos, líquido cefalorraquidiano, sangue e urina dos pacientes. As manifestações clínicas descritas nesses pacientes são muito variadas e inespecíficas, mas observa-se que os principais sintomas e sinais clínicos são neurológicos. Entretanto, os mecanismos responsáveis pela disfunção neurológica desses pacientes são pouco conhecidos. Neste trabalho, o efeito in vitro do ácido γ-hidroxibutírico foi investigado sobre a quimiluminescência, as substâncias reativas ao ácido tiobarbitúrico (TBA-RS), o potencial antioxidante total (TRAP), a reatividade antioxidante total (TAR) e as atividades das enzimas antioxidantes superóxido dismutase (SOD), catalase (CAT) e glutationa peroxidase (GPX) em homogeneizados de córtex cerebral de ratos jovens com o intuito de esclarecer, ao menos em parte, a etiopatogenia dos sintomas neurológicos característicos dessa doença. O ácido γ-hidroxibutírico aumentou significativamente a quimiluminescência e os níveis de TBA-RS, enquanto que o TRAP e o TAR foram marcadamente reduzidos. No entanto, as atividades das enzimas antioxidantes não foram alteradas pelo ácido γ-hidroxibutírico. Esses resultados indicam que o ácido γ-hidroxibutírico estimula a lipoperoxidação e reduz as defesas antioxidantes não-enzimáticas, sugerindo a participação do estresse oxidativo na neuropatologia da deficiência da semialdeído succínico desidrogenase. Porém, esses achados devem ser confirmados em pacientes afetados por essa doença.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A doença de Lesch-Nyhan é um erro inato do metabolismo das purinas caracterizado pela deficiência na enzima hipoxantina- guanina fosforibosiltransferase. O bloqueio dessa reação resulta no acúmulo tecidual de hipoxantina, xantina e ácido úrico. A doença caracteriza-se por hiperuricemia, variado grau de retardo mental e motor, espasticidade e auto-mutilação. No sistema nervoso central, a Na+, K+ - ATPase é responsável pela manutenção da homeostase dos íons Na+ e K+, regulando o volume celular, a excitabilidade neuronal, o transporte de neurotransmissores e outras moléculas. Evidências na literatura demonstram que a redução na atividade da Na+, K+ - ATPase está relacionada com diversas doenças neurodegenerativas, tais como isquemia cerebral e doenças de Parkinson e de Alzheimer. No presente estudo, investigamos o efeito in vitro da hipoxantina, xantina e ácido úrico sobre a atividade da Na+, K+- ATPase em membrana plasmática sináptica de estriado de ratos. Estudamos, também, a cinética de inibição causada pela hipoxantina e de interação entre hipoxantina, xantina e ácido úrico. Nossos resultados demonstram que hipoxantina, xantina e ácido úrico inibem significativamente a atividade da Na+, K+- ATPase. O estudo dos mecanismos de inibição da atividade enzimática causados pela hipoxantina demonstrou um efeito inibitório não competitivo com o substrato ATP. Além disso, o estudo de interação cinética entre hipoxantina, xantina e ácido úrico sugere que esses compostos atuem em um mesmo sítio de ligação na enzima. Verificamos, também, o efeito da preincubação de homogeneizado de estriado de ratos na presença de hipoxantina (10 µM) sobre a atividade da Na+, K+- ATPase de membrana plasmática sináptica com a adição ou não de antioxidantes (glutationa e trolox), bem como alguns parâmetros de estresse oxidativo denominados TBARS (medida de lipoperoxidação) e TRAP (capacidade antioxidante tecidual não-enzimática) no intuito de verificar a participação do estresse oxidativo nos mecanismos de inibição enzimática provocados pela hipoxantina. Os resultados monstraram que a hipoxantina inibe significativamente a atividade da Na+, K+- ATPase. Adicionalmente, nossos resultados demonstraram que glutationa, mas não o trolox, na concentração de 1 mM, foi capaz de prevenir a inibição enzimática causada pela hipoxantina. Nossos resultados também mostraram que a hipoxantina, na mesma concentração, aumentou TBARS e diminuiu TRAP que essa substância induz o estresse oxidativo. É possível que a inibição na atividade da Na+, K+- ATPase possa estar envolvida nos mecanismos pelos quais as oxipurinas são neurotóxicas. Acreditamos que nossos resultados possam contribuir, pelo menos em parte, na compreensão da disfunção neurológica encontrada em pacientes portadores da doença de Lesch-Nyhan.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os investimentos são unanimemente considerados pelos economistas como o coração da economia. Entre as diversas variáveis que afetam os investimentos privados as mais estudadas são as formas de financiamento do déficit público que afetam o ambiente macroeconômico: colocação de dívida ou emissão monetária. Menos atenção tem sido dada às formas de gasto público que afetam o ambiente microeconômico das empresas: aumentos dos salários no setor público podem afetar os salários do setor privado com impactos negativos sobre a lucratividade das empresas e de seus investimentos; por outro lado aumentos dos investimentos públicos, principalmente em infra estrutura tendem a ter impacto oposto. Esta dissertação estimou o impacto destas diferentes formas de gasto público para os investimentos privados Brasil nos últimos 50 anos, utilizando um modelo de correção de erros. No longo prazo se confirmam as previsões microeconômicas: enquanto os investimentos públicos afetam positivamente o investimento privado, os salários do setor público afetam negativamente esta variável. Já no curto prazo apenas o investimento público e privado defasado permaneceram significantes, cujos coeficientes apresentam os mesmos sinas da equação de longo prazo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste estudo é apresentar estimações das elasticidades das equações da oferta de exportação e da demanda de importação para o Brasil de 1980 a 2006 a partir de dados trimestrais. Na análise empírica, foram utilizadas as técnicas de cointegração multivariada de Johansen Juselius e modelo de correção de erros (ECM). As exportações brasileiras em valores podem melhor ser explicadas quando decompostas nos índices de preços médios e de volume, pois ambos dependem do índice de preços internacionais de commodities. Usando variáveis macroeconômicas como a taxa de câmbio real, o volume das exportações mundiais e o índice de preços internacionais de commodities, a evidência empírica sugere que existe uma relação de cointegração entre o volume exportado brasileiro e essas variáveis. As estimações também foram realizadas de forma desagregada para produtos básicos, semimanufaturados e manufaturados. Comprovamos a hipótese de que o país é um tomador de preços no comércio internacional, através de testes de causalidade de Granger e de modelo VAR para conhecer a resposta dos preços dos bens exportados a um choque nos preços internacionais de commodities, que se mostrou persistente nos testes realizados. Por sua vez, as estimativas da função de demanda de importação totais e por categoria de uso (bens intermediários, bens de capital, bens de consumo duráveis e não duráveis) também apresentaram uma relação estável de longo prazo entre volume das importações brasileiras, preço relativo e nível de renda doméstico, sendo os últimos medidos pelo câmbio real e o PIB respectivamente. Adicionalmente, foram incluídas as reservas internacionais, variável não comumente utilizada da literatura sobre o tema para o país. Os resultados encontrados vão de encontro a outros estudos, mostrando maior elasticidade da renda do que dos preços.