913 resultados para Testes de tolerancia a glicose


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os erros inatos do metabolismo (EIM) constituem um grupo de doenças genéticas causadas pela deficiência ou ausência de uma proteína, geralmente uma enzima. A hiperargininemia é um erro inato do ciclo da uréia causado pela deficiência de arginase, enzima que converte a arginina em ornitina e uréia. O bloqueio desta reação resulta no acúmulo tecidual e plasmático de arginina e seus metabólitos, os compostos guanidínicos. As manifestações clínicas desta doença diferem substancialmente das demais doenças metabólicas do ciclo da uréia. Seus principais sintomas, que manifestam-se progressivamente, são caracterizados por espasticidade, epilepsia e retardo mental. A correlação entre o metabolismo da arginina e do óxido nítrico ocorre no chamado ciclo arginina-citrulina. A arginina é o substrato para a síntese de óxido nítrico pela ação da enzima óxido nítrico sintetase (ONS). Como os pacientes hiperargininêmicos apresentam altos níveis de arginina no plasma e tecidos, é provável que, devido ao excesso deste substrato, ocorra um aumento na síntese de óxido nítrico. O óxido nítrico em concentrações elevadas está associado à produção de radicais livres, neurotoxicidade e inibição da enzima Na+,K+-ATPase. A Na+,K+-ATPase é uma enzima fundamental ao funcionamento normal do sistema nervoso central (SNC), pois regula a transmissão do impulso nervoso, o volume celular e o transporte de moléculas ligadas ao cotransporte de Na+, tais como aminoácidos, glicose e neurotransmissores. A inibição da atividade da Na+,K+-ATPase nos sítios pré-sinápticos resulta na inibição da recaptação de glutamato, bem como na estimulação de sua liberação. A inibição desta enzima também tem sido associada a diversas neuropatologias. A Na+,K+-ATPase também está envolvida na LTP (long term potentiation – potenciação de longa duração), que é um tipo de neuroplasticidade celular que provoca alterações nas cascatas bioquímicas no SNC, que são, muitas vezes, idênticas àquelas que ocorrem durante o processo de formação da memória. Assim, acredita-se que a LTP seja um dos diversos mecanismos bioquímicos importantes para a formação da memória. Neste estudo investigamos o efeito in vivo da administração aguda de arginina, L-NAME (um potente inibidor da ONS) e a co-administração de Arg + L-NAME sobre a atividade da Na+,K+-ATPase de membrana plasmática sináptica de hipocampo de ratos adultos e sobre testes 6 comportamentais utilizados para avaliar o aprendizado e memória: campo aberto e esquiva inibitória. Os resultados obtidos demonstraram que a arginina inibiu significativamente a atividade da enzima Na+,K+-ATPase de membrana plasmática sináptica de hipocampo de ratos. A administração de L-NAME não alterou a atividade da enzima, mas preveniu a diminuição da atividade da Na+,K+-ATPase causada pela arginina. Nos experimentos de comportamento foram avaliados o aprendizado, a consolidação e a evocação da memória de longa duração pela administração das soluções em três momentos diferentes. A arginina diminuiu o desempenho do teste de esquiva inibitória nos três momentos, o L-NAME isoladamente não alterou o comportamento dos animais, mas quando co-administrado com a arginina aumentou a capacidade de memorização desta tarefa. Estes resultados indicam que a administração de arginina in vivo reduz tanto a atividade da Na+,K+-ATPase como a modulação da memória em ratos, e que isso ocorreu, provavelmente, pelo aumento da síntese de óxido nítrico. Assumindo a possibilidade de que isso possa ocorrer em pacientes com hiperargininemia, os resultados obtidos podem ser relevantes para explicar, pelo menos em parte, a disfunção neurológica associada a essa doença.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pacientes diabéticos apresentam maior risco de depressão e o tratamento com antidepressivos melhora o controle glicêmico. O envolvimento do GABA na etiologia da depressão tem sido estudado e, coincidentemente, esse neurotransmissor está diminuído no pâncreas de ratos diabéticos induzidos por estreptozotocina . Assim sendo, o objetivo foi estudar o efeito de antidepressivos sobre a glicemia e a insulinemia de ratos diabéticos por estreptozotocina, bem como as alterações centrais de glicose, pelo emprego de um agente GABAérgico. Avaliou-se também a concentração do GABA no teste do nado forçado. Ratos Wistar, não diabéticos e diabéticos por estreptozotocina, foram tratados com imipramina, moclobemina, fluoxetina, sertralina e clonazepam. Após mensurada a glicemia de jejum se administrou sobrecarga de glicose, com coletas de sangue a cada 30 min. Dentre os antidepressivos testados, fluoxetina e moclobemida aumentaram a glicemia pós-prandial, enquanto sertralina reduziu tanto a glicemia de jejum quanto a pós-prandial. A coleta de sangue de animais não diabéticos aos 60 min revelou que a redução da glicemia pela sertralina foi acompanhada de aumento significativo dos níveis de insulina após a sobrecarga de glicose. As alterações de glicose central pelo emprego de clonazepam, um agente GABAérgico com propriedades antidepressivas, bem como as alterações na concentração do GABA no estriado de ratos submetidos ao teste da natação forçada eram avaliados in vivo por técnica de microdiálise. Previamente ao dia de experimentação era realizada cirurgia estereotáxica para implantação de cânula-guia no núcleo estriado dos ratos. As alterações in vivo da glicose eram observadas em todos os animais na caixa de livre movimentação, ao passo que os níveis extracelulares de GABA eram determinados no estriado de ratos durante e após o teste do nado forçado. Clonazepam não alterou a glicemia de jejum ou pós-prandial de ratos diabéticos e não diabéticos, porém aumentou a concentração de glicose extracelular no estriado desses animais. Quando submetidos ao teste da natação forçada, os ratos diabéticos apresentaram maior tempo de imobilidade e retardo no incremento da concentração do GABA no estriado. Os resultados mostram que nesse modelo animal de diabete há interferência de agentes GABAérgicos sobre a glicose estriatal, bem como deficiência do sistema GABAérgico, sugerindo o envolvimento desse sistema com as alterações de humor que acompanham o diabete.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudamos neste trabalho, o nível de significância empírico dos testes portmanteau baseados nas estatísticas propostas por Ljung e Box (1978), Monti (1994) e Pe˜na e Rodríguez (2002) nos processos ARFIMA(p; d; q). Consideramos o processo ARFIMA(p; d; q) nas situações adequadas para representar séries temporais com características de longa dependência. Para estimar o parâmetro de diferenciação d utilizamos os métodos de estimação propostos por Geweke e Porter-Hudak (1983), Reisen (1994), Robinson (1994) e Fox e Taqqu (1983).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho trata da técnica de validação experimental de protocolos de comunicação confiável, através da injeção de falhas de comunicação. São estudadas inicialmente as técnicas de injeção de falhas, por hardware, software e simulação, e então são aprofundados os conceitos de injeção de falhas de comunicação, modelos de falha e especificação de experimentos de injeção de falhas. Em um segundo momento, são estudadas as formas de implementação de injetores de falhas em software, em suas duas formas mais comuns: no nível da aplicação e no nível do sistema operacional. São comentados os impactos da implementação de injetores no código da aplicação, por processos concorrentes à aplicação, em código utilizado pela aplicação e no meta-nível. Por fim, são estudados também que influências sofre a implementação de um injetor de falhas em um sistema operacional, e mais especificamente a de injetores de falhas de comunicação. O objetivo específico deste trabalho é implementar um injetor de falhas de comunicação bastante abrangente e flexível, situado dentro do núcleo do Sistema Operacional Linux. Para viabilizar esta implementação foi estudada também a arquitetura do Sistema Operacional Linux, sua decomposição em subsistemas e a interação entre estes. Foram estudadas também as várias técnicas de programação e mecanismos que o Sistema Operacional Linux fornece aos seus subsistemas. Estando completas a revisão bibliográfica a respeito de injeção de falhas e o estudo do código do Sistema Operacional Linux, são apresentadas a proposta e a implementação da ferramenta ComFIRM—Communication Fault Injection through Operating System Resource Modification, suas características e sua inserção dentro do núcleo do Sistema Operacional Linux. Finalizando este trabalho, são apresentados uma pequena série de testes de funcionamento e experimentos realizados com a ferramenta ComFIRM, visando demonstrar a correção de seu funcionamento, o cumprimento de seus objetivos e também sua praticidade e flexibilidade de uso. São apresentadas as conclusões deste trabalho, propostas de melhorias à ferramenta apresentada, bem como possibilidades de trabalhos futuros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partir da bastante difundida metodologia de Cointegração e Características (Features), propõe-se a execução dos testes de Johansen e regressão auxiliar para verificar a existência de Características Comuns de primeira e segunda ordem entre índices e retornos de bolsas latinoamericanas. A existência de Características Comuns em séries financeiras é de particular importância por implicar em previsibilidade, derivando relações que podem ter aplicações em estratégias de transação e hedge, por exemplo. Os resultados mostram que a ocorrência de Características Comuns é restrita. O primeiro teste indica ocorrência de relações de longo prazo em uma região envolvendo a Argentina. No curto prazo, foram identificados Ciclos Comuns entre Argentina, Brasil, Chile e México. As relações encontradas neste caso servem como indicadores de movimentos pró-cíclicos na resposta a notícias entre estes países. Nos testes de segunda ordem, nenhuma Característica Comum foi identificada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Retornando à utilização de técnicas de séries de tempo para a estimação de parâmetros das preferências dos indivíduos, este trabalho investiga o tradicional problema do consumo intertemporal ótimo do tipo CCAPM por um novo ângulo. Se apresentam dois estimadores para o fator estocástico de descontos independentes da especificação de funções utilidade, que são utilizados para a agregação das informações disponíveis sobre os retornos dos ativos da economia. A metodologia proposta é aplicada para dados do Brasil, para o período do plano Real, e dos Estados Unidos, para um período iniciado em 1979. Na parte empírica do trabalho obtem-se dois resultados. Primeiro, obtem-se uma estimativa para o grau americano de aversão ao risco de 2,1 - mais de 10 vezes menor que o comumente encontrado na literatura. Segundo, é estimado um grau de aversão ao risco de 2,3 no caso brasileiro, o que está em linha com trabalhos anteriormente publicados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho busca explorar, através de testes empíricos, qual das duas principais teorias de escolha de estrutura ótima de capital das empresas, a Static Trade-off Theory (STT) ou a Pecking Order Theory(POT) melhor explica as decisões de financiamento das companhias brasileiras. Adicionalmente, foi estudado o efeito da assimetria de informações, desempenho e liquidez do mercado acionário nessas decisões. Utilizou-se no presente trabalho métodos econométricos com dados de empresas brasileiras de capital aberto no período abrangendo 1995 a 2005, testando dois modelos representativos da Static Trade-off Theory (STT) e da Pecking Order Theory(POT). Inicialmente, foi testado o grupo amplo de empresas e, posteriormente, realizou-se o teste em subgrupos, controlando os efeitos de desempenho e liquidez do mercado acionário, liquidez das ações das empresas tomadoras e assimetria de informações. Desta forma, os resultados obtidos são indicativos de que a Pecking Order Theory, na sua forma semi-forte, se constitui na melhor teoria explicativa quanto à escolha da estrutura de capital das empresas brasileiras, na qual a geração interna de caixa e o endividamento oneroso e operacional é a fonte prioritária de recursos da companhia, havendo algum nível, embora baixo, da utilização de emissão de ações. Os estudos empíricos para os subgrupos de controle sugerem que a liquidez do mercado e liquidez das ações das empresas são fatores de influência na propensão das empresas emitirem ações, assim como a assimetria de informação. O desempenho do mercado acionário, com base nos dados analisados, aparenta ter pouca influência na captação de recursos via emissões de ações das empresas, não sendo feito no presente estudo distinções entre emissões públicas ou privadas

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta a proposta e a implementação de um sistema de gerência de energia para redes locais de computadores (Local Area Networks ou LANs). Desde sua introdução, no início dos anos 90, os mecanismos de gerência de energia para computadores têm contribuído de maneira significativa para a redução do consumo nos períodos de inatividade, mas podem ter seu efeito minimizado por uma série de fatores, dentre os quais destaca-se a conexão do equipamento a uma rede. Em linhas gerais, o objetivo do sistema proposto é, justamente, facilitar a gerência de energia em ambientes de rede. O funcionamento do sistema é baseado na aplicação de políticas de consumo definidas pelo administrador da rede. As políticas podem ser aplicadas em duas situações distintas: em horários pré-determinados (p. ex. depois do horário comercial), quando podem ajudar a reduzir o desperdício de energia, ou em resposta a alterações no fornecimento de energia, caso a rede seja protegida por no-breaks, quando a redução no consumo resulta em maior tempo de autonomia da fonte reserva (banco de baterias). As políticas são configuradas através de um mecanismo flexível, que permite não apenas desligar os equipamentos, mas colocá-los em estados intermediários de consumo e executar outros tipos de ações. A arquitetura do sistema é baseada no modelo SNMP (Simple Network Management Protocol) de gerência de redes. É composta, basicamente, de agentes, elementos de software que residem nos equipamentos da rede e detêm o conhecimento específico sobre suas características de consumo de eletricidade, e de um gerente, elemento central que contém a configuração das políticas de consumo e que é responsável pelo monitoramento e controle dos agentes. Gerente e agentes comunicam-se através do protocolo SNMP, trocando informações segundo uma base de informações (MIB) projetada especificamente para a gerência de energia. A ênfase da parte prática do trabalho está no gerente, que foi inteiramente implementado através da linguagem Java, utilizando bibliotecas disponíveis gratuitamente. Adicionalmente, foi implementado um agente-protótipo para a plataforma Windows, o que permitiu observar o sistema completo em execução. Os testes permitiram validar a praticabilidade da arquitetura e estimar o ganho potencial proporcionado pela utilização do sistema. São apresentadas medições que demonstram um aumento de até 6 vezes na autonomia do banco de baterias do no-break para uma configuração de rede pequena, utilizando o sistema para desligar automaticamente 90% dos computadores durante um corte no fornecimento externo. A economia decorrente da redução de consumo em horários de inatividade foi estimada em até R$0,63 por computador no período de um ano (tomando por base a tarifa média praticada no Brasil entre janeiro e maio de 2002).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estre trabalho investiga amplamente a evolução do consumo de bens duráveis no Brasil a partir da decisão de consumo individual e da possibilidade de existir restrição ao crédito. A contribuição mais relevante consiste na não rejeição da hipótese de separabilidade nas decisões de consumo de bens duráveis e não duráveis, já que tal hipótese é implicitamente utilizada por vários artigos que tratam a questão do consumo agregado no Brasil. Os resultados, aqui encontrados, sugerem que uma grande parcela dos consumidores está restrita ao crédito, existindo restrições de curto e longo prazo sobre a evolução do consumo de bens duráveis, não duráveis e renda.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é proposta uma classe de modelos paramétricos para estrutura a termo de taxa de juros (ETTJ) em que diferentes segmentos possam ter características próprias, porém não independentes, o que é condizente com a teoria de preferências por Habitat. O modelo baseia-se em Bowsher & Meeks (2006) onde a curva é determinada por um spline cúbico nas yields latentes, mas difere no sentido de permitir diferentes funções de classe C2 entre os segmentos, ao invés de polinômios cúbicos. Em particular usa-se a especi cação de Nelson & Siegel, o que permite recuperar o modelo de Diebold & Li (2006) quando não há diferenciação entre os segmentos da curva. O modelo é testado na previsão da ETTJ americana, para diferentes maturidades da curva e horizontes de previsão, e os resultados fora da amostra são comparados aos modelos de referência nesta literatura. Adicionalmente é proposto um método para avaliar a robustez da capacidade preditiva do modelos. Ao considerar a métrica de erros quadráticos médios , os resultados são superiores à previsão dos modelos Random Walk e Diebold & Li, na maior parte das maturidades, para horizontes de 3, 6 , 9 e 12 meses.