107 resultados para CODIGOS CORRETORES DE ERROS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho avalia o potencial de simuladores de tráfego na estimativa das emissões veiculares. Os simuladores de tráfego em conjunto com modelos de emissões são utilizados para execução de inventários de emissões. Os inventários de emissões são importantes para a avaliação da eficácia das políticas de transporte que visem redução das emissões veiculares. Erros nesta avaliação podem levar à adoção de políticas ineficientes. Por esta razão, é fundamental a compreensão da lógica destes modelos para a correta análise dos resultados gerados. Através de testes de sensibilidade avaliou-se o impacto da variação de três aspectos intrínsecos aos modelos de simulação na quantificação das emissões veiculares: (i) os parâmetros de entrada utilizados para calibração; (ii) a lógica dos modelos de progressão longitudinal; e (iii) o modelo de emissões incorporado ao simulador. Em um estudo de caso, avaliou-se o impacto de uma melhoria de fluxo de tráfego na geração das emissões com o uso de simuladores de tráfego frente às abordagens tradicionais. O trabalho demonstra que a definição dos parâmetros relativos à aceleração, bem como a modelagem adequada da progressão longitudinal dos veículos, possuem papel preponderante na correta quantificação das emissões. Em segundo plano, o grau de sofisticação do modelo de emissões incorporado também exerce influência na magnitude dos resultados. Por fim, o estudo de caso demonstrou a vantagem do uso de micro-simuladores na quantificação das emissões de projetos de melhorias de fluxo de tráfego frente aos métodos tradicionais, ainda que pese a maior dificuldade na calibração de modelos microscópicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os registros de vazões líquidas obtidos das estações fluviométricas são válidos, unicamente, para o local de onde foram coletados ou muito próximo a ele. Na maioria das vezes, a região de influência deste não inclui o local de interesse para o desenvolvimento de projetos de recursos hídricos. Este inconveniente, geralmente, pode ser resolvido através do uso de métodos de regionalização hidrológica. Para determinar os coeficientes da equação de regionalização, o procedimento mais usado consiste em: i) estabelecer uma relação do tipo exponencial multivariada entre a variável dependente (vazão média de longo prazo ou média anual de cheia) e as covariáveis (variáveis climáticas e fisiográficas da bacia hidrográfica); ii) linearizar a equação anterior mediante a transformação logarítmica de ambos os membros; iii) utilizar modelos lineares de regressão para estimar os coeficientes, geralmente, o método dos mínimos quadrados ordinários; e iv) aplicar a transformação inversa para definir a equação. A aplicação deste procedimento implica assumir certas propriedades dos dados (assimetria positiva, registros da mesma extensão e que os mesmos possuem o mesmo período de início e fim, entre outros) que dificilmente podem ser atendidas, prejudicando a verificação das hipóteses nas quais estão baseados os métodos lineares de regressão e, em conseqüência, seu adequado uso, bem como a confiabilidade dos resultados obtidos. Esta pesquisa apresenta um aprimoramento dos métodos de regionalização de vazões geralmente empregados, incluindo-se técnicas que levam em consideração as limitações anteriores. Estas técnicas foram: i) uso da transformada de Box-Cox na linearização da equação exponencial multivariada; ii) determinação dos coeficientes da equação de regionalização usando mínimos quadrados ponderados; e iii) verificação se os resíduos da regressão estão correlacionados ou não. Para o desenvolvimento e verificação da metodologia proposta foram usados somente registros fluviométricos de Bacias Hidrográficas Brasileiras, que drenam suas águas para o Rio Grande do Sul e/ou que estejam localizadas dentro dele. Geograficamente, a área de estudo inclui a totalidade do estado do Rio Grande do Sul e parte de Santa Catarina. As equações de regionalização foram definidas usando dados de vazões médias de longo prazo e média de cheia, para tempo de retorno de 2,33 e 50 anos. Neste último caso, as freqüências foram estimadas através do método dos momentos-L.Comparando os resultados obtidos utilizando o modelo de regionalização hidrológica proposto neste trabalho (transformada de Box-Cox / mínimos quadrados ponderados) junto a seus similares gerados usando a metodologia convencional (transformada logarítmica / mínimos quadrados ordinários) e de modelos intermediários (transformada logarítmica / mínimos quadrados ponderados e transformada de Box-Cox / mínimos quadrados ordinários), os mesmos podem ser considerados satisfatórios, visto que em todas as simulações realizadas o modelo proposto forneceu melhores resultados que aqueles obtidos com os outros modelos, sendo utilizado como padrão de comparação: 1) a qualidade do ajuste, 2) o grau de verificação das hipóteses dos métodos lineares de regressão e 3) os erros na estimativa das descargas, em termos de vazão específica. Nas simulações realizadas usando os modelos intermediários, observou-se que: i) na regionalização de vazões médias, o ganho de considerar a heterogeneidade temporal dos dados é maior do que corrigir a assimetria dos mesmos; ii) quando são usadas séries de descargas máximas, ocorre o efeito contrário, visto que o ganho de corrigir a assimetria das séries é maior do que o efeito da heterogeneidade temporal dos dados. Com relação aos resíduos da regressão, contrariamente ao esperado, os mesmos não sugerem estar correlacionados; isto pode ser conseqüência de utilizar como variável dependente um único registro por estação (vazão média de longo prazo ou média anual de cheia).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O comércio internacional da carne bovina apresenta-se protegido por medidas restritivas como as barreiras tarifárias e não-tarifárias. A presente pesquisa teve como objetivo geral identificar as barreiras comerciais que afetam as exportações de carne bovina, sob a ótica dos frigoríficos do Rio Grande do Sul. Especificamente foi caracterizado o processo de exportação, identificados os mercados importadores e barreiras não-tarifárias que influenciam as exportações dos frigoríficos. Para subsidiar a análise, foram utilizados os conceitos de competitividade, barreiras comerciais, cadeia agroindustrial e o Modelo Integrado Agronegocial (SIAN). Para identificar e caracterizar as barreiras comerciais, os agentes, a cadeia agroindustrial exportadora de carne bovina, os mecanismos de atuação dos agentes exportadores e fatores de competitividade. Trata-se de uma pesquisa exploratória. Para identificar e classificar as barreiras comerciais foi utilizado um questionário com escala não comparativa de classificação por itens, graduada de sete pontos. Os resultados obtidos demonstraram que os principais compradores da carne bovina gaúcha são Alemanha, Arábia Saudita, Argentina, Canadá, Chile, Coréia do Sul, Espanha, EUA, Hong Kong, Itália, Países Baixos, Porto Rico, Portugal, Reino Unido e Uruguai. Quanto às barreiras não-tarifárias, especificamente as barreiras técnicas são as que mais afetam as exportações, na percepção dos frigoríficos, sendo as principais: requisitos de inspeção, registro do estabelecimento exportador-SIF, inspeção prévia, sanitárias, requisitos de etiquetas, registro do produto, regulamentações técnicas e padronização, requisitos ambientais (ISO 14000), normas e impostos indiretos e trâmites aduaneiros excessivos. As barreiras tarifárias são importantes, porém mereceu menos atenção no contexto deste estudo. O processo de exportação de carne bovina envolve três operações básicas, que são as comerciais, financeiras e burocráticas, além de envolver Órgãos Gestores (Secretaria da Receita Federal, Banco Central, Secretaria de Comércio Exterior), Órgãos Anuentes (Ministério da Agricultura – SIF e outros) e Agentes Especializados (Despachante Aduaneiro, Transportadoras Marítimas e Rodoviárias, Bancos, Corretores de Câmbio, Trading Agent, Embalagens e Seguradoras, entre outros).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As deficiências da β-cetotiolase mitocondrial e da 2-metil-3-hidroxibutiril-CoA desidrogenase (MHBD) são erros inatos do catabolismo da isoleucina. Os pacientes afetados pela deficiência da β-cetotiolase apresentam crises agudas de cetose e acidose metabólica, podendo apresentar convulsões que podem evoluir ao coma e morte. Bioquimicamente, são caracterizados por excreção urinária aumentada de ácido 2-metilacetoacético (MAA), 2-metil-3-hidroxibutírico (MHB) e tiglilglicina (TG). Alguns indivíduos apresentam acidemia láctica durante as crises de descompensação metabólica. Por outro lado, os indivíduos afetados pela deficiência da MHBD são caracterizados por retardo mental, convulsões e acidose láctica severa, apresentando excreção urinária aumentada de MHB e TG. O aumento do ácido láctico em ambas as enfermidades sugere um comprometimento do metabolismo energético. Tendo em vista que os mecanismos fisiopatogênicos de ambas desordens são totalmente desconhecidos e que os achados bioquímicos sugerem um déficit na produção de energia dos pacientes, o presente trabalho teve por objetivo investigar os efeitos in vitro do MAA e do MHB sobre alguns parâmetros do metabolismo energético em córtex cerebral de ratos jovens. Nossos resultados demonstraram que o MAA inibiu a produção de CO2 a partir de glicose, acetato e citrato, indicando um bloqueio do ciclo do ácido cítrico. Em adição, o complexo II da cadeia respiratória bem como a enzima succinato desidrogenase foram inibidos na presença do MAA. Portanto, é possível que a inibição da cadeia respiratória tenha levado à inibição secundária do ciclo de Krebs. As enzimas Na+,K+-ATPase e creatina quinase (CK) não foram afetadas pelo MAA. O MHB inibiu a produção de CO2 a partir dos três substratos testados bem como o complexo IV da cadeia respiratória, sugerindo que a inibição da cadeia respiratória tenha levado à inibição da produção CO2 pelo ciclo de Krebs. A enzima Na+,K+- ATPase não foi afetada pelo ácido. No entanto, o MHB inibiu a atividade total da CK às custas da CK mitocondrial (mi-CK). A presença do inibidor da enzima óxido nítrico sintase L-NAME e do antioxidante glutationa reduzida (GSH) preveniram a inibição da atividade total da CK, enquanto que a GSH preveniu a inibição da mi-CK, sugerindo que os efeitos do MHB sobre a CK estejam relacionados à oxidação de grupamentos tióis essenciais à atividade enzimática. Tais resultados sugerem que o metabolismo energético cerebral é inibido in vitro pelo MAA e pelo MHB. Caso estes achados se confirmem nas deficiências da β-cetotiolase e da MHBD, é possível que um prejuízo no metabolismo energético causado pelo acúmulo destes metabólitos possa explicar, ao menos em parte, o dano neurológico encontrado nos pacientes portadores destas doenças.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A deficiência de guanidino acetato metiltransferase (GAMT) é um erro inato do metabolismo da creatina caracterizado por hipotonia muscular, movimentos extrapiramidais involuntários e epilepsia. A doença é bioquimicamente caracterizada por acúmulo de guanidino acetato e deficiência de creatina e fosfocreatina nos tecidos dos pacientes afetados. Os mecanismos de disfunção neurológica que ocorrem nessa doença ainda são desconhecidos. A Na+,K+-ATPase desempenha um papel fundamental no sistema nervoso central (SNC), sendo responsável pela manutenção dos gradientes iônicos e pela propagação do impulso nervoso, consumindo cerca de 50% do ATP formado no cérebro. A acetilcolinesterase (AChE) é uma importante enzima regulatória que controla a transmissão de impulsos nervosos através de sinapses colinérgicas pela hidrólise da acetilcolina, e apresenta um papel fundamental na cognição. Com o propósito de ampliar o conhecimento sobre os mecanismos fisiopatológicos da deficiência de GAMT, esse trabalho teve como objetivo investigar o efeito do guanidino acetato, o principal metabólito acumulado na deficiência de GAMT, sobre as atividades das enzimas Na+,K+-ATPase, Mg2+-ATPase e AChE em estriado de ratos. A cinética de inibição da Na+,K+-ATPase causada pelo guanidino acetato também foi estudada. Além disso, investigamos o efeito in vitro do guanidino acetato sobre as atividades da Na+,K+-ATPase, Mg2+-ATPase e da AChE de hipocampo de ratos. Nossos resultados mostraram que o guanidino acetato não altera as atividades da AChE e Mg2+-ATPase. No entanto, a atividade da Na+,K+-ATPase foi inibida por esse composto guanidínico (CG), e a análise cinética mostrou uma inibição do tipo acompetitiva. Também foi demonstrada uma interação entre o guanidino acetato e o ácido arginínico, sugerindo um sítio comum de ligação entre esses dois compostos na Na+,K+-ATPase. Os resultados mostraram que, o guanidino acetato inibiu a atividade da Na+,K+-ATPase in vitro mas não alterou as atividades da Mg2+-ATPase e da AChE. Considerando que o guanidino acetato e outros compostos guanidínicos (CG) induzem a formação de espécies reativas de oxigênio e que a Na+,K+-ATPase e a AChE são inibidas por radicais livres, estudamos o efeito da pré-incubação de homogeneizado de hipocampo de ratos na presença de guanidino acetato sobre a atividade dessas enzimas. Além disso, o efeito da pré-incubação de homogeneizado de ratos com guanidino acetato foi investigado na presença e ausência de antioxidantes, tais como glutationa (GSH), trolox, taurina e L-NAME. A pré-incubação de homogeneizado de hipocampos na presença de guanidino acetato inibiu a atividade da Na+,K+-ATPase, mas não alterou a atividade da Mg2+-ATPase. No entanto, L-NAME e taurina foram capazes de prevenir tal efeito. Dessa forma, propõem-se que a inibição da atividade da Na+,K+-ATPase pelo guanidino acetato seja um dos mecanismos envolvidos na disfunção neuronal observada em pacientes com deficiência de GAMT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ácido L-piroglutâmico (PGA) é o principal intermediário do ciclo γ-glutamil, que está relacionado à síntese e degradação da glutationa. Altos níveis de PGA no líquido cefalorraquidiano, sangue e outros tecidos, juntamente com a alta excreção urinária do mesmo (acidúria piroglutâmica ou 5-oxoprolinúria), ocorrem em alguns erros inatos do metabolismo envolvendo diferentes enzimas do ciclo γ-glutamil. Essas desordens são clinicamente caracterizadas por anemia hemolítica, acidose metabólica e disfunção neurológica severa. No entanto, os mecanismos de dano cerebral permanecem ainda não esclarecidos. Várias ações neurotóxicas foram previamente atribuídas ao PGA, como excitotoxicidade, inibição da atividade da Na+,K+-ATPase e alteração do metabolismo energético cerebral. No presente estudo, investigamos o possível papel do estresse oxidativo na neurotoxicidade do PGA. O efeito in vitro do PGA nas concentrações de 0,5 – 3,0 mM foi estudado sobre o potencial antioxidante total (TRAP), a reatividade antioxidante total (TAR), quimiluminescência, susbtâncias reativas ao ácido tiobarbitúrico (TBA-RS), e atividade das enzimas antioxidantes catalase (CAT), superóxido dismutase (SOD) e glutationa peroxidase (GPx) em córtex cerebral e cerebelo de ratos de 14 dias de vida. Tanto o TRAP quanto o TAR foram significativamente reduzidos nas estruturas estudadas. Ao contrário, a quimiluminescência e o TBA-RS não foram afetados pelo PGA. As atividades da CAT, SOD e GPx também não foram alteradas. Esses resultados mostram que o PGA pode diminuir as defesas antioxidantes nãoenzimáticas em córtex cerebral e cerebelo de ratos. Outros estudos, no entanto, parecem válidos a fim de melhor caracterizar o papel dos radicais livres na neurotoxicidade do PGA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Simulador de processos é uma ferramenta valiosa, pois possibilita desde a validação de projetos e sua operabilidade prática até aumentos de produção e redução de custos. Devido a estes e outros fatores, o interesse industrial em técnicas e pacotes computacionais para a modelagem, simulação e otimização de processos tem crescido muito nos últimos anos. Juntamente com este interesse cresce a qualidade das ferramentas disponíveis no mercado para tal, mas estas ainda não satisfazem totalmente as expectativas de seus usuários. Este trabalho consiste no projeto de um novo simulador genérico para processos dinâmicos que satisfaça os usuários de forma mais completa do que os disponíveis atualmente no mercado. Para tanto, foram reunidas e, quando necessário, desenvolvidas novas técnicas relativas à descrição, análise e solução de problemas dinâmicos. Uma nova linguagem de modelagem orientada a objetos e um sistema de tradução da representação nesta linguagem para sistemas de equações foram propostos. Métodos de análise dos sistemas de equações provenientes da modelagem foram desenvolvidos com o intuito de auxiliar o usuário na detecção de erros de modelagem. Algoritmos para solução de sistemas dinâmicos e estacionários foram reunidos e uma arquitetura interna foi proposta. Por fim, o sistema como um todo foi testado através de sua aplicação em problemas típicos e outros que não podem ser resolvidos diretamente com os pacotes computacionais disponíveis no mercado. O teste com os problemas práticos provou que a estrutura proposta é adequada e apresenta uma série de vantagens quando comparada com softwares largamente utilizados na simulação de processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O ICTM (Interval Categorizer Tesselation Model), objeto da presente tese, é um modelo geral para análise de espaços de natureza geométrica, baseado em tesselaçoes, que é capaz de produzir uma categorização confiável de conjunto de pontos de um dado espaço, de acordo com múltiplas características dos pontos, cada característica correspondendo a uma camada do modelo. Por exemplo, na análise de terrenos geográficos, uma região geográfica pode ser analisada de acordo com a sua topografia, vegetaçao, demografia, dados econômicos etc, cada uma gerando uma subdivisão diferente da região. O modelo geral baseado em tesselações não está restrito, porém, a análise de espaços bi-dimensionais. O conjunto dos pontos analisados pode pertencer a um espaço multidimensional, determinando a característica multi-dimensional de cada camada. Um procedimento de projeção das categorizações obtidas em cada camada sobre uma camada básica leva a uma categorização confiavel mais significante, que combina em uma só classificação as análises obtidas para cada característica. Isto permite muitas análises interessantes no que tange a dependência mútua das características. A dimensão da tesselação pode ser arbitrária ou escolhida de acordo com algum critério específico estabelecido pela aplicação. Neste caso, a categorização obtida pode ser refinada, ou pela re-definição da dimensão da tesselação ou tomando cada sub-região resultante para ser analisada separadamente A formalização nos registradores pode ser facilmente recuperada apenas pela indexação dos elementos das matrizes, em qualquer momento da execução. A implementação do modelo é naturalmente paralela, uma vez que a análise é feita basicamente por regras locais. Como os dados de entrada numéricos são usualmente suscetíveis a erros, o modelo utiliza a aritmética intervalar para se ter um controle automático de erros. O modelo ICTM também suporta a extração de fatos sobre as regiões de modo qualitativo, por sentenças lógicas, ou quantitativamente, pela análise de probabilidade. Este trabalho recebe apoio nanceiro do CNPq/CTPETRO e FAPERGS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A deficiência da semialdeído succínico desidrogenase, ou acidúria γ-hidroxibutírica, é um erro inato do metabolismo do ácido γ-aminobutírico. Bioquimicamente, é caracterizada pelo acúmulo de elevadas concentrações do ácido γ-hidroxibutírico nos tecidos, líquido cefalorraquidiano, sangue e urina dos pacientes. As manifestações clínicas descritas nesses pacientes são muito variadas e inespecíficas, mas observa-se que os principais sintomas e sinais clínicos são neurológicos. Entretanto, os mecanismos responsáveis pela disfunção neurológica desses pacientes são pouco conhecidos. Neste trabalho, o efeito in vitro do ácido γ-hidroxibutírico foi investigado sobre a quimiluminescência, as substâncias reativas ao ácido tiobarbitúrico (TBA-RS), o potencial antioxidante total (TRAP), a reatividade antioxidante total (TAR) e as atividades das enzimas antioxidantes superóxido dismutase (SOD), catalase (CAT) e glutationa peroxidase (GPX) em homogeneizados de córtex cerebral de ratos jovens com o intuito de esclarecer, ao menos em parte, a etiopatogenia dos sintomas neurológicos característicos dessa doença. O ácido γ-hidroxibutírico aumentou significativamente a quimiluminescência e os níveis de TBA-RS, enquanto que o TRAP e o TAR foram marcadamente reduzidos. No entanto, as atividades das enzimas antioxidantes não foram alteradas pelo ácido γ-hidroxibutírico. Esses resultados indicam que o ácido γ-hidroxibutírico estimula a lipoperoxidação e reduz as defesas antioxidantes não-enzimáticas, sugerindo a participação do estresse oxidativo na neuropatologia da deficiência da semialdeído succínico desidrogenase. Porém, esses achados devem ser confirmados em pacientes afetados por essa doença.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A doença de Lesch-Nyhan é um erro inato do metabolismo das purinas caracterizado pela deficiência na enzima hipoxantina- guanina fosforibosiltransferase. O bloqueio dessa reação resulta no acúmulo tecidual de hipoxantina, xantina e ácido úrico. A doença caracteriza-se por hiperuricemia, variado grau de retardo mental e motor, espasticidade e auto-mutilação. No sistema nervoso central, a Na+, K+ - ATPase é responsável pela manutenção da homeostase dos íons Na+ e K+, regulando o volume celular, a excitabilidade neuronal, o transporte de neurotransmissores e outras moléculas. Evidências na literatura demonstram que a redução na atividade da Na+, K+ - ATPase está relacionada com diversas doenças neurodegenerativas, tais como isquemia cerebral e doenças de Parkinson e de Alzheimer. No presente estudo, investigamos o efeito in vitro da hipoxantina, xantina e ácido úrico sobre a atividade da Na+, K+- ATPase em membrana plasmática sináptica de estriado de ratos. Estudamos, também, a cinética de inibição causada pela hipoxantina e de interação entre hipoxantina, xantina e ácido úrico. Nossos resultados demonstram que hipoxantina, xantina e ácido úrico inibem significativamente a atividade da Na+, K+- ATPase. O estudo dos mecanismos de inibição da atividade enzimática causados pela hipoxantina demonstrou um efeito inibitório não competitivo com o substrato ATP. Além disso, o estudo de interação cinética entre hipoxantina, xantina e ácido úrico sugere que esses compostos atuem em um mesmo sítio de ligação na enzima. Verificamos, também, o efeito da preincubação de homogeneizado de estriado de ratos na presença de hipoxantina (10 µM) sobre a atividade da Na+, K+- ATPase de membrana plasmática sináptica com a adição ou não de antioxidantes (glutationa e trolox), bem como alguns parâmetros de estresse oxidativo denominados TBARS (medida de lipoperoxidação) e TRAP (capacidade antioxidante tecidual não-enzimática) no intuito de verificar a participação do estresse oxidativo nos mecanismos de inibição enzimática provocados pela hipoxantina. Os resultados monstraram que a hipoxantina inibe significativamente a atividade da Na+, K+- ATPase. Adicionalmente, nossos resultados demonstraram que glutationa, mas não o trolox, na concentração de 1 mM, foi capaz de prevenir a inibição enzimática causada pela hipoxantina. Nossos resultados também mostraram que a hipoxantina, na mesma concentração, aumentou TBARS e diminuiu TRAP que essa substância induz o estresse oxidativo. É possível que a inibição na atividade da Na+, K+- ATPase possa estar envolvida nos mecanismos pelos quais as oxipurinas são neurotóxicas. Acreditamos que nossos resultados possam contribuir, pelo menos em parte, na compreensão da disfunção neurológica encontrada em pacientes portadores da doença de Lesch-Nyhan.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação visa-se estudar e propor alternativas de solução para a proteção de estruturas e sistemas elétricos contra fogo numa unidade de craqueamento catalítico de uma refinaria de petróleo, por meio de proteção passiva. A proteção passiva tem por finalidade garantir a integridade das estruturas sujeitas a incêndio, durante um determinado período de tempo, para possibilitar, no caso da refinaria, a realização de procedimentos de parada da unidade de forma segura e controlar o incêndio a fim de diminuir a possibilidade de propagação do fogo para outras áreas. Com base em técnicas de análise de riscos fez-se a identificação de zonas potencialmente sujeitas a cenários de acidente envolvendo jato de fogo e/ou incêndio em poça. A delimitação das áreas onde haveria necessidade de proteção passiva foi realizada com base em modelos para jatos de fogo e incêndio em poça já estabelecidos na literatura. O dimensionamento da proteção passiva de estruturas e sistemas elétricos com o uso de diversos materiais usados comercialmente para este fim foi estimado com base em equações empíricas desenvolvidas por Jeanes, 1980, Stanzak, 1973 e PABCO, 1984, e, para alguns casos particulares foi feita uma verificação por solução numérica da equação da condução do calor em meio sólido.Assim, foram determinados quais os materiais mais adequados em cada caso de aplicação e qual a espessura em que deve ser aplicado para que a temperatura no elemento estrutural ou no sistema elétrico não atinja a sua determinada temperatura crítica em um período de tempo pré-determinado. Para os casos de elementos estruturais como colunas de sustentação da unidade de seção cilíndrica, o principal material para proteção passiva é a argamassa projetada e para perfil I, é o emprego de placas de gesso. Já para o caso de sistemas elétricos, podem ser utilizadas tanto tintas intumescentes quanto as mantas reforçadas com fibras minerais, esta escolha depende da geometria do sistema em que será empregado. Da comparação entre estes dois métodos pode-se concluir que o dimensionamento da proteção passiva fazendo o uso das correlações empíricas é menos conservativo que para o caso do uso da equação da difusão do calor resolvida por método numérico. Porém, os resultados diferem dentro de um limite considerado aceitável (em torno de 15%) levando-se em consideração os erros embutidos em cada método de cálculo. É importante mencionar que as correlações empíricas são de mais simples aplicação por possuir apenas operações matemáticas básicas. Usando as correlações empíricas para os perfis cilíndricos de aço (diâmetro de 0,1524 m e espessura de parede de 0,0254 m), a espessura de revestimento estimada com o uso das correlações empíricas necessária para garantir que a temperatura na interface entre os dois materiais não atinja 550°C em duas horas seria de 13,5 mm para argamassa projetada, 19,7 mm para vermiculita com silicato de sódio e 34,5 mm para recobrimento com concreto com proteção do tipo contorno. Fazendo o mesmo cálculo pelo método numérico proposto, os resultados foram de 15,53 mm para argamassa projetada, 22,06 mm para vermiculita com silicato de sódio e 38,98 mm para recobrimento com concreto com proteção do tipo contorno. Fazendo o mesmo cálculo pelo método numérico proposto, os resultados foram de 15,53 mm para argamassa projetada, 22,06 mm para vermiculita com silicato de sódio e 38,98 mm para recobrimento com concreto com proteção do tipo contorno. Cabe ressaltar que com a realização desta dissertação busca-se uma integração entre o mestrado acadêmico e o meio empresarial com o desenvolvimento de trabalhos de natureza acadêmica que tenham aplicação direta na prática. Espera-se assim permitir que Universidade dê retorno à sociedade que a mantém e propiciar que setores da sociedade possam usufruir da capacidade disponível na academia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem de um depósito mineral é realizada por meio da combinação de diversas fontes de informações. Dentre estas fontes pode-se citar a sísmica de reflexão. A sísmica de reflexão fornece dados de tempos de propagação de ondas sísmicas até essas serem refletidas pelas estruturas dos depósitos minerais. As profundidades dessas estruturas podem ser obtidas multiplicando-se os tempos pelas velocidades de propagação das ondas sísmicas. Normalmente, a velocidade de uma onda sísmica é determinada indiretamente por meio do processamento dos próprios dados sísmicos, o que pode gerar erros na interpretação de seções geológicas. A perfilagem geofísica é uma alternativa na determinação dessa velocidade, uma vez que a velocidade de onda acústica é obtida ao longo do furo perfilado e a velocidade de onda acústica pode ser relacionada com a velocidade de onda sísmica. As estimativas de valores de velocidade na região entre os furos perfilados permite as estimativas de valores de profundidade nessa região. Neste estudo, foram analisadas possibilidades de se estimar, em um grid, valores de velocidade e incertezas associadas a esses valores, utilizando-se ferramentas geoestatísticas. A simulação seqüencial Gaussiana, dentre as ferramentas analisadas, pareceu ser a mais adequada para obtenção de velocidades e incerteza dos valores estimados em cada nó do grid considerado. Para o caso abordado, alguns valores de profundidade da estrutura de interesse apresentaram variações significativas em função da incerteza de velocidade. Essas variações são muito importantes na execução de certos métodos de lavra subterrânea, o que enfatiza a importância da determinação da incerteza das velocidades estimadas. A metodologia é apresentada e ilustrada em um importante depósito de carvão em Queensland, Austrália.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas computacionais estão tomando proporções cada vez maiores envolvendo situações bastante complexas, onde muitas vezes erros são inaceitáveis, como em sistemas bancários, sistemas de controle de tráfego aéreo, etc... Para obter software confiável e com desempenho aceitável, pode-se aliar técnicas de desenvolvimento formal de software a técnicas de simulação de sistemas. O ambiente PLATUS reúne essas duas áreas: modelos de simulação são descritos usando gramáticas de grafos uma linguagem de especificação formal. Gramáticas de grafos são uma generalização de gramáticas de Chomsky, substituindo strings por grafos. Neste trabalho, serão tratadas gramáticas de grafos baseados em objetos, um modelo onde vértices e arcos são tipados, e as especificações são modulares (a especificação de um sistema consiste em várias gramáticas de grafos combinadas). Assim, o modelo de um sistema pode ser descrito de forma precisa, e a linguagem de especificação é bastante abstrata e expressiva. Num ambiente de simulação a questão da recuperação de dados merece uma atenção especial, uma vez que a eficiência do simulador está diretamente ligada a agilidade na obtenção das informações. Neste trabalho, o objetivo principal é definir uma representação para gramáticas de grafos que facilite o armazenamento, a recuperação e análise das estruturas identificadas no ambiente PLATUS, ou seja, gramáticas de grafos baseadas em objetos. São definidas também funções que implementam os procedimentos necessários, para a recuperação de dados durante a simulação. A eficiência dessas funções é demonstrada através do cálculo de sua ordem de complexidade. As estruturas são validadas através da implementação de um protótipo de banco de dados.