966 resultados para Modelo de sensibilidade de potência


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A análise de gases dissolvidos tem sido aplicada há décadas como a principal técnica de manutenção preditiva para diagnosticar defeitos incipientes em transformadores de potência, tendo em vista que a decomposição do óleo mineral isolante produz gases que permanecem dissolvidos na fase líquida. Entretanto, apesar da importância desta técnica, os métodos de diagnóstico mais conhecidos são baseados em constatações de modelos termodinâmicos e composicionais simplificados para a decomposição térmica do óleo mineral isolante, em conjunto com dados empíricos. Os resultados de simulação obtidos a partir desses modelos não reproduzem satisfatoriamente os dados empíricos. Este trabalho propõe um modelo termodinâmico flexível aprimorado para mimetizar o efeito da cinética de formação de sólidos como restrição ao equilíbrio e seleciona, entre quatro modelos composicionais, aquele que apresenta o melhor desempenho na simulação da decomposição térmica do óleo mineral isolante. Os resultados de simulação obtidos a partir do modelo proposto apresentaram uma melhor adequação a dados empíricos do que aqueles obtidos a partir dos modelos clássicos. O modelo propostofoi, ainda, aplicado ao desenvolvimento de um método de diagnóstico com base fenomenológica.Os desempenhos desta nova proposta fenomenológica e de métodos clássicos de diagnóstico por análise de gases dissolvidos foram comparados e discutidos; o método proposto alcançou desempenho superior a vários métodos usualmente empregados nessa área do conhecimento. E, ainda, um procedimento geral para a aplicação do novo método de diagnóstico é descrito

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A obesidade está relacionada com o desenvolvimento da diabetes, estresse oxidativo, esteatose hepática, alteração da sensibilidade hormonal e redução da capacidade termogênica pelo tecido adiposo marrom (TAM). Na obesidade, alterações do sistema dopaminérgico mesocorticolímbico podem levar ao vício por alimentos palatáveis. Todas estas características contribuem para o baixo gasto energético e o alto consumo alimentar. Para estudar os efeitos em longo prazo da obesidade infantil, utilizamos o modelo de redução do tamanho da ninhada. Para induzir a superalimentação neonatal, o tamanho da ninhada foi reduzido para 3 filhotes machos de PN3 21 (grupo SL). O grupo controle permaneceu com 10 filhotes (grupo NL). Em PN120, o grupo SL foi dividido em: SL que recebeu ração controle e SL-Ca que recebeu dieta controle suplementada com 10g/kg de CaCO3. Os sacrifícios ocorreram em PN120 e PN180. Durante todo o período experimental, avaliamos o consumo alimentar e peso corporal. Em PN175, avaliamos a preferência alimentar dos animais por uma dieta rica em açúcar ou em lipídio. Avaliamos os hormônios por ELISA, RIA e quimioluminescência; o conteúdo proteico por Western blotting no fígado, tecido adiposo branco (TAB) e marrom (TAM), adrenal e regiões cerebrais; as atividades enzimáticas no soro e no fígado por cinética enzimática. Em PN21, PN120 e PN180, avaliamos in vivo a atividade simpática do TAM. Ao desmame, os ratos SL apresentaram maior estado pró-oxidativo no fígado e plasma e menor sensibilidade às catecolaminas no TAB. Na idade adulta, a suplementação é capaz de melhorar o estado pró-oxidativo no fígado e plasma, a sensibilidade à insulina e a microesteatose no fígado. Tanto a alteração de metabolismo/ação da vitamina D e do glicocorticóide no tecido adiposo como a menor capacidade termogênica do TAM contribuem para a maior adiposidade dos animais do grupo SL. A suplementação com cálcio corrigiu parte dessas alterações. A superalimentação pós-natal levou a redução da via dopaminérgica e a maior preferencia por gordura, enquanto a suplementação com cálcio normalizou esta via apenas a nível hipotalâmico e corrigiu a preferência alimentar. Nossos dados destacam o impacto benéfico da suplementação dietética com cálcio, que pode ter um papel nutricional promissor para auxiliar a perda de peso e minimizar os distúrbios relacionados a obesidade e a síndrome metabólica dos animais obesos que foram superalimentados na lactação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os eventos de fissão nuclear, resultados da interação dos nêutrons com os núcleos dos átomos do meio hospedeiro multiplicativo, não estão presentes em algumas regiões dos reatores nucleares, e.g., moderador, refletor, e meios estruturais. Nesses domínios espaciais não há geração de potência nuclear térmica e, além disso, comprometem a eficiência computacional dos cálculos globais de reatores nucleares. Propomos nesta tese uma estratégia visando a aumentar a eficiência computacional dessas simulações eliminando os cálculos numéricos explícitos no interior das regiões não-multiplicativas (baffle e refletor) em torno do núcleo ativo. Apresentamos algumas modelagens e discutimos a eficiência da aplicação dessas condições de contorno aproximadas tipo albedo para uma e duas regiões nãomultiplicativas, na formulação de ordenadas discretas (SN) para problemas de autovalor a dois grupos de energia em geometria bidimensional cartesiana. A denominação Albedo, palavra de origem latina para alvura, foi originalmente definida como a fração da luz incidente que é refletida difusamente por uma superfície. Esta denominação latina permaneceu como o termo científico usual em astronomia e, nesta tese, este conceito é estendido para reflexão de nêutrons. Estas condições de contorno tipo albedo SN não-convencional substituem aproximadamente as regiões de baffle e refletor no em torno do núcleo ativo do reator, desprezando os termos de fuga transversal no interior dessas regiões. Se o problema, em particular, não possui termos de fuga transversal, i.e., trata-se de um problema unidimensional, então as condições de contorno albedo, como propostas nesta tese, são exatas. Por eficiência computacional entende-se a análise da precisão dos resultados numéricos em comparação com o tempo de execução computacional de cada simulação de um dado problema-modelo. Resultados numéricos considerando dois problemas-modelo com de simetria são considerados para ilustrar esta análise de eficiência.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Projetos de reatores nucleares foram classificados em quatro gerações (Gen) pelo Departamento de Energia dos Estados Unidos da América (DOE), quando o DOE introduziu o conceito de reatores de geração IV (Gen IV). Reatores Gen IV são um conjunto de projetos de reator nuclear, em sua maioria teóricos, atualmente sendo pesquisados. Entre os projetos Gen IV, incluem-se os projetos dos ADS (Accelerator Driven Systems), que são sistemas subcríticos estabilizados por fontes externas estacionárias de nêutrons. Estas fontes externas de nêutrons são normalmente geradas a partir da colisão de prótons com alta energia contra os núcleos de metais pesados presentes no núcleo do reator, fenômeno que é conhecido na literatura como spallation, e os prótons são acelerados num acelerador de partículas que é alimentado com parte da energia gerada pelo reator. A criticalidade de um sistema mantido por reações de fissão em cadeia depende do balanço entre a produção de nêutrons por fissão e a remoção por fuga pelos contornos e absorção de nêutrons. Um sistema está subcrítico quando a remoção por fuga e absorção ultrapassa a produção por fissão e, portanto, tende ao desligamento. Entretanto, qualquer sistema subcrítico pode ser estabilizado pela inclusão de fontes estacionárias de nêutrons em seu interior. O objetivo central deste trabalho é determinar as intensidades dessas fontes uniformes e isotrópicas de nêutrons, que se deve inserir em todas as regiões combustíveis do sistema, para que o mesmo estabilize-se gerando uma distribuição prescrita de potência elétrica. Diante do exposto, foi desenvolvido neste trabalho um aplicativo computacional em linguagem Java que estima as intensidades dessas fontes estacionárias de nêutrons, que devem ser inseridas em cada região combustível para que estabilizem o sistema subcrítico com uma dada distribuição de potência definida pelo usuário. Para atingir este objetivo, o modelo matemático adotado foi a equação unidimensional de transporte de nêutrons monoenergéticos na formulação de ordenadas discretas (SN) e o convencional método de malha fina diamond difference (DD) foi utilizado para resolver numericamente os problemas SN físicos e adjuntos. Resultados numéricos para dois problemas-modelos típicos são apresentados para ilustrar a acurácia e eficiência da metodologia proposta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho teve por objectivo global o estudo e desenvolvimento de sensores baseados em fibra óptica polimérica. O crescimento da tecnologia polimérica nos últimos anos permitiu a introdução deste tipo de fibras ópticas na área das telecomunicações e no desenvolvimento de sensores. As vantagens associadas à metrologia óptica com fibra polimérica têm vindo a atrair as atenções da comunidade científica dado que permitem o desenvolvimento de sistemas de baixo-custo ou custo competitivo face às tecnologias convencionais. Dada a actualidade do tema proposto, descreve-se, numa primeira fase, a tecnologia em fibra óptica polimérica existente no mercado e o estado de arte de sensores em fibra óptica polimérica. Segue-se a descrição de dois tipos de sensores baseados em modulação de intensidade. Projectou-se um sensor extrínseco capaz de avaliar a quantidade de luz dispersa e absorvida por partículas suspensas num líquido. Foi efectuada a caracterização do sensor quanto à concentração de partículas suspensas, tamanho e reflectividade. O sensor foi testado no âmbito da monitorização ambiental, designadamente, na análise de turbidez em amostras de sedimentos recolhidos em áreas ardidas. O sistema desenvolvido foi comparado com um sistema comercial. Um sensor intrínseco, baseado no polimento lateral de fibra óptica polimérica, foi analisado analiticamente. O modelo teórico avalia o sensor em diferentes condições de macroencurvamento e de índice de refracção do meio envolvente. O modelo teórico foi validado positivamente através de resultados experimentais. Foi avaliada a sensibilidade à temperatura e os conhecimentos adquiridos foram aplicados no desenvolvimento de um sistema capaz de monitorizar a cura de diferentes materiais. É ainda apresentada uma técnica para melhorar a sensibilidade do sensor de curvatura através da aplicação de um revestimento na zona sensível. A dependência na curvatura da potência transmitida por uma fibra óptica polida lateralmente serviu de base ao desenvolvimento de uma joelheira e de uma cotoveleira instrumentada, capazes de avaliar quantitativamente o movimento articular. A necessidade de portabilidade levou ao desenvolvimento de um sistema sem fios para aquisição e transmissão de dados. Espera-se que os protótipos desenvolvidos venham a ter um impacto significativo em sistemas futuros aplicados à medicina física e reabilitação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A esclerose múltipla é um doença crónica do sistema nervoso central, que afecta mais frequentemente adultos jovens, no auge da sua carreira profissional e desenvolvimento pessoal, sem cura e de causas desconhecidas. Os sintomas e sinais mais comuns são a fadiga, fraqueza muscular, alterações da sensibilidade, ataxia, alterações do equilíbrio, dificuldades na marcha, dificuldades de memória, alterações cognitivas e dificuldades na resolução de problemas. A esclerose múltipla é uma doença progressiva e imprevisível, resultando, nalguns casos, em incapacidades e limitações de actividade de vida diária, causando danos irreparáveis para os indivíduos. Esta doença pode surgir através de surtos ou de uma forma progressiva.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trabalho de Projeto para obtenção do grau de Mestre em Engenharia Informática e de Computadores

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação de Mestrado para obtenção do grau de Mestre em Engenharia Eletrotécnica Ramo Automação e Eletrónica Industrial

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para a obtenção do grau de Mestre em Engenharia Eletrotécnica Ramo de Automação e Eletrónica Industrial

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Energias Renováveis – Conversão Eléctrica e Utilização Sustentáveis, pela Universidade Nova de Lisboa, Faculdade de Ciência e Tecnologia

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O galgamento oceânico é um fenómeno associado à interação de ondas com estruturas marítimas. Nesta dissertação estudou-se o galgamento em estruturas marítimas verticais através da aplicação do modelo numérico AMAZON, que é um modelo bidimensional, baseado na resolução das equações não lineares de águas pouco profundas. Para validar a sua aplicação a estruturas marítimas verticais impermeáveis, os resultados de caudal médio galgado obtidos com o modelo AMAZON foram comparados com os resultados de ensaios em modelo físico bidimensional realizados anteriormente e disponíveis na base de dados do projeto europeu CLASH. Os resultados foram ainda comparados com os das fórmulas empíricas e semi-empíricas de Van der Meer & Bruce de 2014, de Goda de 2008 e de Hedges & Reis de 2015. Antes da sua validação, o modelo foi calibrado utilizando um dos ensaios do CLASH. Para tal, realizou-se uma análise de sensibilidade a alguns parâmetros do modelo, concretamente da dimensão mínima da malha, da escala de aplicação do AMAZOM (à escala reduzida ou à do protótipo), da forma de modelação da parede vertical, já que, dado este modelo ser integrado na vertical, não é possível considerar paredes verticais sem utilizar um artifício de cálculo, dos valores de alguns dos parâmetros de entrada do modelo (profundidade mínima molhada e a profundidade mínima de fricção) e da dimensão do domínio de cálculo. Os resultados da calibração do AMAZON mostram que, por causa da precisão do modelo para os menores caudais médios de galgamento, se deve aplicar o modelo à escala do protótipo. Para estruturas verticais, a aproximação que o modelo faz, por defeito, para a secção vertical da estrutura através de um talude fictício a 10:1 apresenta melhores resultados que a utilização de um talude a 20:1. Contudo, ambos requerem a adoção de uma dimensão da malha bastante reduzida nesta zona e na sua vizinhança (0.03 m). No caso em estudo, os dois parâmetros de entrada do modelo não têm impacto significativo nos resultados, ao contrário do domínio de cálculo que, tal como recomendado na literatura de referência, se deve iniciar (fronteira de entrada) a aproximadamente um comprimento de onda do pé da estrutura. Os resultados obtidos mostram que, em geral, o AMAZON subestima o valor medido do caudal médio galgado com erros relativos variáveis entre -91% e -49%; apenas para um caso o modelo sobrestima o caudal médio, com um erro relativo de 43%. Quando comparado com as formulações empíricas e semi-empíricas, a fórmula de Van der Meer & Bruce apresenta melhores aproximações aos caudais médios medidos que constam na base de dados do CLASH, seguida da fórmula de Goda e dos resultados do modelo AMAZON, embora estes dois últimos apresentem valores bastante próximos. Assim, uma vez que o modelo está em constante desenvolvimento, espera-se que no futuro seja uma ferramenta mais poderosa. Contudo, enquanto não se fizerem melhorias no modelo e/ou não se estender a outros ensaios a análise feita no âmbito desta dissertação, os resultados sugerem que não há vantagem na sua utilização face às formulações empíricas e semi-empíricas disponíveis, tendo também em conta o significativo tempo computacional exigido para executar o AMAZON com a dimensão da malha escolhida.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O setor farmacêutico apresenta um elevado grau de complexidade, dada a regulamentação a que está sujeito. Atualmente, um dos principais problemas deste setor prende-se com o acentuado aumento (142,6% entre dezembro de 2012 e julho de 2014) do número de farmácias insolventes, sendo impacto da crise económica e consequentes medidas regulamentares aplicadas com o Memorando de Entendimento da Troika. Dada a importância que as farmácias têm na dispensa do medicamento assim como o papel do farmacêutico no aconselhamento diário aos utentes, a redução do número de farmácias levanta problemas no acesso ao medicamento por parte da população. Assim, é necessário dotar as farmácias de ferramentas que lhes permitam gerir o seu negócio, criando bases sólidas de forma a terem uma maior capacidade de reagir em tempos de crise. Desta forma, o objetivo principal do trabalho é fornecer às farmácias uma dessas ferramentas, através da criação de um modelo preditivo de insolvência que permita estimar uma probabilidade de uma farmácia entrar em insolvência. Para o efeito, desenvolveu-se um modelo teórico, com base na revisão de literatura científica e na análise do setor farmacêutico em Portugal, que foi depois testado recorrendo a métodos de estimação com recurso ao modelo logit através do método da Máxima Verosimilhança. O modelo empírico foi estimado com dados de uma amostra de 97 farmácias, selecionadas a partir de uma base de dados da ANF. Esta amostra é composta por todas as farmácias insolventes e por uma seleção aleatória de farmácias solventes, para as quais foi possível utilizar informação proveniente do IES, mantendo a total confidencialidade, nomeadamente dados relativos às dimensões consideradas no modelo teórico: Autonomia Financeira, Endividamento, Gestão de Inventários, Gestão de Funcionários, Liquidez, Prazo Médio de Pagamentos do Estado, Prazo Médio Pagamentos a Fornecedores, Rendibilidade, Solvabilidade, Tesouraria, Dimensão e Localização. As dimensões referidas foram selecionadas após uma análise extensiva da bibliografia sobre esta temática. Estas dimensões foram incluídas na estimação através de variáveis proxy (com exceção da Tesouraria), para as quais foi também levada a cabo uma análise de sensibilidade. Depois de validados os pressupostos da estimação e de uma análise crítica sobre os resultados, foi possível selecionar um modelo em que mais de 90% das observações foram classificadas corretamente. O modelo preditivo selecionado inclui as variáveis proxy das dimensões: Autonomia Financeira, Prazo Médio Pagamentos a Fornecedores, Endividamento, Rendibilidade, Dimensão e Localização. Em testes posteriores, validou-se a capacidade preditiva do modelo com recurso a uma amostra de teste.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se apunta la necesidad de un cambio en relación con el modelo del profesorado en la universidad y con los métodos de enseñanza así como la necesidad de una formación pedagógica ante el impacto de las nuevas tecnologías para mejorar la calidad de la enseñanza superior. Se establecen las bases para un programa de formación señalándose objetivos y propuestas de acción posibles. Se consideran los aspectos de formación mínima, análisis institucional sobre la pertinencia y la calidad, las formas de estimular la participación del profesorado, validación de esa implicación y evaluación permanente de los procesos de formación e innovación docente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A pneumonia nosocomial é a principal causa de infecção nosocomial em unidades de tratamento intensivo e possui alta morbi/mortalidade. A incidência cumulativa varia, conforme os autores, entre limites amplos desde 8% até 51%, dependendo do tipo de paciente e do uso de instrumentação das vias respiratórias. Nos casos específicos das pneumonias de má resolução e da pneumonia associada à ventilação mecânica, o diagnóstico é problemático devido à ausência de uma padronização definitiva, decorrente não só da grande variabilidade fisiopatológica como também da pouca acurácia dos critérios clínicos, microbiológicos e radiológicos. Estes fatos ensejaram a utilização progressiva de técnicas invasivas sofisticadas para coleta de amostras respiratórias endobrônquicas. Entretanto, a validação dessas técnicas para uso sistemático depende ainda de estudos que avaliem não só o seu custo/benefício em cenários clínicos diversos como também a comparação de seu desempenho para o diagnóstico com um padrão-ouro histopatológico. Além disso, o rendimento das técnicas invasivas é freqüentemente limitado quando são aplicadas em pacientes sob antibioticoterapia, que constituem a maioria dos casos em unidades de cuidados intensivos. A otimização desses testes, discutindo suas indicações e avaliando sua capacidade técnica para a confirmação ou exclusão de pneumonia, é justificada pela necessidade da instituição precoce e correta do tratamento, pois disto resulta menor mortalidade, redução de custos e permanência no hospital. Entre os testes que podem auxiliar no diagnóstico encontra-se o exame direto do lavado broncoalveolar, que proporciona resultados precoces e úteis para a tomada de decisão, mas não suficientemente testados em diferentes situações clínicas ou experimentais. Com o objetivo de avaliar o rendimento diagnóstico do exame direto precoce e das culturas quantitativas obtido por lavado broncoalveolar, estudou-se sua utilização em um modelo experimental de pneumonia provocada através de inoculação bacteriana intrabrônquica em ratos. O estudo comparou a acurácia do exame direto e dos exames culturais em três grupos de animais: Grupo A com pneumonia pneumocócica (37 animais); Grupo P com pneumonia por P. aeruginosa (26 animais) e Grupo B controle (10 animais), utilizando a histopatologia dos pulmões como teste de referência para o diagnóstico. Os Grupos A e P foram ainda randomizados em dois subgrupos cada, para tratamento ou não com antibióticos, usando penicilina no grupo pneumococo e amicacina no grupo Pseudomonas. Como resultado, observou-se que nos animais com pneumonia e ausência de antibióticos a pesquisa de bactéria fagocitada (BIC) no exame direto mostrou um rendimento elevado para o diagnóstico, sendo superior ao das culturas quantitativas. No grupo com pneumonia pneumocócica a BIC mostrou: S:94,4% a 100%, E:100%, VPP:100% e VPN:100%; e as culturas quantitativas mostraram: S:77,8%, E:100%, VPP:100%, VPN:40%. Nos com pneumonia por Pseudomonas a BIC obteve: S: 69%, E:100%; VPP:100% e VPN:71,4%); e as culturas quantitativas mostraram valores muito baixos: S:28,6%, E:100%, VPP:100% e VPN:50%). Nos animais com pneumonia pneumocócica sob tratamento antibiótico havia uma queda acentuada de sensibilidade das culturas quantitativas (S:21%) e, em menor grau da BIC (S:57,9%), mas sem perda da especificidade de ambos os exames. Ao contrário, nos animais com pneumonias por Pseudomonas sob tratamento não havia alteração no rendimento dos dois exames, cujos resultados foram semelhantes aos dos animais sem tratamento. Não havia diferenças de leitura da BIC para o diagnóstico, contando a sua positividade em macrófagos ou em neutrófilos infectados. A avaliação global dos casos estudados, reunindo todos os grupos (tratados e não-tratados) em ambos os modelos de pneumonia, mostrou que a acurácia do exame direto, representado pela pesquisa da BIC, foi superior (66%) ao das culturas quantitativas (53%). As conclusões principais do estudo foram: 1) o exame direto do lavado broncoalveolar (LBA) mostrou-se um teste útil e de alto rendimento para o diagnóstico de pneumonia quando realizado na ausência de antibióticos; 2) o LBA feito na vigência de antibióticos efetivos para a pneumonia perde mais de 50% de sua acurácia, mas não é afetado quando o antibiótico for ineficaz ou houver resistência ao mesmo; 3) a pesquisa de BIC no LBA é um exame de resultado precoce, de alta especificidade e com melhor rendimento do que as culturas quantitativas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo deste trabalho consiste em aplicar o método LTSn em cálculos de parâmetros críticos como Keff, espessura e concentração atômica e obtenção do fiuxo escalar, da potência específica e do enriquecimento do combustível em placa plana homogenea e heterogênea, considerando modelo multigrupo e em diversas ordens de quadraturas. O método LTSn consiste na aplicação da transformada de Laplace em um conjunto de equações~de ordenadas discretas gerado pela aproximação SN, resultando em um sistema de equações algébricas simbólicas dependentes do parâmetro complexo s e reconstrução dos fluxos angulares pela técnica de expansão de Heaviside. A aplicação do método LTSn reduz a soluçào de um problema de autovalor, a solução de uma equação transcedental, possibilitando a obtenção de parâmetros críticos. Simulações numéricas são apresentadas.