131 resultados para Intensidade amostral


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Mecânica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescimento demográfico das próximas décadas terá lugar principalmente nas grandes cidades, o que levantará novos desafios para os sistemas de abastecimento de água. Adicionalmente, as alterações climáticas tenderão a acentuar a intensidade de cheias e secas, forçando as entidades gestoras a relocalizar as suas captações ou optar por técnicas alternativas de tratamento da água. Deste modo, assistir-se-á a uma intensificação dos consumos energéticos associados ao abastecimento de água, e o binómio água-energia assumirá crescente importância. O recurso a sistemas descentralizados e com menores consumos energéticos pode constituir uma alternativa, dentro dos quais se enquadra o aproveitamento de águas pluviais, que pode ajudar a promover a sustentabilidade do sector a nível local, mas também reduzir a factura energética do sistema e as respectivas emissões de gases de efeito de estufa (GEE). No âmbito desta dissertação, foi desenvolvida uma ferramenta, RaINvesT, para avaliar a viabilidade da instalação de um sistema de aproveitamento de águas pluviais (SAAP), considerando usos não potáveis. Esta ferramenta foi testada no edifício universitário do Campus do Instituto Superior Técnico (IST) no Taguspark, estimando-se não só a concepção do sistema, mas também a energia incorporada por metro cúbico de água abastecida, em kWh/m3, e a emissão de GEE. Esta ferramenta inclui ainda uma análise de custo-benefício da instalação e operação do SAAP. Os resultados evidenciaram uma dependência significativa da rede pública de abastecimento para suprir as necessidades de água. No entanto, a energia incorporada por metro cúbico de água abastecida pelo SAAP revelou ser muito inferior àquela incorporada na água da rede pública de abastecimento (0,013 e 0,791 kWh/m3, respectivamente), e consequentemente também as emissões de GEE. A análise de custo-benefício revelou um baixo custo de investimento inicial, em parte devido ao facto de se aproveitarem para este SAAP os reservatórios de combate a incêndio já existentes. Foi ainda apurado um período de retorno de 12 anos, na óptica do utilizador final, não consistindo este sistema um modelo de negócio viável por parte da entidade gestora dos serviços de abastecimento de água.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO: Considerando que a pressão arterial elevada constitui um dos maiores fatores de risco para as doenças cardiovasculares, a sua associação ao consumo elevado de sal, e o facto das escolas constituírem ambientes de excelência para a aquisição de bons hábitos alimentes e promoção da saúde, o objetivo deste estudo foi avaliar o conteúdo de sal presente nas refeições escolares e a perceção dos consumidores sobre o sabor salgado. A quantificação de sal foi realizada com um medidor portátil. Para avaliar a perceção dos consumidores foi desenvolvido e aplicado um questionário a alunos das escolas preparatórias e secundárias e aos responsáveis pela preparação e confeção das refeições. Foram analisadas um total de 898 componentes de refeições, incluindo refeições escolares e de restauração padronizada. Em média, as refeições escolares disponibilizam entre 2,83 a 3,82 g de sal por porção servida (p=0,05), o que representa entre duas a cinco vezes mais as necessidades das crianças e jovens. Os componentes das refeições padronizadas apresentam um valor médio de sal que varia entre 0,8 e 2,57 g por porção (p=0,05), o que pode contribuir para um valor total de sal por refeição mais elevado comparativamente com as refeições escolares. O sabor das refeições é percecionado como sendo nem salgado nem insonso para a maioria dos estudantes, o que parece demonstrar habituação à intensidade/ quantidade de sal consumida. Os responsáveis pelas refeições, apesar de apresentarem conhecimentos sobre sal e a necessidade da sua limitação, demonstram barreiras e limitações e perceções à sua redução. A realização de escolhas alimentares saudáveis e adequadas só é possível se suportada por um ambiente facilitador dessas mesmas escolas. O impacto que o consumo de sal tem na saúde, em particular nas doenças crónicas, torna imperativa a implementação de estratégias de redução de sal ao nível da indústria e dos serviços de catering e restauração, em particular direcionadas para o público mais jovem.------------ABSTRACT Considering the fact that high blood pressure is a major rick factor for cardiovascular disease and its association to salt intake and the fact that schools are considered ideal environments to promote health and proper eating habits, the objective of this study was to evaluate the amount of salt in meals served in school canteens and consumers perceptions about salt. Quantification of salt was performed using a portable salt meter - PAL ES2. For food perception we constructed a questionnaire that was applied to students from high schools. A total of 898 food samples were analysed. Bread presents the highest value with a mean of 1.35 (SD=0.12). Salt in soups ranges from 0.72 g/100 g to 0.80 g/100 g (p=0.05) and main courses from 0.71 g/100 to 0.97 g/100g (p=0.05). Salt in school meals is high with a mean value from 2.83 to 3.82 g of salt per meal, which is between 2 and 5 times more than the RDA for children. The components of standardized meals have an average value of salt ranging from 0.8 to 2.57 g per serving, which may contribute to a higher intake of salt per meal compared to school meals. Moreover, a high percentage of students consider meals neither salty nor lacking in salt, which shows they are used to the intensity/amount of salt consumed. Despite the knowledge and perceived necessity about salt reduction, those responsible for cooking and preparing meals, still demonstrate barriers and limitation in doing so. Making healthy choices is only possible if backed up by an environment where such choices are accessible. Therefore salt reduction strategies, aimed at the food industry and catering services should be implemented, with children and young people targeted as a major priority.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO: Apesar de toda a evolução farmacológica e de meios complementares de diagnóstico possível nos últimos anos, o enfarte agudo do miocárdio e a morte súbita continuam a ser a primeira manifestação da aterosclerose coronária para muitos doentes, que estavam previamente assintomáticos. Os exames complementares de diagnóstico tradicionalmente usados para avaliar a presença de doença coronária, baseiam‐se na documentação de isquémia do miocárdio e por este motivo a sua positividade depende da presença de lesões coronárias obstrutivas. As lesões coronárias não obstrutivas estão também frequentemente implicadas no desenvolvimento de eventos coronários. Apesar de o risco absoluto de instabilização por placa ser superior para as lesões mais volumosas e obstrutivas, estas são menos prevalentes do que as placas não obstrutivas e assim, por questões probabilísticas, os eventos coronários resultam com frequência da rotura ou erosão destas últimas. Estudos recentes de imagiologia intracoronária avançada forneceram evidência de que apesar de ser possível identificar algumas características de vulnerabilidade em placas associadas ao desenvolvimento subsequente de eventos coronários, a sua sensibilidade e especificidade é muito baixa para aplicação clínica. Mais do que o risco associado a uma placa em particular, para o doente poderá ser mais importante o risco global da sua árvore coronária reflexo da soma das probabilidade de todas as suas lesões, sendo que quanto maior for a carga aterosclerótica maior será o seu risco. A angio TC cardíaca é a mais recente técnica de imagem não invasiva para o estudo da doença coronária e surgiu nos últimos anos fruto de importantes avanços na tecnologia de TC multidetectores. Estes avanços, permitiram uma progressiva melhoria da resolução espacial e temporal, contribuindo para a melhoria da qualidade dos exames, bem como uma significativa redução da dose de radiação. A par desta evolução tecnológica, foi aumentando a experiência e gerada mais evidência científica, tornando a angio TC cardíaca cada vez mais robusta na avaliação da doença coronária e aumentando a sua aplicabilidade clínica. Mais recentemente apareceram vários trabalhos que validaram o seu valor prognóstico, assinalando a sua chegada à idade adulta. Para além de permitir excluir a presença de doença coronária e de identificar a presença de estenoses significativas, a angio TC cardíaca permite identificar a presença de lesões coronárias não obstrutivas, característica impar desta técnica como modalidade de imagem não invasiva. Ao permitir identificar a totalidade das lesões ateroscleróticas (obstrutivas e não obstrutivas), a 18 angio TC cardíaca poderá fornecer uma quantificação da carga aterosclerótica coronária total, podendo essa identificação ser útil na estratificação dos indivíduos em risco de eventos coronários. Neste trabalho foi possível identificar preditores demográficos e clínicos de uma elevada carga aterosclerótica coronária documentada pela angioTC cardíaca, embora o seu poder discriminativo tenha sido relativamente modesto, mesmo quando agrupados em scores clínicos. Entre os vários scores, o desempenho foi um pouco melhor para o score de risco cardiovascular Heartscore. Estas limitações espelham a dificuldade de prever apenas com base em variáveis clínicas, mesmo quando agrupadas em scores, a presença e extensão da doença coronária. Um dos factores de risco clássicos, a obesidade, parece ter uma relação paradoxal com a carga aterosclerótica, o que pode justificar algumas limitações da estimativa com base em scores clínicos. A diabetes mellitus, por outro lado, foi um dos preditores clínicos mais importantes, funcionando como modelo de doença coronária mais avançada, útil para avaliar o desempenho dos diferentes índices de carga aterosclerótica. Dada a elevada prevalência de placas ateroscleróticas identificáveis por angio TC na árvore coronária, torna-‐se importante desenvolver ferramentas que permitam quantificar a carga aterosclerótica e assim identificar os indivíduos que poderão eventualmente beneficiar de medidas de prevenção mais intensivas. Com este objectivo, foi desenvolvido um índice de carga aterosclerótica que reúne a informação global acerca da localização, do grau de estenose e do tipo de placa, obtida pela angio TC cardíaca, o CT--‐LeSc. Este score poderá vir a ser uma ferramenta útil para quantificação da carga aterosclerótica coronária, sendo de esperar que possa traduzir a informação prognóstica da angio TC cardíaca. Por fim, o conceito de árvore coronária vulnerável poderá ser mais importante do que o da placa vulnerável e a sua identificação pela angio TC cardíaca poderá ser importante numa estratégia de prevenção mais avançada. Esta poderá permitir personalizar as medidas de prevenção primária, doseando melhor a sua intensidade em função da carga aterosclerótica, podendo esta vir a constituir uma das mais importantes indicações da angio TC cardíaca no futuro.---------------- ABSTRACT Despite the significant advances made possible in recent years in the field of pharmacology and diagnostic tests, acute yocardial infarction and sudden cardiac death remain the first manifestation of coronary atherosclerosis in a significant proportion of patients, as many were previously asymptomatic. Traditionally, the diagnostic exams employed for the evaluation of possible coronary artery disease are based on the documentation of myocardial ischemia and, in this way, they are linked to the presence of obstructive coronary stenosis. Nonobstructive coronary lesions are also frequently involved in the development of coronary events. Although the absolute risk of becoming unstable per plaque is higher for more obstructive and higher burden plaques, these are much less frequent than nonobstructive lesions and therefore, in terms of probability for the patient, coronary events are often the result of rupture or erosion of the latter ones. Recent advanced intracoronary imaging studies provided evidence that although it is possible to identify some features of vulnerability in plaques associated with subsequente development of coronary events, the sensitivity and sensibility are very limited for clinical application. More important than the individual risk associated with a certain plaque, for the patient it might be more important the global risk of the total coronary tree, as reflected by the sum of the diferent probabilities of all the lesions, since the higher the coronary Atherosclerotic burden, the higher the risk for the patient. Cardiac CT or Coronary CT angiography is still a young modality. It is the most recente noninvasive imaging modality in the study of coronary artery disease and its development was possible due to important advances in multidetector CT technology. These allowed significant improvements in temporal and spatial resolution, leading to better image quality and also some impressive reductions in radiation dose. At the same time, the increasing experience with this technique lead to a growing body of scientific evidence, making cardiac CT a robust imaging tool for the evaluation of coronary artery disease and increased its clinical indications. More recently, several publications documented its prognostic value, marking the transition of cardiac CT to adulthood. Besides being able to exclude the presence of coronary artery disease and of obstructive lesions, Cardiac CT allows also the identification of nonobstructive lesions, making this a unique tool in the field of noninvasive imaging modalities. By evaluating both obstructive and nonobstructive lesions, cardiac CT can provide for the quantification of total coronary atherosclerotic burden, and this can be useful to stratify the risk of future coronary events. In the present work, it was possible to identify significant demographic and clinical predictors of a high coronary atherosclerotic burden as assessed by cardiac CT, but with modest odds ratios, even when the individual variables were gathered in clinical scores. Among these diferent clinical scores, the performance was better for the Heartscore, a cardiovascular risk score. This modest performance underline the limitations on predicting the presence and severity of coronary disease based only on clinical variables, even when optimized together in risk scores, One of the classical risk factors, obesity, had in fact a paradoxical relation with coronary atherosclerotic burden and might explain some of the limitations of the clinical models. On the opposite, diabetes mellitus was one of the strongest clinical predictors, and was considered to be a model of more advanced coronary disease, useful to evaluate the performance of diferent plaque burden scores. In face of the high prevalence of plaques that can be identified in the coronary tree of patients undergoing cardiac CT, it is of utmost importance to develop tools to quantify the total coronary atherosclerotic burden providing the identification of patients that could eventually benefit from more intensive preventive measures. This was the rational for the development of a coronary atherosclerotic burden score, reflecting the comprehensive information on localization, degree of stenosis and plaque composition provided by cardiac CT – the CT-LeSc. This score may become a useful tool to quantify total coronary atherosclerotic burden and is expected to convey the strong prognostic information of cardiac CT. Lastly, the concept of vulnerable coronary tree might become more important than the concept of the vulnerable plaque and his assessment by cardiac CT Might become important in a more advance primary prevention strategy. This Could lead to a more custom-made primary prevention, tailoring the intensity of preventive measures to the atherosclerotic burden and this might become one of the most important indications of cardiac CT In the near future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A demência e outros quadros neuropsiquiátricos ligados ao envelhecimento determinam uma carga significativa na sociedade em geral e nas famílias em particular. As apresentações clínicas envolvendo aspectos familiares são múltiplas e ocorrem independentemente do diagnóstico (doença de Alzheimer e outras demências, depressão ou outras doenças mentais do idoso). Daqui decorre uma tendência crescente para trabalhar com famílias no contexto da psiquiatria geriátrica. As questões de casal não motivam frequentemente, por si, o recurso a terapia, mas uma intervenção conjugal pode ser muito útil em qualquer fase do ciclo vital familiar. A efectividade da terapia familiar sistémica não tem sido avaliada tão consistentemente como a psicoeducação familiar. Não obstante, pode constituir um recurso importante quando o foco de intervenção clínica é a dinâmica familiar. Isto, sobretudo, nas famílias em que as circularidades disfuncionais precedem o início da doença num dos seus elementos, não sendo determinadas exclusivamente por ela. Noutras famílias, as abordagens psicoeducativas terão indicação privilegiada (variando os formatos, locais e níveis de intensidade). Contudo, a leitura sistémica dos contextos, com intervenção adequada, não se restringe à terapia familiar clássica nem implica a sua indicação formal: pode inspirar a psicoeducação da família ou abordagens menos estruturadas. As intervenções familiares, qualquer que seja a sua natureza, devem ser precedidas de uma avaliação estruturada mas exequível. A avaliação constitui, intrinsecamente, um início da intervenção, obrigando a uma constante actualização ao longo do processo. As terapias familiares clássicas não têm sido utilizadas, correntemente, em famílias de doentes neuropsiquiátricos idosos. Não obstante, as terapias familiares podem ter indicação em casos específicos e o trabalho genérico com famílias está no âmago da prática da psiquiatria geriátrica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foi em busca de «cristãos e especiarias», gente e comércio, que os portugueses se voltaram para o Oriente no século XV. E abertas as portas marítimas das Índias Orientais, a afluência europeia em força foi apenas uma questão de tempo. Foi, porém, ao longo do século XIX que a presença colonial europeia atingiu uma extensão e uma intensidade desconhecidas anteriormente. Ainda antes da mais conhecida «Corrida a África» na segunda metade do século XIX, já se iniciara uma «Corrida à Ásia». Lançada pelos ingleses, foi seguida por outros países, com repercussões sobre a geografia política, humana e económica local, mas também sobre outras velhas potências ali presentes, como Portugal, que teve de reconsiderar a sua posição. O desenvolvimento desta colonização na Ásia durante os séculos XIX e XX adotou formas diversificadas de acordo com as estruturas de cada Potência. Levou, no entanto, a uma reação local também realizada de formas diferenciadas (da resistência passiva à luta revolucionária), que, mais cedo do que em África, conduziu à descolonização. Pretendeu-se, neste Encontro, suscitar a reflexão sobre as colónias situadas na Ásia no contexto da exploração colonial que os europeus desenvolveram nos séculos XIX e XX, compreendendo elementos diversos, como questões humanas e sociais, a economia, a política, as relações externas, etc. Da mesma forma, considerou-se desejável o contributo para um melhor conhecimento da articulação entre estes espaços e o contexto colonial mais geral, de cada país ou das ligações a outros Estados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objectivo deste trabalho foi combinar o comportamento magnético de micropartículas de óxido de grafeno (GO) modificado com Fe3O4 (GO - 0%, 0.05%, 0.1% e 0.2%) com as propriedades do polímero álcool polivinílico (PVA), nomeadamente a sua elasticidade, de forma a obter-se materiais poliméricos com capacidade de reversão das suas características estruturais, topográficas e consequentemente controlar as suas características de transporte por ajuste de campo magnético. Preparou-se e caracterizou-se filmes/membranas poliméricas de PVA com GO na presença e ausência de campo magnético. Caracterizou-se a morfologia destas membranas, através de microscopia óptica e de varrimento electrónico; o efeito na superfície de membranas por incorporação de GO através de ângulos de contacto, a avaliação da estabilidade estrutural e química através de estudos de inchamento e degradação, adsorção de proteínas e o impacto da presença de GO e o seu comportamento magnético na permeabilidade a gases. As membranas apresentaram boa afinidade com o GO, e um bom alinhamento das micropartículas quando expostas a campo. A estabilidade estrutural foi avaliada durante um período de imersão de 28 dias, usando uma solução de PBS a 0.01M, a pH 6.9 e a 37ºC. A análise dos espectros de UV-Vis obtidos para solução de imersão ao longo do tempo não revelaram degradação das membranas. O efeito na rugosidade da superfície das membranas por incorporação de GOs obteve-se através de ensaios de ângulos de contacto de glicerol. Verificou-se um aumento destes com o aumento de %GO; uma diminuição dos ângulos quando as membranas humidificadas foram expostas a um campo magnético de intensidade 0.0832T; e um aumento destes nas membranas expostas a humidade e temperatura controlada, a 50% e 17ºC. Foi observado o efeito do conteúdo magnético existente nas membranas alinhadas e não-alinhadas, com diferentes %GO, no desempenho da adsorção de BSA, submetidas a campo. Verificou-se um aumento de adsorção na membrana com menor %GO, devido provavelmente ao aumento da sua rugosidade; e a diminuição de adsorção com o aumento de intensidade de campo. Nos ensaios de permeabilidade, observou-se que a membrana de PVA (0% GO) é mais permeável ao CO2 do que ao O2. As membranas com GOs (0.05% e 0.1%) apresentam uma maior permeabilidade ao O2 do que ao CO2, devendo-se isto a uma provável alteração topográfica das membranas por incorporação das micropartículas já referidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como qualquer outro desastre natural, os incêndios tem vindo a influenciar os ecossistemas, provocando constantes mudanças. Nem todos os ecossistemas estão adaptados para o aumento em termos de frequência e tamanho dos incêndios florestais. A incidência de incêndios em termos de tamanho, frequência e intensidade tem aumentado significativamente na Reserva Nacional do Niassa. Os esforços para a prevenção por forma a reduzir a frequência e intensidade do fogo ainda são insuficientes. Além disso, a produção de mapas de risco de incêndio ainda é bastante reduzida em Moçambique. A capacidade de prever a ocorrência de ignição do fogo constitui um instrumento importante para os gestores, ajudando a definir as prioridades entre as áreas de risco equivalente, e para melhorar a eficácia da prevenção de incêndios bem na alocação de recursos de combate a incêndios. O objectivo geral deste estudo era o de modelar o risco de incêndio florestal para a Reserva Nacional do Niassa. Nesse sentido, foram consideradas variáveis biofísicas e antropogénicas. Os principais factores que influenciam a ocorrência de incêndios florestais na reserva são: uso e cobertura, a densidade de elefantes, a distância as vias de acesso, o declive e a precipitação. Os componentes em risco foram identificados e os danos potenciais estimados. Como resultado final foram apresentados dois mapas: um mapa de perigosidade de incêndio florestal e outro de risco. A metodologia utilizada permitiu avaliar onde é mais provável que ocorra um incêndio e o maior potencial para a perda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dactilografia profissional causa problemas a nível das articulações dos dedos, mãos, pulsos, braços e até mesmo ombros, a quem a exerce. Um deles, o Síndrome do Túnel Cárpico, considera-se ser a maior doença ocupacional nos Estados Unidos, responsável por avultados gastos médicos ano após ano. Até à data, o estudo de causas e consequências apresentou-se difícil, não havendo uma forma prática e fiável de registar os movimentos do(a) dactilógrafo(a). O presente trabalho pretendeu desenvolver uma solução para a detecção e cálculo de estatísticas referentes às taxas de utilização de dedos em dactilografia profissional, com vista a estudos de terapias adequadas. Optou-se pela captação de imagens através de uma câmara USB, usando iluminação dedicada para garantir uma intensidade de luz constante e uniforme. Usando esta configuração, são capturadas imagens do teclado no instante em que uma tecla é premida. Após a captura, efectua-se o processamento da imagem para detecção dos dedos. Nos dedos do(a) dactilógrafo(a) colocaram-se autocolantes de várias cores para identificação. Para a identificação do dedo usou-se um algoritmo de lógica difusa para, através dos canais R, G e B da imagem, avaliar qual a cor observada na zona de interesse (tecla premida). Conseguiu-se assim uma eficácia de 91% em modo automático, podendo este valor chegar aos 100% no modo avançado, que permite a confirmação do utilizador. Existe ainda margem para evolução com a introdução de uma segunda câmara com um diferente posicionamento para obter outra perspectiva da zona de interesse, aumentando assim as hipóteses de correcta identificação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho apresenta-se uma metodologia protótipo destinada a efectuar a modelação automática a 2D da morfologia de mineralizações filonianas. Em primeiro lugar procede-se à estimação do número de ocorrências de filões em cada bloco, de uma malha de blocos, em que se subdividiu o volume em estudo. Esta intensidade de ocorrências é quantificada por uma variável que representa o número de filões por metro linear(NFM) intersectados por uma sondagem vertical, e constitui o objectivo de intensidade a atingir. Seguidamente são gerados por simulação, linhas poligonais ou arcos correspondentes ao posicionamento dos filões no perfil. Estes arcos ligam alguns pares de intersecções de filões amostrados nas sondagens e são escolhidos ao acaso segundo regras de orientação e distância. Seguidamente faz-se a avaliação da intensidade local de filões do modelo e, para os locais onde exista défice de filões relativamente ao objectivo, são adicionadas intersecções virtuais, ou seja, que não foram reconhecidas por sondagens. Este procedimento continua até o modelo dos filões se aproximar do objectivo previamente definido. O conjunto dos arcos em cada perfil, associado às espessuras de intersecção observadas nas sondagens, constitui um modelo morfológico dos filões em estrutura vectorial. No final faz-se a avaliação quantitativa do modelo e da incerteza. Os dados do estudo prático que motivaram o desenvolvimento da metodologia foram recolhidos no depósito mineral das Minas da Panasqueira. Os resultados obtidos no estudo mostram que a introdução de uma metodologia automática para a modelação vectorial de filões mineralizados é uma mais-valia, porque permite gerar modelos mais realistas e com melhor controlo geológico e resolução do que as abordagens clássicas de possança e acumulação, constituindo um auxiliar precioso de avaliação de reservas de minério.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A simulação dinâmica de reservatórios de petróleo requer a alocação de permeabilidades equivalentes para todos os blocos. A determinação da permeabilidade equivalente em reservatórios fraturados é uma questão complexa e crítica no fluxograma de modelação, porque é totalmente dependente da geometria 3D sistema de fraturas, e respetivas aberturas, que muitas vezes são mal conhecidos. Para avaliar a permeabilidade equivalente de blocos fraturados, o método do tensor ou de Oda é um dos mais utilizados. É expedito e eficiente mesmo para a sistemas com vários milhões de fraturas. Todavia, na literatura são apontadas algumas críticas, por exemplo, sobrestima a permeabilidade em blocos pouco fraturados e subestima-a em blocos muito fraturados. Este trabalho tem como objetivos, revisitar a problemática da caracterização da permeabilidade equivalente em blocos de reservatórios fraturados. Recorreu-se a um pacote de programas informáticos FROM3D-K (fractures object model – permeability evaluation) desenvolvidos e/ ou adaptados no contexto deste trabalho e que permitem as funcionalidades: (1) simulação estocástica 3D de fraturas; (2) determinação da permeabilidade equivalente pelo método do tensor; (3) determinação da permeabilidade equivalente pelo método de upscaling de microblocos. Estas funções permitem que a mesma rede de fraturas seja avaliada pelos dois métodos. Para a demonstração de resultados mostram-se dois exemplos, o primeiro onde são simuladas fraturas condicionadas a estatísticas sintéticas de orientação, intensidade e abertura e o segundo onde se utilizam dados FMI de poço de um reservatório fraturado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A soldadura por fricção linear (SFL) é um processo de ligação no estado sólido com capacidade para soldar materiais dissimilares e ligas metálicas de baixa soldabilidade. Contudo, nas juntas soldadas com uma configuração topo-a-topo é possível o aparecimento de defeitos na raiz do cordão, nomeadamente, de falta de penetração e de alinhamentos de óxidos. Estes defeitos são responsáveis pela diminuição da resistência mecânica das juntas, sobretudo quando sujeitas a esforços de fadiga. Existem variantes do processo para eliminar este tipo de defeitos, no entanto, verificam-se algumas dificuldades tecnológicas e a competitividade do processo é afetada. No âmbito deste trabalho desenvolveu-se uma variante do processo designado soldadura por fricção linear assistida por corrente elétrica (SFLAE). Esta variante consiste em introduzir uma corrente elétrica de elevada intensidade na zona da raiz do cordão, por forma a que o calor gerado por efeito de Joule aqueça o material e aumente o fluxo visco-plástico nessa zona, tendo em vista atenuar ou eliminar os defeitos na raiz. Foram concebidas e produzidas ferramentas de SFL dedicadas, melhorado um modelo analítico do processo, realizadas simulações numéricas para permitir compreender alguns fenómenos físicos envolvidos no processo, e realizados ensaios experimentais de validação. A análise aos cordões permitiu observar uma diminuição da espessura dos defeitos na raiz em três ensaios realizados na liga AA1100 e AA6084-T6 usando intensidades de corrente de 300 A. Dos resultados de microdureza e de medição de condutividade elétrica é possível concluir que a microestrutura do material não é significativamente alterada pela passagem de corrente elétrica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aumento progressivo da rede elétrica e sua complexidade, devido essencialmente à geração distribuída renovável provoca um maior número de correntes de curto-circuito e com maior intensidade. A maioria das soluções atuais que lidam com esta situação, com agravamento progressivo rapidamente se encontram subdimensionadas, tais como disjuntores e fusíveis, devido ao aumento de carga. A divisão de barramentos e construção de novas subestações são as opções que poderão ser tecnicamente mais vantajosas, no entanto, o seu custo é extremamente elevado. A tecnologia da supercondutividade permite que os limitadores de corrente supercondutores tenham vantagens relativamente às soluções existentes. Em regime de funcionamento normal, a impedância destes dispositivos é desprezável do ponto de vista da rede. Após a ocorrência de uma falha na rede, o limitador de corrente supercondutor tem a capacidade de limitar a corrente de curto-circuito no primeiro ciclo. Estas características aproximam-se do dispositivo ideal para lidar com defeitos na rede. Nesta dissertação procede-se à aplicação de uma metodologia de dimensionamento de um limitador de corrente supercondutor do tipo transformador, à sua construção e ensaio em laboratório. Foram aplicadas duas topologias do limitador preparado para funcionar num sistema trifásico. O objetivo é prever, estudar o seu comportamento e comparação entre as duas topologias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A imagiologia por fluorescência é uma técnica extremamente útil em investigação biomédica. Actualmente existe uma vasta gama de fluoróforos disponíveis para marcação por fluorescência. Contudo estes marcadores possuem limitações que condicionam a sua aplicação em sistemas biológicos. As nanopartículas de carbono fluorescentes (CNPs) constituem uma recente classe de marcadores fluorescentes com elevada biocompatibilidade. O objectivo deste trabalho consistiu em produzir de CNPs através de métodos simples, a sua caracterização e aplicação como marcadores celulares para visualização de células em microscopia de fluorescência. Inicialmente foram produzidas nanopartículas (NPs) seguindo métodos mencionados na literatura. Seguidamente foram produzidas CNPs a partir de PAA, por via hidrotérmica, e a partir da carbonização de grãos de cortiça para as quais foi feito um estudo do efeito da variável temperatura de carbonização. Das amostras produzidas, nove foram devidamente estudadas. A espectroscopia de absorção no UV-Vis revelou perfis de absorção característicos para este tipo de NPs. A emissão de fluorescência das CNPs caracterizadada por espectroscopia de fluorescência evidenciou comportamentos emissivos típicos destas NPs tais como dependência do máximo de emissão com o comprimento de onda de excitação. A intensidade da fluorescência das CNPs sintetizadas por via hidrotérmica é, em geral, maior com rendimentos quânticos de fluorescência a variar entre 4 e 11%. Os rendimentos quânticos das CNPs produzidas por carbonização variam entre 2 e 5%. As imagens de microscopia electrónica demonstram que as CNPs possuíam formas esféricas. Os tamanhos determinados por SEM, TEM e DLS revelaram que as dimensões das NPs caem entre os 2 e 150nm. Por DRX constatou-se que as CNPs possuem uma estrutura atómica desorganizada. A análise FTIR mostrou que as amostras de CNPs produzidas a partir de macromoléculas pelo método hidrotérmico possuíam uma grande quantidade de precursor não degradado. Para as restantes CNPs foi verificada a presença de grupos funcionais polares que lhes conferem solubilidade em meio aquoso. Com 1H-RMN verificou-se uma diminuição de grupos alifáticos e aumento de grupos aromáticos nas CNPs de cortiça carbonizada, com o aumento da temperatura de carbonização. O potencial ζ da amostra obtida com maior temperatura de carbonização foi -25,7mV. Nos estudos in vitro realizados apenas as NPs produzidas a partir de ácido cítrico e etilenodiamina por via hidrotérmica marcaram eficazmente as linhas celulares de osteoblastos e de fibroblastos. A eficiência da marcação aparenta ser dependente do tempo de incubação com CNPs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO: O cancro de mama e o mais frequente diagnoticado a indiv duos do sexo feminino. O conhecimento cientifico e a tecnologia tem permitido a cria ção de muitas e diferentes estrat egias para tratar esta patologia. A Radioterapia (RT) est a entre as diretrizes atuais para a maioria dos tratamentos de cancro de mama. No entanto, a radia ção e como uma arma de dois canos: apesar de tratar, pode ser indutora de neoplasias secund arias. A mama contralateral (CLB) e um orgão susceptivel de absorver doses com o tratamento da outra mama, potenciando o risco de desenvolver um tumor secund ario. Nos departamentos de radioterapia tem sido implementadas novas tecnicas relacionadas com a radia ção, com complexas estrat egias de administra ção da dose e resultados promissores. No entanto, algumas questões precisam de ser devidamente colocadas, tais como: E seguro avançar para tecnicas complexas para obter melhores indices de conformidade nos volumes alvo, em radioterapia de mama? O que acontece aos volumes alvo e aos tecidos saudaveis adjacentes? Quão exata e a administração de dose? Quais são as limitações e vantagens das técnicas e algoritmos atualmente usados? A resposta a estas questões e conseguida recorrendo a m etodos de Monte Carlo para modelar com precisão os diferentes componentes do equipamento produtor de radia ção(alvos, ltros, colimadores, etc), a m de obter uma descri cão apropriada dos campos de radia cão usados, bem como uma representa ção geometrica detalhada e a composição dos materiais que constituem os orgãos e os tecidos envolvidos. Este trabalho visa investigar o impacto de tratar cancro de mama esquerda usando diferentes tecnicas de radioterapia f-IMRT (intensidade modulada por planeamento direto), IMRT por planeamento inverso (IMRT2, usando 2 feixes; IMRT5, com 5 feixes) e DCART (arco conformacional dinamico) e os seus impactos em irradia ção da mama e na irradia ção indesejada dos tecidos saud aveis adjacentes. Dois algoritmos do sistema de planeamento iPlan da BrainLAB foram usados: Pencil Beam Convolution (PBC) e Monte Carlo comercial iMC. Foi ainda usado um modelo de Monte Carlo criado para o acelerador usado (Trilogy da VARIAN Medical Systems), no c odigo EGSnrc MC, para determinar as doses depositadas na mama contralateral. Para atingir este objetivo foi necess ario modelar o novo colimador multi-laminas High- De nition que nunca antes havia sido simulado. O modelo desenvolvido est a agora disponí vel no pacote do c odigo EGSnrc MC do National Research Council Canada (NRC). O acelerador simulado foi validado com medidas realizadas em agua e posteriormente com c alculos realizados no sistema de planeamento (TPS).As distribui ções de dose no volume alvo (PTV) e a dose nos orgãos de risco (OAR) foram comparadas atrav es da an alise de histogramas de dose-volume; an alise estati stica complementar foi realizadas usando o software IBM SPSS v20. Para o algoritmo PBC, todas as tecnicas proporcionaram uma cobertura adequada do PTV. No entanto, foram encontradas diferen cas estatisticamente significativas entre as t ecnicas, no PTV, nos OAR e ainda no padrão da distribui ção de dose pelos tecidos sãos. IMRT5 e DCART contribuem para maior dispersão de doses baixas pelos tecidos normais, mama direita, pulmão direito, cora cão e at e pelo pulmão esquerdo, quando comparados com as tecnicas tangenciais (f-IMRT e IMRT2). No entanto, os planos de IMRT5 melhoram a distribuição de dose no PTV apresentando melhor conformidade e homogeneidade no volume alvo e percentagens de dose mais baixas nos orgãos do mesmo lado. A t ecnica de DCART não apresenta vantagens comparativamente com as restantes t ecnicas investigadas. Foram tamb em identi cadas diferen cas entre os algoritmos de c alculos: em geral, o PBC estimou doses mais elevadas para o PTV, pulmão esquerdo e cora ção, do que os algoritmos de MC. Os algoritmos de MC, entre si, apresentaram resultados semelhantes (com dferen cas at e 2%). Considera-se que o PBC não e preciso na determina ção de dose em meios homog eneos e na região de build-up. Nesse sentido, atualmente na cl nica, a equipa da F sica realiza medi ções para adquirir dados para outro algoritmo de c alculo. Apesar de melhor homogeneidade e conformidade no PTV considera-se que h a um aumento de risco de cancro na mama contralateral quando se utilizam t ecnicas não-tangenciais. Os resultados globais dos estudos apresentados confirmam o excelente poder de previsão com precisão na determinação e c alculo das distribui ções de dose nos orgãos e tecidos das tecnicas de simulação de Monte Carlo usados.---------ABSTRACT:Breast cancer is the most frequent in women. Scienti c knowledge and technology have created many and di erent strategies to treat this pathology. Radiotherapy (RT) is in the actual standard guidelines for most of breast cancer treatments. However, radiation is a two-sword weapon: although it may heal cancer, it may also induce secondary cancer. The contralateral breast (CLB) is a susceptible organ to absorb doses with the treatment of the other breast, being at signi cant risk to develop a secondary tumor. New radiation related techniques, with more complex delivery strategies and promising results are being implemented and used in radiotherapy departments. However some questions have to be properly addressed, such as: Is it safe to move to complex techniques to achieve better conformation in the target volumes, in breast radiotherapy? What happens to the target volumes and surrounding healthy tissues? How accurate is dose delivery? What are the shortcomings and limitations of currently used treatment planning systems (TPS)? The answers to these questions largely rely in the use of Monte Carlo (MC) simulations using state-of-the-art computer programs to accurately model the di erent components of the equipment (target, lters, collimators, etc.) and obtain an adequate description of the radiation elds used, as well as the detailed geometric representation and material composition of organs and tissues. This work aims at investigating the impact of treating left breast cancer using di erent radiation therapy (RT) techniques f-IMRT (forwardly-planned intensity-modulated), inversely-planned IMRT (IMRT2, using 2 beams; IMRT5, using 5 beams) and dynamic conformal arc (DCART) RT and their e ects on the whole-breast irradiation and in the undesirable irradiation of the surrounding healthy tissues. Two algorithms of iPlan BrainLAB TPS were used: Pencil Beam Convolution (PBC)and commercial Monte Carlo (iMC). Furthermore, an accurate Monte Carlo (MC) model of the linear accelerator used (a Trilogy R VARIANR) was done with the EGSnrc MC code, to accurately determine the doses that reach the CLB. For this purpose it was necessary to model the new High De nition multileaf collimator that had never before been simulated. The model developed was then included on the EGSnrc MC package of National Research Council Canada (NRC). The linac was benchmarked with water measurements and later on validated against the TPS calculations. The dose distributions in the planning target volume (PTV) and the dose to the organs at risk (OAR) were compared analyzing dose-volume histograms; further statistical analysis was performed using IBM SPSS v20 software. For PBC, all the techniques provided adequate coverage of the PTV. However, statistically significant dose di erences were observed between the techniques, in the PTV, OAR and also in the pattern of dose distribution spreading into normal tissues. IMRT5 and DCART spread low doses into greater volumes of normal tissue, right breast, right lung, heart and even the left lung than tangential techniques (f-IMRT and IMRT2). However,IMRT5 plans improved distributions for the PTV, exhibiting better conformity and homogeneity in target and reduced high dose percentages in ipsilateral OAR. DCART did not present advantages over any of the techniques investigated. Di erences were also found comparing the calculation algorithms: PBC estimated higher doses for the PTV, ipsilateral lung and heart than the MC algorithms predicted. The MC algorithms presented similar results (within 2% di erences). The PBC algorithm was considered not accurate in determining the dose in heterogeneous media and in build-up regions. Therefore, a major e ort is being done at the clinic to acquire data to move from PBC to another calculation algorithm. Despite better PTV homogeneity and conformity there is an increased risk of CLB cancer development, when using non-tangential techniques. The overall results of the studies performed con rm the outstanding predictive power and accuracy in the assessment and calculation of dose distributions in organs and tissues rendered possible by the utilization and implementation of MC simulation techniques in RT TPS.