1000 resultados para Escoamento em meios porosos - Métodos de simulação


Relevância:

20.00% 20.00%

Publicador:

Resumo:

As cheias em zonas urbanas representam um fenómeno natural que parece ocorrer cada vez com mais frequência, provocando muitas vezes a inundação de caves, estações de metropolitano e, em alguns casos extremos, a perda de vidas humanas. Estas cheias ocorrem quando os sistemas artificiais de recolha de águas pluviais deixam de ter capacidade de vazão suficiente para os caudais afluídos e parte do escoamento começa a fazer-se à superfície. Deste modo, o objetivo principal deste trabalho consiste na avaliação da influência que o grau de obstrução, causado pela presença de viaturas nas vias públicas, tem no agravamento das alturas de água nos arruamentos. Para isso, foram realizados ensaios laboratoriais num modelo à escala 1:12, nos quais se procurou simular as condições reais de escoamento de caudais de cheia, em vias urbanas. Os ensaios foram feitos para 20 cenários, para os quais se combinaram diferentes quantidades e disposições de veículos, a que correspondem diferentes graus de obstrução ao escoamento. Durante as medições das alturas de água, em todos os cenários, fizeram-se variar as inclinações do fundo entre 0,005 e 0,030 m/m para uma gama de caudais compreendida entre 10 e 40 m3/h. Posteriormente, com os valores das medições obtidas, inferiram-se quais os cenários mais críticos, ou seja, quais as situações onde se observaram maiores incrementos nas alturas de água de escoamento nos arruamentos. A partir da variação entre as alturas de escoamento do cenário base, sem a presença de veículos, e as alturas dos diferentes cenários com obstáculos, obtiveram-se as sobrelevações da altura de água, tanto em valor absoluto como em valor relativo. Por fim, mas não menos importante, procurou-se obter padrões e consequentemente relações entre os diversos parâmetros em estudo, principalmente a relação entre a percentagem de obstrução e a sobrelevação da altura de água nos arruamentos. Da análise dos resultados obtidos procurou-se por último extrair conclusões e tecer algumas recomendações tendo em vista a minimização de algumas consequências deste tipo de situações extremas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desenvolvimento da Sociedade obrigou à gestão integrada dos recursos hídricos. A gestão do ciclo de água é executada de forma a optimizar este recurso ao máximo, tendo em consideração os aspectos económicos, ambientais, normativos e sociais, de forma coordenada com os restantes recursos naturais e com os planos intersectoriais e geracionais. No entanto, continua a constatar-se a ocorrência de elevados níveis de perdas e fugas de água, nos sistemas urbanos de abastecimento e distribuição de água, constituindo um prejuízo para as entidades gestoras, o qual se reflecte, economicamente no cliente final, e no equilíbrio do meio-ambiente. Impera, assim, a necessidade de garantir a utilização da água, de forma consciente, eficiente e sustentável. No âmbito desta temática, surgem, actualmente, termos, como, “água inteligente” ou “smart water”, aplicados especialmente ao conceito “Smart Cities”. Pressupõe-se com este, a aplicação das novas tecnologias de informação, em prol das políticas urbanas que gerem uma cidade, por forma a garantir o controlo em tempo real, da informação inerente à exploração das infra-estruturas existentes na cidade. Estuda-se, neste trabalho, o estado normativo Português e os objectivos governamentais relacionados com o combate às perdas de água, no sentido de obter maiores níveis de eficiência e sustentabilidade do recurso água. Pretende-se analisar, também, a importância da implementação de parcerias (ao nível nacional e internacional), entre empresas de tecnologias de informação (detentoras de métodos inovadores de gestão de dados) e as entidades gestoras dos sistemas de abastecimento de água (conhecedoras dos reais problemas operacionais, inerentes à exploração dos sistemas). Neste trabalho, enumeram-se ainda, exemplos de aplicações inovadoras na gestão de sistemas de abastecimento de água, assim como onde está a ser aplicado o conceito Smart Cities, e quais os meios utilizados para obter apoio para o financiamento das soluções preconizadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A soldadura por fricção linear (SFL) é um processo de ligação no estado sólido com capacidade para soldar materiais dissimilares e ligas metálicas de baixa soldabilidade. Contudo, nas juntas soldadas com uma configuração topo-a-topo é possível o aparecimento de defeitos na raiz do cordão, nomeadamente, de falta de penetração e de alinhamentos de óxidos. Estes defeitos são responsáveis pela diminuição da resistência mecânica das juntas, sobretudo quando sujeitas a esforços de fadiga. Existem variantes do processo para eliminar este tipo de defeitos, no entanto, verificam-se algumas dificuldades tecnológicas e a competitividade do processo é afetada. No âmbito deste trabalho desenvolveu-se uma variante do processo designado soldadura por fricção linear assistida por corrente elétrica (SFLAE). Esta variante consiste em introduzir uma corrente elétrica de elevada intensidade na zona da raiz do cordão, por forma a que o calor gerado por efeito de Joule aqueça o material e aumente o fluxo visco-plástico nessa zona, tendo em vista atenuar ou eliminar os defeitos na raiz. Foram concebidas e produzidas ferramentas de SFL dedicadas, melhorado um modelo analítico do processo, realizadas simulações numéricas para permitir compreender alguns fenómenos físicos envolvidos no processo, e realizados ensaios experimentais de validação. A análise aos cordões permitiu observar uma diminuição da espessura dos defeitos na raiz em três ensaios realizados na liga AA1100 e AA6084-T6 usando intensidades de corrente de 300 A. Dos resultados de microdureza e de medição de condutividade elétrica é possível concluir que a microestrutura do material não é significativamente alterada pela passagem de corrente elétrica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação insere-se no actual contexto de constante procura pela melhoria do desempenho dos sistemas produtivos em que se pretende estudar a utilização dos recursos produtivos numa das principais linhas de produção da fábrica da Delphi no Seixal. Para o efeito, é desenvolvido um modelo de simulação da linha de produção. O estudo inicia com uma revisão bibliográfica de conceitos e metodologias interligados com a simulação de sistemas. A fase seguinte diz respeito à recolha e tratamento de dados que caracterizam a linha de produção que se pretende simular. Posteriormente, é criado um modelo conceptual da linha de produção que serve de base ao modelo de simulação desenvolvido recorrendo ao software de simulação Arena. Após a simulação do modelo desenvolvido, é realizada a validação do modelo através da análise comparativa de algumas medidas de desempenho resultantes da simulação e do sistema real. Por último é realizada a discussão de resultados e são tecidas considerações que suportam os resultados obtidos e apoiam a diferença de resultados verificada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das propriedades do betão armado que foi alvo de maior número de estudos, ao longo dos tempos, é a aderência. Esta é uma das propriedades mais importantes a considerar na construção, pois dela depende o desempenho e estabilidade de uma estrutura. Dada a sua importância, a aderência é a propriedade do betão armado mais estudada ao longo do tempo. A complexidade inerente a esta propriedade torna difícil de compreender e prever o comportamento estrutural. Esta dissertação pretende analisar a capacidade do Método dos Elementos Aplicados em simular o ensaio de arrancamento directo e de reproduzir modos de rotura. Este ensaio, denominado de pull-out test, estuda a aderência entre três materiais: o aço, o betão e o grout. Vários tipos de ligações, com diferentes modos de rotura, são simulados e comparados com um ensaio experimental referido na revisão bibliográfica. Assim, recorrer-se-á ao programa Extreme Loading for Structures, que tem como base o Método dos Elementos Aplicados. Através de uma análise de sensibilidade foi possível calibrar as propriedades dos diferentes elementos e das interfaces entre o betão, aço e grout, de modo a viabilizar o cálculo da força crítica das ligações e reproduzir os modos de rotura observados experimentalmente. Este trabalho pretende dar uma contribuição ao conhecimento no âmbito da simulação numérica, em relação a este tipo de ligações, e ajudar à criação de modelos numéricos fiáveis e eficientes de fácil e rápida execução. Esta dissertação permite concluir que o Método dos Elementos Aplicados, apresenta-se como uma boa solução para o estudo deste tipo de ligações. Os resultados numéricos tiveram uma boa aproximação dos resultados experimentais. Em conformidade com a análise experimental, as ligações com bainha de pré-esforço e comprimento de embebimento a partir de 15 cm são as que melhor desempenho têm ao nível da resistência.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As simulações que pretendam modelar fenómenos reais com grande precisão em tempo útil exigem enormes quantidades de recursos computacionais, sejam estes de processamento, de memória, ou comunicação. Se até há pouco tempo estas capacidades estavam confinadas a grandes supercomputadores, com o advento dos processadores multicore e GPUs manycore os recursos necessários para este tipo de problemas estão agora acessíveis a preços razoáveis não só a investigadores como aos utilizadores em geral. O presente trabalho está focado na otimização de uma aplicação que simula o comportamento dinâmico de materiais granulares secos, um problema do âmbito da Engenharia Civil, mais especificamente na área da Geotecnia, na qual estas simulações permitem por exemplo investigar a deslocação de grandes massas sólidas provocadas pelo colapso de taludes. Assim, tem havido interesse em abordar esta temática e produzir simulações representativas de situações reais, nomeadamente por parte do CGSE (Australian Research Council Centre of Excellence for Geotechnical Science and Engineering) da Universidade de Newcastle em colaboração com um membro da UNIC (Centro de Investigação em Estruturas de Construção da FCT/UNL) que tem vindo a desenvolver a sua própria linha de investigação, que se materializou na implementação, em CUDA, de um algoritmo para GPUs que possibilita simulações de sistemas com um elevado número de partículas. O trabalho apresentado consiste na otimização, assente na premissa da não alteração (ou alteração mínima) do código original, da supracitada implementação, de forma a obter melhorias significativas tanto no tempo global de execução da aplicação, como no aumento do número de partículas a simular. Ao mesmo tempo, valida-se a formulação proposta ao conseguir simulações que refletem, com grande precisão, os fenómenos físicos. Com as otimizações realizadas, conseguiu-se obter uma redução de cerca de 30% do tempo inicial cumprindo com os requisitos de correção e precisão necessários.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO: O cancro de mama e o mais frequente diagnoticado a indiv duos do sexo feminino. O conhecimento cientifico e a tecnologia tem permitido a cria ção de muitas e diferentes estrat egias para tratar esta patologia. A Radioterapia (RT) est a entre as diretrizes atuais para a maioria dos tratamentos de cancro de mama. No entanto, a radia ção e como uma arma de dois canos: apesar de tratar, pode ser indutora de neoplasias secund arias. A mama contralateral (CLB) e um orgão susceptivel de absorver doses com o tratamento da outra mama, potenciando o risco de desenvolver um tumor secund ario. Nos departamentos de radioterapia tem sido implementadas novas tecnicas relacionadas com a radia ção, com complexas estrat egias de administra ção da dose e resultados promissores. No entanto, algumas questões precisam de ser devidamente colocadas, tais como: E seguro avançar para tecnicas complexas para obter melhores indices de conformidade nos volumes alvo, em radioterapia de mama? O que acontece aos volumes alvo e aos tecidos saudaveis adjacentes? Quão exata e a administração de dose? Quais são as limitações e vantagens das técnicas e algoritmos atualmente usados? A resposta a estas questões e conseguida recorrendo a m etodos de Monte Carlo para modelar com precisão os diferentes componentes do equipamento produtor de radia ção(alvos, ltros, colimadores, etc), a m de obter uma descri cão apropriada dos campos de radia cão usados, bem como uma representa ção geometrica detalhada e a composição dos materiais que constituem os orgãos e os tecidos envolvidos. Este trabalho visa investigar o impacto de tratar cancro de mama esquerda usando diferentes tecnicas de radioterapia f-IMRT (intensidade modulada por planeamento direto), IMRT por planeamento inverso (IMRT2, usando 2 feixes; IMRT5, com 5 feixes) e DCART (arco conformacional dinamico) e os seus impactos em irradia ção da mama e na irradia ção indesejada dos tecidos saud aveis adjacentes. Dois algoritmos do sistema de planeamento iPlan da BrainLAB foram usados: Pencil Beam Convolution (PBC) e Monte Carlo comercial iMC. Foi ainda usado um modelo de Monte Carlo criado para o acelerador usado (Trilogy da VARIAN Medical Systems), no c odigo EGSnrc MC, para determinar as doses depositadas na mama contralateral. Para atingir este objetivo foi necess ario modelar o novo colimador multi-laminas High- De nition que nunca antes havia sido simulado. O modelo desenvolvido est a agora disponí vel no pacote do c odigo EGSnrc MC do National Research Council Canada (NRC). O acelerador simulado foi validado com medidas realizadas em agua e posteriormente com c alculos realizados no sistema de planeamento (TPS).As distribui ções de dose no volume alvo (PTV) e a dose nos orgãos de risco (OAR) foram comparadas atrav es da an alise de histogramas de dose-volume; an alise estati stica complementar foi realizadas usando o software IBM SPSS v20. Para o algoritmo PBC, todas as tecnicas proporcionaram uma cobertura adequada do PTV. No entanto, foram encontradas diferen cas estatisticamente significativas entre as t ecnicas, no PTV, nos OAR e ainda no padrão da distribui ção de dose pelos tecidos sãos. IMRT5 e DCART contribuem para maior dispersão de doses baixas pelos tecidos normais, mama direita, pulmão direito, cora cão e at e pelo pulmão esquerdo, quando comparados com as tecnicas tangenciais (f-IMRT e IMRT2). No entanto, os planos de IMRT5 melhoram a distribuição de dose no PTV apresentando melhor conformidade e homogeneidade no volume alvo e percentagens de dose mais baixas nos orgãos do mesmo lado. A t ecnica de DCART não apresenta vantagens comparativamente com as restantes t ecnicas investigadas. Foram tamb em identi cadas diferen cas entre os algoritmos de c alculos: em geral, o PBC estimou doses mais elevadas para o PTV, pulmão esquerdo e cora ção, do que os algoritmos de MC. Os algoritmos de MC, entre si, apresentaram resultados semelhantes (com dferen cas at e 2%). Considera-se que o PBC não e preciso na determina ção de dose em meios homog eneos e na região de build-up. Nesse sentido, atualmente na cl nica, a equipa da F sica realiza medi ções para adquirir dados para outro algoritmo de c alculo. Apesar de melhor homogeneidade e conformidade no PTV considera-se que h a um aumento de risco de cancro na mama contralateral quando se utilizam t ecnicas não-tangenciais. Os resultados globais dos estudos apresentados confirmam o excelente poder de previsão com precisão na determinação e c alculo das distribui ções de dose nos orgãos e tecidos das tecnicas de simulação de Monte Carlo usados.---------ABSTRACT:Breast cancer is the most frequent in women. Scienti c knowledge and technology have created many and di erent strategies to treat this pathology. Radiotherapy (RT) is in the actual standard guidelines for most of breast cancer treatments. However, radiation is a two-sword weapon: although it may heal cancer, it may also induce secondary cancer. The contralateral breast (CLB) is a susceptible organ to absorb doses with the treatment of the other breast, being at signi cant risk to develop a secondary tumor. New radiation related techniques, with more complex delivery strategies and promising results are being implemented and used in radiotherapy departments. However some questions have to be properly addressed, such as: Is it safe to move to complex techniques to achieve better conformation in the target volumes, in breast radiotherapy? What happens to the target volumes and surrounding healthy tissues? How accurate is dose delivery? What are the shortcomings and limitations of currently used treatment planning systems (TPS)? The answers to these questions largely rely in the use of Monte Carlo (MC) simulations using state-of-the-art computer programs to accurately model the di erent components of the equipment (target, lters, collimators, etc.) and obtain an adequate description of the radiation elds used, as well as the detailed geometric representation and material composition of organs and tissues. This work aims at investigating the impact of treating left breast cancer using di erent radiation therapy (RT) techniques f-IMRT (forwardly-planned intensity-modulated), inversely-planned IMRT (IMRT2, using 2 beams; IMRT5, using 5 beams) and dynamic conformal arc (DCART) RT and their e ects on the whole-breast irradiation and in the undesirable irradiation of the surrounding healthy tissues. Two algorithms of iPlan BrainLAB TPS were used: Pencil Beam Convolution (PBC)and commercial Monte Carlo (iMC). Furthermore, an accurate Monte Carlo (MC) model of the linear accelerator used (a Trilogy R VARIANR) was done with the EGSnrc MC code, to accurately determine the doses that reach the CLB. For this purpose it was necessary to model the new High De nition multileaf collimator that had never before been simulated. The model developed was then included on the EGSnrc MC package of National Research Council Canada (NRC). The linac was benchmarked with water measurements and later on validated against the TPS calculations. The dose distributions in the planning target volume (PTV) and the dose to the organs at risk (OAR) were compared analyzing dose-volume histograms; further statistical analysis was performed using IBM SPSS v20 software. For PBC, all the techniques provided adequate coverage of the PTV. However, statistically significant dose di erences were observed between the techniques, in the PTV, OAR and also in the pattern of dose distribution spreading into normal tissues. IMRT5 and DCART spread low doses into greater volumes of normal tissue, right breast, right lung, heart and even the left lung than tangential techniques (f-IMRT and IMRT2). However,IMRT5 plans improved distributions for the PTV, exhibiting better conformity and homogeneity in target and reduced high dose percentages in ipsilateral OAR. DCART did not present advantages over any of the techniques investigated. Di erences were also found comparing the calculation algorithms: PBC estimated higher doses for the PTV, ipsilateral lung and heart than the MC algorithms predicted. The MC algorithms presented similar results (within 2% di erences). The PBC algorithm was considered not accurate in determining the dose in heterogeneous media and in build-up regions. Therefore, a major e ort is being done at the clinic to acquire data to move from PBC to another calculation algorithm. Despite better PTV homogeneity and conformity there is an increased risk of CLB cancer development, when using non-tangential techniques. The overall results of the studies performed con rm the outstanding predictive power and accuracy in the assessment and calculation of dose distributions in organs and tissues rendered possible by the utilization and implementation of MC simulation techniques in RT TPS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A aposta na Qualidade e no Controlo de Processos, constitui actualmente, um requisito fundamental para as empresas se manterem competitivas. A Amorim e Irmãos, empresa onde o presente estudo é realizado, é líder de mercado no sector da cortiça, e aposta na melhoria contínua dos seus processos e produtos. Em linha com essa estratégia, a presente dissertação tem como objectivo melhorar o processo de produção de um dos produtos da Amorim e Irmãos, as rolhas de cortiça Twin-Top produzidas na unidade industrial Equipar, em Coruche. O processo em estudo, denominado de Rosa, é caracterizado por ter uma elevada variabilidade pois é muito sensível às condições da temperatura ambiente e à heterogeneidade da matéria prima. Os objectivos do processo passam precisamente por reduzir a heterogeneidade presente nas características da cortiça, ao definir valores alvo para a humidade, Massa volúmica corrigida a 8% de humidade e quantidade de um composto presente na cortiça, o TCA. Este composto afecta negativamente as características da rolha, portanto um dos objectivos deste trabalho é diminuir a quantidade de TCA presente no granulado. Por forma a solucionar o problema, de reduzir a variabilidade do Rosa aproximando-o dos valores alvo para as características a controlar aplicaram-se métodos estatísticos como o Desenho de Experiências e as Cartas de Controlo. O Rosa caracteriza-se por ter várias etapas, percorridas pelo granulado de forma sequencial. Tendo em conta que apenas na primeira etapa é que ocorrem alterações na quantidade de TCA presente no granulado decidiu-se que seria adequado realizar dois Desenhos de Experiências. O primeiro a ser aplicado na fase inicial do processo para maximizar a extracção de TCA e o segundo a ser aplicado nas restantes fases para controlar as outras características em cima referidas. Por fim realizou-se um estudo para aplicação de Cartas de Controlo no processo. Por via do primeiro DOE foram implementadas alterações no processo (aumento da pressão de vapor para 2,3 bar e da velocidade dos sem-fins para 10 Hz, na máquina RH), que permitiram reduzir com sucesso a quantidade média de TCA (2,4,6 tricloroanisol) presente no granulado. Este feito teve bastante relevância para a empresa, uma vez que a extracção deste composto constitui um dos seus objectivos estratégicos e é também uma das metas mais importantes a nível da qualidade do produto.(...)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A técnica de Ensaios Não Destrutivos (END) baseada em células bacterianas (CB) foi proposta recentemente e tem demonstrado viabilidade na identificação de micro defeitos superficiais, com espessuras e profundidades inferiores a 5 μm, em vários materiais de engenharia. O conhecimento processual já é significativo, mas diversos aspectos carecem de desenvolvimentos, nomeadamente, a interacção das bactérias com outros materiais, o limiar de detectabilidade da técnica, a aplicação a defeitos naturais ou o comportamento dinâmico das bactérias sujeitas a campos eléctricos ou magnéticos. Este trabalho pretendeu ser um passo em frente no conhecimento da técnica. Os principais objectivos foram alargar a documentação sobre a interacção bactéria-material, determinar o menor defeito padrão possível de detectar, estabelecer e validar um modelo analítico da dinâmica das bactérias sujeitas a forças exteriores, e comparar o desempenho da técnica com os END por líquidos penetrantes (LP). Foi desenvolvido e testado um protótipo para aplicação de campos magnéticos permanentes triaxiais. A bactéria Rhodococcus erythropolis foi usada na inspecção dos materiais AA1100, AISI 316L, WC, titânio, NiTi, ouro, ABS e lentes oftálmicas, com defeitos padrão por micro e nano indentação e riscagem, assim como os defeitos existentes em soldaduras laser. A técnica foi testada nos padrões de sensibilidade dos LP para efeitos de comparação. Verificou-se que é possível identificar defeitos de nano indentação com largura e profundidades de aproximadamente 5,3 μm e 0,4 μm, respectivamente, e que também são identificados os defeitos dos padrões sensibilidade dos LP, com cerca de 1 μm de espessura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

INTRODUÇÃO: O gênero Staphylococcus é de grande importância devido a sua alta prevalência em infecções hospitalares e por apresentar taxas elevadas de resistência a oxacilina e a outros antimicrobianos. Assim, a avaliação da acurácia dos métodos fenotípicos usados para determinação do perfil de suscetibilidade a antimicrobianos é essencial para garantir a escolha da terapia mais adequada. MÉTODOS: Foram usadas 114 amostras de Staphylococcus sp (53 S. aureus e 61 SCN) na avaliação da acurácia dos métodos de difusão de disco, microdiluição em agar, ágar triagem oxacilina e sistema automatizado em comparação com a PCR para verificação da resistência a oxacilina. RESULTADOS: O gene mecA foi detectado em 48 (42,1%) amostras e 27 (23,7%) amostras apresentaram discrepância de resultados em pelo menos um dos métodos (74,1% SCN, 25,9% S. aureus). Para S. aureus, com exceção do Microscan Walkaway, todos os métodos apresentaram 100% de especificidade e sensibilidade. Já para os SCN, o sistema automatizado e o disco de cefoxitina apresentaram menor acurácia. CONCLUSÕES: O uso de dois métodos deve ser a melhor opção para a melhora da acurácia, principalmente quando o laboratório de diagnóstico utiliza somente sistema automatizado ou teste de difusão do disco de oxacilina. A associação destes métodos com outros apresentaram praticamente 100% de sensibilidade e especificidade em nosso estudo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação teve o intuito de validar o código numérico do OpenFoam para problemas na área da hidrodinâmica e propagação de ondas. Para a geração de ondas através do código numérico recorreu-se ao solver Waves2Foam, uma ferramenta do OpenFoam baseada no InterFoam, solver baseado no método VoF (Volume of fluid) com a implementação de zonas de relaxamento para a geração e dissipação da energia das ondas. Os casos simulados nesta dissertação tiveram o objectivo de testar a ferramenta para diferentes condições de propagação de ondas e diferentes teorias. Assim é apresentado um caso bidimensional com fundo horizontal e profundidade considerada infinita e outro bidimensional com fundo variável de forma a verificar a ocorrência ou não de rebentação, ambos para ondas regulares de primeira ordem ou ondas de Airy. Além dos casos bidimensionais também são apresentados dois casos tridimensionais com fundo variável, para ondas regulares e bicromáticas e em situação com e sem rebentação. Tanto o caso bidimensional de profundidade variável como o primeiro caso tridimensional foram baseados em ensaios e dados experimentais realizados num canal de profundidade variável para ondas regulares em situação com e sem rebentação. O segundo caso tridimensional também foi baseado em ensaios experimentais no mesmo canal de fundo variável para ondas geradas bicromáticas em situação com e sem rebentação. Através das simulações realizadas pode-se concluir que para casos de propagação de ondas sem rebentação o solver Waves2Foam obtém bons resultados. Já nos casos com rebentação os resultados apresentam alguma discrepância devida à não utilização de modelos de turbulência. No geral, o código numérico do OpenFoam dá bons resultados para resolver problemas de hidrodinâmica através de ondas regulares e de ondas bicromáticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO - O sistema de saúde é constantemente sujeito a pressões sendo as mais relevantes a pressão para o aumento da qualidade e a necessidade de contenção de custos. Os Eventos Adversos (EAs) ocorridos em meio hospitalar constituem um sério problema de qualidade na prestação de cuidados de saúde, com consequências clinicas, sociais, económicas e de imagem, que afectam pacientes, profissionais, organizações e o próprio sistema de saúde. Os custos associados à ocorrência de EAs em meio hospitalar, incrementam significativamente os custos hospitalares, representando cerca de um em cada sete dólares gastos no atendimento dos doentes. Só na última década surgiram estudos com o objectivo principal de avaliar esse impacto em meio hospitalar, subsistindo ainda uma grande indefinição quanto às variáveis e métodos a utilizar. O objectivo principal deste trabalho de projecto foi conhecer e caracterizar as diferentes metodologias utilizadas para avaliação dos custos económicos, nomeadamente dos custos directos, relacionados com a ocorrência de eventos adversos em meio hospitalar. Tendo em atenção as dificuldades referidas, utilizou-se como metodologia a revisão narrativa da literatura, complementada com a realização de uma técnica de grupo nominal. Os resultados obtidos foram os seguintes: i) a metodologia utilizada na maioria dos estudos para determinar a frequência, natureza e consequências dos EAs ocorridos em meio hospitalar, utiliza matrizes de base observacional, analítica, com base em estudos de coorte retrospectivo recorrendo aos critérios definidos pelo Harvard Medical Practice Study; ii) a generalidade dos estudos realizados avaliam os custos directos dos EAs em meio hospitalar, iii) verificou-se a existência de uma grande diversidade de métodos para a determinação dos custos associados aos EAs. A generalidade dos estudos determina esse valor com base na contabilização do número de dias adicionais de internamento, resultantes do EA, valorizados com base em custos médios; iv) o grupo de peritos, propôs como metodologia para a determinação do custo associado a cada EA, a utilização de sistemas de custeio por doente; v) propõe-se o desenvolvimento de uma plataforma informática, que permita o cruzamento da informação disponível no registo clinico electrónico do doente com um sistema automático de identificação de EAs, a desenvolver, e com sistemas de custeio por doente, de modo a valorizar os custos por doente e por tipo de EA. A avaliação dos custos directos associados à ocorrência de EAs em contexto hospitalar, pelo impacto económico e social que tem nos doentes e organizações, será seguramente uma das áreas de estudo e investigação futuras, no sentido de melhorar a eficiência do sistema de saúde e a qualidade e segurança dos cuidados prestados aos doentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As redes do sistema de energia elétrica formam uma infraestrutura determinante para a qualidade da energia fornecida. À medida que os níveis de falha de corrente aumentam, surge um risco crescente de que tais falhas excedam a capacidade de proteção dos dispositivos energéticos, expondo as redes a danos muito dispendiosos. A tecnologia dos materiais supercondutores de alta temperatura possibilitou a criação de uma nova gama de limitadores de corrente, cujas características são consideravelmente vantajosas face aos dispositivos convencionais. Apesar da necessidade de um sistema criogénico, estes dispositivos operam de forma passiva, limitando eficazmente os picos de corrente e sem a interrupção do fornecimento de energia. Com este trabalho pretende-se desenvolver um modelo computacional, em Simulink, adequado à simulação de limitadores de corrente supercondutores do tipo indutivo (LCSi) de blindagem magnética, que possam ser utilizados na simulação de diferentes tipos de redes (com distintas cargas e fontes).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresenta-se uma metodologia destinada a simular a morfologia e a porosidade de canais de areia em reservatórios fluviais. Como informação de partida utilizam-se um ou vários canais de areia de treino, em estrutura vectorial, que sejam representativos do reservatório, e leis de distribuição das dimensões largura e profundidade dos canais. Para a simulação da morfologia dos canais de areia, são calculados os ângulos azimutais de todos os segmentos de recta das linhas poligonais que constituem os canais de treino, a que se segue a codificação em classes de azimute e a determinação de estatísticas multiponto destas classes. Seguidamente, faz-se a simulação estocástica dos novos canais no volume do reservatório, ou seja, são geradas novas linhas poligonais condicionadas às estatísticas multiponto, a que se associam as dimensões largura e profundidade. Este algoritmo multiponto é muito eficiente, porque é a 1D, e contorna a problemática da variável azimute ser do tipo circular. A avaliação da porosidade é feita em simultâneo na conversão do modelo vectorial da morfologia dos canais de areia para o modelo matricial da malha de blocos do reservatório. Para cada bloco reservatório é contabilizada a proporção de não canal / canal e das fácies conforme um modelo conceptual de zonamento na secção do canal. A estimativa da porosidade média de cada bloco do reservatório é obtida pela soma do produto da proporção de cada fácies pela respectiva porosidade de referência. Para ilustrar as potencialidades da metodologia proposta apresenta-se um caso de estudo com dados sintéticos. De acordo com critérios geológicos e estratigráficos, consideraram-se quatro fácies na secção do canal que são discriminadas lateralmente e em profundidade por valores de referência de porosidade. O algoritmo de simulação morfológica capturou adequadamente a morfologia das imagens de treino e gerou várias imagens equiprováveis que depois foram convertidas em porosidade.