1000 resultados para Simulação Discreta com Componentes Contínuas


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Mecânica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As sociedades actuais defrontam-se com vários desafios de índole ambiental, sendo de particular destaque a produção crescente de resíduos sólidos urbanos. Pretende-se a longo prazo passar de uma sociedade de consumo desenfreado e de desperdício para uma sociedade de reciclagem, na qual a produção de resíduos sólidos urbanos é mínima e estes são vistos como um recurso a valorizar. Para isso, os RSU não devem ser encarados como um objecto indiferenciado, mas sim separados nas suas várias componentes. Estes constituintes devem ser analisados do ponto de vista físicoquímico e encaminhados para o ou os locais mais apropriados ao seu tratamento. Os Sistemas de Informação Geográfica desempenham um papel fundamental como ferramenta de apoio à decisão, permitindo determinar qual a instalação de tratamento mais próxima do local de geração de RSU e a área de influência do ponto de vista do produtor de RSU e das instalações de tratamento de resíduos (ponto de vista do licenciamento e planeamento), o que se consegue através de análise de redes, isto é, operações de simulação em ambiente computacional que permitem determinar o caminho mais curto entre dois pontos e optimizar as distâncias. Portugal tem vindo a evoluir o seu sistema de gestão de RSU de acordo com as orientações internacionais, que pretendem reduzir o volume de resíduos depositado em aterros, retirando ao RSU a fracção biodegradável para posterior valorização orgânica e produção de composto com valor acrescentado. No entanto, temos vindo a falhar no cumprimento das metas de reciclagem e no correcto encaminhamento de resíduos, sendo ainda a percentagem maioritária colocada em aterro sanitário. Este trabalho tem como objectivo fornecer uma ferramenta que permita determinar os vários destinos adequados ao tratamento de um determinado resíduo e encontrar, com o apoio da informação geográfica, a instalação mais próxima de um dado local de geração e a área de influência do ponto de vista do produtor/ gestor do RSU e do licenciamento e planeamento de novas instalações. Pretende-se desta forma minimizar os custos em transporte e verificar se uma dada área está bem servida em termos de estações de tratamento, não só em número, mas também em tipo. Esta ferramenta foi aplicada na Área Metropolitana de Lisboa, que é responsável por cerca de 30% da produção de resíduos a nível nacional e aglomera mais de um quarto da população nacional. Conclui-se que a Área Metropolitana de Lisboa está bem servida a nível de estações de tratamento, especialmente ecocentros e estações de triagem e principalmente na região a Sul do Tejo e no concelho de Lisboa. Nota-se que a distância de pontos de geração escolhidos a título de exemplo aos locais mais adequados para tratamento da maior percentagem do constituinte de RSU varia entre 4 e 53 km, sendo a maior distância devida à localização da única instalação de valorização energética da AML. De uma forma geral, os locais de tratamento encontram-se a distâncias inferiores a 30 km (excepto a zona de Mafra), não justificando a instalação de estações de transferência nos locais considerados. Contudo, alerta-se para a importância da instalação de estações de transferência em aglomerados populacionais com maior produção de resíduos, com o objectivo de concentrar os RSU num único local e minimizar a frequência de transporte. Finalmente, destaca-se o investimento em novas infraestruturas, principalmente por parte da empresa AMTRES / Tratolixo, que é responsável pela gestão de resíduos em Cascais, Oeiras, Sintra e Mafra, concelhos que apresentam maiores lacunas ao nível das instalações de tratamento de resíduos. Considera-se importante o estabelecimento de protocolos entre as várias entidades gestoras, de forma a garantir o correcto encaminhamento dos resíduos e a minimização do seu transporte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo primordial realizar a comparação entre o programa de simulação monozona RCCTE-STE do LNEG e o programa de simulação dinâmica multizona Cypeterm que permite utilizar o motor de cálculo do EnergyPlus de forma a executar a simulação térmica de edifícios. Para tal foram considerados dois casos de estudo diferentes. O primeiro caso de estudo considerado foi um edifício de escritórios que funciona em open-space. É feita uma descrição detalhada dos dados inseridos nos dois programas, em particular os referentes aos elementos construtivos do edifício, aos sistemas de climatização e ventilação e aos perfis de ocupação, equipamentos e iluminação. Por fim realizou-se uma comparação crítica e exaustiva dos resultados entre os dois programas sendo que o Cypeterm foi designado como o melhor, devido às suas qualidades de cálculo do EnergyPlus e pela sua interface gráfica bastante intuitiva, que o torna bastante rápido e eficaz na introdução e alteração de dados. No segundo caso de estudo foi delineado um edifício com mais de 1000 m2 com múltiplos espaços no seu interior. Deste modo procedeu-se a uma comparação monozona face a uma simulação multizona que permitiu demonstrar que esta última é mais vantajosa e capaz, particularmente no dimensionamento do equipamento de climatização do edifício e análise energética de cada espaço. Foram também efetuadas alterações estruturais num dos edifícios estudados, de modo a perceber a sua influência a nível energética em qualquer edifício. De salientar ainda que todo este trabalho teve como base os regulamentos RCCTE e RSECE.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação foi realizada no âmbito de um estágio curricular no complexo petroquímico da Repsol Polímeros em Sines e teve como objectivo implementar uma simulação da secção de recuperação de solvente da unidade de produção de PEAD. A simulação foi realizada através do software Aspen Hysys (v. 7.3) e posteriormente validada, onde se verificou uma boa correspondência entre o comportamento simulado e o do processo industrial. Após validação, com o intuito de analisar a resposta do sistema a alterações processuais, foram elaborados dois casos de estudo: Alteração do comonómero para 1-hexeno e substituição do n-hexano para n-pentano como solvente. No primeiro caso de estudo foram encontrados problemas na purificação do solvente. A separação da mistura n-hexano/1-hexeno foi estudada por destilação convencional e extractiva (com adição de n-metil-2-pirrolidona). Por destilação convencional não foi possível separar completamente os dois compostos, mas foi conseguida a condição mínima requerida pelas limitações do processo, de um caudal de 10 ton/h de hexano na corrente de topo, juntamente com os 700 kg/h de comonómero, com uma coluna a operar a 110 kPa, com 130 pratos e cuja alimentação entrava no 5º andar. A destilação extractiva revelou-se o método mais eficaz, conseguindo-se separar completamente as duas espécies através de uma coluna de destilação com 10 pratos a 110 kPa com a alimentação e solvente a entrar respectivamente no 4º e 5º andar. Para remoção do agente extractivo, cada uma das correntes sofre outra destilação. No segundo caso de estudo verificou-se que a secção simulada com pentano apresenta temperaturas de operação inferiores, o que por um lado vai diminuir o consumo de vapor de média e de alta pressão, mas por outro aumenta a 47992% a utilização de brine. Desta forma, atendendo ao custo elevado desta utilidade, a substituição não apresenta clara vantagem energética ao processo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os sistemas distribuídos de manufactura (SDM) possuem como principais características a capacidade de executarem processos de manufactura de forma distribuída em ambientes heterogéneos, em que os diversos estágios e parceiros envolvidos funcionam de forma autónoma. Dotados de uma boa capacidade de adaptação a mercados em constante mudança, são sis-temas complexos e dinâmicos, sendo difícil prever o seu desempenho sem abordagens adequadas, nomeadamente, recorrendo a métodos de simulação. No entanto os pacotes de simulação que existem actualmente, apesar de boa qualidade e bastante flexíveis, ainda se caracterizam por uma limitada capacidade para a simulação de SDM. Por outro lado, o desenvolvi-mento duma ferramenta de manufactura que combine a simulação ao nível local de processos de manufactura (por exemplo: com robôs e maquinas industriais) e a correspondente ao nível global e distribuído, revela-se significativamente complexo e oneroso. Ao invés de se desenvolver tal sistema, com este trabalho, pretende-se especificar um modelo e respectiva ferramenta que permita a simulação de SDM, recorrendo a produtos comerciais já existentes, mediante a definição duma estratégia de interoperabilidade entre as ferramentas. A simulação em simultâneo, de forma agregada e em tempo real dos diversos níveis estratégicos e locais de um SDM, permite assim uma melhor estimativa do seu desempenho futuro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A soldadura por fricção linear (SFL) é um processo de ligação no estado sólido com capacidade para soldar materiais dissimilares e ligas metálicas de baixa soldabilidade. Contudo, nas juntas soldadas com uma configuração topo-a-topo é possível o aparecimento de defeitos na raiz do cordão, nomeadamente, de falta de penetração e de alinhamentos de óxidos. Estes defeitos são responsáveis pela diminuição da resistência mecânica das juntas, sobretudo quando sujeitas a esforços de fadiga. Existem variantes do processo para eliminar este tipo de defeitos, no entanto, verificam-se algumas dificuldades tecnológicas e a competitividade do processo é afetada. No âmbito deste trabalho desenvolveu-se uma variante do processo designado soldadura por fricção linear assistida por corrente elétrica (SFLAE). Esta variante consiste em introduzir uma corrente elétrica de elevada intensidade na zona da raiz do cordão, por forma a que o calor gerado por efeito de Joule aqueça o material e aumente o fluxo visco-plástico nessa zona, tendo em vista atenuar ou eliminar os defeitos na raiz. Foram concebidas e produzidas ferramentas de SFL dedicadas, melhorado um modelo analítico do processo, realizadas simulações numéricas para permitir compreender alguns fenómenos físicos envolvidos no processo, e realizados ensaios experimentais de validação. A análise aos cordões permitiu observar uma diminuição da espessura dos defeitos na raiz em três ensaios realizados na liga AA1100 e AA6084-T6 usando intensidades de corrente de 300 A. Dos resultados de microdureza e de medição de condutividade elétrica é possível concluir que a microestrutura do material não é significativamente alterada pela passagem de corrente elétrica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação insere-se no actual contexto de constante procura pela melhoria do desempenho dos sistemas produtivos em que se pretende estudar a utilização dos recursos produtivos numa das principais linhas de produção da fábrica da Delphi no Seixal. Para o efeito, é desenvolvido um modelo de simulação da linha de produção. O estudo inicia com uma revisão bibliográfica de conceitos e metodologias interligados com a simulação de sistemas. A fase seguinte diz respeito à recolha e tratamento de dados que caracterizam a linha de produção que se pretende simular. Posteriormente, é criado um modelo conceptual da linha de produção que serve de base ao modelo de simulação desenvolvido recorrendo ao software de simulação Arena. Após a simulação do modelo desenvolvido, é realizada a validação do modelo através da análise comparativa de algumas medidas de desempenho resultantes da simulação e do sistema real. Por último é realizada a discussão de resultados e são tecidas considerações que suportam os resultados obtidos e apoiam a diferença de resultados verificada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das propriedades do betão armado que foi alvo de maior número de estudos, ao longo dos tempos, é a aderência. Esta é uma das propriedades mais importantes a considerar na construção, pois dela depende o desempenho e estabilidade de uma estrutura. Dada a sua importância, a aderência é a propriedade do betão armado mais estudada ao longo do tempo. A complexidade inerente a esta propriedade torna difícil de compreender e prever o comportamento estrutural. Esta dissertação pretende analisar a capacidade do Método dos Elementos Aplicados em simular o ensaio de arrancamento directo e de reproduzir modos de rotura. Este ensaio, denominado de pull-out test, estuda a aderência entre três materiais: o aço, o betão e o grout. Vários tipos de ligações, com diferentes modos de rotura, são simulados e comparados com um ensaio experimental referido na revisão bibliográfica. Assim, recorrer-se-á ao programa Extreme Loading for Structures, que tem como base o Método dos Elementos Aplicados. Através de uma análise de sensibilidade foi possível calibrar as propriedades dos diferentes elementos e das interfaces entre o betão, aço e grout, de modo a viabilizar o cálculo da força crítica das ligações e reproduzir os modos de rotura observados experimentalmente. Este trabalho pretende dar uma contribuição ao conhecimento no âmbito da simulação numérica, em relação a este tipo de ligações, e ajudar à criação de modelos numéricos fiáveis e eficientes de fácil e rápida execução. Esta dissertação permite concluir que o Método dos Elementos Aplicados, apresenta-se como uma boa solução para o estudo deste tipo de ligações. Os resultados numéricos tiveram uma boa aproximação dos resultados experimentais. Em conformidade com a análise experimental, as ligações com bainha de pré-esforço e comprimento de embebimento a partir de 15 cm são as que melhor desempenho têm ao nível da resistência.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As simulações que pretendam modelar fenómenos reais com grande precisão em tempo útil exigem enormes quantidades de recursos computacionais, sejam estes de processamento, de memória, ou comunicação. Se até há pouco tempo estas capacidades estavam confinadas a grandes supercomputadores, com o advento dos processadores multicore e GPUs manycore os recursos necessários para este tipo de problemas estão agora acessíveis a preços razoáveis não só a investigadores como aos utilizadores em geral. O presente trabalho está focado na otimização de uma aplicação que simula o comportamento dinâmico de materiais granulares secos, um problema do âmbito da Engenharia Civil, mais especificamente na área da Geotecnia, na qual estas simulações permitem por exemplo investigar a deslocação de grandes massas sólidas provocadas pelo colapso de taludes. Assim, tem havido interesse em abordar esta temática e produzir simulações representativas de situações reais, nomeadamente por parte do CGSE (Australian Research Council Centre of Excellence for Geotechnical Science and Engineering) da Universidade de Newcastle em colaboração com um membro da UNIC (Centro de Investigação em Estruturas de Construção da FCT/UNL) que tem vindo a desenvolver a sua própria linha de investigação, que se materializou na implementação, em CUDA, de um algoritmo para GPUs que possibilita simulações de sistemas com um elevado número de partículas. O trabalho apresentado consiste na otimização, assente na premissa da não alteração (ou alteração mínima) do código original, da supracitada implementação, de forma a obter melhorias significativas tanto no tempo global de execução da aplicação, como no aumento do número de partículas a simular. Ao mesmo tempo, valida-se a formulação proposta ao conseguir simulações que refletem, com grande precisão, os fenómenos físicos. Com as otimizações realizadas, conseguiu-se obter uma redução de cerca de 30% do tempo inicial cumprindo com os requisitos de correção e precisão necessários.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As cheias são um dos mais comuns riscos naturais para a humanidade. Existe a necessidade de identificar o perigo e o risco associado de forma a sustentar as decisões no âmbito das políticas de gestão às diferentes escalas. A severidade das cheias repentinas na bacia hidrográfica do rio Cavaco, na província de Benguela, em Angola, tem sido frequentemente nefasta tanto a nível humano e material, como para as atividades socioeconómicas no território, especialmente no Vale do Cavaco e nas zonas ribeirinhas da cidade de Benguela. Desta forma, é necessária uma avaliação integrada do regime hidrológico do rio Cavaco e a modelação das condições físicas e meteorológicas. Dada a inexistência de dados hidrométricos para trabalhar foram utilizados unicamente os dados pluviométricos históricos e a informação disponível sobre a bacia hidrográfica para para caraterizar escoamento na bacia. Com recurso à extensão para o ArcGIS HEC-GeoHMS e do modelo matemático HEC-HMS construiu-se um modelo da bacia hidrográfica que permitiu a simulação de diferentes eventos de precipitação intensa, para diferentes condições da bacia hidrográfica. Por último, a introdução de reservatórios no modelo permitiu tirar conclusões quanto aos efeitos de uma possível retenção de água a montante. A construção do modelo da bacia permitiu a caraterização empírica do nível de cheias para episódios de precipitação extrema com duração de 24 horas, tendo-se comparado posteriormente os resultados com a informação encontrada sobre cheias na bacia em estudo. No futuro, uma avaliação do risco de cheia irá permitir a adequação de medidas de prevenção e mitigação dos danos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO: O cancro de mama e o mais frequente diagnoticado a indiv duos do sexo feminino. O conhecimento cientifico e a tecnologia tem permitido a cria ção de muitas e diferentes estrat egias para tratar esta patologia. A Radioterapia (RT) est a entre as diretrizes atuais para a maioria dos tratamentos de cancro de mama. No entanto, a radia ção e como uma arma de dois canos: apesar de tratar, pode ser indutora de neoplasias secund arias. A mama contralateral (CLB) e um orgão susceptivel de absorver doses com o tratamento da outra mama, potenciando o risco de desenvolver um tumor secund ario. Nos departamentos de radioterapia tem sido implementadas novas tecnicas relacionadas com a radia ção, com complexas estrat egias de administra ção da dose e resultados promissores. No entanto, algumas questões precisam de ser devidamente colocadas, tais como: E seguro avançar para tecnicas complexas para obter melhores indices de conformidade nos volumes alvo, em radioterapia de mama? O que acontece aos volumes alvo e aos tecidos saudaveis adjacentes? Quão exata e a administração de dose? Quais são as limitações e vantagens das técnicas e algoritmos atualmente usados? A resposta a estas questões e conseguida recorrendo a m etodos de Monte Carlo para modelar com precisão os diferentes componentes do equipamento produtor de radia ção(alvos, ltros, colimadores, etc), a m de obter uma descri cão apropriada dos campos de radia cão usados, bem como uma representa ção geometrica detalhada e a composição dos materiais que constituem os orgãos e os tecidos envolvidos. Este trabalho visa investigar o impacto de tratar cancro de mama esquerda usando diferentes tecnicas de radioterapia f-IMRT (intensidade modulada por planeamento direto), IMRT por planeamento inverso (IMRT2, usando 2 feixes; IMRT5, com 5 feixes) e DCART (arco conformacional dinamico) e os seus impactos em irradia ção da mama e na irradia ção indesejada dos tecidos saud aveis adjacentes. Dois algoritmos do sistema de planeamento iPlan da BrainLAB foram usados: Pencil Beam Convolution (PBC) e Monte Carlo comercial iMC. Foi ainda usado um modelo de Monte Carlo criado para o acelerador usado (Trilogy da VARIAN Medical Systems), no c odigo EGSnrc MC, para determinar as doses depositadas na mama contralateral. Para atingir este objetivo foi necess ario modelar o novo colimador multi-laminas High- De nition que nunca antes havia sido simulado. O modelo desenvolvido est a agora disponí vel no pacote do c odigo EGSnrc MC do National Research Council Canada (NRC). O acelerador simulado foi validado com medidas realizadas em agua e posteriormente com c alculos realizados no sistema de planeamento (TPS).As distribui ções de dose no volume alvo (PTV) e a dose nos orgãos de risco (OAR) foram comparadas atrav es da an alise de histogramas de dose-volume; an alise estati stica complementar foi realizadas usando o software IBM SPSS v20. Para o algoritmo PBC, todas as tecnicas proporcionaram uma cobertura adequada do PTV. No entanto, foram encontradas diferen cas estatisticamente significativas entre as t ecnicas, no PTV, nos OAR e ainda no padrão da distribui ção de dose pelos tecidos sãos. IMRT5 e DCART contribuem para maior dispersão de doses baixas pelos tecidos normais, mama direita, pulmão direito, cora cão e at e pelo pulmão esquerdo, quando comparados com as tecnicas tangenciais (f-IMRT e IMRT2). No entanto, os planos de IMRT5 melhoram a distribuição de dose no PTV apresentando melhor conformidade e homogeneidade no volume alvo e percentagens de dose mais baixas nos orgãos do mesmo lado. A t ecnica de DCART não apresenta vantagens comparativamente com as restantes t ecnicas investigadas. Foram tamb em identi cadas diferen cas entre os algoritmos de c alculos: em geral, o PBC estimou doses mais elevadas para o PTV, pulmão esquerdo e cora ção, do que os algoritmos de MC. Os algoritmos de MC, entre si, apresentaram resultados semelhantes (com dferen cas at e 2%). Considera-se que o PBC não e preciso na determina ção de dose em meios homog eneos e na região de build-up. Nesse sentido, atualmente na cl nica, a equipa da F sica realiza medi ções para adquirir dados para outro algoritmo de c alculo. Apesar de melhor homogeneidade e conformidade no PTV considera-se que h a um aumento de risco de cancro na mama contralateral quando se utilizam t ecnicas não-tangenciais. Os resultados globais dos estudos apresentados confirmam o excelente poder de previsão com precisão na determinação e c alculo das distribui ções de dose nos orgãos e tecidos das tecnicas de simulação de Monte Carlo usados.---------ABSTRACT:Breast cancer is the most frequent in women. Scienti c knowledge and technology have created many and di erent strategies to treat this pathology. Radiotherapy (RT) is in the actual standard guidelines for most of breast cancer treatments. However, radiation is a two-sword weapon: although it may heal cancer, it may also induce secondary cancer. The contralateral breast (CLB) is a susceptible organ to absorb doses with the treatment of the other breast, being at signi cant risk to develop a secondary tumor. New radiation related techniques, with more complex delivery strategies and promising results are being implemented and used in radiotherapy departments. However some questions have to be properly addressed, such as: Is it safe to move to complex techniques to achieve better conformation in the target volumes, in breast radiotherapy? What happens to the target volumes and surrounding healthy tissues? How accurate is dose delivery? What are the shortcomings and limitations of currently used treatment planning systems (TPS)? The answers to these questions largely rely in the use of Monte Carlo (MC) simulations using state-of-the-art computer programs to accurately model the di erent components of the equipment (target, lters, collimators, etc.) and obtain an adequate description of the radiation elds used, as well as the detailed geometric representation and material composition of organs and tissues. This work aims at investigating the impact of treating left breast cancer using di erent radiation therapy (RT) techniques f-IMRT (forwardly-planned intensity-modulated), inversely-planned IMRT (IMRT2, using 2 beams; IMRT5, using 5 beams) and dynamic conformal arc (DCART) RT and their e ects on the whole-breast irradiation and in the undesirable irradiation of the surrounding healthy tissues. Two algorithms of iPlan BrainLAB TPS were used: Pencil Beam Convolution (PBC)and commercial Monte Carlo (iMC). Furthermore, an accurate Monte Carlo (MC) model of the linear accelerator used (a Trilogy R VARIANR) was done with the EGSnrc MC code, to accurately determine the doses that reach the CLB. For this purpose it was necessary to model the new High De nition multileaf collimator that had never before been simulated. The model developed was then included on the EGSnrc MC package of National Research Council Canada (NRC). The linac was benchmarked with water measurements and later on validated against the TPS calculations. The dose distributions in the planning target volume (PTV) and the dose to the organs at risk (OAR) were compared analyzing dose-volume histograms; further statistical analysis was performed using IBM SPSS v20 software. For PBC, all the techniques provided adequate coverage of the PTV. However, statistically significant dose di erences were observed between the techniques, in the PTV, OAR and also in the pattern of dose distribution spreading into normal tissues. IMRT5 and DCART spread low doses into greater volumes of normal tissue, right breast, right lung, heart and even the left lung than tangential techniques (f-IMRT and IMRT2). However,IMRT5 plans improved distributions for the PTV, exhibiting better conformity and homogeneity in target and reduced high dose percentages in ipsilateral OAR. DCART did not present advantages over any of the techniques investigated. Di erences were also found comparing the calculation algorithms: PBC estimated higher doses for the PTV, ipsilateral lung and heart than the MC algorithms predicted. The MC algorithms presented similar results (within 2% di erences). The PBC algorithm was considered not accurate in determining the dose in heterogeneous media and in build-up regions. Therefore, a major e ort is being done at the clinic to acquire data to move from PBC to another calculation algorithm. Despite better PTV homogeneity and conformity there is an increased risk of CLB cancer development, when using non-tangential techniques. The overall results of the studies performed con rm the outstanding predictive power and accuracy in the assessment and calculation of dose distributions in organs and tissues rendered possible by the utilization and implementation of MC simulation techniques in RT TPS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma das tarefas mais relevantes deste trabalho foi a análise dos resultados de medição obtidos sobre os padrões de rugosidade, que permitiu identificar tendências dos resultados de medição de parâmetros de rugosidade pré-definidos, em função das condições de medição (ex.: comprimento total de medição, inclinação, tipo de apalpador). O estudo de quanto um valor de inclinação diferente do definido como critério de aceitação, influencia o valor do parâmetro de rugosidade em avaliação, foi um outro objectivo. Os resultados contribuíram para uma melhor definição das condições a ter em consideração aquando da calibração de padrões de rugosidade, bem como para uma melhor reprodutibilidade dos resultados obtidos (exactidão de medição) e redução do balanço de incertezas. Com a verificação e calibração in situ de um rugosímetro industrial, concluiu-se acerca da importância que a calibração tem nos equipamentos de medição de rugosidade (perfilómetros de contacto ou rugosímetros), através da avaliação da compatibilidade de resultados obtidos com um rugosímetro do Laboratório Nacional de Metrologia (LNM) e de um rugosímetro industrial. Dos trabalhos efectuados, averiguou-se a importância das normas técnicas que constituem a base do serviço de calibração de padrões de rugosidade, bem como da calibração dos sistemas de medição dos rugosímetros, nos resultados de medição e controlo de qualidade das superfícies. A calibração deve ser efectuada periodicamente e antes de qualquer medição da superfície em análise, através da utilização de padrões de rugosidade calibrados para os parâmetros a controlar. Estes podem variar de superfície para superfície. O trabalho desenvolvido no decurso da elaboração da Dissertação decorreu principalmente no Laboratório de Comprimento (LCO) do Departamento de Metrologia do Instituto Português da Qualidade (IPQ), em particular na área de trabalho do Laboratório correspondente à “Forma e Rugosidade”, em estreita colaboração com o Departamento de Engenharia Mecânica e Industrial (DEMI) da FCT/UNL. Simultaneamente, a verificação e a calibração de um rugosímetro industrial in situ foi possível graças à estreita colaboração existente entre a FCT/UNL-DEMI e o Instituto de Ciência e Engenharia de Materiais e Superfícies (ICEMS). Posteriormente à calibração do rugosímetro, as rugosidades de superfícies típicas de componentes mecânicos, obtidos por diferentes processos de fabrico (fundição, polimento e corte por serra), foram medidas, encontrando-se dentro da gama expectável de rugosidades

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A técnica de Ensaios Não Destrutivos (END) baseada em células bacterianas (CB) foi proposta recentemente e tem demonstrado viabilidade na identificação de micro defeitos superficiais, com espessuras e profundidades inferiores a 5 μm, em vários materiais de engenharia. O conhecimento processual já é significativo, mas diversos aspectos carecem de desenvolvimentos, nomeadamente, a interacção das bactérias com outros materiais, o limiar de detectabilidade da técnica, a aplicação a defeitos naturais ou o comportamento dinâmico das bactérias sujeitas a campos eléctricos ou magnéticos. Este trabalho pretendeu ser um passo em frente no conhecimento da técnica. Os principais objectivos foram alargar a documentação sobre a interacção bactéria-material, determinar o menor defeito padrão possível de detectar, estabelecer e validar um modelo analítico da dinâmica das bactérias sujeitas a forças exteriores, e comparar o desempenho da técnica com os END por líquidos penetrantes (LP). Foi desenvolvido e testado um protótipo para aplicação de campos magnéticos permanentes triaxiais. A bactéria Rhodococcus erythropolis foi usada na inspecção dos materiais AA1100, AISI 316L, WC, titânio, NiTi, ouro, ABS e lentes oftálmicas, com defeitos padrão por micro e nano indentação e riscagem, assim como os defeitos existentes em soldaduras laser. A técnica foi testada nos padrões de sensibilidade dos LP para efeitos de comparação. Verificou-se que é possível identificar defeitos de nano indentação com largura e profundidades de aproximadamente 5,3 μm e 0,4 μm, respectivamente, e que também são identificados os defeitos dos padrões sensibilidade dos LP, com cerca de 1 μm de espessura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O creme de pasteleiro é uma das preparações clássicas mais utilizadas em pastelaria e a principal base para recheios de diversos produtos. Apesar de ser profusamente utilizado, este creme tem um conjunto de limitações que a serem ultrapassadas permitiriam obter produtos com melhores propriedades organolépticas e um maior tempo de vida útil em prateleira. Tem ainda o inconveniente de não poder ser submetido a processos de congelamento e descongelamento devido à ocorrência de sinérese. O objectivo do presente trabalho foi desenvolver um creme com características funcionais idênticas às do creme pasteleiro clássico, mas sem as limitações referidas, nomeadamente um creme com uma melhor textura e libertação de aromas, que não forme um filme à superfície ao arrefecer e que possa ser submetido a processos de congelamento/descongelamento. Através de análises de textura e reologia, avaliou-se o efeito da substituição do amido por goma xantana e goma xantana de rápida dispersão (RD). Tendo-se verificado que a goma xantana RD permitia obter resultados mais compatíveis com a funcionalidade pretendida. Para avaliação do efeito do texturizante usado na libertação de aromas, prepararam-se cremes de pasteleiro aromatizados com maracujá. Usando como técnica a microextração em fase sólida do headspace (HS-SPME) e a cromatografia gasosa-espectrometria de massa (GC-MS) levou-se a cabo uma comparação do perfil de libertação de compostos voláteis dos cremes com amido de milho e goma xantana RD. Finalmente, para avaliar a aceitação por parte do consumidor, foram realizados testes de análise sensorial. Os resultados obtidos permitem concluir que o produto desenvolvido tem características reológicas adequadas para poder ser usado em substituição do creme de pasteleiro clássico, apresentando ainda vantagens, nomeadamente: uma boa performance quando submetido a processos de congelamento/descongelamento, um maior tempo de prateleira, melhores características organolépticas, nomeadamente uma textura mais agradável e uma melhor libertação de aromas. Estes resultados levam-nos a sugerir que este novo produto pode ter um impacto significativo na confeção de pastelaria do ponto de vista da qualidade e gestão de trabalho.