1000 resultados para método global
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Civil - Perfil de Estruturas
Resumo:
Os vírus linfotrópicos de células T humanas, quando integrados ao genoma da célula hospedeira, provírus, têm como marcador de replicação seu DNA proviral. A carga proviral parece ser um importante fator no desenvolvimento de patologias associadas a estes retrovírus. Neste estudo foi desenvolvida uma metodologia para quantificação absoluta da carga proviral dos HTLV-1 e HTLV-2 através da PCR em tempo real. Cinqüenta e três amostras de doadores de sangue com teste de ELISA reagente foram submetidas à metodologia, que utilizou o sistema TaqMan® para três seqüências alvo: HTLV-1, HTLV-2 e albumina. A quantificação proviral absoluta foi determinada através da proporção relativa entre o genoma do HTLV e o genoma da célula hospedeira, levando em consideração o número de leucócitos. O método apresentado é sensível (215 cópias/mL), prático e simples para quantificação proviral, além de eficiente e adequado para confirmação e discriminação da infecção pelos tipos virais.
Resumo:
RESUMO:RESUMO: Nos últimos anos a ultrassonografia emergiu como um instrumento importante no diagnóstico da patologia torácica. O progresso tecnológico possibilitou a conceção de novos equipamentos como a ecoendoscopia brônquica radial e linear. Verificou-se, igualmente, o aparecimento de indicações para a realização de ecografia transtorácica. Uma das principais doenças impulsionadoras da técnica ultrassonográfica no tórax foi o cancro do pulmão, primeira causa de morte oncológica a nível mundial. A aplicabilidade e conhecimento do papel dos ultrassons no âmbito do diagnóstico e estadiamento do cancro do pulmão não se encontram esgotados, persistindo focos de controvérsia e dúvida científica que se pretendem esclarecer. A presente tese foi organizada em cinco capítulos: o primeiro abordou de forma geral e introdutória o estado da arte referente à ultrassonografia torácica, cancro do pulmão e a sua conjugação; o segundo destacou os principais objetivos; o terceiro sumarizou a metodologia utilizada; o quarto englobou os cinco estudos publicados, descritos subsequentemente, e o quinto incluiu uma discussão concisa, as principais conclusões e perspetivas futuras. O primeiro estudo avaliou a rentabilidade diagnóstica, segurança e curva de aprendizagem num coorte de 179 doentes submetidos a ecoendoscopia brônquica linear. De acordo com as indicações para este procedimento os doentes foram subdivididos em três grupos: (1) diagnóstico, (2) diagnóstico e estadiamento e (3) estadiamento. Para o primeiro, segundo e terceiro grupos a sensibilidade da ecoendoscopia foi 86.1%, 86.7% e 95% respetivamente e a precisão técnica foi 87.5%, 93.1% e 97.7% respetivamente. O treino originou um aumento progressivo do número de locais puncionados por doente, com menor duração e sem complicações, comprovando a eficácia e segurança do método quando realizado na população Portuguesa por broncologistas com experiência. O segundo estudo foi conduzido para averiguar a eficácia e custo da ecoendoscopia brônquica linear realizada através da via aérea e/ou esófago no diagnóstico de lesões sugestivas de neoplasia do pulmão, após ineficácia das técnicas convencionais. Nos doentes incluídos prospetivamente alcançou-se um diagnóstico definitivo em 106 casos (87.6%). A sensibilidade global para o diagnóstico de cancro do pulmão foi 89.8%, a especificidade foi 100%, o valor preditivo positivo foi 100%, o valor preditivo negativo foi 20% e a precisão foi 90.1%. Esta estratégia ultrassonográfica abrangente evitou intervenções cirúrgicas diagnósticas em doentes anteriormente submetidos a broncoscopia flexível ou punção aspirativa transtorácica guiada por tomografia computorizada, proporcionando uma redução significativa dos custos. No terceiro estudo investigou-se a viabilidade e papel da conjugação da ecoendoscopia brônquica linear com técnicas moleculares na avaliação de antigénios tumorais e padrões de metastização ganglionar em doentes com cancro do pulmão de não-pequenas células (CPNPC). Os marcadores citoqueratina 19 (CK-19), antigénio carcinoembrionário (CEA), molécula de adesão celular epitelial (EPCAM), sialyl-Lewis X e CD44 foram determinados nos aspirados ganglionares de 33 doentes com neoplasia e 17 controlos 10 Ultrassonografia através de citometria de fluxo (CF) e reação em cadeia da polimerase em tempo real (RTPCR). Os doentes com CPNPC possuíam um compartimento celular epitelial significativamente aumentado e com marcação superior de CK-19 comparativamente ao grupo de controlo. O compartimento imune foi também analisado nestas amostras e revelou-se alterado no CPNPC com aumento da população de monócitos e diminuição das subpopulações linfocitárias. Os transcriptos de CK-19, CEA e EPCAM estavam elevados nos doentes com cancro do pulmão, identificando-se uma correlação positiva entre estes marcadores e o tamanho da lesão primária. Concluiu-se que a identificação de CK-19, CEA e EPCAM nas amostras obtidas por ecoendoscopia e avaliadas por CF e RTPCR foi viável, podendo auxiliar na deteção de metástases ganglionares no CPNPC. O quarto estudo envolveu a combinação da ecoendoscopia brônquica radial com uma criosonda para o diagnóstico de lesões pulmonares sólidas periféricas. Foi determinada a viabilidade, rentabilidade diagnóstica, tamanho das amostras e segurança do método. Lesões inferiores a 40mm foram localizadas por ultrassonografia sendo os doentes randomizados para a realização de biópsias transbrônquicas com pinça seguidas por criosonda ou vice-versa. Nos 39 casos incluídos a lesão foi visualizada pela minisonda em 31 doentes (79.5%), com 80.6% de prevalência de cancro do pulmão na amostra. A rentabilidade diagnóstica da pinça de biópsia foi 61.3% e da criosonda foi 74.2%. O tamanho do tecido adquirido pelas criobiópsias foi significativamente maior do que o alcançado por pinça (11.17mm2 vs. 4.69mm2, p<0.001). Ocorreu um único caso de hemorragia moderada, controlada através de medidas conservadoras. As biópsias transbrônquicas com criosonda sob orientação de ecoendoscopia radial foram seguras e eficazes na obtenção de amostras histológicas. O quinto estudo determinou o valor diagnóstico da ecografia transtorácica na identificação de malignidade em doentes com derrame pleural de natureza indeterminada. Foram examinados de forma prospetiva 154 doentes. Os resultados clínicos e radiológicos de cada caso foram ocultados ao executante do exame que gerou imagens estáticas e vídeos ultrassonográficos relevantes. Estes foram posteriormente visualizados, sendo as suas características classificadas por revisores independentes e comparadas com o diagnóstico definitivo. Em 66 casos o diagnóstico foi de derrame pleural maligno (68.2% com cancro do pulmão) e em 67 de derrame benigno. A ecografia torácica obteve 80.3% de sensibilidade, 83.6% de especificidade, 81.2% de valor preditivo negativo e 82.8% de valor preditivo positivo na deteção de malignidade. A nodularidade pleural ou diafragmática, espessamento pleural superior a 10mm e sinal de swirling foram significativamente diferentes (p<0.001) sendo sugestivos de derrame maligno. A existência de nodularidade pleural e ausência de broncograma aéreo ecográfico aumentaram a probabilidade de malignidade (OR 29.0 e OR 10.4, respetivamente). A ecografia transtorácica permitiu diferenciar derrame pleural maligno do benigno. A existência de nódulos pleurais constituiu o fator discriminador mais relevante. Em conclusão, os resultados desta tese possibilitam uma melhor compreensão do papel da ecoendoscopia brônquica (linear e radial) e ecografia transtorácica no diagnóstico e estadiamento do cancro do pulmão, com implicações e aplicabilidade na prática clínica.------------- ABSTRACT: In recent years ultrasonography has emerged as an important instrument in the diagnosis of thoracic diseases. Technological progress has enabled the design of new equipment such as radial and linear endobronchial ultrasound. In addition, indications for transthoracic echography were established. One of the main diseases responsible for the progression of chest sonography was lung cancer, the leading cause of cancer mortality worldwide. The applicability and knowledge of the role of ultrasonography in diagnosing and staging lung cancer is not depleted, persisting foci of controversy and scientific doubt that we intend to elucidate. The present thesis was organized into five chapters: the first included a general introduction regarding chest ultrasound, lung cancer and their combination; the second emphasized the main objectives; the third summarized the methodology used; the fourth encompassed the five published studies, subsequently described, and the fifth included a concise discussion, the main findings and future perspectives. The first study evaluated the diagnostic yield, safety and learning curve in a cohort of 179 patients submitted to linear endobronchial ultrasound. According to procedure indications, the patients were divided into three groups: (1) diagnosis, (2) diagnosis and staging, and (3) staging. For the first, second and third groups, endobronchial ultrasound sensitivity was 86.1%, 86.7% and 95% respectively and accuracy was 87.5%, 93.1% and 97.7% respectively. Practise led to an increase number of punctured sites per patient, in a shorter period of time and without complications, proving the safety and efficacy of the method when performed in the Portuguese population by expert echoscopists. The second study was conducted to determine the efficacy and cost of linear endobronchial ultrasound performed through the airway and/or oesophagus for diagnosis of lesions suggestive of lung cancer, after failure of conventional techniques. Of the patients prospectively enrolled a definitive diagnosis was reached in 106 cases (87.6%). The overall sensitivity for the diagnosis of lung cancer was 89.8%, specificity was 100%, positive predictive value was 100%, negative predictive value was 20% and accuracy was 90.1%. In conclusion, this global ultrasonographic strategy avoided diagnostic surgical procedures in patients that had undergone flexible bronchoscopy or computed tomography-guided transthoracic needle aspiration, providing a significant cost reduction. In the third study, the feasibility and role of linear endobronchial ultrasound combined with molecular techniques in the evaluation of tumour antigens and patterns of lymph node metastasis in patients with non-small cell lung cancer (NSCLC) was investigated. Cytokeratin 19 (CK-19), carcinoembryonic antigen (CEA), epithelial cell adhesion molecule (EPCAM), sialyl Lewis-X and CD44 were determined in lymph node aspirates of 33 lung cancer patients and 17 controls, using flow cytometry (FC) and reverse transcription polymerase chain reaction (RT-PCR). In patients with NSCLC the epithelial cell compartment was significantly increased nd showed brighter CK-19 staining, compared to the control group. In NSCLC patients the immune compartment revealed an increased monocyte population and decreased lymphocyte subsets. The transcripts of CK- 19, CEA and EPCAM were higher in lung cancer patients and a positive correlation between these markers and the size of the primary lesion was also found. We concluded that the identification of CK-19, CEA and EPCAM in endobronchial ultrasound samples, using RT-PCR and FC was feasible and might aid in the detection of NSCLC lymph node metastases. The fourth study involved the combination of the radial endobronchial ultrasound with the cryoprobe for diagnosing solid peripheral lung lesions. We determined the feasibility, diagnostic yield, sample size and safety of the method. Lesions less than 40mm were located by ultrasound and forceps or cryobiopsies were performed in a randomized order. Of the 39 cases included, the lesion could be visualized by the miniprobe in 31 patients (79.5%), and lung cancer prevalence was 80.6%. The diagnostic yield of the biopsy forceps was 61.3% and for the cryobiopsy was 74.2 %. Cryobiopsies were significantly larger than forceps biopsies (11.17mm2 vs. 4.69mm2, p<0.001). There was only one case of moderate bleeding that was controlled by conservative measures. Transbronchial cryobiopsies under radial endobronchial ultrasound guidance were safe and effective in obtaining histological samples. The fifth study determined the diagnostic value of transthoracic sonography in predicting malignancy in patients with an undiagnosed pleural effusion. One hundred and fifty four patients were prospectively scanned. Relevant ultrasound images and videos were generated by an operator blinded to clinical and radiological results. These were subsequently visualized, its characteristics classified by independent reviewers and compared to the final diagnosis. A malignant pleural effusion was diagnosed in 66 cases (68.2 % with lung cancer) and a benign effusion in 67 cases. Thoracic ultrasound had a sensitivity of 80.3 %, specificity of 83.6%, negative predictive value of 81.2 % and positive predictive value of 82.8% to detect malignancy. The presence of pleural or diaphragmatic nodularity, pleural thickening greater than 10mm and swirling signal were significantly different (p<0.001 ), being suggestive of malignant effusion. The existence of pleural nodularity and absence of lung air bronchogram were more likely to indicate malignancy (OR 29.0 and OR 10.4, respectively). Transthoracic ultrasonography permits the distinction between malignant and benign pleural effusions. Pleural nodules were the most relevant feature. In conclusion, the results of this thesis provide a better understanding of the role of endobronchial ultrasound (linear and radial) and transthoracic sonography in lung cancer diagnosis and staging, with direct implications and applicability in clinical practice.
Resumo:
Quando utilizadas, em conjunto, a hemaglutinação indireta, a imunofluorescência indireta e ELISA para diagnóstico sorológico da doença de Chagas por vezes ocorrem resultados considerados discordantes, por não haver concordância entre o que indicam essas técnicas. A disponibilidade do método quimioluminescente-ELISA permitiu executá-lo com 200 soros que examinados pelos três testes citados que motivaram a obtenção de resultados discordantes. Com o método quimioluminescente-ELISA sucederam 193 negativos e sete positivos. O emprego desse novo procedimento trouxe mais um subsídio para compreensão do assunto, mas avanço mais concreto dependerá de documentação com soros de pessoas infectadas ou não pelo Trypanosoma cruzi conforme comprovação parasitológica.
Resumo:
As vitaminas são substâncias orgânicas presentes em muitos alimentos, em pequenas quantidades e indispensáveis ao funcionamento do organismo. A ausência sistemática destas resulta, quase sempre, em crescimento e desenvolvimento deficientes e em casos extremos pode conduzir a doenças graves, como por exemplo, a demência (vitaminas do complexo B), o raquitismo (vitamina D), o escorbuto (vitamina C). Em 1968 a American Food and Nutrition Board reconheceu oficialmente a vitamina E como um nutriente essencial para os seres humanos, pois possui uma importante função no organismo, como antioxidante, ao inibir a oxidação de lípidos insaturados e ao prevenir o dano oxidativo celular pela inativação de radicais livres e espécies reativas de oxigênio. O interesse nesta vitamina é cada vez maior, devido às funções que desempenha no organismo como agente antioxidante, envolvido no retardamento do envelhecimento e na proteção de doenças crônicas não transmissíveis, como Parkinson, Alzheimer, cancro e doenças cardiovasculares. O presente trabalho tem como objetivo a implementação e validação de um método de pesquisa e quantificação da vitamina E na manteiga por cromatografia líquida de alta eficiência, no laboratório de Química da empresa SGS, expandindo desta forma, as capacidades da empresa nesta área. Para tal foram avaliados parâmetros como linearidade, limites de deteção e quantificação, repetibilidade, precisão intermédia e exatidão. Os resultados mostram que o método é linear para uma gama de trabalho entre 5,00 e 50,00 mg/L com um limite de deteção e quantificação de 1,27 mg/L e 3,84 mg/L, respetivamente. O método apresentou repetibilidade e precisão intermédia aceitáveis, com coeficientes de variação inferiores a 5%, limite de repetibilidade de 1,37 mg/kg e variabilidade de resultados associados ao método de 0,19 mg/L. A exatidão do método foi aferida recorrendo a ensaios de recuperação, tendo-se obtido percentagens de recuperação médias superiores a 80%.
Resumo:
O tema da presente dissertação inscreve-se na complexa problemática da informação de suporte à tomada de decisão de infraestruturas básicas, com destaque para as denominadas “Trans European Networks – TENS”, infraestruturas de transportes, energia e telecomunicações. Tais processos de decisão, para além das abordagens mais comuns utilizadas nos Estudos de Impacte Ambiental (EIA), podem (devem?) considerar outras perspetivas assentes em considerações de impactes no ciclo de vida, em concreto a Análise do Ciclo de Vida (ACV), e integrar abordagens de procura de sustentabilidade nas vertentes económicas, ambiental e social. Aí chegados, estaremos mais próximos das estradas com melhor desempenho ambiental. A importância do tema firma-se na constatação da ansiedade e expectativas que normalmente envolvem os processos de decisão deste tipo de infraestruturas, principalmente quando as pessoas tomam conhecimento (1) que a sua concretização pode gerar impactes negativos no ambiente, de forma não limitada ao espaço local onde se inserem, mas antes causando efetivos danos ambientais a uma escala mais global. Nestas circunstâncias é comum sobrevirem processos de tensão entre as necessidades locais, promotoras dos empreendimentos, e as dinâmicas globais, conflitos que podem ser evitados, ou pelo menos atenuados, na medida em que os respetivos processos de decisão sejam mais informados e mais esclarecidos e esclarecedores da opinião pública. Não há dúvida que este género de projetos/empreendimentos/infraestruturas serão tendencialmente mais bem aceites pela Sociedade na medida em que sejam vistos local, regional e globalmente, como “ambientes construídos” que se baseiam na eficiência dos recursos e em princípios ecológicos saudáveis, que contribuem para o desenvolvimento económico, para a melhoria das condições de vida das populações e para a coesão social e territorial.Para um processo de decisão ser convenientemente instruído, é crucial que realce todos estes aspetos perante a sociedade. A estrutura adotada no trabalho articula uma primeira parte de embasamento teórico, com uma segunda parte que experiencia o estudo de um caso concreto, a abordagem de sustentabilidade na procura de uma estrada com satisfatório desempenho ambiental.
Resumo:
O método CSF, recentemente proposto para diagnóstico de helmintíases intestinais foi comparado com outros (direto; Faust e cols; sedimentação espontânea em água; Kato-Katz) habitualmente usados com essa finalidade. Houve desempenho satisfatório, revelando que tal técnica pode ser adotada em tarefas para diagnóstico ou análise epidemiológicas.
Resumo:
A caracterização do trigo através de parâmetros estruturais, de processamento e de composição química, permite antecipar a sua aptidão tecnológica. As análises físico-químicas e reológicas aplicadas à farinha permitem avaliar e predizer o seu comportamento no processo de panificação. Foram estudados dois tipos de farinha de trigo a nível físico-químico, tendo-se determinado a humidade, cinza, proteína, glúten (húmido e seco) e capacidade de retenção de solventes, e a nível reológico, tendo-se realizado as avaliações alveográficas e farinográficas. Pretendeu-se aplicar o método da capacidade de retenção de solventes, que mede a capacidade de retenção de cada um de quatro solventes (água e soluções de ácido láctico, carbonato de sódio e sacarose) após centrifugação para determinação da qualidade das farinhas destinadas a produtos de panificação. Na farinha T65P2 verificou-se uma forte correlação entre a capacidade de retenção de solventes do ácido láctico e a extensibilidade, e entre a capacidade de retenção de solventes da sacarose e a absorção obtida no ensaio farinográfico. Para a farinha T65P3 verificou-se uma correlação forte entre a capacidade de retenção de solventes da água e o teor em cinza. O método de capacidade de retenção de solventes tem um potencial de aplicação que merece ser estudado no sentido de melhorar a predição científica sobre a aptidão dos trigos e as características panificáveis de farinhas de trigo.
Resumo:
Os terramotos têm sido considerados uma das forças mais destrutivas e violentas da natureza, causando grandes tragédias e perdas económicas significativas. O objetivo principal do presente estudo é avaliar o comportamento global e local de três pontes pedonais, pré-fabricadas, durante a ação sísmica regulamentar. Através destas análises, pretende-se avaliar o risco de colapso das estruturas por “descalçamento” do tabuleiro e, caso necessário, propor soluções para evitar este fenómeno e melhorar o desempenho sísmico dos passadiços. No domínio de pontes, o “descalçamento dos apoios” é um tipo de rotura que pode ocorrer em estruturas com tramos simplesmente apoiados, onde os problemas surgem geralmente na interface de ligação tabuleiro-pilar, podendo conduzir ao derrubamento do primeiro. Este tipo de ligação é geralmente constituído por um conjunto de varões de aço – ferrolhos, chumbados verticalmente ao capitel do pilar e que atravessam placas de neoprene, ficando instalados no negativo das vigas. A selagem dos varões é normalmente realizada com argamassa de alta resistência. Os problemas que surgem neste tipo de ligação estão associados, a maior parte das vezes, à falta de manutenção e ao insuficiente comprimento de entrega do tabuleiro na zona dos aparelhos de apoio. A simulação do comportamento da estrutura durante as várias fases construtivas e aplicação de cargas, até ao colapso total, implica a utilização de uma ferramenta adequada. A modelação numérica foi efetuada com recurso ao programa de cálculo não-linear de estruturas Extreme Loading for Structures, baseado no Método dos Elementos Aplicados. O método considera os efeitos da não-linearidade física e geométrica, permitindo analisar o comportamento das estruturas durante a fase elástica e inelástica, passando pela cedência das armaduras, abertura e propagação de fendas até à separação dos elementos. Com base neste trabalho, foi possível verificar alterações significativas na resposta sísmica da estrutura, nomeadamente devido à eventual degradação dos ferrolhos.
Resumo:
Esta investigação visa estudar a forma como os materiais educativos em ambientes interactivos e dinâmicos, no CD-ROM da Escola Virtual, desenvolvem a competência dos alunos na aprendizagem da geometria e em particular, no tema relativo ao método cartesiano no plano. A metodologia de investigação insere-se no paradigma interpretativo e segue uma abordagem qualitativa. Foi seleccionada uma turma do 11.º ano de escolaridade de um curso profissional, de uma Escola Secundária do distrito de Lisboa. A recolha de dados decorreu ao longo de dois meses, e recorreu a técnicas diversas como observação das aulas, questionários, registo vídeo, entrevistas e seu registo áudio. Os resultados obtidos neste estudo permitem concluir que a utilização do CDROM da Escola Virtual foi muito vantajosa no desenvolvimento do método cartesiano do plano e que a interactividade e animação gráfica presente contribuíram para uma boa compreensão dos conteúdos. Contudo, verificou-se que as potencialidades, dinâmicas e interactivas desta ferramenta nem sempre são suficientes e eficazes para a compreensão e apropriação de conceitos, por parte dos alunos. Quando os alunos não conseguem acompanhar as explicações no CD-ROM, o professor tem um papel preponderante, no sentido de os orientar, na procura de informação, ou de os ajudar na superação das dificuldades. Também permitiu concluir, que a utilização do CD-ROM influenciou de modo positivo a motivação dos alunos e favoreceu o trabalho colaborativo. A aprendizagem dos conceitos matemáticos processou-se a partir das interacções entre os grupos e entre os elementos de cada grupo, e através das acções mediadas pelos artefactos, designadamente o CD-ROM da Escola Virtual e seus recursos.
Resumo:
A simulação dinâmica de reservatórios de petróleo requer a alocação de permeabilidades equivalentes para todos os blocos. A determinação da permeabilidade equivalente em reservatórios fraturados é uma questão complexa e crítica no fluxograma de modelação, porque é totalmente dependente da geometria 3D sistema de fraturas, e respetivas aberturas, que muitas vezes são mal conhecidos. Para avaliar a permeabilidade equivalente de blocos fraturados, o método do tensor ou de Oda é um dos mais utilizados. É expedito e eficiente mesmo para a sistemas com vários milhões de fraturas. Todavia, na literatura são apontadas algumas críticas, por exemplo, sobrestima a permeabilidade em blocos pouco fraturados e subestima-a em blocos muito fraturados. Este trabalho tem como objetivos, revisitar a problemática da caracterização da permeabilidade equivalente em blocos de reservatórios fraturados. Recorreu-se a um pacote de programas informáticos FROM3D-K (fractures object model – permeability evaluation) desenvolvidos e/ ou adaptados no contexto deste trabalho e que permitem as funcionalidades: (1) simulação estocástica 3D de fraturas; (2) determinação da permeabilidade equivalente pelo método do tensor; (3) determinação da permeabilidade equivalente pelo método de upscaling de microblocos. Estas funções permitem que a mesma rede de fraturas seja avaliada pelos dois métodos. Para a demonstração de resultados mostram-se dois exemplos, o primeiro onde são simuladas fraturas condicionadas a estatísticas sintéticas de orientação, intensidade e abertura e o segundo onde se utilizam dados FMI de poço de um reservatório fraturado.
Resumo:
As micoses estão incluídas entre as doenças infecciosas mais ubíquas em todo o mundo, afectando todos os estratos sociais e todos os grupos etários numa variedade de manifestações superficiais, cutâneas, subcutâneas e sistémicas. Um diagnóstico rápido e eficaz destas doenças, com uma correcta identificação da espécie fúngica responsável pela infecção, é essencial para um planeamento do tratamento mais eficaz para o doente infectado. Tem-se registado um aumento da incidência das infecções fúngicas também em consequência do aumento do número de casos de doentes imunodeprimidos, devido particularmente à crescente utilização de terapêuticas imunossupressivas, procedimentos médicos invasivos, prescrição de tratamentos prolongados, entre outros aspectos. O aparecimento da epidemia da Imunodeficiência Humana no início da década de 80, causada pelo vírus VIH, contribuiu também decisivamente para o aumento das infecções fúngicas oportunistas. A Criptococose é uma infecção fúngica, predominantemente oportunista e com uma distribuição epidemiológica mundial, causada por leveduras encapsuladas do género Cryptococcus. A espécie clinicamente mais relevante é Cryptococcus neoformans, cujas estirpes têm sido tradicionalmente classificadas em cinco serotipos relacionados com os antigénios da respectiva cápsula polissacárida: A (C. neoformans var. grubii); D (C. neoformans var. neoformans); B e C (actualmente reconhecidos como uma espécie distinta mas filogeneticamente próxima, C. gattii); e AD (estirpes híbridas). O presente trabalho teve como principal objectivo determinar retrospectivamente os tipos moleculares de uma colecção alargada de estirpes de C. neoformans, isoladas e mantidas durante os últimos 18 anos no Laboratório de Micologia do IHMT/UNL. A maioria das estirpes foi isolada de doentes imunodeprimidos com criptococose, existindo também algumas estirpes de origem ambiental. Foi utilizada a técnica de PCR-RFLP do gene URA5 para diferenciar as estirpes de Cryptococcus neoformans, tendo sido detectados quatro tipos moleculares: VN1 e VN2 (relacionados com C. neoformans var. grubii, serotipo A); VN3 (relacionado com as estirpes híbridas de serotipo AD); e VN4 (relacionado com C. neoformans var. neoformans, serotipo D). Não foram encontrados entre os isolados de origem clínica perfis de restrição correspondentes aos tipos moleculares VG1, VG2, VG3 e VG4 (relacionados com C. gattii, serotipos B e C). O tipo molecular VN1 foi o mais abundante entre os isolados de origem clínica (45% dos isolados), seguindo-se o grupo de 5 estirpes híbridas do tipo molecular VN3 (31%). Os tipos moleculares menos abundantes entre os isolados foram o VN2 (12%) e VN4 (12%). A estandardização do método de tipagem molecular utilizado neste trabalho permite comparar os resultados obtidos com os de outros estudos epidemiológicos semelhantes, realizados noutras regiões do globo e publicados em anos recentes, contribuindo para um conhecimento melhorado da epidemiologia global deste importante fungo patogénico. Em Portugal obteve-se uma percentagem mais elevada de isolados dos grupos moleculares VN1 e VN3 em relação a outros países da Europa e América Latina, em que os tipos mais abundantes são VN1 e VN2. Nestas mesmas regiões, o tipo molecular VN4, relacionado com as estirpes de C. neoformans var. neoformans do serotipo D, é muito raro. Esta variedade é mais comum em zonas mediterrâneas e está muito associada a casos clínicos de infecções cutâneas associadas a infecções do Sistema Nervoso Central. Este tipo molecular parece ser também significativamente mais abundante no nosso país.
Automatização do sistema de alinhamento utilizado na calibração de hidrómetros pelo método de Cuckow
Resumo:
A evolução científica e tecnológica que se fez sentir nas últimas décadas criou novos desafios relacionados com uma crescente complexidade dos processos de calibração, bem como a exigência e o rigor dos métodos utilizados. A presente dissertação foi realizada no âmbito de um estágio curricular no Laboratório de Propriedades dos Líquidos do Departamento de Metrologia do Instituto Português da Qualidade (IPQ). A temática do estudo resulta da procura continuada, por parte desta entidade, pelo aperfeiçoamento das metodologias de calibração. Devido à ampla utilização, em diferentes áreas da indústria e serviços, de hidrómetros, a calibração destes tornou-se uma atividade de relevo no Departamento de Metrologia do IPQ. O foco da presente dissertação prendeu-se com a melhoria do processo de calibração de hidrómetros, segundo o método de Cuckow, mais especificamente, com a necessidade de diminuir a componente da incerteza proveniente do operador no alinhamento do traço da escala a calibrar com a superfície do líquido de referência no método de calibração de hidrómetros por pesagem hidrostática. Com este objetivo, foi desenvolvido e validado um automatismo, constituído por uma câmara, um servomotor e um software de controlo. O objetivo principal do trabalho foi alcançado com a implementação do automatismo, permitindo uma redução, na ordem de duas a quatro vezes, da incerteza final do método de calibração de hidrómetros. Durante o desenvolvimento do trabalho, surgiram objetivos paralelos ao projeto inicial, nomeadamente, a validação da folha de cálculo utilizada no IPQ para calibração de hidrómetros, assim como um estudo referente á validação da medição manual da divisão de escala dos hidrómetros. O referido sistema de automatização encontra-se implementado e plenamente integrado nas atividades correntes do laboratório.
Resumo:
Uma das propriedades do betão armado que foi alvo de maior número de estudos, ao longo dos tempos, é a aderência. Esta é uma das propriedades mais importantes a considerar na construção, pois dela depende o desempenho e estabilidade de uma estrutura. Dada a sua importância, a aderência é a propriedade do betão armado mais estudada ao longo do tempo. A complexidade inerente a esta propriedade torna difícil de compreender e prever o comportamento estrutural. Esta dissertação pretende analisar a capacidade do Método dos Elementos Aplicados em simular o ensaio de arrancamento directo e de reproduzir modos de rotura. Este ensaio, denominado de pull-out test, estuda a aderência entre três materiais: o aço, o betão e o grout. Vários tipos de ligações, com diferentes modos de rotura, são simulados e comparados com um ensaio experimental referido na revisão bibliográfica. Assim, recorrer-se-á ao programa Extreme Loading for Structures, que tem como base o Método dos Elementos Aplicados. Através de uma análise de sensibilidade foi possível calibrar as propriedades dos diferentes elementos e das interfaces entre o betão, aço e grout, de modo a viabilizar o cálculo da força crítica das ligações e reproduzir os modos de rotura observados experimentalmente. Este trabalho pretende dar uma contribuição ao conhecimento no âmbito da simulação numérica, em relação a este tipo de ligações, e ajudar à criação de modelos numéricos fiáveis e eficientes de fácil e rápida execução. Esta dissertação permite concluir que o Método dos Elementos Aplicados, apresenta-se como uma boa solução para o estudo deste tipo de ligações. Os resultados numéricos tiveram uma boa aproximação dos resultados experimentais. Em conformidade com a análise experimental, as ligações com bainha de pré-esforço e comprimento de embebimento a partir de 15 cm são as que melhor desempenho têm ao nível da resistência.
Resumo:
Na fase de crise económica onde nos encontramos, a necessidade de distinguir da concorrência é essencial, essa vantagem competitiva pode ser o caminho para o sucesso de uma empresa, uma forma de conseguir essa vantagem competitiva passa pela redução dos desperdícios através da melhoria dos processos. É neste ponto que a metodologia Seis Sigma se torna uma ferramenta de elevada importância, permitindo optimizar um processo até a um nível com 3,4 defeitos por milhão de oportunidades. Neste projecto foi utilizado o método Define, Measure, Analyze, Improve, Control (DMAIC) para redução dos desperdícios numa fábrica de embalagens flexíveis em 25%, mais concretamente no processo de impressão em Rotogravura, durante o projecto foram identificados os principais problemas, sugeridas, implementadas e analisadas diversas medidas de melhoria para redução do desperdício e consequente aumento do nível Sigma. Na fase Definir são determinados os requisitos do projecto assim como foi feita uma compreensão global do problema em estudo. Na fase Medir é calculado o desempenho do processo. Na fase Analisar são identificadas as principais causas do problema. É na fase Melhorar que são implementadas as acções de melhoria, e por fim na fase Controlar são implementadas acções de controlo sobre o processo para possibilitar acções quando o mesmo desvia de um normal desempenho.