985 resultados para ADVANTAGES


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This Thesis has the main target to make a research about FPAA/dpASPs devices and technologies applied to control systems. These devices provide easy way to emulate analog circuits that can be reconfigurable by programming tools from manufactures and in case of dpASPs are able to be dynamically reconfigurable on the fly. It is described different kinds of technologies commercially available and also academic projects from researcher groups. These technologies are very recent and are in ramp up development to achieve a level of flexibility and integration to penetrate more easily the market. As occurs with CPLD/FPGAs, the FPAA/dpASPs technologies have the target to increase the productivity, reducing the development time and make easier future hardware reconfigurations reducing the costs. FPAA/dpAsps still have some limitations comparing with the classic analog circuits due to lower working frequencies and emulation of complex circuits that require more components inside the integrated circuit. However, they have great advantages in sensor signal condition, filter circuits and control systems. This thesis focuses practical implementations of these technologies to control system PID controllers. The result of the experiments confirms the efficacy of FPAA/dpASPs on signal condition and control systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Standarização de um posto de trabalho não é mais que definir o melhor método de trabalho que vai ser seguido por todos os operadores que trabalham no mesmo. Uma vez definido esse método, é importante para uma empresa ter noção da produtividade que podem alcançar, dado que pode ser retirado a partir deste método, e é no seguimento disto que surge o estudo dos métodos e tempos, mais concretamente o estudo dos tempos por cronometragem. A aplicação deste estudo foi despoletada pela necessidade do IKEA Industry de Paços de Ferreira, em dar o próximo passo na standarização dos seus postos de trabalho, área a área, e da necessidade de terem uma pessoa em cada área que analisa-se o trabalho que estava a ser feito e calcula-se o tempo de cada rotina. Neste documento, é realizada uma interligação entre os conceitos teóricos que o método exige, como todo o conjunto de fórmulas, restrições, análises e ponderações, com o contexto laboral onde o mesmo foi aplicado e a estratégia desenvolvida pelo IKEA na realização do estudo. O estudo dos métodos e tempos por cronometragem, de todos os métodos existentes, pode ser considerado o mais completo e complexo, uma vez que é mais que observar, registar e retirar uma média ponderada das observações. Este método baseia-se num modelo matemático, que interliga uma série de conceitos e que tem sempre o operador em consideração, seja na avaliação e análise das tarefas que requerem mais esforço dos mesmos, físico ou psicológico, seja em termos de tempos de pausas pessoais que a lei obriga a que as empresas deem. Este detalhe, neste método, é de grande importância, uma vez que a standarização é sempre vista pelos operadores como uma punição. As desvantagens deste método estão no grau de conhecimento e capacidade de observação exigidas ao analista para o executar. Melhor dizendo, um analista que vá executar este trabalho necessita observar muito bem a rotina de trabalho e conhecer onde começa, acaba e tudo o que a ela não pertence, antes de começar a registar seja que tempos forem. Para além disso, é exigido ao analista que perceba o ritmo de trabalho dos operadores através da observação dos mesmos, de modo a que ninguém seja prejudicado. E por fim, é necessária uma grande disponibilidade da parte do analista para retirar o máximo de observações possíveis. Com o intuito de facilitar esta análise, o IKEA Industry criou um ficheiro que compila toda a informação relacionada com o método, e uma explicação de todos os parâmetros que o analista necessita ter em atenção. Esta folha de trabalho foi validada à luz do método, como é possível verificar no decorrer do documento. Um detalhe importante a referir, é que por muito fidedigno que seja este método, tal como qualquer método de standarização, a mínima alteração da rotina de trabalho invalida de imediato o tempo total da rotina, tornando necessário realizar o estudo novamente. Uma vantagem do documento criado pelo IKEA, está na rápida adaptação a estas alterações, uma vez que, caso seja acrescentado ou removido um elemento à rotina, basta alterar o documento, observar e cronometrar os operadores a executar esse novo elemento, e quase automaticamente é definido um novo tempo total padronizado na rotina. Este documento foi criado para fins académicos e de conclusão de um grau académico, mas o estudo quando aplicado na empresa deu origem a contratações, o que só por si mostra as vantagens e impacto que o mesmo pode ter em contexto laboral. Em termos de produtividade, uma vez que a sua aplicação não foi executada a tempo de ser estudada neste documento, não foi possível avaliar a mesma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, a nossa sociedade sofreu alterações significativas ao nível tecnológico que têm vindo a modificar o quotidiano do cidadão e transportaram para a palma da mão um conjunto significativo de tarefas até há poucos anos impensáveis. Atualmente, torna-se possível realizar as mais simples tarefas como, a título de exemplo, efetuar um cálculo matemático, tirar fotografias ou registar numa agenda um compromisso, ou tarefas mais complexas, como por exemplo, escrever ou editar um documento, trabalhar numa folha de cálculo ou enviar um e-mail com um anexo, isto tudo com o recurso a um simples dispositivo móvel, conhecido como smartphone ou tablet. Apesar de existirem diversos tipos de apps que seriam um bom auxílio para o aumento da produtividade dos utilizadores de dispositivos móveis Android, nem todos têm conhecimento das mesmas, pelo que é importante que os utilizadores tenham conhecimentos das vantagens da utilização destes recursos e de tudo o que podem realizar com os seus dispositivos com o objetivo de aumentar a sua produtividade profissional ou pessoal. O presente estudo pretende contribuir para uma análise sobre a potencial utilização das novas tecnologias, mais propriamente estudando e recomendando apps de produtividade. Com este intuito foi criada uma app de recomendação de aplicações de produtividade com recurso a um método de sistemas de recomendação. São apresentados os resultados e as conclusões, com recurso a opiniões de potenciais utilizadores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A necessidade de utilizar métodos de ligação entre componentes de forma mais rápida, eficaz e com melhores resultados tem causado a crescente utilização das juntas adesivas, em detrimento dos métodos tradicionais de ligação. A utilização das juntas adesivas tem vindo a aumentar em diversas aplicações industriais por estas apresentarem vantagens, das quais se destacam a redução de peso, redução de concentrações de tensões e facilidade de fabrico. No entanto, uma das limitações das juntas adesivas é a dificuldade em prever a resistência da junta após fabrico e durante a sua vida útil devido à presença de defeitos no adesivo. Os defeitos são normalmente gerados pela preparação inadequada das juntas ou degradação do adesivo devido ao ambiente (por exemplo, humidade), reduzindo a qualidade da ligação e influenciando a resistência da junta. Neste trabalho é apresentado um estudo experimental e numérico de juntas de sobreposição simples (JSS) com a inclusão de defeitos centrados na camada de adesivo para comprimentos de sobreposição (LO) diferentes. Os adesivos utilizados foram o Araldite® AV138, apresentado como sendo frágil, e o adesivo Sikaforce® 7752, intitulado como adesivo dúctil. A parte experimental consistiu no ensaio à tração das diferentes JSS permitindo a obtenção das curvas força-deslocamento (P-δ). A análise numérica por modelos de dano coesivo (MDC) foi realizada para analisar as tensões de arrancamento ((σy) e as tensões de corte (τxy) na camada adesiva, para estudar a variável de dano do MDC durante o processo de rotura e para avaliar a capacidade dos MDC na previsão da resistência da junta. Constatou-se um efeito significativo dos defeitos de diferentes dimensões na resistência das juntas, que também depende do tipo de adesivo utilizado e do valor de LO. Os modelos numéricos permitiram a descrição detalhada do comportamento das juntas e previsão de resistência, embora para o adesivo dúctil a utilização de uma lei coesiva triangular tenha provocado alguma discrepância relativamente aos resultados experimentais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

É possível assistir nos dias de hoje, a um processo tecnológico evolutivo acentuado por toda a parte do globo. No caso das empresas, quer as pequenas, médias ou de grandes dimensões, estão cada vez mais dependentes dos sistemas informatizados para realizar os seus processos de negócio, e consequentemente à geração de informação referente aos negócios e onde, muitas das vezes, os dados não têm qualquer relacionamento entre si. A maioria dos sistemas convencionais informáticos não são projetados para gerir e armazenar informações estratégicas, impossibilitando assim que esta sirva de apoio como recurso estratégico. Portanto, as decisões são tomadas com base na experiência dos administradores, quando poderiam serem baseadas em factos históricos armazenados pelos diversos sistemas. Genericamente, as organizações possuem muitos dados, mas na maioria dos casos extraem pouca informação, o que é um problema em termos de mercados competitivos. Como as organizações procuram evoluir e superar a concorrência nas tomadas de decisão, surge neste contexto o termo Business Intelligence(BI). A GisGeo Information Systems é uma empresa que desenvolve software baseado em SIG (sistemas de informação geográfica) recorrendo a uma filosofia de ferramentas open-source. O seu principal produto baseia-se na localização geográfica dos vários tipos de viaturas, na recolha de dados, e consequentemente a sua análise (quilómetros percorridos, duração de uma viagem entre dois pontos definidos, consumo de combustível, etc.). Neste âmbito surge o tema deste projeto que tem objetivo de dar uma perspetiva diferente aos dados existentes, cruzando os conceitos BI com o sistema implementado na empresa de acordo com a sua filosofia. Neste projeto são abordados alguns dos conceitos mais importantes adjacentes a BI como, por exemplo, modelo dimensional, data Warehouse, o processo ETL e OLAP, seguindo a metodologia de Ralph Kimball. São também estudadas algumas das principais ferramentas open-source existentes no mercado, assim como quais as suas vantagens/desvantagens relativamente entre elas. Em conclusão, é então apresentada a solução desenvolvida de acordo com os critérios enumerados pela empresa como prova de conceito da aplicabilidade da área Business Intelligence ao ramo de Sistemas de informação Geográfica (SIG), recorrendo a uma ferramenta open-source que suporte visualização dos dados através de dashboards.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the need to find an alternative way to mechanical and welding joints, and at the same time to overcome some limitations linked to these traditional techniques, adhesive bonds can be used. Adhesive bonding is a permanent joining process that uses an adhesive to bond the components of a structure. Composite materials reinforced with fibres are becoming increasingly popular in many applications as a result of a number of competitive advantages. In the manufacture of composite structures, although the fabrication techniques reduce to the minimum by means of advanced manufacturing techniques, the use of connections is still required due to the typical size limitations and design, technological and logistical aspects. Moreover, it is known that in many high performance structures, unions between composite materials with other light metals such as aluminium are required, for purposes of structural optimization. This work deals with the experimental and numerical study of single lap joints (SLJ), bonded with a brittle (Nagase Chemtex Denatite XNRH6823) and a ductile adhesive (Nagase Chemtex Denatite XNR6852). These are applied to hybrid joints between aluminium (AL6082-T651) and carbon fibre reinforced plastic (CFRP; Texipreg HS 160 RM) adherends in joints with different overlap lengths (LO) under a tensile loading. The Finite Element (FE) Method is used to perform detailed stress and damage analyses allowing to explain the joints’ behaviour and the use of cohesive zone models (CZM) enables predicting the joint strength and creating a simple and rapid design methodology. The use of numerical methods to simulate the behaviour of the joints can lead to savings of time and resources by optimizing the geometry and material parameters of the joints. The joints’ strength and failure modes were highly dependent on the adhesive, and this behaviour was successfully modelled numerically. Using a brittle adhesive resulted in a negligible maximum load (Pm) improvement with LO. The joints bonded with the ductile adhesive showed a nearly linear improvement of Pm with LO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Electricity markets worldwide are complex and dynamic environments with very particular characteristics. These are the result of electricity markets’ restructuring and evolution into regional and continental scales, along with the constant changes brought by the increasing necessity for an adequate integration of renewable energy sources. The rising complexity and unpredictability in electricity markets has increased the need for the intervenient entities in foreseeing market behaviour. Market players and regulators are very interested in predicting the market’s behaviour. Market players need to understand the market behaviour and operation in order to maximize their profits, while market regulators need to test new rules and detect market inefficiencies before they are implemented. The growth of usage of simulation tools was driven by the need for understanding those mechanisms and how the involved players' interactions affect the markets' outcomes. Multi-agent based software is particularly well fitted to analyse dynamic and adaptive systems with complex interactions among its constituents, such as electricity markets. Several modelling tools directed to the study of restructured wholesale electricity markets have emerged. Still, they have a common limitation: the lack of interoperability between the various systems to allow the exchange of information and knowledge, to test different market models and to allow market players from different systems to interact in common market environments. This dissertation proposes the development and implementation of ontologies for semantic interoperability between multi-agent simulation platforms in the scope of electricity markets. The added value provided to these platforms is given by enabling them sharing their knowledge and market models with other agent societies, which provides the means for an actual improvement in current electricity markets studies and development. The proposed ontologies are implemented in MASCEM (Multi-Agent Simulator of Competitive Electricity Markets) and tested through the interaction between MASCEM agents and agents from other multi-agent based simulators. The implementation of the proposed ontologies has also required a complete restructuring of MASCEM’s architecture and multi-agent model, which is also presented in this dissertation. The results achieved in the case studies allow identifying the advantages of the novel architecture of MASCEM, and most importantly, the added value of using the proposed ontologies. They facilitate the integration of independent multi-agent simulators, by providing a way for communications to be understood by heterogeneous agents from the various systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SUMMARY Infection by Candidaspp. is associated with high mortality rates, especially when treatment is not appropriate and/or not immediate. Therefore, it is necessary to correctly identify the genus and species of Candida. The aim of this study was to compare the identification of 89 samples of Candida spp. by the manual methods germ tube test, auxanogram and chromogenic medium in relation to the ID 32C automated method. The concordances between the methods in ascending order, measured by the Kappa index were: ID 32C with CHROMagar Candida(κ = 0.38), ID 32C with auxanogram (κ = 0.59) and ID 32C with germ tube (κ = 0.9). One of the species identified in this study was C. tropicalis,which demonstrated a sensitivity of 46.2%, a specificity of 95.2%, PPV of 80%, NPV of 81.1%, and an accuracy of 80.9% in tests performed with CHROMagar Candida;and a sensitivity of 76.9%, a specificity of 96.8%, PPV of 90.9%, NPV of 91%, and an accuracy of 91% in the auxanogram tests. Therefore, it is necessary to know the advantages and limitations of methods to choose the best combination between them for a fast and correct identification of Candidaspecies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado em Solicitaria

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As juntas adesivas são uma alternativa viável para substituir ligações comuns como as mecânicas ou soldadas, devido a diversas vantagens como a possibilidade de união de materiais de natureza diferente, maior leveza, menores custos inerentes ao fabrico e ainda prevenção da corrosão galvânica que pode ocorrer nas ligações entre dois materiais metálicos diferentes. A resistência de uma junta depende, para um determinado tipo de solicitação imposta, da distribuição de tensões no interior da junta. Por outro lado, a geometria das juntas, as propriedades mecânicas dos adesivos e os componentes a ligar vão influenciar a distribuição de tensões. O carregamento nas camadas adesivas de uma junta poderá induzir tensões de tração, compressão, corte, arrancamento ou clivagem, ou ainda uma combinação de duas ou mais destas componentes. O objetivo da presente dissertação é a caraterização completa de um adesivo estrutural de alta ductilidade recentemente lançado no mercado (SikaPower® -4720), para facilitar o projeto e otimização de juntas adesivas ligadas com o mesmo. São quatro os ensaios a realizar: ensaios à tração de provetes maciços (também denominados de bulk), ensaios ao corte com a geometria Thick Adherend Shear Test, ensaios Double-Cantilever Beam e ainda ensaios End-Notched Flexure. Com a realização dos ensaios referidos, são determinadas as propriedades essenciais à caraterização mecânica e de fratura do adesivo. Os resultados obtidos para cada ensaio resultaram em propriedades medidas com elevada repetibilidade, da mesma maneira que se revelaram de acordo com os dados disponibilizados pelo fabricante, sempre que estes estavam disponíveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As juntas adesivas têm vindo a ser usadas em diversas áreas e contam com inúmeras aplicações práticas. Devido ao fácil e rápido fabrico, as juntas de sobreposição simples (JSS) são um tipo de configuração bastante comum. O aumento da resistência, a redução de peso e a resistência à corrosão são algumas das vantagens que este tipo de junta oferece relativamente aos processos de ligação tradicionais. Contudo, a concentração de tensões nas extremidades do comprimento da ligação é uma das principais desvantagens. Existem poucas técnicas de dimensionamento precisas para a diversidade de ligações que podem ser encontradas em situações reais, o que constitui um obstáculo à utilização de juntas adesivas em aplicações estruturais. O presente trabalho visa comparar diferentes métodos analíticos e numéricos na previsão da resistência de JSS com diferentes comprimentos de sobreposição (LO). O objectivo fundamental é avaliar qual o melhor método para prever a resistência das JSS. Foram produzidas juntas adesivas entre substratos de alumínio utilizando um adesivo époxido frágil (Araldite® AV138), um adesivo epóxido moderadamente dúctil (Araldite® 2015), e um adesivo poliuretano dúctil (SikaForce® 7888). Consideraram-se diferentes métodos analíticos e dois métodos numéricos: os Modelos de Dano Coesivo (MDC) e o Método de Elementos Finitos Extendido (MEFE), permitindo a análise comparativa. O estudo possibilitou uma percepção crítica das capacidades de cada método consoante as características do adesivo utilizado. Os métodos analíticos funcionam apenas relativamente bem em condições muito específicas. A análise por MDC com lei triangular revelou ser um método bastante preciso, com excepção de adesivos que sejam bastante dúcteis. Por outro lado, a análise por MEFE demonstrou ser uma técnica pouco adequada, especialmente para o crescimento de dano em modo misto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ao longo destes últimos anos as ligações adesivas têm vindo a verificar um aumento progressivo em aplicações estruturais em detrimento das ligações mecânicas convencionais. Esta alteração de paradigma deve-se às vantagens que as juntas adesivas possuem relativamente aos outros métodos de ligação. A mecânica da fratura e os Modelos de Dano Coesivo (MDC) são critérios comuns para prever a resistência em juntas adesivas e usam como parâmetros fundamentais as taxas de libertação de energia. Pelo facto do ensaio 4-Point End Notched Flexure (4-ENF), aplicado em juntas adesivas, ainda estar pouco estudado é de grande relevância um estudo acerca da sua viabilidade para a determinação da taxa crítica de libertação de energia de deformação ao corte (GIIc). Esta dissertação tem como objetivo principal efetuar uma comparação entre os métodos End- Notched Flexure (ENF) e 4-ENF na determinação de GIIc em juntas adesivas. Para tal foram utilizados 3 adesivos: Araldite® AV138, Araldite® 2015 e SikaForce® 7752. O trabalho experimental passou pela conceção e fabrico de uma ferramenta para realização do ensaio 4-ENF, seguindo-se o fabrico e a preparação dos provetes para os ensaios. Pelo facto do ensaio 4-ENF ainda se encontrar pouco divulgado em juntas adesivas, e não se encontrar normalizado, uma parte importante do trabalho passou pela pesquisa e análise em trabalhos de investigação e artigos científicos. A análise dos resultados foi realizada por comparação direta dos valores de GIIc com os resultados obtidos no ensaio ENF, sendo realizada por série de adesivo, através da comparação das curvas P-δ e curvas-R. Como resultado verificou-se que o ensaio 4-ENF em ligações adesivas não é o mais versátil para a determinação do valor de GIIc, e que apenas um método de obtenção de GIIc é viável. Este método é baseado na medição do comprimento de fenda (a). Ficou evidenciado que o ensaio ENF, devido a ser um ensaio normalizado, por apresentar um setup mais simples e por apresentar uma maior disponibilidade de métodos para a determinação do valor de GIIc, é o mais recomendado. Conclui-se assim que o ensaio 4-ENF, embora sendo uma alternativa ao ensaio ENF, tem aplicação mais limitada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho de Projecto apresentado para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Metropolização, Planeamento Estratégico e Sustentabilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO:Desde a declaração de Bethesda em 1983, a transplantação hepática é considerada um processo válido e aceite na prática clínica para muitos doentes com doença hepática terminal, relativamente aos quais não houvesse outra alternativa terapêutica. Em 1991, por proposta de Holmgren, professor de genética, o cirurgião sueco Bo Ericzon realizou em Huntingdon (Estocolmo) o primeiro transplante hepático num doente PAF (Polineuropatia Amilloidótica Familiar), esperando que a substituição do fígado pudesse frenar a evolução da doença. Nesta doença hereditária autossómica dominante, o fígado, apesar de estrutural e funcionalmente normal, produz uma proteína anormal (TTR Met30) responsável pela doença. A partir de então, a transplantação hepática passou a ser a única terapêutica eficaz para estes doentes. Portugal é o país do mundo com mais doentes PAF, tendo sido o médico neurologista português Corino de Andrade quem, em 1951, identificou e descreveu este tipo particular de polineuropatia hereditária, também conhecida por doença de Andrade. Com o início da transplantação hepática programada em Setembro de 1992, o primeiro doente transplantado hepático em Portugal, no Hospital Curry Cabral, foi um doente PAF. Desde logo se percebeu que a competição nas listas de espera em Portugal, entre doentes hepáticos crónicos e doentes PAF viria a ser um problema clínico e ético difícil de compatibilizar. Em 1995, Linhares Furtado, em Coimbra, realizou o primeiro transplante dum fígado dum doente PAF num doente com doença hepática metastática, ficando este tipo de transplante conhecido como transplante sequencial ou “em dominó”. Fê-lo no pressuposto de que o fígado PAF, funcional e estruturalmente normal, apesar de produzir a proteína mutada causadora da doença neurológica, pudesse garantir ao receptor um período razoável de vida livre de sintomas, tal como acontece na história natural desta doença congénita, cujas manifestações clínicas apenas se observam na idade adulta. A técnica cirúrgica mais adequada para transplantar o doente PAF é a técnica de “piggyback”, na qual a hepatectomia é feita mantendo a veia cava do doente, podendo o transplante ser feito sem recorrer a bypass extracorporal. Antes de 2001, para fazerem o transplante sequencial, os diferentes centros alteraram a técnica de hepatectomia no doente PAF, ressecando a cava com o fígado conforme a técnica clássica, recorrendo ao bypass extracorporal. No nosso centro imaginámos e concebemos uma técnica original, com recurso a enxertos venosos, que permitisse ao doente PAF submeter-se à mesma técnica de hepatectomia no transplante, quer ele viesse a ser ou não dador. Essa técnica, por nós utilizada pela primeira vez a nível mundial em 2001, ficou conhecida por Transplante Sequencial em Duplo Piggyback. Este trabalho teve como objectivo procurar saber se a técnica por nós imaginada, concebida e utilizada era reprodutível, se não prejudicava o doente PAF dador e se oferecia ao receptor hepático as mesmas garantias do fígado de cadáver. A nossa série de transplantes realizados em doentes PAF é a maior a nível mundial, assim como o é o número de transplantes sequenciais de fígado. Recorrendo à nossa base de dados desde Setembro de 1992 até Novembro de 2008 procedeu-se à verificação das hipóteses anteriormente enunciadas. Com base na experiência por nós introduzida, a técnica foi reproduzida com êxito em vários centros internacionais de referência, que por si provaram a sua reprodutibilidade. Este sucesso encontra-se publicado por diversos grupos de transplantação hepática a nível mundial. Observámos na nossa série que a sobrevivência dos doentes PAF que foram dadores é ligeiramente superior àqueles que o não foram, embora sem atingir significância estatística. Contudo, quando se analisaram, apenas, estes doentes após a introdução do transplante sequencial no nosso centro, observa-se que existe uma melhor sobrevida nos doentes PAF dadores (sobrevida aos 5 anos de 87% versus 71%, p=0,047).Relativamente aos receptores observámos que existe um benefício a curto prazo em termos de morbi-mortalidade (menor hemorragia peri-operatória) e a longo prazo alguns grupos de doentes apresentaram diferenças de sobrevida, embora sem atingir significância estatística, facto este que pode estar relacionado com a dimensão das amostras parcelares analisadas. Estes grupos são os doentes com cirrose a vírus da hepatite C e os doentes com doença hepática maligna primitiva dentro dos critérios de Milão. Fora do âmbito deste trabalho ficou um aspecto relevante que é a recidiva da doença PAF nos receptores de fígado sequencial e o seu impacto no longo prazo. Em conclusão, o presente trabalho permite afirmar que a técnica por nós introduzida pela primeira vez a nível mundial é exequível e reprodutível e é segura para os doentes dadores de fígado PAF, que não vêem a sua técnica cirúrgica alterada pelo facto de o serem. Os receptores não são, por sua vez, prejudicados por receberem um fígado PAF, havendo mesmo benefícios no pós-operatório imediato e, eventualmente, alguns grupos específicos de doentes podem mesmo ser beneficiados.---------ABSTRACT: Ever since Bethesda statement in 1983, Liver Transplantation has been accepted as a clinical therapeutic procedure for many patients with advanced hepatic failure Holmgren, professor of genetics, suggested that one could expect that transplanting a new liver could lead to improve progressive neurological symptoms of Familial Amyloidotic Polyneuropathy (PAF). Bo Ericzon, the transplant surgeon at Huddinge Hospital in Stockholm, Sweden, did in 1991 the first Liver Transplant on a FAP patient. FAP is an inherited autosomal dominant neurologic disease in which the liver, otherwise structural an functionally normal, produces more than 90% of an abnormal protein (TTR Met30) whose deposits are responsible for symptoms. Liver Transplantation is currently the only efficient therapy available for FAP patients. Portugal is the country in the world where FAP is most prevalent. The Portuguese neurologist Corino de Andrade was the first to recognize in 1951 this particular form of inherited polyneuropathy, which is also known by the name of Andrade disease. Liver Transplantation started as a program in Portugal in September 1992. The first patient transplanted in Lisbon, Hospital Curry Cabral, was a FAP patient. From the beginning we did realize that competition among waiting lists of FAP and Hepatic patients would come to be a complex problem we had to deal with, on clinical and ethical grounds. There was one possible way-out. FAP livers could be of some utility themselves as liver grafts. Anatomically and functionally normal, except for the inherited abnormal trace, those livers could possibly be transplanted in selected hepatic patients. Nevertheless the FAP liver carried with it the ability to produce the mutant TTR protein. One could expect, considering the natural history of the disease that several decades would lapse before the recipient could suffer symptomatic neurologic disease, if at all. In Coimbra, Portugal, Linhares Furtado performed in 1995 the first transplant of a FAP liver to a patient with metastatic malignant disease, as a sequential or “domino” transplant. FAP Liver Transplant patients, because of some dysautonomic labiality and unexpected reactions when they are subjected to surgery, take special advantage when piggyback technique is used for hepatectomy. This technique leaves the vena cava of the patient undisturbed, so that return of blood to the heart is affected minimally, so that veno-venous extracorporeal bypass will not be necessary. The advantages of piggyback technique could not be afforded to FAP patients who became donors for sequential liver transplantation, before we did introduce our liver reconstruction technique in 2001. The hepatectomy took the vena cava together with the liver, which is the classical technique, and the use of extracorporeal veno-venous bypass was of necessity in most cases. The reconstruction technique we developed in our center and used for the first time in the world in 2001 consists in applying venous grafts to the supra-hepatic ostia of piggyback resected FAP livers so that the organ could be grafted to a hepatic patient whose liver was itself resected with preservation of the vena cava. This is the double piggyback sequential transplant of the liver. It is the objective of this thesis to evaluate the results of this technique that we did introduce, first of all that it is reliable and reproducible, secondly that the FAP donor is not subjected to any additional harm during the procedure, and finally that the recipient has the same prospects of a successful transplant as if the liver was collected from a cadaver donor. Our series of liver transplantation on FAP patients and sequential liver transplants represent both the largest experience in the world. To achieve the analysis of the questions mentioned above, we did refer to our data-base from September 1992 to November 2008. The reconstructive technique that we did introduce is feasible: it could be done with success in every case ion our series. It is also reproducible. It has been adopted by many international centers of reference that did mention it in their own publications. We do refer to our data-base in what concerns the safety for the FAP donor.Five years survival of FAP transplanted patients that have been donors (n=190) has been slightly superior to those who were not (n=77), with no statistical significance. However, if we consider five year survival of FAP transplanted patients after the beginning of sequential transplant program in our center, survival is better among those patients whose liver was used as a transplant (87% survival versus 71%, p=0.047). In what concerns recipients of FAP livers: Some short-term benefit of less perioperative morbi-mortality mainly less hemorrhage. In some groups of particular pathologies, there is a strong suggestion of better survival, however the scarcity of numbers make the differences not statistically significant. Patients with cirrhosis HVC (83% versus73%) and patients with primitive hepatic cancer within Milan criteria (survival of 70% versus 58%) are good examples. There is one relevant problem we left beyond discussion in the present work: this is the long-term impact of possible recurrence of FAP symptoms among recipients of sequential transplants. In Conclusion: The reconstruction technique that we did develop and introduce is consistently workable and reproducible. It is safe for FAP donors with the advantage that removal of vena cava can be avoided. Hepatic patients transplanted with those livers suffer no disadvantages and have the benefit of less hemorrhage. There is also a suggestion that survival could be better in cirrhosis HVC and primary liver cancer patients.