577 resultados para Liberdades e garantias


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre Energia e Bioenergia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT - The authors’ main purpose is to present ideas on defining Health Law by highlighting the particularities of the field of Health Law as well as of the teaching of this legal branch, hoping to contribute to the maturity and academic recognition of Health Law, not only as a very rich legal field but also as a powerful social instrument in the fulfillment of fundamental human rights. The authors defend that Health Law has several characteristics that distinguish it from traditional branches of law such as its complexity and multidisciplinary nature. The study of Health Law normally covers issues such as access to care, health systems organization, patients’ rights, health professionals’ rights and duties, strict liability, healthcare contracts between institutions and professionals, medical data protection and confidentiality, informed consent and professional secrecy, crossing different legal fields including administrative, antitrust, constitutional, contract, corporate, criminal, environmental, food and drug, intellectual property, insurance, international and supranational, labor/employment, property, taxation, and tort law. This is one of the reasons why teaching Health Law presents a challenge to the teacher, which will have to find the programs, content and methods appropriate to the profile of recipients which are normally non jurists and the needs of a multidisciplinary curricula. By describing academic definitions of Health Law as analogous to Edgewood, a fiction house which has a different architectural style in each of its walls, the authors try to describe which elements should compose a more comprehensive definition. In this article Biolaw, Bioethics and Human Rights are defined as complements to a definition of Health Law: Biolaw because it is the legal field that treats the social consequences that arise from technological advances in health and life sciences; Bioethics which evolutions normally influence the shape of the legal framework of Health; and, finally Human Rights theory and declarations are outlined as having always been historically linked to medicine and health, being the umbrella that must cover all the issues raised in the area of Health Law. To complete this brief incursion on the definition on Health Law the authors end by giving note of the complex relations between this field of Law and Public Health. Dealing more specifically on laws adopted by governments to provide important health services and regulate industries and individual conduct that affect the health of the populations, this aspect of Health Law requires special attention to avoid an imbalance between public powers and individual freedoms. The authors conclude that public trust in any health system is essentially sustained by developing health structures which are consistent with essential fundamental rights, such as the universal right to access health care, and that the study of Health Law can contribute with important insights into both health structures and fundamental rights in order to foster a health system that respects the Rule of Law.-------------------------- RESUMO – O objectivo principal dos autores é apresentar ideias sobre a definição de Direito da Saúde, destacando as particularidades desta área do direito, bem como do ensino deste ramo jurídico, na esperança de contribuir para a maturidade e para o reconhecimento académico do mesmo, não só como um campo juridicamente muito rico, mas, também, como um poderoso instrumento social no cumprimento dos direitos humanos fundamentais. Os autores defendem que o Direito da Saúde tem diversas características que o distinguem dos ramos tradicionais do direito, como a sua complexidade e natureza multidisciplinar. O estudo do Direito da Saúde abrangendo normalmente questões como o acesso aos cuidados, a organização dos sistemas de saúde, os direitos e deveres dos doentes e dos profissionais de saúde, a responsabilidade civil, os contratos entre instituições de saúde e profissionais, a protecção e a confidencialidade de dados clínicos, o consentimento informado e o sigilo profissional, implica uma abordagem transversal de diferentes áreas legais, incluindo os Direitos contratual, administrativo, antitrust, constitucional, empresarial, penal, ambiental, alimentar, farmacêutico, da propriedade intelectual, dos seguros, internacional e supranacional, trabalho, fiscal e penal. Esta é uma das razões pelas quais o ensino do Direito da Saúde representa um desafio para o professor, que terá de encontrar os programas, conteúdos e métodos adequados ao perfil dos destinatários, que são normalmente não juristas e às necessidades de um currículo multidisciplinar. Ao descrever as várias definições académicas de Direito da Saúde como análogas a Edgewood, uma casa de ficção que apresenta um estilo arquitectónico diferente em cada uma de suas paredes, os autores tentam encontrar os elementos que deveriam compor uma definição mais abrangente. No artigo, Biodireito, Bioética e Direitos Humanos são descritos como complementos de uma definição de Direito da Saúde: o Biodireito, dado que é o campo jurídico que trata as consequências sociais que surgem dos avanços tecnológicos na área da saúde e das ciências da vida; a Bioética cujas evoluções influenciam normalmente o quadro jurídico da Saúde; e, por fim, a teoria dos Direitos Humanos e as suas declarações as quais têm estado sempre historicamente ligadas à medicina e à saúde, devendo funcionar como pano de fundo de todas as questões levantadas na área do Direito da Saúde. Para finalizar a sua breve incursão sobre a definição de Direito da Saúde, os autores dão ainda nota das complexas relações entre este último e a Saúde Pública, onde se tratam mais especificamente as leis aprovadas pelos governos para regular os serviços de saúde, as indústrias e as condutas individuais que afectam a saúde das populações, aspecto do Direito da Saúde que requer uma atenção especial para evitar um desequilíbrio entre os poderes públicos e as liberdades individuais. Os autores concluem afirmando que a confiança do público em qualquer sistema de saúde é, essencialmente, sustentada pelo desenvolvimento de estruturas de saúde que sejam consistentes com o direito constitucional da saúde, tais como o direito universal ao acesso a cuidados de saúde, e que o estudo do Direito da Saúde pode contribuir com elementos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos tempos atuais as empresas que atuam no ramo dos sistemas elétricos de energias enfrentam desafios cada vez mais exigentes, dado o enquadramento normativo a que estão sujeitas por parte da entidade reguladora dos serviços energéticos. No caso do Arquipélago dos Açores, o normativo relativo ao regulamento da qualidade de serviço entrou em vigor em 2006, trazendo à EDA,S.A. (Eletricidade dos Açores), entidade responsável pelo transporte e distribuição de energia na região, novas exigências para adequados níveis de eficiência e de garantias aos clientes, no que respeita à qualidade de serviço que lhes é prestado. No âmbito deste trabalho, é efetuado o estudo do trânsito de potência sobre a rede distribuição 15 kV da ilha Graciosa. Para tal, é realizada a modelização da rede no software de rede elétricas porwerworld 8.0. e são idealizados um conjunto de cenários de exploração da rede, que visam simular situações reais que ocorrem na exploração diária da rede de distribuição da ilha. Nas simulações a efetuar consideram-se dois cenários com perfil de carga distintos, um referente à ponta máxima, e outro referente ao vazio mínimo, verificados no ano de 2014. Quanto ao modo de exploração da rede nos cenários a simular, é contemplado o modo de exploração normalmente operado pela empresa gestora, bem como diversas reconfigurações sobre o modo de exploração normalmente operado, realizadas através da abertura e fecho dos aparelhos de corte constituintes da rede. Em todos os cenários simulados, é realizado um estudo relativamente à potência de perdas do sistema, ao perfil da tensão nos diversos postos de transformação, e ao congestionamento de energia verificado nas linhas de distribuição da rede.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho apresentado no âmbito do Mestrado em Engenharia Informática, como requisito parcial para obtenção do grau de Mestre em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Temos vindo a assistir nos últimos anos a uma evolução no que respeita à avaliação do risco de crédito. As constantes alterações de regulamentação bancária, que resultam dos Acordos de Basileia, têm vindo a impor novas normas que condicionam a quantidade e a qualidade do risco de crédito que as Instituições de Crédito podem assumir nos seus balanços. É de grande importância as Instituições de Crédito avaliarem o risco de crédito, as garantias e o custo de capital, pois têm um impacto direto na sua gestão nomeadamente quanto à afetação de recursos e proteção contra perdas. Desta forma, pretende-se com o presente trabalho elaborar e estruturar um modelo de rating interno através de técnicas estatísticas, assim como identificar as variáveis estatisticamente relevantes no modelo considerado. Foi delineada uma metodologia de investigação mista, considerando na primeira parte do trabalho uma pesquisa qualitativa e na segunda parte uma abordagem quantitativa. Através da análise documental, fez-se uma abordagem dos conceitos teóricos e da regulamentação que serve de base ao presente trabalho. No estudo de caso, o modelo de rating interno foi desenvolvido utilizando a técnica estatística designada de regressão linear múltipla. A amostra considerada foi obtida através da base de dados SABI e é constituída por cem empresas solventes, situadas na zona de Paredes, num horizonte temporal de 2011-2013. A nossa análise baseou-se em três cenários, correspondendo cada cenário aos dados de cada ano (2011, 2012 e 2013). Para validar os pressupostos do modelo foram efetuados testes estatísticos de Durbin Watson e o teste de significância - F (ANOVA). Por fim, para obtermos a classificação de rating de cada variável foi aplicada a técnica dos percentis. Pela análise dos três cenários considerados, verificou-se que o cenário dois foi o que obteve maior coeficiente de determinação. Verificou-se ainda que as variáveis independentes, rácio de liquidez geral, grau de cobertura do ativo total pelo fundo de maneio e rácio de endividamento global são estatisticamente relevantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Relatório de Estágio apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob orientação do Mestre Carlos Lourenço Moreira de Barros

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muito se tem falado sobre revolução tecnológica e do aparecimento constante de novas aplicações Web, com novas funcionalidades que visam facilitar o trabalho dos utilizadores. Mas será que estas aplicações garantem que os dados transmitidos são tratados e enviados por canais seguros (protocolos)? Que garantias é que o utilizador tem que mesmo que a aplicação utilize um canal, que prevê a privacidade e integridade de dados, esta não apresente alguma vulnerabilidade pondo em causa a informação sensível do utilizador? Software que não foi devidamente testado, aliado à falta de sensibilização por parte dos responsáveis pelo desenvolvimento de software para questões de segurança, levam ao aumento de vulnerabilidades e assim exponenciam o número de potenciais vítimas. Isto aliado ao efeito de desinibição que o sentimento de invisibilidade pode provocar, conduz ao facilitismo e consequentemente ao aumento do número de vítimas alvos de ataques informáticos. O utilizador, por vezes, não sabe muito bem do que se deve proteger, pois a confiança que depõem no software não pressupõem que os seus dados estejam em risco. Neste contexto foram recolhidos dados históricos relativos a vulnerabilidades nos protocolos SSL/TLS, para perceber o impacto que as mesmas apresentam e avaliar o grau de risco. Para além disso, foram avaliados um número significativo de domínios portugueses para perceber se os mesmos têm uma vulnerabilidade específica do protocolo SSL/TLS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado em Solicitaria

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de Doutoramento em História Contemporânea

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO:Desde a declaração de Bethesda em 1983, a transplantação hepática é considerada um processo válido e aceite na prática clínica para muitos doentes com doença hepática terminal, relativamente aos quais não houvesse outra alternativa terapêutica. Em 1991, por proposta de Holmgren, professor de genética, o cirurgião sueco Bo Ericzon realizou em Huntingdon (Estocolmo) o primeiro transplante hepático num doente PAF (Polineuropatia Amilloidótica Familiar), esperando que a substituição do fígado pudesse frenar a evolução da doença. Nesta doença hereditária autossómica dominante, o fígado, apesar de estrutural e funcionalmente normal, produz uma proteína anormal (TTR Met30) responsável pela doença. A partir de então, a transplantação hepática passou a ser a única terapêutica eficaz para estes doentes. Portugal é o país do mundo com mais doentes PAF, tendo sido o médico neurologista português Corino de Andrade quem, em 1951, identificou e descreveu este tipo particular de polineuropatia hereditária, também conhecida por doença de Andrade. Com o início da transplantação hepática programada em Setembro de 1992, o primeiro doente transplantado hepático em Portugal, no Hospital Curry Cabral, foi um doente PAF. Desde logo se percebeu que a competição nas listas de espera em Portugal, entre doentes hepáticos crónicos e doentes PAF viria a ser um problema clínico e ético difícil de compatibilizar. Em 1995, Linhares Furtado, em Coimbra, realizou o primeiro transplante dum fígado dum doente PAF num doente com doença hepática metastática, ficando este tipo de transplante conhecido como transplante sequencial ou “em dominó”. Fê-lo no pressuposto de que o fígado PAF, funcional e estruturalmente normal, apesar de produzir a proteína mutada causadora da doença neurológica, pudesse garantir ao receptor um período razoável de vida livre de sintomas, tal como acontece na história natural desta doença congénita, cujas manifestações clínicas apenas se observam na idade adulta. A técnica cirúrgica mais adequada para transplantar o doente PAF é a técnica de “piggyback”, na qual a hepatectomia é feita mantendo a veia cava do doente, podendo o transplante ser feito sem recorrer a bypass extracorporal. Antes de 2001, para fazerem o transplante sequencial, os diferentes centros alteraram a técnica de hepatectomia no doente PAF, ressecando a cava com o fígado conforme a técnica clássica, recorrendo ao bypass extracorporal. No nosso centro imaginámos e concebemos uma técnica original, com recurso a enxertos venosos, que permitisse ao doente PAF submeter-se à mesma técnica de hepatectomia no transplante, quer ele viesse a ser ou não dador. Essa técnica, por nós utilizada pela primeira vez a nível mundial em 2001, ficou conhecida por Transplante Sequencial em Duplo Piggyback. Este trabalho teve como objectivo procurar saber se a técnica por nós imaginada, concebida e utilizada era reprodutível, se não prejudicava o doente PAF dador e se oferecia ao receptor hepático as mesmas garantias do fígado de cadáver. A nossa série de transplantes realizados em doentes PAF é a maior a nível mundial, assim como o é o número de transplantes sequenciais de fígado. Recorrendo à nossa base de dados desde Setembro de 1992 até Novembro de 2008 procedeu-se à verificação das hipóteses anteriormente enunciadas. Com base na experiência por nós introduzida, a técnica foi reproduzida com êxito em vários centros internacionais de referência, que por si provaram a sua reprodutibilidade. Este sucesso encontra-se publicado por diversos grupos de transplantação hepática a nível mundial. Observámos na nossa série que a sobrevivência dos doentes PAF que foram dadores é ligeiramente superior àqueles que o não foram, embora sem atingir significância estatística. Contudo, quando se analisaram, apenas, estes doentes após a introdução do transplante sequencial no nosso centro, observa-se que existe uma melhor sobrevida nos doentes PAF dadores (sobrevida aos 5 anos de 87% versus 71%, p=0,047).Relativamente aos receptores observámos que existe um benefício a curto prazo em termos de morbi-mortalidade (menor hemorragia peri-operatória) e a longo prazo alguns grupos de doentes apresentaram diferenças de sobrevida, embora sem atingir significância estatística, facto este que pode estar relacionado com a dimensão das amostras parcelares analisadas. Estes grupos são os doentes com cirrose a vírus da hepatite C e os doentes com doença hepática maligna primitiva dentro dos critérios de Milão. Fora do âmbito deste trabalho ficou um aspecto relevante que é a recidiva da doença PAF nos receptores de fígado sequencial e o seu impacto no longo prazo. Em conclusão, o presente trabalho permite afirmar que a técnica por nós introduzida pela primeira vez a nível mundial é exequível e reprodutível e é segura para os doentes dadores de fígado PAF, que não vêem a sua técnica cirúrgica alterada pelo facto de o serem. Os receptores não são, por sua vez, prejudicados por receberem um fígado PAF, havendo mesmo benefícios no pós-operatório imediato e, eventualmente, alguns grupos específicos de doentes podem mesmo ser beneficiados.---------ABSTRACT: Ever since Bethesda statement in 1983, Liver Transplantation has been accepted as a clinical therapeutic procedure for many patients with advanced hepatic failure Holmgren, professor of genetics, suggested that one could expect that transplanting a new liver could lead to improve progressive neurological symptoms of Familial Amyloidotic Polyneuropathy (PAF). Bo Ericzon, the transplant surgeon at Huddinge Hospital in Stockholm, Sweden, did in 1991 the first Liver Transplant on a FAP patient. FAP is an inherited autosomal dominant neurologic disease in which the liver, otherwise structural an functionally normal, produces more than 90% of an abnormal protein (TTR Met30) whose deposits are responsible for symptoms. Liver Transplantation is currently the only efficient therapy available for FAP patients. Portugal is the country in the world where FAP is most prevalent. The Portuguese neurologist Corino de Andrade was the first to recognize in 1951 this particular form of inherited polyneuropathy, which is also known by the name of Andrade disease. Liver Transplantation started as a program in Portugal in September 1992. The first patient transplanted in Lisbon, Hospital Curry Cabral, was a FAP patient. From the beginning we did realize that competition among waiting lists of FAP and Hepatic patients would come to be a complex problem we had to deal with, on clinical and ethical grounds. There was one possible way-out. FAP livers could be of some utility themselves as liver grafts. Anatomically and functionally normal, except for the inherited abnormal trace, those livers could possibly be transplanted in selected hepatic patients. Nevertheless the FAP liver carried with it the ability to produce the mutant TTR protein. One could expect, considering the natural history of the disease that several decades would lapse before the recipient could suffer symptomatic neurologic disease, if at all. In Coimbra, Portugal, Linhares Furtado performed in 1995 the first transplant of a FAP liver to a patient with metastatic malignant disease, as a sequential or “domino” transplant. FAP Liver Transplant patients, because of some dysautonomic labiality and unexpected reactions when they are subjected to surgery, take special advantage when piggyback technique is used for hepatectomy. This technique leaves the vena cava of the patient undisturbed, so that return of blood to the heart is affected minimally, so that veno-venous extracorporeal bypass will not be necessary. The advantages of piggyback technique could not be afforded to FAP patients who became donors for sequential liver transplantation, before we did introduce our liver reconstruction technique in 2001. The hepatectomy took the vena cava together with the liver, which is the classical technique, and the use of extracorporeal veno-venous bypass was of necessity in most cases. The reconstruction technique we developed in our center and used for the first time in the world in 2001 consists in applying venous grafts to the supra-hepatic ostia of piggyback resected FAP livers so that the organ could be grafted to a hepatic patient whose liver was itself resected with preservation of the vena cava. This is the double piggyback sequential transplant of the liver. It is the objective of this thesis to evaluate the results of this technique that we did introduce, first of all that it is reliable and reproducible, secondly that the FAP donor is not subjected to any additional harm during the procedure, and finally that the recipient has the same prospects of a successful transplant as if the liver was collected from a cadaver donor. Our series of liver transplantation on FAP patients and sequential liver transplants represent both the largest experience in the world. To achieve the analysis of the questions mentioned above, we did refer to our data-base from September 1992 to November 2008. The reconstructive technique that we did introduce is feasible: it could be done with success in every case ion our series. It is also reproducible. It has been adopted by many international centers of reference that did mention it in their own publications. We do refer to our data-base in what concerns the safety for the FAP donor.Five years survival of FAP transplanted patients that have been donors (n=190) has been slightly superior to those who were not (n=77), with no statistical significance. However, if we consider five year survival of FAP transplanted patients after the beginning of sequential transplant program in our center, survival is better among those patients whose liver was used as a transplant (87% survival versus 71%, p=0.047). In what concerns recipients of FAP livers: Some short-term benefit of less perioperative morbi-mortality mainly less hemorrhage. In some groups of particular pathologies, there is a strong suggestion of better survival, however the scarcity of numbers make the differences not statistically significant. Patients with cirrhosis HVC (83% versus73%) and patients with primitive hepatic cancer within Milan criteria (survival of 70% versus 58%) are good examples. There is one relevant problem we left beyond discussion in the present work: this is the long-term impact of possible recurrence of FAP symptoms among recipients of sequential transplants. In Conclusion: The reconstruction technique that we did develop and introduce is consistently workable and reproducible. It is safe for FAP donors with the advantage that removal of vena cava can be avoided. Hepatic patients transplanted with those livers suffer no disadvantages and have the benefit of less hemorrhage. There is also a suggestion that survival could be better in cirrhosis HVC and primary liver cancer patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Eletrotécnica e Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Informática