493 resultados para garantias
Resumo:
Trabalho apresentado no âmbito do Mestrado em Engenharia Informática, como requisito parcial para obtenção do grau de Mestre em Engenharia Informática
Resumo:
Temos vindo a assistir nos últimos anos a uma evolução no que respeita à avaliação do risco de crédito. As constantes alterações de regulamentação bancária, que resultam dos Acordos de Basileia, têm vindo a impor novas normas que condicionam a quantidade e a qualidade do risco de crédito que as Instituições de Crédito podem assumir nos seus balanços. É de grande importância as Instituições de Crédito avaliarem o risco de crédito, as garantias e o custo de capital, pois têm um impacto direto na sua gestão nomeadamente quanto à afetação de recursos e proteção contra perdas. Desta forma, pretende-se com o presente trabalho elaborar e estruturar um modelo de rating interno através de técnicas estatísticas, assim como identificar as variáveis estatisticamente relevantes no modelo considerado. Foi delineada uma metodologia de investigação mista, considerando na primeira parte do trabalho uma pesquisa qualitativa e na segunda parte uma abordagem quantitativa. Através da análise documental, fez-se uma abordagem dos conceitos teóricos e da regulamentação que serve de base ao presente trabalho. No estudo de caso, o modelo de rating interno foi desenvolvido utilizando a técnica estatística designada de regressão linear múltipla. A amostra considerada foi obtida através da base de dados SABI e é constituída por cem empresas solventes, situadas na zona de Paredes, num horizonte temporal de 2011-2013. A nossa análise baseou-se em três cenários, correspondendo cada cenário aos dados de cada ano (2011, 2012 e 2013). Para validar os pressupostos do modelo foram efetuados testes estatísticos de Durbin Watson e o teste de significância - F (ANOVA). Por fim, para obtermos a classificação de rating de cada variável foi aplicada a técnica dos percentis. Pela análise dos três cenários considerados, verificou-se que o cenário dois foi o que obteve maior coeficiente de determinação. Verificou-se ainda que as variáveis independentes, rácio de liquidez geral, grau de cobertura do ativo total pelo fundo de maneio e rácio de endividamento global são estatisticamente relevantes.
Resumo:
Relatório de Estágio apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Contabilidade e Finanças, sob orientação do Mestre Carlos Lourenço Moreira de Barros
Resumo:
Nos dias de hoje, os sistemas de tempo real crescem em importância e complexidade. Mediante a passagem do ambiente uniprocessador para multiprocessador, o trabalho realizado no primeiro não é completamente aplicável no segundo, dado que o nível de complexidade difere, principalmente devido à existência de múltiplos processadores no sistema. Cedo percebeu-se, que a complexidade do problema não cresce linearmente com a adição destes. Na verdade, esta complexidade apresenta-se como uma barreira ao avanço científico nesta área que, para já, se mantém desconhecida, e isto testemunha-se, essencialmente no caso de escalonamento de tarefas. A passagem para este novo ambiente, quer se trate de sistemas de tempo real ou não, promete gerar a oportunidade de realizar trabalho que no primeiro caso nunca seria possível, criando assim, novas garantias de desempenho, menos gastos monetários e menores consumos de energia. Este último fator, apresentou-se desde cedo, como, talvez, a maior barreira de desenvolvimento de novos processadores na área uniprocessador, dado que, à medida que novos eram lançados para o mercado, ao mesmo tempo que ofereciam maior performance, foram levando ao conhecimento de um limite de geração de calor que obrigou ao surgimento da área multiprocessador. No futuro, espera-se que o número de processadores num determinado chip venha a aumentar, e como é óbvio, novas técnicas de exploração das suas inerentes vantagens têm de ser desenvolvidas, e a área relacionada com os algoritmos de escalonamento não é exceção. Ao longo dos anos, diferentes categorias de algoritmos multiprocessador para dar resposta a este problema têm vindo a ser desenvolvidos, destacando-se principalmente estes: globais, particionados e semi-particionados. A perspectiva global, supõe a existência de uma fila global que é acessível por todos os processadores disponíveis. Este fato torna disponível a migração de tarefas, isto é, é possível parar a execução de uma tarefa e resumir a sua execução num processador distinto. Num dado instante, num grupo de tarefas, m, as tarefas de maior prioridade são selecionadas para execução. Este tipo promete limites de utilização altos, a custo elevado de preempções/migrações de tarefas. Em contraste, os algoritmos particionados, colocam as tarefas em partições, e estas, são atribuídas a um dos processadores disponíveis, isto é, para cada processador, é atribuída uma partição. Por essa razão, a migração de tarefas não é possível, acabando por fazer com que o limite de utilização não seja tão alto quando comparado com o caso anterior, mas o número de preempções de tarefas decresce significativamente. O esquema semi-particionado, é uma resposta de caráter hibrido entre os casos anteriores, pois existem tarefas que são particionadas, para serem executadas exclusivamente por um grupo de processadores, e outras que são atribuídas a apenas um processador. Com isto, resulta uma solução que é capaz de distribuir o trabalho a ser realizado de uma forma mais eficiente e balanceada. Infelizmente, para todos estes casos, existe uma discrepância entre a teoria e a prática, pois acaba-se por se assumir conceitos que não são aplicáveis na vida real. Para dar resposta a este problema, é necessário implementar estes algoritmos de escalonamento em sistemas operativos reais e averiguar a sua aplicabilidade, para caso isso não aconteça, as alterações necessárias sejam feitas, quer a nível teórico quer a nível prá
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
Muito se tem falado sobre revolução tecnológica e do aparecimento constante de novas aplicações Web, com novas funcionalidades que visam facilitar o trabalho dos utilizadores. Mas será que estas aplicações garantem que os dados transmitidos são tratados e enviados por canais seguros (protocolos)? Que garantias é que o utilizador tem que mesmo que a aplicação utilize um canal, que prevê a privacidade e integridade de dados, esta não apresente alguma vulnerabilidade pondo em causa a informação sensível do utilizador? Software que não foi devidamente testado, aliado à falta de sensibilização por parte dos responsáveis pelo desenvolvimento de software para questões de segurança, levam ao aumento de vulnerabilidades e assim exponenciam o número de potenciais vítimas. Isto aliado ao efeito de desinibição que o sentimento de invisibilidade pode provocar, conduz ao facilitismo e consequentemente ao aumento do número de vítimas alvos de ataques informáticos. O utilizador, por vezes, não sabe muito bem do que se deve proteger, pois a confiança que depõem no software não pressupõem que os seus dados estejam em risco. Neste contexto foram recolhidos dados históricos relativos a vulnerabilidades nos protocolos SSL/TLS, para perceber o impacto que as mesmas apresentam e avaliar o grau de risco. Para além disso, foram avaliados um número significativo de domínios portugueses para perceber se os mesmos têm uma vulnerabilidade específica do protocolo SSL/TLS.
Resumo:
Dissertação de Mestrado em Solicitaria
Resumo:
RESUMO:Desde a declaração de Bethesda em 1983, a transplantação hepática é considerada um processo válido e aceite na prática clínica para muitos doentes com doença hepática terminal, relativamente aos quais não houvesse outra alternativa terapêutica. Em 1991, por proposta de Holmgren, professor de genética, o cirurgião sueco Bo Ericzon realizou em Huntingdon (Estocolmo) o primeiro transplante hepático num doente PAF (Polineuropatia Amilloidótica Familiar), esperando que a substituição do fígado pudesse frenar a evolução da doença. Nesta doença hereditária autossómica dominante, o fígado, apesar de estrutural e funcionalmente normal, produz uma proteína anormal (TTR Met30) responsável pela doença. A partir de então, a transplantação hepática passou a ser a única terapêutica eficaz para estes doentes. Portugal é o país do mundo com mais doentes PAF, tendo sido o médico neurologista português Corino de Andrade quem, em 1951, identificou e descreveu este tipo particular de polineuropatia hereditária, também conhecida por doença de Andrade. Com o início da transplantação hepática programada em Setembro de 1992, o primeiro doente transplantado hepático em Portugal, no Hospital Curry Cabral, foi um doente PAF. Desde logo se percebeu que a competição nas listas de espera em Portugal, entre doentes hepáticos crónicos e doentes PAF viria a ser um problema clínico e ético difícil de compatibilizar. Em 1995, Linhares Furtado, em Coimbra, realizou o primeiro transplante dum fígado dum doente PAF num doente com doença hepática metastática, ficando este tipo de transplante conhecido como transplante sequencial ou “em dominó”. Fê-lo no pressuposto de que o fígado PAF, funcional e estruturalmente normal, apesar de produzir a proteína mutada causadora da doença neurológica, pudesse garantir ao receptor um período razoável de vida livre de sintomas, tal como acontece na história natural desta doença congénita, cujas manifestações clínicas apenas se observam na idade adulta. A técnica cirúrgica mais adequada para transplantar o doente PAF é a técnica de “piggyback”, na qual a hepatectomia é feita mantendo a veia cava do doente, podendo o transplante ser feito sem recorrer a bypass extracorporal. Antes de 2001, para fazerem o transplante sequencial, os diferentes centros alteraram a técnica de hepatectomia no doente PAF, ressecando a cava com o fígado conforme a técnica clássica, recorrendo ao bypass extracorporal. No nosso centro imaginámos e concebemos uma técnica original, com recurso a enxertos venosos, que permitisse ao doente PAF submeter-se à mesma técnica de hepatectomia no transplante, quer ele viesse a ser ou não dador. Essa técnica, por nós utilizada pela primeira vez a nível mundial em 2001, ficou conhecida por Transplante Sequencial em Duplo Piggyback. Este trabalho teve como objectivo procurar saber se a técnica por nós imaginada, concebida e utilizada era reprodutível, se não prejudicava o doente PAF dador e se oferecia ao receptor hepático as mesmas garantias do fígado de cadáver. A nossa série de transplantes realizados em doentes PAF é a maior a nível mundial, assim como o é o número de transplantes sequenciais de fígado. Recorrendo à nossa base de dados desde Setembro de 1992 até Novembro de 2008 procedeu-se à verificação das hipóteses anteriormente enunciadas. Com base na experiência por nós introduzida, a técnica foi reproduzida com êxito em vários centros internacionais de referência, que por si provaram a sua reprodutibilidade. Este sucesso encontra-se publicado por diversos grupos de transplantação hepática a nível mundial. Observámos na nossa série que a sobrevivência dos doentes PAF que foram dadores é ligeiramente superior àqueles que o não foram, embora sem atingir significância estatística. Contudo, quando se analisaram, apenas, estes doentes após a introdução do transplante sequencial no nosso centro, observa-se que existe uma melhor sobrevida nos doentes PAF dadores (sobrevida aos 5 anos de 87% versus 71%, p=0,047).Relativamente aos receptores observámos que existe um benefício a curto prazo em termos de morbi-mortalidade (menor hemorragia peri-operatória) e a longo prazo alguns grupos de doentes apresentaram diferenças de sobrevida, embora sem atingir significância estatística, facto este que pode estar relacionado com a dimensão das amostras parcelares analisadas. Estes grupos são os doentes com cirrose a vírus da hepatite C e os doentes com doença hepática maligna primitiva dentro dos critérios de Milão. Fora do âmbito deste trabalho ficou um aspecto relevante que é a recidiva da doença PAF nos receptores de fígado sequencial e o seu impacto no longo prazo. Em conclusão, o presente trabalho permite afirmar que a técnica por nós introduzida pela primeira vez a nível mundial é exequível e reprodutível e é segura para os doentes dadores de fígado PAF, que não vêem a sua técnica cirúrgica alterada pelo facto de o serem. Os receptores não são, por sua vez, prejudicados por receberem um fígado PAF, havendo mesmo benefícios no pós-operatório imediato e, eventualmente, alguns grupos específicos de doentes podem mesmo ser beneficiados.---------ABSTRACT: Ever since Bethesda statement in 1983, Liver Transplantation has been accepted as a clinical therapeutic procedure for many patients with advanced hepatic failure Holmgren, professor of genetics, suggested that one could expect that transplanting a new liver could lead to improve progressive neurological symptoms of Familial Amyloidotic Polyneuropathy (PAF). Bo Ericzon, the transplant surgeon at Huddinge Hospital in Stockholm, Sweden, did in 1991 the first Liver Transplant on a FAP patient. FAP is an inherited autosomal dominant neurologic disease in which the liver, otherwise structural an functionally normal, produces more than 90% of an abnormal protein (TTR Met30) whose deposits are responsible for symptoms. Liver Transplantation is currently the only efficient therapy available for FAP patients. Portugal is the country in the world where FAP is most prevalent. The Portuguese neurologist Corino de Andrade was the first to recognize in 1951 this particular form of inherited polyneuropathy, which is also known by the name of Andrade disease. Liver Transplantation started as a program in Portugal in September 1992. The first patient transplanted in Lisbon, Hospital Curry Cabral, was a FAP patient. From the beginning we did realize that competition among waiting lists of FAP and Hepatic patients would come to be a complex problem we had to deal with, on clinical and ethical grounds. There was one possible way-out. FAP livers could be of some utility themselves as liver grafts. Anatomically and functionally normal, except for the inherited abnormal trace, those livers could possibly be transplanted in selected hepatic patients. Nevertheless the FAP liver carried with it the ability to produce the mutant TTR protein. One could expect, considering the natural history of the disease that several decades would lapse before the recipient could suffer symptomatic neurologic disease, if at all. In Coimbra, Portugal, Linhares Furtado performed in 1995 the first transplant of a FAP liver to a patient with metastatic malignant disease, as a sequential or “domino” transplant. FAP Liver Transplant patients, because of some dysautonomic labiality and unexpected reactions when they are subjected to surgery, take special advantage when piggyback technique is used for hepatectomy. This technique leaves the vena cava of the patient undisturbed, so that return of blood to the heart is affected minimally, so that veno-venous extracorporeal bypass will not be necessary. The advantages of piggyback technique could not be afforded to FAP patients who became donors for sequential liver transplantation, before we did introduce our liver reconstruction technique in 2001. The hepatectomy took the vena cava together with the liver, which is the classical technique, and the use of extracorporeal veno-venous bypass was of necessity in most cases. The reconstruction technique we developed in our center and used for the first time in the world in 2001 consists in applying venous grafts to the supra-hepatic ostia of piggyback resected FAP livers so that the organ could be grafted to a hepatic patient whose liver was itself resected with preservation of the vena cava. This is the double piggyback sequential transplant of the liver. It is the objective of this thesis to evaluate the results of this technique that we did introduce, first of all that it is reliable and reproducible, secondly that the FAP donor is not subjected to any additional harm during the procedure, and finally that the recipient has the same prospects of a successful transplant as if the liver was collected from a cadaver donor. Our series of liver transplantation on FAP patients and sequential liver transplants represent both the largest experience in the world. To achieve the analysis of the questions mentioned above, we did refer to our data-base from September 1992 to November 2008. The reconstructive technique that we did introduce is feasible: it could be done with success in every case ion our series. It is also reproducible. It has been adopted by many international centers of reference that did mention it in their own publications. We do refer to our data-base in what concerns the safety for the FAP donor.Five years survival of FAP transplanted patients that have been donors (n=190) has been slightly superior to those who were not (n=77), with no statistical significance. However, if we consider five year survival of FAP transplanted patients after the beginning of sequential transplant program in our center, survival is better among those patients whose liver was used as a transplant (87% survival versus 71%, p=0.047). In what concerns recipients of FAP livers: Some short-term benefit of less perioperative morbi-mortality mainly less hemorrhage. In some groups of particular pathologies, there is a strong suggestion of better survival, however the scarcity of numbers make the differences not statistically significant. Patients with cirrhosis HVC (83% versus73%) and patients with primitive hepatic cancer within Milan criteria (survival of 70% versus 58%) are good examples. There is one relevant problem we left beyond discussion in the present work: this is the long-term impact of possible recurrence of FAP symptoms among recipients of sequential transplants. In Conclusion: The reconstruction technique that we did develop and introduce is consistently workable and reproducible. It is safe for FAP donors with the advantage that removal of vena cava can be avoided. Hepatic patients transplanted with those livers suffer no disadvantages and have the benefit of less hemorrhage. There is also a suggestion that survival could be better in cirrhosis HVC and primary liver cancer patients.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Eletrotécnica e Computadores
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
RESUMO - O presente estudo situa-se nas áreas gerais da Saúde Pública, dos Sistemas de Saúde e do Acesso à Prestação de Cuidados de Saúde e procura analisar o conteúdo e concretização do Direito de Acesso a Cuidados de Saúde na perspectiva de dois sistemas de saúde paradigmaticamente distintos, um sistema de acesso universal, representado pelo Serviço Nacional de Saúde português e um sistema de saúde de “não universal”, cujo paradigma é o modelo existente nos Estados Unidos da América, onde entidades gestoras de cuidados, Managed Care Organizations, são chamadas a desempenhar um papel central no acesso e prestação de cuidados de saúde. O vasto campo de investigação representado pela problemática do acesso a cuidados de saúde e a necessidade de limitar o trabalho de investigação subjazem à definição de quatro vertentes a analisar: (a) a existência ou não de uma base legal que preveja e regule o exercício do direito de acesso a cuidados de saúde; (b) o conteúdo deste direito no âmbito de cada um dos sistemas em estudo; (c) as condições de concretização do acesso a cuidados de saúde em ambos os sistemas, e, por último (d) a existência de garantias de efectivação do mesmo. Analisados os sistemas em estudo à luz das vertentes apresentadas, concluímos que a existência de um quadro normativo próprio, que explicite o conteúdo e condições de efectivação do direito, apresenta maiores garantias de concretização do exercício do Direito de Acesso a Cuidados de Saúde, entendendo-se que um sistema de acesso dependente da actuação de entidades gestoras de cuidados não beneficia o acesso a cuidados de saúde, nomeadamente por não garantir equidade no momento de procura e necessidade de cuidados. Os dados apresentados foram recolhidos através do recurso a uma metodologia qualitativa. A análise documental foi aplicada na recolha dos dados relativos à evolução e caracterização dos sistemas, bem como às condições de acesso. No âmbito do sistema de saúde de acesso universal, ou seja, o caso português, procedeu-se essencialmente à análise dos normativos aplicáveis. No que se refere ao sistema de saúde norte-americano, na ausência de base legal aplicável, recorreu-se sobretudo à análise de literatura e documentos. A participação no vi Second Biennal Seminar in Law and Bioethics1 e na 30th Annual Health Law Professors Conference2, realizados em Bóston, EUA, em Julho de 2007, permitiram uma melhor percepção da actual situação da prestação de cuidados naquele País, nomeadamente de algumas das reformas em curso, bem como um melhor entendimento das características do sistema prestador norte-americano em si mesmo. 1 Seminário organizado nos dias 30 e 31 de Maio, numa colaboração entre a Escola Nacional de Saúde Pública e o Departamento de Direito da saúde, Bioética e Direitos Humanos da Escola de Saúde Pública da Universidade de Bóston, sob o tema: “Law and ethics in rationing Access to care in a high-cost global economy”. A nossa participação deveu-se a um convite da Prof.ª Paula Lobato de Faria para colaborar na sessão sobre o sistema de saúde português. 2 Reunião realizada em Bóston nos dias 31 de Maio a 2 de Junho, sobretudo a sessão dedicada ao tema “New Models for Reform”, sobre os novos modelos de sistema de saúde em desenvolvimento nos EUA.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
O aumento da população mundial, principalmente em zonas de escassez de água, intensifica o aumento da sua procura para usos domésticos, industriais, e agrícolas. A reutilização de águas residuais pode ser apresentada como um contributo alternativo a esta procura, nomeadamente para fins não potáveis, podendo ser tratadas a níveis de qualidade que permitam a sua utilização adequada neste contexto, sendo uma medida, a longo prazo, competitiva do ponto de vista técnico económico. Neste âmbito, é efectuado um estudo sobre a aplicabilidade de Bioreactores de Membranas, denominados MBR, no tratamento de águas residuais e sua reutilização, sendo efectuado um estudo prévio para um sistema MBR compacto, dimensionado para 50 habitantes equivalentes tendo-se chegado a um tanque com 11 m3 divido em duas zonas, uma de equalização com 3 m3 e um reactor biológico com 8 m3. As membranas seleccionadas foram membranas de ultrafiltração PURON® da KOCH, devido ao seu sistema de limpeza inovador e eficiente, assim como às suas garantias de bom funcionamento. Por último fez-se uma análise com o objectivo de comparar sumariamente em várias vertentes (espaço, funcionalidades, custos, aumento de capacidades, arranque e produção de lamas) um sistema MBR, compacto ou não, com outros sistemas de tratamento. Esta dissertação tem como principais conclusões, que é possível um sistema MBR compacto ser produzido com um custo capital dentro dos limites comerciais, comparativamente a outras soluções compactas onde, no entanto, a solução MBR é sempre mais dispendiosa em termos de Total Cost of Ownership que qualquer outro sistema, apresentando no entanto sempre vantagens em termos da relação qualidade do efluente final e espaço ocupado.