66 resultados para COMMON DUE-DATE


Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper presents the study of the remediation of sandy soils containing six of the most common contaminants (benzene, toluene, ethylbenzene, xylene, trichloroethylene and perchloroethylene) using soil vapour extraction (SVE). The influence of soil water content on the process efficiency was evaluated considering the soil type and the contaminant. For artificially contaminated soils with negligible clay contents and natural organic matter it was concluded that: (i) all the remediation processes presented efficiencies above 92%; (ii) an increase of the soil water content led to a more time-consuming remediation; (iii) longer remediation periods were observed for contaminants with lower vapour pressures and lower water solubilities due to mass transfer limitations. Based on these results an easy and relatively fast procedure was developed for the prediction of the remediation times of real soils; 83% of the remediation times were predicted with relative deviations below 14%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de Mestrado apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Auditoria, sob orientação de Doutor José Campos Amorim

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução: A síndrome do conflito subacromial (SCSA) é a causa mais frequente de dor no ombro. Alterações na cinemática escapuloumeral e na activação dos músculos escapulares têm sido identificadas em pessoas com SCSA. A mobilização com movimento (MWM) é uma técnica de terapia manual, desenvolvida por Mulligan, que visa normalizar a cinemática articular. Objectivos: Determinar os efeitos imediatos da MWM na dor, na amplitude de movimento (ADM) de abdução no plano da escápula (APE), e na amplitude do sinal electromiográfico (EMG) do trapézio e grande dentado (GD), em pessoas com SCSA. Métodos: Foram incluídas no estudo 24 pessoas com SCSA, divididas de forma aleatória em 2 grupos de 12, MWM e Placebo. As medidas de resultados avaliadas foram: a dor nos testes de Neer e Hawkins-Kennedy; o limiar de dor à pressão; a ADM de APE até ao início da dor; e a percentagem da contracção isométrica voluntária máxima dos músculos trapézio (superior, médio e inferior) e GD. Resultados: A aplicação da MWM resultou numa significativa diferença, com redução da dor, no teste de Hawkins-Kennedy (p=0,028), num aumento do limiar de dor à pressão (p=0,002) e da ADM de APE até ao início da dor (p=0,010), e numa diminuição da actividade EMG do trapézio superior (TS), na fase concêntrica, abaixo dos 90˚ (p=0,028), comparativamente ao grupo Placebo. Foi, ainda, identificada uma diminuição estatisticamente significativa da actividade EMG do TS, nas restantes fases do movimento (p<0,05), um aumento do limiar de dor à pressão (p<0,001) e da ADM até ao início da dor (p=0,006) entre, antes e após a intervenção com MWM. Conclusão: A MWM poderá ser uma técnica efectiva em indivíduos com SCSA, pelos seus efeitos na redução de dor, aumento de ADM até ao início da dor e diminuição da actividade EMG do TS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos dias de hoje é necessário criar hábitos de vida mais saudáveis que contribuam para o bem-estar da população. Adoptar medidas e práticas de modo regular e disciplinado, pode diminuir o risco do aparecimento de determinadas doenças, como a obesidade, as doenças cardiovasculares, a hipertensão, a diabetes, alguns tipos de cancro e tantas outras. É também importante salientar que, uma alimentação cuidada dá saúde e aumenta a esperança média de vida. Em Portugal, nos últimos anos, os costumes alimentares da população têm vindo a alterar-se significativamente. As refeições caseiras confeccionadas com produtos frescos dão lugar à designada “cultura do fast food”. Em contrapartida, os consumidores são cada vez mais exigentes, estando em permanente alerta no que se refere ao estado dos alimentos. A rotulagem de um produto, para além da função publicitária, tem vindo a ser objecto de legislação específica de forma a fornecer informação simples e clara, correspondente à composição, qualidade, quantidade, validade ou outras características do produto. Estas informações devem ser acessíveis a qualquer tipo de público, com mais ou menos formação e de qualquer estrato social. A qualidade e segurança dos produtos deve basear-se na garantia de que todos os ingredientes, materiais de embalagem e processos produtivos são adequados à produção de produtos seguros, saudáveis e saborosos. A Silliker Portugal, S.A. é uma empresa independente de prestação de serviços para o sector agro-alimentar, líder mundial na prestação de serviços para a melhoria da qualidade e segurança alimentar. A Silliker dedica-se a ajudar as empresas a encontrar soluções para os desafios actuais do sector, oferecendo uma ampla gama de serviços, onde se inclui o serviço de análises microbiológicas, químicas e sensorial; consultadoria em segurança alimentar e desenvolvimento; auditorias; rotulagem e legislação. A actualização permanente de procedimentos na procura de uma melhoria contínua é um dos objectivos da empresa. Para responder a um dos desafios colocados à Silliker, surgiu este trabalho, que consistiu no desenvolvimento de um novo método para determinação de ácidos gordos e da gordura total em diferentes tipos de alimentos e comparação dos resultados, com os obtidos com o método analítico até então adoptado. Se a gordura é um elemento de grande importância na alimentação, devido às suas propriedades nutricionais e organoléticas, recentemente, os investigadores têm focado a sua atenção nos mais diversos ácidos gordos (saturados, monoinsaturados e polinsaturados), em particular nos ácidos gordos essenciais e nos isómeros do ácido linoleico conjugado (CLA), uma mistura de isómeros posicionais e geométricos do ácido linoleico com actividade biológica importante. A técnica usada nas determinações foi a cromatografia gasosa com ionização de chama, GC-FID, tendo as amostras sido previamente tratadas e extraídas de acordo com o tipo de matriz. A metodologia analítica desenvolvida permitiu a correcta avaliação do perfil em ácidos gordos, tendo-se para isso usado uma mistura de 37 ésteres metílicos, em que o ácido gordo C13:0 foi usado como padrão interno. A identificação baseou-se nos tempos de retenção de cada ácido gordo da mistura e para a quantificação usaram-se os factores de resposta. A validação do método implementado foi baseada nos resultados obtidos no estudo de três matrizes relativas a materiais certificados pela BIPEA (Bureau Interprofessionnel des Etudes Analytiques), para o que foram efectuadas doze réplicas de cada matriz. Para cada réplica efectuada foi calculado o teor de matéria gorda, sendo posteriormente o resultado comparado com o emitido pela entidade certificada. Após análise de cada constituinte foi também possível calcular o teor em ácidos gordos saturados, monoinsaturados e polinsaturados. A determinação do perfil em ácidos gordos dos materiais certificados foi aceitável atendendo aos valores obtidos, os quais se encontravam no intervalo de valores admissíveis indicados nos relatórios. A quantificação da matéria gorda no que se refere à matriz de “Paté à Tartinier” apresentou um z-score de 4,3, o que de acordo com as exigências internas da Silliker, não é válido. Para as outras duas matrizes (“Mélange Nutritif” e “Plat cuisiné à base de viande”) os valores de z-score foram, respectivamente, 0,7 e -1,0, o que permite concluir a validade do método. Para que o método possa vir a ser adoptado como método alternativo é necessário um estudo mais alargado relativamente a amostras com diferentes composições. O método foi aplicado na análise de amostras de fiambre, leite gordo, queijo, ovo com ómega 3, amendoim e óleo de girassol, e os resultados foram comparados com os obtidos pelo método até então adoptado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Perante a evolução constante da Internet, a sua utilização é quase obrigatória. Através da web, é possível conferir extractos bancários, fazer compras em países longínquos, pagar serviços sem sair de casa, entre muitos outros. Há inúmeras alternativas de utilização desta rede. Ao se tornar tão útil e próxima das pessoas, estas começaram também a ganhar mais conhecimentos informáticos. Na Internet, estão também publicados vários guias para intrusão ilícita em sistemas, assim como manuais para outras práticas criminosas. Este tipo de informação, aliado à crescente capacidade informática do utilizador, teve como resultado uma alteração nos paradigmas de segurança informática actual. Actualmente, em segurança informática a preocupação com o hardware é menor, sendo o principal objectivo a salvaguarda dos dados e continuidade dos serviços. Isto deve-se fundamentalmente à dependência das organizações nos seus dados digitais e, cada vez mais, dos serviços que disponibilizam online. Dada a mudança dos perigos e do que se pretende proteger, também os mecanismos de segurança devem ser alterados. Torna-se necessário conhecer o atacante, podendo prever o que o motiva e o que pretende atacar. Neste contexto, propôs-se a implementação de sistemas de registo de tentativas de acesso ilícitas em cinco instituições de ensino superior e posterior análise da informação recolhida com auxílio de técnicas de data mining (mineração de dados). Esta solução é pouco utilizada com este intuito em investigação, pelo que foi necessário procurar analogias com outras áreas de aplicação para recolher documentação relevante para a sua implementação. A solução resultante revelou-se eficaz, tendo levado ao desenvolvimento de uma aplicação de fusão de logs das aplicações Honeyd e Snort (responsável também pelo seu tratamento, preparação e disponibilização num ficheiro Comma Separated Values (CSV), acrescentando conhecimento sobre o que se pode obter estatisticamente e revelando características úteis e previamente desconhecidas dos atacantes. Este conhecimento pode ser utilizado por um administrador de sistemas para melhorar o desempenho dos seus mecanismos de segurança, tais como firewalls e Intrusion Detection Systems (IDS).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desde o seu aparecimento, a Internet teve um desenvolvimento e uma taxa de crescimento quase exponencial. Os mercados de comércio electrónico têm vindo a acompanhar esta tendência de crescimento, tornando-se cada vez mais comuns e populares entre comerciantes ou compradores/vendedores de ocasião. A par deste crescimento também foi aumentando a complexidade e sofisticação dos sistemas responsáveis por promover os diferentes mercados. No seguimento desta evolução surgiram os Agentes Inteligentes devido à sua capacidade de encontrar e escolher, de uma forma relativamente eficiente, o melhor negócio, tendo por base as propostas e restrições existentes. Desde a primeira aplicação dos Agentes Inteligentes aos mercados de comércio electrónico que os investigadores desta área, têm tentado sempre auto-superar-se arranjando modelos de Agentes Inteligentes melhores e mais eficientes. Uma das técnicas usadas, para a tentativa de obtenção deste objectivo, é a transferência dos comportamentos Humanos, no que toca a negociação e decisão, para estes mesmos Agentes Inteligentes. O objectivo desta dissertação é averiguar se os Modelos de Avaliação de Credibilidade e Reputação são uma adição útil ao processo de negociação dos Agente Inteligentes. O objectivo geral dos modelos deste tipo é minimizar as situações de fraude ou incumprimento sistemático dos acordos realizados aquando do processo de negociação. Neste contexto, foi proposto um Modelo de Avaliação de Credibilidade e Reputação aplicável aos mercados de comércio electrónico actuais e que consigam dar uma resposta adequada o seu elevado nível de exigência. Além deste modelo proposto também foi desenvolvido um simulador Multi-Agente com a capacidade de simular vários cenários e permitir, desta forma, comprovar a aplicabilidade do modelo proposto. Por último, foram realizadas várias experiências sobre o simulador desenvolvido, de forma a ser possível retirar algumas conclusões para o presente trabalho. Sendo a conclusão mais importante a verificação/validação de que a utilização de mecanismos de credibilidade e reputação são uma mais-valia para os mercado de comércio electrónico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Actualmente a área da domótica (automação de casas e edifícios) encontra-se em franca expansão, com principal relevância nos países mais desenvolvidos, com um crescimento de mercado de mais de 10% ao ano. Existem inúmeras razoes para a crescente implantação da domótica em edifícios, entre as quais a maior eficiência energética, o aumento da segurança e a redução do custo de aquisição das tecnologias. No que diz respeito as habitações particulares, acrescenta-se essencialmente o aumento do conforto devido ao grau de automação trazido pela domótica. Apesar da domótica não ser uma área cientifico-tecnológica recente, a rápida evolução das tecnologias associadas, nomeadamente a nível das redes de comunicação com e sem fios, foi uma das razoes fundamentais para a elaboração desta Tese. Acresce o facto de o candidato estar actualmente envolvido profissionalmente na área, pelo qual esta Tese assume uma particular importância. Realizou-se um estudo comparativo das tecnologias de domótica mais relevantes, escolhidas quer pelas suas características técnicas quer pela sua implantação de mercado e potencial futuro - KNX/EIB, LonWorks, HomePlug, ZigBee e Z-Wave. Destas, comprovou-se que as duas primeiras são aquelas que, actualmente, tem maior adequabilidade para serem aplicadas em projectos de domótica. Foi por isso efectuado um estudo mais elaborado das tecnologias LonWorks e KNX/EIB, incluindo a forma pratica de instalação/programação, a elaboração de dois demonstradores e de dois projectos (de acordo com um caderno de encargos real), usando as duas tecnologias. Concluiu-se que a tecnologia LonWorks apresenta vantagens no que respeita a escalabilidade (dimensão) dos sistemas. Em termos futuros, prevê-se a necessidade da interoperabilidade entre os nos/redes cablados (tradicionais) com nos/redes sem fio, seguindo a tendência para os ambientes inteligentes (“ambient intelligence/assisted living”, “smart spaces”, “ubiquitous computing).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve o intuito de testar a viabilidade da programação offline para tarefas de lixamento na empresa Grohe Portugal. Para tal era necessário perceber o que é a programação offline e para isso foi efectuada uma pesquisa referente a essa temática, onde ficou evidente que a programação offline é em tudo semelhante à programação online, tendo apenas como principal diferença o facto de não usar o robô propriamente dito durante o desenvolvimento do programa. Devido à ausência do robô, a programação offline exige que se conheça detalhadamente a célula de trabalho, bem como todas as entradas e saídas associadas à célula, sendo que o conhecimento das entradas e saídas pode ser contornada carregando um backup do robô ou carregando os módulos de sistema. No entanto os fabricantes habitualmente não fornecem informação detalhada sobre as células de trabalho, o que dificulta o processo de implementação da unidade no modelo 3D para a programação offline. Após este estudo inicial, foi efectuado um estudo das características inerentes a cada uma das células existentes, com o objectivo de se obter uma melhor percepção de toda a envolvente relacionada com as tarefas de lixamento. Ao longo desse estudo efectuaram-se vários testes para validar os diversos programas desenvolvidos, bem como para testar a modelação 3D efectuada. O projecto propriamente dito consistiu no desenvolvimento de programas offline de forma a minimizar o impacto (em especial o tempo de paragem) da programação de novos produtos. Todo o trabalho de programação era até então feito utilizando o robô, o que implicava tempos de paragem que podiam ser superiores a três dias. Com o desenvolvimento dos programas em modo offline conseguiu-se reduzir esse tempo de paragem dos robôs para pouco mais de um turno (8h), existindo apenas a necessidade de efectuar algumas afinações e correcções nos movimentos de entrada, saída e movimentações entre rotinas e unidades, uma vez que estes movimentos são essenciais ao bom acabamento da peça e convém que seja suaves. Para a realização e conclusão deste projecto foram superadas diversas etapas, sendo que as mais relevantes foram: - A correcta modelação 3D da célula, tendo em conta todo o cenário envolvente, para evitar colisões do robô com a célula; - A adaptação da programação offline para uma linguagem mais usual aos afinadores, ou seja, efectuar a programação com targets inline e criar diferentes rotinas para cada uma das partes da peça, facilitando assim a afinação; - A habituação à programação recorrendo apenas ao uso de módulos para transferir os programas para a célula, bem como a utilização de entradas, saídas e algumas rotinas e funcionalidades já existentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Actualmente verifica-se que a complexidade dos sistemas informáticos tem vindo a aumentar, fazendo parte das nossas ferramentas diárias de trabalho a utilização de sistemas informáticos e a utilização de serviços online. Neste âmbito, a internet obtém um papel de destaque junto das universidades, ao permitir que alunos e professores possam interagir mais facilmente. A internet e a educação baseada na Web vêm oferecer acesso remoto a qualquer informação independentemente da localização ou da hora. Como consequência, qualquer pessoa com uma ligação à internet, ao poder adquirir informações sobre um determinado tema junto dos maiores peritos, obtém vantagens significativas. Os laboratórios remotos são uma solução muito valorizada no que toca a interligar tecnologia e recursos humanos em ambientes que podem estar afastados no tempo ou no espaço. A criação deste tipo de laboratórios e a sua utilidade real só é possível porque as tecnologias de comunicação emergentes têm contribuído de uma forma muito relevante para melhorar a sua disponibilização à distância. A necessidade de criação de laboratórios remotos torna-se imprescindível para pesquisas relacionadas com engenharia que envolvam a utilização de recursos escassos ou de grandes dimensões. Apoiado neste conceito, desenvolveu-se um laboratório remoto para os alunos de engenharia que precisam de testar circuitos digitais numa carta de desenvolvimento de hardware configurável, permitindo a utilização deste recurso de uma forma mais eficiente. O trabalho consistiu na criação de um laboratório remoto de baixo custo, com base em linguagens de programação open source, sendo utilizado como unidade de processamento um router da ASUS com o firmware OpenWrt. Este firmware é uma distribuição Linux para sistemas embutidos. Este laboratório remoto permite o teste dos circuitos digitais numa carta de desenvolvimento de hardware configurável em tempo real, utilizando a interface JTAG. O laboratório desenvolvido tem a particularidade de ter como unidade de processamento um router. A utilização do router como servidor é uma solução muito pouco usual na implementação de laboratórios remotos. Este router, quando comparado com um computador normal, apresenta uma capacidade de processamento e memória muito inferior, embora os testes efectuados provassem que apresenta um desempenho muito adequado às expectativas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

One of the most difficult issues of e-Learning is the students’ assessment. Being this an outstanding task regarding theoretical topics, it becomes even more challenging when the topics under evaluation are practical. ISCAP’s Information Systems Department is composed of about twenty teachers who have been for several years using an e-learning environment (at the moment Moodle 2.3) combined with traditional assessment. They are now planning and implementing a new e-learning assessment strategy. This effort was undertaken in order to evaluate a practical topic (the use of spreadsheets to solve management problems) common to shared courses of several undergraduate degree programs. The same team group is already experienced in the assessment of theoretical information systems topics using the b-learning platform. Therefore, this project works as an extension to previous experiences being the team aware of the additional difficulties due to the practical nature of the topics. This paper describes this project and presents two cycles of the action research methodology, used to conduct the research. The first cycle goal was to produce a database of questions. When it was implemented in order to be used with a pilot group of students, several problems were identified. Subsequently, the second cycle consisted in solving the identified problems preparing the database and all the players to a broader scope implementation. For each cycle, all the phases, its drawbacks and achievements are described. This paper suits all those who are or are planning to be in the process of shifting their assessment strategy from a traditional to one supported by an e-learning platform.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The tongue is the most important and dynamic articulator for speech formation, because of its anatomic aspects (particularly, the large volume of this muscular organ comparatively to the surrounding organs of the vocal tract) and also due to the wide range of movements and flexibility that are involved. In speech communication research, a variety of techniques have been used for measuring the three-dimensional vocal tract shapes. More recently, magnetic resonance imaging (MRI) becomes common; mainly, because this technique allows the collection of a set of static and dynamic images that can represent the entire vocal tract along any orientation. Over the years, different anatomical organs of the vocal tract have been modelled; namely, 2D and 3D tongue models, using parametric or statistical modelling procedures. Our aims are to present and describe some 3D reconstructed models from MRI data, for one subject uttering sustained articulations of some typical Portuguese sounds. Thus, we present a 3D database of the tongue obtained by stack combinations with the subject articulating Portuguese vowels. This 3D knowledge of the speech organs could be very important; especially, for clinical purposes (for example, for the assessment of articulatory impairments followed by tongue surgery in speech rehabilitation), and also for a better understanding of acoustic theory in speech formation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bladder cancer is a common urologic cancer and the majority has origin in the urothelium. Patients with intermediate and high risk of recurrence/progression bladder cancer are treated with intravesical instillation with Bacillus Calmette-Guérin, however, approximately 30% of patients do not respond to treatment. At the moment, there are no accepted biomarkers do predict treatment outcome and an early identification of patients better served by alternative therapeutics. The treatment initiates a cascade of cytokines responsible by recruiting macrophages to the tumor site that have been shown to influence treatment outcome. Effective BCG therapy needs precise activation of the Th1 immune pathway associated with M1 polarized macrophages. However, tumor-associated macrophages (TAMs) often assume an immunoregulatory M2 phenotype, either immunosuppressive or angiogenic, that interfere in different ways with the BCG induced antitumor immune response. The M2 macrophage is influenced by different microenvironments in the stroma and the tumor. In particular, the degree of hypoxia in the tumors is responsible by the recruitment and differentiation of macrophages into the M2 angiogenic phenotype, suggested to be associated with the response to treatment. Nevertheless, neither the macrophage phenotypes present nor the influence of localization and hypoxia have been addressed in previous studies. Therefore, this work devoted to study the influence of TAMs, in particular of the M2 phenotype taking into account their localization (stroma or tumor) and the degree of hypoxia in the tumor (low or high) in BCG treatment outcome. The study included 99 bladder cancer patients treated with BCG. Tumors resected prior to treatment were evaluated using immunohistochemistry for CD68 and CD163 antigens, which identify a lineage macrophage marker and a M2-polarized specific cell surface receptor, respectively. Tumor hypoxia was evaluated based on HIF-1α expression. As a main finding it was observed that a high predominance of CD163+ macrophage counts in the stroma of tumors under low hypoxia was associated with BCG immunotherapy failure, possibly due to its immunosuppressive phenotype. This study further reinforces the importance the tumor microenvironment in the modulation of BCG responses.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é abordado o estágio efectuado por um período de sete meses na E.A. (Engenheiros Associados) e um estudo de caso sobre as tecnologias aplicadas no isolamento térmico de paredes exteriores. Na primeira parte deste relatório é efectuada uma breve caracterização da empresa e da sua actividade no mercado. A Engenheiros e Associados tem a sua estrutura assente nos seguintes sectores: Técnico-Comercial, de Aprovisionamento e de Gestão Administrativa; da qual foi efectuada uma descrição do trabalho desenvolvido em cada um desses sectores, nomeadamente a permanência na obra e as visitas e diligências às obras. A segunda parte deste relatório, que é a parte fulcral do trabalho desenvolvido, assenta sobre o sistema de ETICS (External Thermal Insulation Composite System), ou seja, o sistema de reboco delgado armado sobre isolamento térmico. Foi utilizado o sistema Cappotto na Obra de Requalificação da Urbanização de Vila d’Este – 1ª Fase. Após uma breve apresentação e evolução da história do ETICS ao longo do tempo, é exposta a caracterização da obra onde vai ser aplicado o sistema, que recai sobre a tipologia dos edifícios. Refira-se que, neste relatório, os edifícios por serem de construção túnel se dividem em três tipos: tipo plana ou corrente, tipo ângulo e tipo topo. Na Analise de Patologias efectuada evidenciam-se as fissuras e a humidade presentes em quase toda a extensão dos referidos edifícios antes do tratamento, tornando-as assim as principais anomalias destes edifícios. Foram elemento de foco as anomalias existentes nos edifícios, como: Deterioração do fibrocimento; Insuficiência das caleiras; Deficiências das impermeabilizações; Ausência de rufos; Deficiência das ligações; Degradação do revestimento e pintura; Fissuração do reboco; Degradação dos forros exteriores; Deterioração das padieiras; Deterioração dos peitoris; Deterioração das juntas de dilatação; Infiltrações e condensações; Ruptura das canalizações; Deslocamentos; Deficiências de ventilação; Deficiências de estanqueidade; Inexistência de Sistema de combate a incêndios. Para estas patologias são apresentadas as propostas de solução de forma a eliminar as mesmas. Sendo o ETICS escolhido por ser o sistema que elimina a maior parte destas patologias, tendo em conta uma relação de qualidade/preço, é abordada de uma forma detalhada e extensiva da aplicação do sistema antes, durante e depois da obra em si. Assim como, é feita uma descrição pormenorizada do material utilizado para a implementação do sistema. A análise dos pontos críticos refere-se a zonas sensíveis onde há a necessidade de reforço do sistema com vista a eliminar o aparecimento posterior de patologias, como por exemplo as características de suporte. Após a aplicação do sistema podem aparecer algumas patologias das quais se destaca o facto dos produtos serem preparados em obra, o erro humano nas dosagens do fabricante e no acrescento de água sem necessidade e a par das condições climatéricas, são as causas mais comuns do aparecimento de anomalias no sistema de ETICS, provocando fissurações e infiltrações, que são descritas neste relatório. É também abordada a manutenção e reparação do sistema, onde a manutenção refere-se à lavagem e à remoção de microorganismos das paredes e posterior pintura. A reparação dos danos divide-se em dois tipos, áreas até 2 cm2 e áreas maiores que 2 cm2. Por fim, são apresentados alguns rendimentos, que foram possíveis obter ao longo do desenvolvimento do trabalho, dos materiais e da mão-de-obra, dando origem aos custos directos. Sendo também abordadas as vantagens e desvantagens do sistema desde o seu início até à sua conclusão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Zero-valent iron nanoparticles (nZVIs) are often used in environmental remediation. Their high surface area that is associated with their high reactivity makes them an excellent agent capable of transforming/degrading contaminants in soils and waters. Due to the recent development of green methods for the production of nZVIs, the use of this material became even more attractive. However, the knowledge of its capacity to degrade distinct types of contaminants is still scarce. The present work describes the study of the application of green nZVIs to the remediation of soils contaminated with a common anti-inflammatory drug, ibuprofen. The main objectives of this work were to produce nZVIs using extracts of grape marc, black tea and vine leaves, to verify the degradation of ibuprofen in aqueous solutions by the nZVIs, to study the remediation process of a sandy soil contaminated with ibuprofen using the nZVIs, and to compare the experiments with other common chemical oxidants. The produced nZVIs had nanometric sizes and were able to degrade ibuprofen (54 to 66% of the initial amount) in aqueous solutions. Similar remediation efficiencies were obtained in sandy soils. In this case the remediation could be enhanced (achieving degradation efficiencies above 95%) through the complementation of the process with a catalyzed nZVI Fenton-like reaction. These results indicate that this remediation technology represents a good alternative to traditional and more aggressive technologies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Soil vapor extraction (SVE) and bioremediation (BR) are two of the most common soil remediation technologies. Their application is widespread; however, both present limitations, namely related to the efficiencies of SVE on organic soils and to the remediation times of some BR processes. This work aimed to study the combination of these two technologies in order to verify the achievement of the legal clean-up goals in soil remediation projects involving seven different simulated soils separately contaminated with toluene and xylene. The remediations consisted of the application of SVE followed by biostimulation. The results show that the combination of these two technologies is effective and manages to achieve the clean-up goals imposed by the Spanish Legislation. Under the experimental conditions used in this work, SVE is sufficient for the remediation of soils, contaminated separately with toluene and xylene, with organic matter contents (OMC) below 4 %. In soils with higher OMC, the use of BR, as a complementary technology, and when the concentration of contaminant in the gas phase of the soil reaches values near 1 mg/L, allows the achievement of the clean-up goals. The OMC was a key parameter because it hindered SVE due to adsorption phenomena but enhanced the BR process because it acted as a microorganism and nutrient source.