40 resultados para Eficiência industrial - Avaliação - Metodologia
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.
Resumo:
The assessment of ecological status of lotic freshwater bodies, based on stringent criteria of classification, has been defined by the Water Framework Directive (WFD), as a result of the implementation and optimization of methodologies that integrate physico-chemical, biological, and hydromorphological parameters. It is recognized that the application of this methodology is not easy, because it requires deep technical and scientific knowledge; it is time consuming in its application involving high financial costs. Thus, the main objective of this study was the development of cheaper and faster complementary methodologies that may contribute to the technical application of the classification criteria defined by the WFD, achieving the same final results of evaluation. In order to achieve this main goal, the river Mau, a small mountain river subjected to different stressors (eg, metals, pesticides), was established as the main sampling area. This thesis reviewed the historical development of various biotic indexes and its application in assessing water quality, especially highlighting the new paradigm defined by the WFD, and the corresponding actions developed for optimization and intercalibration of methodologies, evaluating the final state of water bodies. The ecological spatiotemporal characterization of the river Mau focused on the application of the WFD methodology, using at this stage only macroinvertebrates collected during four seasons. Results were compared with historical data of the last three years and they demonstrated that the river is in good condition. However, the ecological quality decreased at certain locations indicating that organisms were subjected to some type of disturbance. As the ecological quality can be conditioned by pulses of contamination from the sediments, in environmental adverse conditions, assays were performed with elutriates, obtained from sediments collected near the mining complex Braçal-Palhal. Results showed that this method was effective achieving the state of contamination, which may be important in prioritizing/scoring of critical areas within river ecosystems potentially impacted, using the WFD methodology. However, this methodology requires the collection of sediment which can promote the modification and / or loss of contaminants. To solve this potential problem, we developed a new methodology to obtain similar results. For this, we used a benthic microalga, belonging to the Portuguese flora, sensitive to organic pollution and metals. This methodology was optimized for application in situ, by immobilization of diatom in calcium alginate beads. The results showedthat their sensitivity and normal growth rate are similar to data obtained when used free cells of diatom. This new methodology allowed the achievement of a very quick response on the degree of contamination of a site, providing a complementary methodology to WFD.
Resumo:
The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.
Resumo:
Apesar das recentes inovações tecnológicas, o setor dos transportes continua a exercer impactes significativos sobre a economia e o ambiente. Com efeito, o sucesso na redução das emissões neste setor tem sido inferior ao desejável. Isto deve-se a diferentes fatores como a dispersão urbana e a existência de diversos obstáculos à penetração no mercado de tecnologias mais limpas. Consequentemente, a estratégia “Europa 2020” evidencia a necessidade de melhorar a eficiência no uso das atuais infraestruturas rodoviárias. Neste contexto, surge como principal objetivo deste trabalho, a melhoria da compreensão de como uma escolha de rota adequada pode contribuir para a redução de emissões sob diferentes circunstâncias espaciais e temporais. Simultaneamente, pretende-se avaliar diferentes estratégias de gestão de tráfego, nomeadamente o seu potencial ao nível do desempenho e da eficiência energética e ambiental. A integração de métodos empíricos e analíticos para avaliação do impacto de diferentes estratégias de otimização de tráfego nas emissões de CO2 e de poluentes locais constitui uma das principais contribuições deste trabalho. Esta tese divide-se em duas componentes principais. A primeira, predominantemente empírica, baseou-se na utilização de veículos equipados com um dispositivo GPS data logger para recolha de dados de dinâmica de circulação necessários ao cálculo de emissões. Foram percorridos aproximadamente 13200 km em várias rotas com escalas e características distintas: área urbana (Aveiro), área metropolitana (Hampton Roads, VA) e um corredor interurbano (Porto-Aveiro). A segunda parte, predominantemente analítica, baseou-se na aplicação de uma plataforma integrada de simulação de tráfego e emissões. Com base nesta plataforma, foram desenvolvidas funções de desempenho associadas a vários segmentos das redes estudadas, que por sua vez foram aplicadas em modelos de alocação de tráfego. Os resultados de ambas as perspetivas demonstraram que o consumo de combustível e emissões podem ser significativamente minimizados através de escolhas apropriadas de rota e sistemas avançados de gestão de tráfego. Empiricamente demonstrou-se que a seleção de uma rota adequada pode contribuir para uma redução significativa de emissões. Foram identificadas reduções potenciais de emissões de CO2 até 25% e de poluentes locais até 60%. Através da aplicação de modelos de tráfego demonstrou-se que é possível reduzir significativamente os custos ambientais relacionados com o tráfego (até 30%), através da alteração da distribuição dos fluxos ao longo de um corredor com quatro rotas alternativas. Contudo, apesar dos resultados positivos relativamente ao potencial para a redução de emissões com base em seleções de rotas adequadas, foram identificadas algumas situações de compromisso e/ou condicionantes que devem ser consideradas em futuros sistemas de eco navegação. Entre essas condicionantes importa salientar que: i) a minimização de diferentes poluentes pode implicar diferentes estratégias de navegação, ii) a minimização da emissão de poluentes, frequentemente envolve a escolha de rotas urbanas (em áreas densamente povoadas), iii) para níveis mais elevados de penetração de dispositivos de eco-navegação, os impactos ambientais em todo o sistema podem ser maiores do que se os condutores fossem orientados por dispositivos tradicionais focados na minimização do tempo de viagem. Com este trabalho demonstrou-se que as estratégias de gestão de tráfego com o intuito da minimização das emissões de CO2 são compatíveis com a minimização do tempo de viagem. Por outro lado, a minimização de poluentes locais pode levar a um aumento considerável do tempo de viagem. No entanto, dada a tendência de redução nos fatores de emissão dos poluentes locais, é expectável que estes objetivos contraditórios tendam a ser minimizados a médio prazo. Afigura-se um elevado potencial de aplicação da metodologia desenvolvida, seja através da utilização de dispositivos móveis, sistemas de comunicação entre infraestruturas e veículos e outros sistemas avançados de gestão de tráfego.
Resumo:
A vida da sociedade atual é dependente dos recursos fósseis, tanto a nível de energia como de materiais. No entanto, tem-se verificado uma redução das reservas destes recursos, ao mesmo tempo que as necessidades da sociedade continuam a aumentar, tornando cada vez mais necessárias, a produção de biocombustíveis e produtos químicos. Atualmente o etanol é produzido industrialmente a partir da cana-de-açúcar e milho, matérias-primas usadas na alimentação humana e animal. Este fato desencadeou o aumento de preços dos alimentos em todo o mundo e, como consequência, provocou uma série de distúrbios sociais. Os subprodutos industriais, recursos independentes das cadeias alimentares, têm-se posicionado como fonte de matérias-primas potenciais para bioprocessamento. Neste sentido, surgem os subprodutos gerados em grande quantidade pela indústria papeleira. Os licores de cozimento da madeira ao sulfito ácido (SSLs) são uma matériaprima promissora, uma vez que durante este processo os polissacarídeos da madeira são hidrolisados originando açúcares fermentáveis. A composição dos SSLs varia consoante o tipo de madeira usada no processo de cozimento (de árvores resinosas, folhosas ou a mistura de ambas). O bioprocessamento do SSL proveniente de folhosas (HSSL) é uma metodologia ainda pouco explorada. O HSSL contém elevadas concentrações de açúcares (35-45 g.L-1), na sua maioria pentoses. A fermentação destes açúcares a bioetanol é ainda um desafio, uma vez que nem todos os microrganismos são capazes de fermentar as pentoses a etanol. De entre as leveduras capazes de fermentar naturalmente as pentoses, destaca-se a Scheffersomyces stipitis, que apresenta uma elevada eficiência de fermentação. No entanto, o HSSL contém também compostos conhecidos por inibirem o crescimento de microrganismos, dificultando assim o seu bioprocessamento. Neste sentido, o principal objetivo deste trabalho foi a produção de bioetanol pela levedura S. stipitis a partir de HSSL, resultante do cozimento ao sulfito ácido da madeira de Eucalyptus globulus. Para alcançar este objetivo, estudaram-se duas estratégias de operação diferentes. Em primeiro lugar estudou-se a bio-desintoxicação do HSSL com o fungo filamentoso Paecilomyces variotii, conhecido por crescer em resíduos industriais. Estudaram-se duas tecnologias fermentativas diferentes para a biodesintoxicação do HSSL: um reator descontínuo e um reator descontínuo sequencial (SBR). A remoção biológica de inibidores do HSSL foi mais eficaz quando se usou o SBR. P. variotii assimilou alguns inibidores microbianos como o ácido acético, o ácido gálico e o pirogalol, entre outros. Após esta desintoxicação, o HSSL foi submetido à fermentação com S. stipitis, na qual foi atingida a concentração máxima de etanol de 2.36 g.L-1 com um rendimento de 0.17 g.g-1. P. variotti, além de desintoxicar o HSSL, também é útil na produção de proteína microbiana (SCP) para a alimentação animal pois, a sua biomassa é rica em proteína. O estudo da produção de SCP por P. variotii foi efetuado num SBR com HSSL sem suplementos e suplementado com sais. A melhor produção de biomassa foi obtida no HSSL sem adição de sais, tendo-se obtido um teor de proteína elevado (82,8%), com uma baixa concentração de DNA (1,1%). A proteína continha 6 aminoácidos essenciais, mostrando potencial para o uso desta SCP na alimentação animal e, eventualmente, em nutrição humana. Assim, a indústria papeleira poderá integrar a produção de bioetanol após a produção SCP e melhorar a sustentabilidade da indústria de pastas. A segunda estratégia consistiu em adaptar a levedura S. stipitis ao HSSL de modo a que esta levedura conseguisse crescer e fermentar o HSSL sem remoção de inibidores. Operou-se um reator contínuo (CSTR) com concentrações crescentes de HSSL, entre 20 % e 60 % (v/v) durante 382 gerações em HSSL, com uma taxa de diluição de 0.20 h-1. A população adaptada, recolhida no final do CSTR (POP), apresentou uma melhoria na fermentação do HSSL (60 %), quando comparada com a estirpe original (PAR). Após esta adaptação, a concentração máxima de etanol obtida foi de 6.93 g.L-1, com um rendimento de 0.26 g.g-1. POP possuía também a capacidade de metabolizar, possivelmente por ativação de vias oxidativas, compostos derivados da lenhina e taninos dissolvidos no HSSL, conhecidos inibidores microbianos. Por fim, verificou-se também que a pré-cultura da levedura em 60 % de HSSL fez com que a estirpe PAR melhorasse o processo fermentativo em HSSL, em comparação com o ensaio sem pré-cultura em HSSL. No entanto, no caso da estirpe POP, o seu metabolismo foi redirecionado para a metabolização dos inibidores sendo que a produção de etanol decresceu.
Resumo:
A informação inerente aos medicamentos no processo de medicação e prescrição tem revelado insuficiências relativamente às necessidades do utilizador. Este projecto aborda essas dificuldades e procura contribuir, através do design e avaliação de pictogramas farmacêuticos, para um melhor acesso das pessoas à informação, oral e escrita, prestada por médicos, farmacêuticos e pela literatura inclusa dos medicamentos. Verificámos que, nos últimos 40 anos, se desenvolveram quase mil representações gráficas, provenientes de 20 países, sobre mensagens relativas a perigos, precauções e informações de como tomar o medicamento. Com base nesse conjunto mundial colectado, tão alargado e diversificado, procedeu-se à analise, agrupamento e comparação dessas representações com vista a apurar a diversidade gráfica e escrita das 75 mensagens farmacêuticas identificadas nesta investigação. Foi seguidamente consultada uma centena de profissionais de saúde dentro da área farmacêutica para selecção e definição da informação a ser projectada em pictogramas. Algumas das mensagens seleccionadas foram, por ordem de importância: “Não aplicar nos olhos”, “Não beber álcool enquanto estiver a tomar o medicamento” e “Guardar no frigorífico”. Foi concebido um sistema PictoPharma, bilingue (Português e Inglês), composto por 32 pictogramas farmacêuticos, com várias possibilidades cromáticas de acordo com as diversas aplicações para suportes de impressão e ecrã (Registo de Propriedade Industrial – marca e design). Embora o sistema projectado possa aumentar a capacidade de recordar as informações importantes pelas pessoas em geral, os públicos-alvo que mais beneficiarão com o sistema são: pessoas que apresentam especiais dificuldades de leitura - analfabetos, pessoas com nenhum conhecimento ou um conhecimento limitado da língua; pessoas com dificuldades para relembrar e / ou compreender o tratamento - população envelhecida, sob múltiplos tratamentos ou com menores capacidades intelectuais; pessoas que não falam a língua local ou são de uma cultura diferente - estrangeiros, turistas, imigrantes. Foram feitos testes de usabilidade com os públicos-alvo específicos, de forma a verificar a percentagem de compreensão dos pictogramas, sem a respectiva legenda e de acordo com as normas internacionais de normalização. Os resultados dos testes indicaram que metade do sistema atingiu os 100% de compreensão e a outra metade atingiu mais de 88%. O sistema PictoPharma criado caracteriza-se: pelo design gráfico no seu contraste visual e na possibilidade de leitura numa escala reduzida; pelo conceito de familiaridade gráfica representada no seu conjunto, de forma a tornar os pictogramas mais facilmente memorizáveis; pelo estudo feito para minimizar especificidades culturais visuais; pelas diversas aplicações possíveis na indústria; pelas direcções que aponta para futuras investigações sobre as escolhas visuais culturais inerentes a um projecto de design com este.
Resumo:
Nos últimos anos, o número de vítimas de acidentes de tráfego por milhões de habitantes em Portugal tem sido mais elevado do que a média da União Europeia. Ao nível nacional torna-se premente uma melhor compreensão dos dados de acidentes e sobre o efeito do veículo na gravidade do mesmo. O objetivo principal desta investigação consistiu no desenvolvimento de modelos de previsão da gravidade do acidente, para o caso de um único veículo envolvido e para caso de uma colisão, envolvendo dois veículos. Além disso, esta investigação compreendeu o desenvolvimento de uma análise integrada para avaliar o desempenho do veículo em termos de segurança, eficiência energética e emissões de poluentes. Os dados de acidentes foram recolhidos junto da Guarda Nacional Republicana Portuguesa, na área metropolitana do Porto para o período de 2006-2010. Um total de 1,374 acidentes foram recolhidos, 500 acidentes envolvendo um único veículo e 874 colisões. Para a análise da segurança, foram utilizados modelos de regressão logística. Para os acidentes envolvendo um único veículo, o efeito das características do veículo no risco de feridos graves e/ou mortos (variável resposta definida como binária) foi explorado. Para as colisões envolvendo dois veículos foram criadas duas variáveis binárias adicionais: uma para prever a probabilidade de feridos graves e/ou mortos num dos veículos (designado como veículo V1) e outra para prever a probabilidade de feridos graves e/ou mortos no outro veículo envolvido (designado como veículo V2). Para ultrapassar o desafio e limitações relativas ao tamanho da amostra e desigualdade entre os casos analisados (apenas 5.1% de acidentes graves), foi desenvolvida uma metodologia com base numa estratégia de reamostragem e foram utilizadas 10 amostras geradas de forma aleatória e estratificada para a validação dos modelos. Durante a fase de modelação, foi analisado o efeito das características do veículo, como o peso, a cilindrada, a distância entre eixos e a idade do veículo. Para a análise do consumo de combustível e das emissões, foi aplicada a metodologia CORINAIR. Posteriormente, os dados das emissões foram modelados de forma a serem ajustados a regressões lineares. Finalmente, foi desenvolvido um indicador de análise integrada (denominado “SEG”) que proporciona um método de classificação para avaliar o desempenho do veículo ao nível da segurança rodoviária, consumos e emissões de poluentes.Face aos resultados obtidos, para os acidentes envolvendo um único veículo, o modelo de previsão do risco de gravidade identificou a idade e a cilindrada do veículo como estatisticamente significativas para a previsão de ocorrência de feridos graves e/ou mortos, ao nível de significância de 5%. A exatidão do modelo foi de 58.0% (desvio padrão (D.P.) 3.1). Para as colisões envolvendo dois veículos, ao prever a probabilidade de feridos graves e/ou mortos no veículo V1, a cilindrada do veículo oposto (veículo V2) aumentou o risco para os ocupantes do veículo V1, ao nível de significância de 10%. O modelo para prever o risco de gravidade no veículo V1 revelou um bom desempenho, com uma exatidão de 61.2% (D.P. 2.4). Ao prever a probabilidade de feridos graves e/ou mortos no veículo V2, a cilindrada do veículo V1 aumentou o risco para os ocupantes do veículo V2, ao nível de significância de 5%. O modelo para prever o risco de gravidade no veículo V2 também revelou um desempenho satisfatório, com uma exatidão de 40.5% (D.P. 2.1). Os resultados do indicador integrado SEG revelaram que os veículos mais recentes apresentam uma melhor classificação para os três domínios: segurança, consumo e emissões. Esta investigação demonstra que não existe conflito entre a componente da segurança, a eficiência energética e emissões relativamente ao desempenho dos veículos.
Resumo:
Slender masonry structures are distributed all over the world and constitute a relevant part of the architectural and cultural heritage of humanity. Their protection against earthquakes is a topic of great concern among the scientific community. This concern mainly arises from the strong damage or complete loss suffered by this group of structures due to catastrophic events and the need and interest to preserve them. Although the great progress in technology, and in the knowledge of seismology and earthquake engineering, the preservation of these brittle and massive structures still represents a major challenge. Based on the research developed in this work it is proposed a methodology for the seismic risk assessment of slender masonry structures. The proposed methodology was applied for the vulnerability assessment of Nepalese Pagoda temples which follow very simple construction procedure and construction detailing in relation to seismic resistance requirements. The work is divided in three main parts. Firstly, particular structural fragilities and building characteristics of the important UNESCO classified Nepalese Pagoda temples which affect their seismic performance and dynamic properties are discussed. In the second part the simplified method proposed for seismic vulnerability assessment of slender masonry structures is presented. Finally, the methodology proposed in this work is applied to study Nepalese Pagoda temples, as well as in the efficiency assessment of seismic performance improvement solution compatible with original cultural and technological value.
Resumo:
A grande motivação para este trabalho resultou na avaliação da vulnerabilidade sísmica das escolas básicas e secundárias que fazem parte integrante do parque escolar de Portugal Continental. Apesar de até ao momento apenas se terem estudado a vulnerabilidade de algumas escolas em algumas zonas particulares do nosso país, para este trabalho de investigação tivemos uma ambição muito maior e obviamente fizemos um esforço muito maior. Estabelecemos assim como meta, a avaliação de todo o parque escolar. Embora todo o parque escolar possua na ordem das três centenas de escolas em todo o território nacional e sendo este projeto de reabilitação, um projeto com a duração de 2007 a 2015. Em 2011, por motivos da crise económica, todo o projeto congelou sendo reabilitadas até à data cerca de apenas um terço das escolas. Esta quantidade foi o número de escolas que avaliamos em todo o país. As escolas, sendo edifícios públicos com uma importância fundamental, tanto pela elevada concentração de jovens, como pela função essencial como centros de aprendizagem para as gerações vindouras, como também pela ameaça que representam na eventualidade dum cenário sísmico pela enorme densidade de utilizadores, e pela vantagem de nesse cenário de catástrofe a importância estrutural ser superior em relação à maior parte dos edifícios correntes, devidamente demonstrado pelos argumentos enumerados, consequentemente as escolas podem servir como instalações de proteção civil perante uma catástrofe sísmica para apoio das populações circundantes afetadas. Portanto para cada uma das escolas cordialmente fornecidas pelo Parque Escolar, E.P.E., foi feito um estudo exaustivo e muito individual de cada uma das escolas, onde cada análise foi desenvolvida por uma metodologia simplificada, sendo cada análise sempre individual, e nunca tendo sida aplicada em série, este fator melhora substancialmente a eficácia da avaliação para a quantificação das vulnerabilidades e da determinação do grau de dano e das frações de perda para os requisitos fundamentais de limitação de danos, de não colapso, e de colapso iminente que correspondem a ações com períodos de retorno de 95, 475 e 975 anos. Este trabalho é fundamental para as entidades competentes terem a consciência da vulnerabilidade das escolas secundárias, para puderem atuar a nível estrutural e diminuir assim a vulnerabilidade sísmica, e mesmo que por impossibilidade económica o poder governamental não intervenha, então pode e principalmente deve, elaborar planos de emergência tanto com engenheiros civis qualificados como com a total colaboração das corporações de bombeiros que fazem parte das forças de operação e socorro da Autoridade Nacional de Proteção Civil (ANPC).
Resumo:
Industrial activities are the major sources of pollution in all environments. Depending on the type of industry, various levels of organic and inorganic pollutants are being continuously discharged into the environment. Although, several kinds of physical, chemical, biological or the combination of methods have been proposed and applied to minimize the impact of industrial effluents, few have proved to be totally effective in terms of removal rates of several contaminants, toxicity reduction or amelioration of physical and chemical properties. Hence, it is imperative to develop new and innovative methodologies for industrial wastewater treatment. In this context nanotechnology arises announcing the offer of new possibilities for the treatment of wastewaters mainly based on the enhanced physical and chemical proprieties of nanomaterials (NMs), which can remarkably increase their adsorption and oxidation potential. Although applications of NMs may bring benefits, their widespread use will also contribute for their introduction into the environment and concerns have been raised about the intentional use of these materials. Further, the same properties that make NMs so appealing can also be responsible for producing ecotoxicological effects. In a first stage, with the objective of selecting NMs for the treatment of organic and inorganic effluents we first assessed the potential toxicity of nanoparticles of nickel oxide (NiO) with two different sizes (100 and 10-20 nm), titanium dioxide (TiO2, < 25 nm) and iron oxide (Fe2O3, ≈ 85x425 nm). The ecotoxicological assessment was performed with a battery of assays using aquatic organisms from different trophic levels. Since TiO2 and Fe2O3 were the NMs that presented lower risks to the aquatic systems, they were selected for the second stage of this work. Thus, the two NMs pre-selected were tested for the treatment of olive mill wastewater (OMW). They were used as catalyst in photodegradation systems (TiO2/UV, Fe2O3/UV, TiO2/H2O2/UV and Fe2O3/H2O2/UV). The treatments with TiO2 or Fe2O3 combined with H2O2 were the most efficient in ameliorating some chemical properties of the effluent. Regarding the toxicity to V. fischeri the highest reduction was recorded for the H2O2/UV system, without NMs. Afterwards a sequential treatment using photocatalytic oxidation with NMs and degradation with white-rot fungi was applied to OMW. This new approach increased the reduction of chemical oxygen demand, phenolic content and ecotoxicity to V. fischeri. However, no reduction in color and aromatic compounds was achieved after 21 days of biological treatment. The photodegradation systems were also applied to treat the kraft pulp mill and mining effluents. For the organic effluent the combination NMs and H2O2 had the best performances in reduction the chemical parameters as well in terms of toxicity reduction. However, for the mine effluent the best (TiO2/UV and Fe2O3/UV) were only able to significantly remove three metals (Zn, Al and Cd). Nonetheless the treatments were able of reducing the toxicity of the effluent. As a final stage, the toxicity of solid wastes formed during wastewater treatment with NMs was assessed with Chironomus riparius larvae, a representative species of the sediment compartment. Certain solid wastes showed the potential to negatively affect C. riparius survival and growth, depending on the type of effluent treated. This work also brings new insights to the use of NMs for the treatment of industrial wastewaters. Although some potential applications have been announced, many evaluations have to be performed before the upscaling of the chemical treatments with NMs.