91 resultados para Complexidade computacional
Resumo:
A introdução de novas exigências na Avaliação do Desempenho Docente (ADD) em Portugal (Decretos-Lei 15/2007 e 75/2010; Decretos Regulamentares 2/2008 e 2/2010) tem gerado nas escolas e nos professores, desde 2008, situações organizacionais complexas, que urge analisar e compreender. As políticas educativas têm vindo a apontar para a necessidade de um maior investimento nos processos de avaliação de professores, dando relevância ao papel a desempenhar pela supervisão pedagógica nesse contexto. A supervisão da prática letiva passou a ser considerada procedimento fundamental, na medida em que se tornou difícil conceber uma avaliação dos docentes que não incluísse sessões de observação em sala de aula. Fruto destas novas políticas de avaliação de professores, a ADD apresentou-se, do ponto de vista normativo, com base em duas funções: sumativa e formativa. Estas funções exigem maiores investimentos, novas práticas e uma reflexão sobre o papel do professor ancorada numa perspetiva holística, transformadora e emancipatória do seu desenvolvimento profissional. O principal objetivo do nosso estudo consiste em compreender as perceções e práticas desenvolvidas pelos docentes face às alterações introduzidas no sistema da ADD no geral, e, em particular, o papel desempenhado pela supervisão pedagógica (SP) na avaliação entre pares, no segundo ciclo avaliativo (2009-2011). A investigação empírica tem por base um estudo de caso desenvolvido num Agrupamento de escolas do Distrito de Aveiro. A recolha de dados foi concretizada através da administração de um questionário a todos os docentes do Agrupamento e da condução de entrevistas a 26 informadores privilegiados do processo avaliativo. Os principais resultados do estudo de caso apontam para: i) a opinião desfavorável dos professores face ao atual modelo de ADD, dada a sua natureza burocrática, complexa, injusta e a sua escassa utilidade prática, preenchendo apenas requisitos legais e de controlo; ii) um processo de SP, concretamente, a observação de aulas, que não contribui para o desenvolvimento profissional dos professores e tem impacte negativo no trabalho docente, acentuando a artificialidade dos procedimentos e aumentando o clima de competição e de conflito; iii) a sensação de desconforto entre os intervenientes, fazendo emergir sentimentos de injustiça, insegurança e ansiedade que, em seu entender, constituem constrangimentos à melhoria das aprendizagens dos alunos e à qualidade da escola; iv) uma escassa implicação na melhoria das práticas futuras e do desenvolvimento profissional dos docentes. Estes resultados constituem um desafio colocado aos investigadores no sentido de identificarem alternativas de ação para poderem lidar com a complexidade inerente ao processo de avaliação na sua relação com a supervisão pedagógica, com vista à melhoria de desempenho das escolas e dos professores.
Resumo:
A morte é, porventura, o grande tabu da sociedade ocidental contemporânea, fenómeno com clara ressonância na forma como os sobreviventes vivenciam o luto por perda de figura significativa. Numa sociedade que se mantém à margem da morte, as emoções decorrentes do luto são escamoteadas e reprimidas, com sérios riscos para a saúde mental dos enlutados. Essa conspiração do silêncio desagua também nos contextos educativos, onde os valores da juventude, do bem-estar, do prazer e da felicidade, quase não deixam espaço para o sofrimento e a morte. Deste modo, este estudo pretende ser uma contribuição para a compreensão dos efeitos do processo de luto em alunos adolescentes, nomeadamente ao nível do seu desempenho escolar, e, concomitantemente, para a análise do tipo de apoio que a comunidade educativa proporciona a esses alunos, com enfoque no papel dos professores (em geral) e dos diretores de turma (em particular). Pretende ainda apresentar estratégias interventivas, a implementar nas escolas, potenciadoras de uma educação para a vida, mesmo em circunstâncias de morte, e para a gestão do luto, que se revelem promotoras de um lidar pedagógico inclusivo. Sendo o luto um processo que afeta o indivíduo em todas as dimensões que o definem, um paradigma educacional que encontre na complexidade a sua matriz identitária, foi assumido neste estudo como o único capaz de resgatar a importância da gestão equilibrada dos afetos no processo de ensinoaprendizagem. À luz deste paradigma que assume um princípio de totalidade, partindo da totalidade, ou seja, que promove o desenvolvimento do ser humano na sua multidimensionalidade, assumimos também que a missão suprema e última da educação é a construção do sujeito ético. E é nos marcos de uma educação integral, humanista e ética, de responsabilidade pelo Outro, que ganha contornos a figura do professor cuidador, como sendo alguém atento às necessidades emocionais dos seus alunos. Do ponto de vista metodológico, esta investigação desenvolveu-se de acordo com uma abordagem de natureza predominantemente qualitativa, interpretativa e complexa e o estudo realizado centrou-se em três fases, tendo a recolha de dados decorrido entre setembro de 2009 e setembro de 2012: (i) Estudo exploratório, dirigido aos Diretores das 61 escolas secundárias do Distrito do Porto, com base num questionário adaptado, com o objetivo de sustentar a importância e pertinência do estudo principal e recolher indicadores para o orientar; (ii) Estudo de Caso Coletivo, envolvendo três alunas adolescentes em luto por perda de pai. Na primeira parte, e com vista à caracterização do contexto, a escola frequentada pelas três alunas, procedeuse à análise documental, concretamente do Projeto Educativo, mas também ao inquérito por entrevista a vários agentes da comunidade educativa: o Diretor, a Psicóloga, a Coordenadora dos Diretores de Turma do ensino secundário e seis Diretores de Turma. Na segunda parte, procedeu-se a uma abordagem holística e aprofundada da complexidade inerente a cada caso, procurando dar “voz” à forma única como cada uma das alunas vivenciou, significou e enfrentou a sua experiência de luto, tendo-se recorrido ao inquérito por entrevista. De forma a cruzar perspetivas de vários informantes, e identificar significados transversais, complementares ou alternativos, foram também entrevistadas as Encarregadas de Educação e os Diretores de Turma das alunas; (iii) Caraterização das conceções de professores sobre a temática em análise e validação de propostas de intervenção a implementar nas escolas, mobilizando-se, assim, dimensões emergentes das Fases I e II da investigação, mas também do quadro teórico que sustentou o estudo. Para a recolha de dados, foi construído um questionário que se aplicou aos professores do 2º e 3º ciclos do ensino básico e ensino secundário do Agrupamento onde se centrou o estudo de caso desenvolvido na Fase II. Procurando uma leitura global dos resultados obtidos e corroborando o que é amplamente defendido na literatura da especialidade, o estudo demonstra o impacto negativo que o luto tem no desempenho escolar e revela que o padrão afetivo da ambiência escolar não é favorável à expressão emocional de alunos enlutados, prevalecendo uma atitude de evitação por parte dos colegas e professores, o que sugere a necessidade de serem trilhados novos caminhos, por um lado, ao nível da formação de professores e, por outro lado, através da implementação em contexto escolar de uma intervenção pedagógica que eduque para a vida, mas sem descurar os fenómenos de perda afetiva significativa e respetivas vivências de luto. Deste estudo sai também reforçada a responsabilidade acrescida dos Diretores de Turma na constituição de um ethos de suporte envolvendo alunos em luto, cabendo-lhes um importante papel na articulação entre os vários agentes da comunidade educativa. Em suma: para além da necessidade de repensar o perfil de competências dos professores, mais consentâneo com o paradigma de escola acolhedora, deste estudo ressalta também a premência de validar na prática propostas de intervenção articuladas, consistentes e, sobretudo, éticas.
Resumo:
Esta tese apresenta um sistema de localização baseado exclusivamente em ultrassons, não necessitando de recorrer a qualquer outra tecnologia. Este sistema de localização foi concebido para poder operar em ambientes onde qualquer outra tecnologia não pode ser utilizada ou o seu uso está condicionado, como são exemplo aplicações subaquáticas ou ambientes hospitalares. O sistema de localização proposto faz uso de uma rede de faróis fixos permitindo que estações móveis se localizem. Devido à necessidade de transmissão de dados e medição de distâncias foi desenvolvido um pulso de ultrassons robusto a ecos que permite realizar ambas as tarefas com sucesso. O sistema de localização permite que as estações móveis se localizem escutando apenas a informação em pulsos de ultrassons enviados pelos faróis usando para tal um algoritmo baseado em diferenças de tempo de chegada. Desta forma a privacidade dos utilizadores é garantida e o sistema torna-se completamente independente do número de utilizadores. Por forma a facilitar a implementação da rede de faróis apenas será necessário determinar manualmente a posição de alguns dos faróis, designados por faróis âncora. Estes irão permitir que os restantes faróis, completamente autónomos, se possam localizar através de um algoritmo iterativo de localização baseado na minimização de uma função de custo. Para que este sistema possa funcionar como previsto será necessário que os faróis possam sincronizar os seus relógios e medir a distância entre eles. Para tal, esta tese propõe um protocolo de sincronização de relógio que permite também obter as medidas de distância entre os faróis trocando somente três mensagens de ultrassons. Adicionalmente, o sistema de localização permite que faróis danificados possam ser substituídos sem comprometer a operabilidade da rede reduzindo a complexidade na manutenção. Para além do mencionado, foi igualmente implementado um simulador de ultrassons para ambientes fechados, o qual provou ser bastante preciso e uma ferramenta de elevado valor para simular o comportamento do sistema de localização sobre condições controladas.
Resumo:
O presente estudo inscreve-se na área científica da Formação de Professores, incidindo, particularmente, na compreensão do processo de desenvolvimento das competências reflexivas percebidas como factor de promoção do seu próprio desenvolvimento profissional e pessoal, do desenvolvimento da capacidade de pensar dos seus alunos, da revalorização dos processos curriculares de ensino-aprendizagem e de inovação dos contextos educacionais. Num contexto de complexidade, incerteza e mudança, importa repensar estratégias de formação de professores e de alunos para que possam constituir-se como fatores potenciadores do desenvolvimento da competência reflexiva. Estratégias que convocam, quer o professor, quer o aluno, para um tipo de questionamento de maior exigência reflexiva e consideradas potenciadoras do pensamento crítico, criativo e de cuidado com o outro, numa perspetiva educativa centrada no cuidar, que valoriza a dimensão humana, a atuação responsável, ética e solidária, em todos os planos da vida. Neste estudo propomo-nos retomar algumas das estratégias de formação já configuradas no movimento Filosofia para Crianças e que se constituíram como um programa de formação em contexto, no qual se procurou aprofundar e compreender as múltiplas dimensões e modos como interatuam os diferentes participantes da relação educativa em práticas curriculares reconfiguradas à luz dos pressupostos que sustentam este estudo. Do ponto de vista metodológico, a investigação inscreve-se num paradigma de natureza qualitativa e interpretativa, de matriz hermenêutica e ecológica, configurando uma abordagem de tipo complexo, e com características de estudo de caso, que considera indispensável a participação ativa do sujeito na construção do conhecimento próprio, bem como o carácter de imprevisibilidade e de recursividade das condições e subsistemas em que tal ocorre. No sentido de construir uma visão integrada do objeto em estudo, foram desenvolvidos procedimentos específicos (mixed-methods), nomeadamente análise documental, entrevista semiestruturada, observação participante e inquirição por questionário. O estudo, que decorreu na região centro do país, envolveu 5 professoras do 1.º Ciclo do Ensino Básico, 100 alunos do mesmo nível de ensino e os seus pais/encarregados de educação, inquiridos através de questionário e desenvolveu-se em duas fases. A primeira destinou-se à formação teórico-prática das professoras e, na segunda, foram desenvolvidas sessões práticas de Filosofia para Crianças com os alunos. Os portfolios reflexivos construídos pelos participantes e pela investigadora principal constituíram outra fonte da informação recolhida no estudo empírico. Os resultados do estudo situam-se a quatro níveis: no que respeita aos saberes básicos, ao perfil de competência dos professores, à sua formação e às estratégias e recursos considerados como potenciadores de um pensar de mais elevada qualidade. Quanto ao primeiro nível, o presente estudo releva o carácter estruturante e epistémico de aprender a pensar (bem), salientando que este se processa numa maior amplitude e profundidade dos conteúdos da própria reflexão, às quais subjaz uma visão ampla de cidadania planetária e socialmente comprometida, evidenciando uma ampliação do quadro referencial dos saberes básicos e considerados imprescindíveis para a educação dos cidadãos. A um segundo nível, salienta-se a exigência de um perfil de competência profissional que permita aos professores desenvolver nos seus alunos um pensar de qualidade e, simultaneamente, melhorar a sua própria competência reflexiva. Neste sentido, o estudo aponta para a continuidade das respostas que têm vindo a ser equacionadas por vários autores nacionais e internacionais que, ao abordarem a problemática da formação, do conhecimento profissional e do desenvolvimento identitário dos professores, têm acentuado a importância dos modelos crítico-reflexivos da formação e de uma supervisão ecológica, integradora, não standard e humanizada, no desenvolvimento das sociedades contemporâneas. Conforme os dados sugerem, admite-se que a formação integral dos cidadãos passa pela inclusão e interligação de diferentes áreas do conhecimento que, concertada e complementarmente, possam contribuir para o desenvolvimento da sensibilidade, do pensamento crítico e criativo, de uma cultura da responsabilidade e de uma atitude ética mais ativa e interventiva. Neste sentido, reafirma-se a importância de um trajeto formativo que promova a efetiva articulação entre teoria e a prática, o diálogo crítico-reflexivo entre saberes científicos e experiência, que focalize o profissional na sua praxis e saliente a sua conexão com o saber situado em contexto vivencial e didático- -pedagógico. Realça-se a pertinência de dinâmicas formativas que, a exemplo de “comunidades de investigação/aprendizagem”, na sua aceção de redes de formação que, na prossecução de projetos e propósitos comuns, incentivam a construção de itinerários próprios e de aprendizagens individuais, mobilizando processos investigativos pessoais e grupais. Evidencia-se a valorização de práticas promotoras da reflexão, do questionamento, da flexibilidade cognitiva como eixos estruturadores do pensamento e da ação profissional e como suporte do desenvolvimento profissional e pessoal, corroborando a importância dos processos transformadores decorrentes da experiência, da ação e da reflexão sobre ela. Finalmente, no que respeita às estratégias e recursos, os dados permitem corroborar a riqueza e o potencial do uso de portfolios reflexivos no desenvolvimento de competências linguísticas, comunicacionais, reflexivas e meta-reflexivas e o entendimento de que o processo de construção da identidade profissional ocorre e desenha-se numa dinâmica reflexiva- -prospetiva (re)confirmadora ou (re)configuradora de ideias, convicções, saberes e práticas, ou seja, identitária. De igual modo, a investigação releva a importância da construção de portfolios, por parte dos alunos, para o desenvolvimento da qualidade do seu pensamento, sublinhando-se o seu carácter inovador nesta área. Evidencia-se, ainda, a diversidade de estratégias que respeitem os interesses, necessidades e expectativas dos alunos e o seu contexto de vida, tal como o recurso a materiais diversificados que, atentos ao conteúdo da mensagem, possibilitem a autonomia do pensamento, o exercício efetivo da reflexão crítica e do questionamento, na sua articulação com as grandes questões que sempre despertaram a curiosidade humana e cuja atualidade permanece. Materiais e recursos que estabeleçam o diálogo entre razão e imaginação, entre saber e sensibilidade, que estimulem o envolvimento dos alunos na resolução de problemas e na procura conjunta de soluções e na construção de projetos individuais na malha dos projetos comuns. Reafirma-se, pois, a importância da humanização do saber, a educação pensada como vivência solidária de direitos e deveres. Uma perspetiva educacional humanista que assenta nas trajetórias de vida, na recuperação de experiências pessoais e singulares, que procura compreender a identidade como um processo em (re)elaboração permanente. O presente estudo integra-se na rede de cooperação científica Novos saberes básicos dos alunos no século XXI, novos desafios à formação de professores sendo que, e na linha das investigações produzidas neste âmbito, destaca que o alargamento das funções do professor do 1.º Ciclo do Ensino Básico, que colocando a tónica da ação pedagógica no como se aprende e para quê e na possibilidade de aprender e incorporar o imprevisível, incide no desenvolvimento de um conjunto de capacidades que vão para além das tradicionalmente associadas ao ensinar a ler, escrever e contar. Releva-se, pois, a pertinência da criação de ambientes educativos nos quais professores e alunos entreteçam, conjunta e coerentemente, conhecer, compreender, fazer, sentir, dizer, ver, ouvir e (con)viver em prol de uma reflexão que nos encaminhe no sentido de ser(mos) consciência.
Resumo:
The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.
Resumo:
Vitis vinifera L., the most widely cultivated fruit crop in the world, was the starting point for the development of this PhD thesis. This subject was exploited following on two actual trends: i) the development of rapid, simple, and high sensitive methodologies with minimal sample handling; and ii) the valuation of natural products as a source of compounds with potential health benefits. The target group of compounds under study were the volatile terpenoids (mono and sesquiterpenoids) and C13 norisoprenoids, since they may present biological impact, either from the sensorial point of view, as regards to the wine aroma, or by the beneficial properties for the human health. Two novel methodologies for quantification of C13 norisoprenoids in wines were developed. The first methodology, a rapid method, was based on the headspace solid-phase microextraction combined with gas chromatography-quadrupole mass spectrometry operating at selected ion monitoring mode (HS-SPME/GC-qMS-SIM), using GC conditions that allowed obtaining a C13 norisoprenoid volatile signature. It does not require any pre-treatment of the sample, and the C13 norisoprenoid composition of the wine was evaluated based on the chromatographic profile and specific m/z fragments, without complete chromatographic separation of its components. The second methodology, used as reference method, was based on the HS-SPME/GC-qMS-SIM, allowing the GC conditions for an adequate chromatographic resolution of wine components. For quantification purposes, external calibration curves were constructed with β-ionone, with regression coefficient (r2) of 0.9968 (RSD 12.51 %) and 0.9940 (RSD of 1.08 %) for the rapid method and for the reference method, respectively. Low detection limits (1.57 and 1.10 μg L-1) were observed. These methodologies were applied to seventeen white and red table wines. Two vitispirane isomers (158-1529 L-1) and 1,1,6-trimethyl-1,2-dihydronaphthalene (TDN) (6.42-39.45 μg L-1) were quantified. The data obtained for vitispirane isomers and TDN using the two methods were highly correlated (r2 of 0.9756 and 0.9630, respectively). A rapid methodology for the establishment of the varietal volatile profile of Vitis vinifera L. cv. 'Fernão-Pires' (FP) white wines by headspace solid-phase microextraction combined with comprehensive two-dimensional gas chromatography with time-of-flight mass spectrometry (HS-SPME/GCxGC-TOFMS) was developed. Monovarietal wines from different harvests, Appellations, and producers were analysed. The study was focused on the volatiles that seem to be significant to the varietal character, such as mono and sesquiterpenic compounds, and C13 norisoprenoids. Two-dimensional chromatographic spaces containing the varietal compounds using the m/z fragments 93, 121, 161, 175 and 204 were established as follows: 1tR = 255-575 s, 2tR = 0,424-1,840 s, for monoterpenoids, 1tR = 555-685 s, 2tR = 0,528-0,856 s, for C13 norisoprenoids, and 1tR = 695-950 s, 2tR = 0,520-0,960 s, for sesquiterpenic compounds. For the three chemical groups under study, from a total of 170 compounds, 45 were determined in all wines, allowing defining the "varietal volatile profile" of FP wine. Among these compounds, 15 were detected for the first time in FP wines. This study proposes a HS-SPME/GCxGC-TOFMS based methodology combined with classification-reference sample to be used for rapid assessment of varietal volatile profile of wines. This approach is very useful to eliminate the majority of the non-terpenic and non-C13 norisoprenic compounds, allowing the definition of a two-dimensional chromatographic space containing these compounds, simplifying the data compared to the original data, and reducing the time of analysis. The presence of sesquiterpenic compounds in Vitis vinifera L. related products, to which are assigned several biological properties, prompted us to investigate the antioxidant, antiproliferative and hepatoprotective activities of some sesquiterpenic compounds. Firstly, the antiradical capacity of trans,trans-farnesol, cis-nerolidol, α-humulene and guaiazulene was evaluated using chemical (DPPH• and hydroxyl radicals) and biological (Caco-2 cells) models. Guaiazulene (IC50= 0.73 mM) was the sesquiterpene with higher scavenger capacity against DPPH•, while trans,trans-farnesol (IC50= 1.81 mM) and cis-nerolidol (IC50= 1.48 mM) were more active towards hydroxyl radicals. All compounds, with the exception of α-humulene, at non-cytotoxic levels (≤ 1 mM), were able to protect Caco-2 cells from oxidative stress induced by tert-butyl hydroperoxide. The activity of the compounds under study was also evaluated as antiproliferative agents. Guaiazulene and cis-nerolidol were able to more effectively arrest the cell cycle in the S-phase than trans,trans-farnesol and α-humulene, being the last almost inactive. The relative hepatoprotection effect of fifteen sesquiterpenic compounds, presenting different chemical structures and commonly found in plants and plant-derived foods and beverages, was assessed. Endogenous lipid peroxidation and induced lipid peroxidation with tert-butyl hydroperoxide were evaluated in liver homogenates from Wistar rats. With the exception of α-humulene, all the sesquiterpenic compounds under study (1 mM) were effective in reducing the malonaldehyde levels in both endogenous and induced lipid peroxidation up to 35% and 70%, respectively. The developed 3D-QSAR models, relating the hepatoprotection activity with molecular properties, showed good fit (R2LOO > 0.819) with good prediction power (Q2 > 0.950 and SDEP < 2%) for both models. A network of effects associated with structural and chemical features of sesquiterpenic compounds such as shape, branching, symmetry, and presence of electronegative fragments, can modulate the hepatoprotective activity observed for these compounds. In conclusion, this study allowed the development of rapid and in-depth methods for the assessment of varietal volatile compounds that might have a positive impact on sensorial and health attributes related to Vitis vinifera L. These approaches can be extended to the analysis of other related food matrices, including grapes and musts, among others. In addition, the results of in vitro assays open a perspective for the promising use of the sesquiterpenic compounds, with similar chemical structures such as those studied in the present work, as antioxidants, hepatoprotective and antiproliferative agents, which meets the current challenges related to diseases of modern civilization.
Resumo:
This investigation focused on the development, test and validation of methodologies for mercury fractionation and speciation in soil and sediment. After an exhaustive review of the literature, several methods were chosen and tested in well characterised soil and sediment samples. Sequential extraction procedures that divide mercury fractions according to their mobility and potential availability in the environment were investigated. The efficiency of different solvents for fractionation of mercury was evaluated, as well as the adequacy of different analytical instruments for quantification of mercury in the extracts. Kinetic experiments to establish the equilibrium time for mercury release from soil or sediment were also performed. It was found that in the studied areas, only a very small percentage of mercury is present as mobile species and that mobility is associated to higher aluminium and manganese contents, and that high contents of organic matter and sulfur result in mercury tightly bound to the matrix. Sandy soils tend to release mercury faster that clayey soils, and therefore, texture of soil or sediment has a strong influence on the mobility of mercury. It was also understood that analytical techniques for quantification of mercury need to be further developed, with lower quantification limits, particularly for mercury quantification of less concentrated fractions: water-soluble e exchangeable. Although the results provided a better understanding of the distribution of mercury in the sample, the complexity of the procedure limits its applicability and robustness. A proficiency-testing scheme targeting total mercury determination in soil, sediment, fish and human hair was organised in order to evaluate the consistency of results obtained by different laboratories, applying their routine methods to the same test samples. Additionally, single extractions by 1 mol L-1 ammonium acetate solution, 0.1 mol L-1 HCl and 0.1 mol L-1 CaCl2, as well as extraction of the organometallic fraction were proposed for soil; the last was also suggested for sediment and fish. This study was important to update the knowledge on analytical techniques that are being used for mercury quantification, the associated problems and sources of error, and to improve and standardize mercury extraction techniques, as well as to implement effective strategies for quality control in mercury determination. A different, “non chemical-like” method for mercury species identification was developed, optimised and validated, based on the thermo-desorption of the different mercury species. Compared to conventional extraction procedures, this method has advantages: it requires little to no sample treatment; a complete identification of species present is obtained in less than two hours; mercury losses are almost neglectable; can be considered “clean”, as no residues are produced; the worldwide comparison of results obtained is easier and reliable, an important step towards the validation of the method. Therefore, the main deliverables of this PhD thesis are an improved knowledge on analytical procedures for identification and quantification of mercury species in soils and sediments, as well as a better understanding of the factors controlling the behaviour of mercury in these matrices.
Resumo:
Viscoelastic treatments are one of the most efficient treatments, as far as passive damping is concerned, particularly in the case of thin and light structures. In this type of treatment, part of the strain energy generated in the viscoelastic material is dissipated to the surroundings, in the form of heat. A layer of viscoelastic material is applied to a structure in an unconstrained or constrained configuration, the latter proving to be the most efficient arrangement. This is due to the fact that the relative movement of both the host and constraining layers cause the viscoelastic material to be subjected to a relatively high strain energy. There are studies, however, that claim that the partial application of the viscoelastic material is just as efficient, in terms of economic costs or any other form of treatment application costs. The application of patches of material in specific and selected areas of the structure, thus minimising the extension of damping material, results in an equally efficient treatment. Since the damping mechanism of a viscoelastic material is based on the dissipation of part of the strain energy, the efficiency of the partial treatment can be correlated to the modal strain energy of the structure. Even though the results obtained with this approach in various studies are considered very satisfactory, an optimisation procedure is deemed necessary. In order to obtain optimum solutions, however, time consuming numerical simulations are required. The optimisation process to use the minimum amount of viscoelastic material is based on an evolutionary geometry re-design and calculation of the modal damping, making this procedure computationally costly. To avert this disadvantage, this study uses adaptive layerwise finite elements and applies Genetic Algorithms in the optimisation process.
Resumo:
In the modern society, new devices, applications and technologies, with sophisticated capabilities, are converging in the same network infrastructure. Users are also increasingly demanding in personal preferences and expectations, desiring Internet connectivity anytime and everywhere. These aspects have triggered many research efforts, since the current Internet is reaching a breaking point trying to provide enough flexibility for users and profits for operators, while dealing with the complex requirements raised by the recent evolution. Fully aligned with the future Internet research, many solutions have been proposed to enhance the current Internet-based architectures and protocols, in order to become context-aware, that is, to be dynamically adapted to the change of the information characterizing any network entity. In this sense, the presented Thesis proposes a new architecture that allows to create several networks with different characteristics according to their context, on the top of a single Wireless Mesh Network (WMN), which infrastructure and protocols are very flexible and self-adaptable. More specifically, this Thesis models the context of users, which can span from their security, cost and mobility preferences, devices’ capabilities or services’ quality requirements, in order to turn a WMN into a set of logical networks. Each logical network is configured to meet a set of user context needs (for instance, support of high mobility and low security). To implement this user-centric architecture, this Thesis uses the network virtualization, which has often been advocated as a mean to deploy independent network architectures and services towards the future Internet, while allowing a dynamic resource management. This way, network virtualization can allow a flexible and programmable configuration of a WMN, in order to be shared by multiple logical networks (or virtual networks - VNs). Moreover, the high level of isolation introduced by network virtualization can be used to differentiate the protocols and mechanisms of each context-aware VN. This architecture raises several challenges to control and manage the VNs on-demand, in response to user and WMN dynamics. In this context, we target the mechanisms to: (i) discover and select the VN to assign to an user; (ii) create, adapt and remove the VN topologies and routes. We also explore how the rate of variation of the user context requirements can be considered to improve the performance and reduce the complexity of the VN control and management. Finally, due to the scalability limitations of centralized control solutions, we propose a mechanism to distribute the control functionalities along the architectural entities, which can cooperate to control and manage the VNs in a distributed way.
Resumo:
É extensa a bibliografia dedicada a potenciais aplicações de materiais com mudança de fase na regulação térmica e no armazenamento de calor ou de frio. No entanto, a baixa condutividade térmica impõe limitações numa grande diversidade de aplicações com exigências críticas em termos de tempo de resposta curto ou com requisitos de elevada potência em ciclos de carga/descarga de calor latente. Foram desenvolvidos códigos numéricos no sentido de obter soluções precisas para descrever a cinética da transferência de calor com mudança de fase, com base em geometrias representativas, i.e. planar e esférica. Foram igualmente propostas soluções aproximadas, sendo identificados correspondentes critérios de validação em função das propriedades dos materiais de mudança de fase e de outros parâmetros relevantes tais como as escalas de tamanho e de tempo, etc. As referidas soluções permitiram identificar com rigor os fatores determinantes daquelas limitações, quantificar os correspondentes efeitos e estabelecer critérios de qualidade adequados para diferentes tipologias de potenciais aplicações. Os referidos critérios foram sistematizados de acordo com metodologias de seleção propostas por Ashby e co-autores, tendo em vista o melhor desempenho dos materiais em aplicações representativas, designadamente com requisitos ao nível de densidade energética, tempo de resposta, potência de carga/descarga e gama de temperaturas de operação. Nesta sistematização foram incluídos alguns dos compósitos desenvolvidos durante o presente trabalho. A avaliação das limitações acima mencionadas deu origem ao desenvolvimento de materiais compósitos para acumulação de calor ou frio, com acentuada melhoria de resposta térmica, mediante incorporação de uma fase com condutividade térmica muito superior à da matriz. Para este efeito, foram desenvolvidos modelos para otimizar a distribuição espacial da fase condutora, de modo a superar os limites de percolação previstos por modelos clássicos de condução em compósitos com distribuição aleatória, visando melhorias de desempenho térmico com reduzidas frações de fase condutora e garantindo que a densidade energética não é significativamente afetada. Os modelos elaborados correspondem a compósitos de tipo core-shell, baseados em microestruturas celulares da fase de elevada condutividade térmica, impregnadas com o material de mudança de fase propriamente dito. Além de visarem a minimização da fração de fase condutora e correspondentes custos, os modelos de compósitos propostos tiveram em conta a adequação a métodos de processamento versáteis, reprodutíveis, preferencialmente com base na emulsificação de líquidos orgânicos em suspensões aquosas ou outros processos de reduzidas complexidade e com base em materiais de baixo custo (material de mudança de fase e fase condutora). O design da distribuição microestrutural também considerou a possibilidade de orientação preferencial de fases condutoras com elevada anisotropia (p.e. grafite), mediante auto-organização. Outros estágios do projeto foram subordinados a esses objetivos de desenvolvimento de compósitos com resposta térmica otimizada, em conformidade com previsões dos modelos de compósitos de tipo core-shell, acima mencionadas. Neste enquadramento, foram preparados 3 tipos de compósitos com organização celular da fase condutora, com as seguintes características e metodologias: i) compósitos celulares parafina-grafite para acumulação de calor, preparados in-situ por emulsificação de uma suspensão de grafite em parafina fundida; ii) compósitos celulares parafina-Al2O3 para acumulação de calor, preparados por impregnação de parafina em esqueleto cerâmico celular de Al2O3; iii) compósitos celulares para acumulação de frio, obtidos mediante impregnação de matrizes celulares de grafite com solução de colagénio, após preparação prévia das matrizes de grafite celular. Os compósitos com esqueleto cerâmico (ii) requereram o desenvolvimento prévio de um método para o seu processamento, baseado na emulsificação de suspensões de Al2O3 em parafina fundida, com adequados aditivos dispersantes, tensioactivos e consolidantes do esqueleto cerâmico, tornando-o auto-suportável durante as fases posteriores de eliminação da parafina, até à queima a alta temperatura, originando cerâmicos celulares com adequada resistência mecânica. Os compósitos desenvolvidos apresentam melhorias significativos de condutividade térmica, atingindo ganhos superiores a 1 ordem de grandeza com frações de fase condutora inferior a 10 % vol. (4 W m-1 K-1), em virtude da organização core-shell e com o contributo adicional da anisotropia da grafite, mediante orientação preferencial. Foram ainda preparados compósitos de armazenamento de frio (iii), com orientação aleatória da fase condutora, obtidos mediante gelificação de suspensões de partículas de grafite em solução aquosa de colagénio. Apesar da estabilidade microestrutural e de forma, conferida por gelificação, estes compósitos confirmaram a esperada limitação dos compósitos com distribuição aleatória, em confronto com os ganhos alcançados com a organização de tipo core-shell.
Resumo:
O tratamento físico-químico de águas residuais, de origem industrial, mais comum é o tratamento baseado na adição de coagulante e floculante a um efluente. No entanto, o tratamento eletroquímico é um tipo de tratamento que tem vindo a ser explorado e estudado com mais ênfase ao longo dos últimos anos. O tratamento eletroquímico é uma tecnologia AOP (Processos de Oxidação Avançada) e divide-se em eletrólise direta (oxidação e redução) e indireta (eletrocoagulação-flotação e eletrooxidação). A eletrocoagulação e eletrooxidação divergem apenas pelo tipo de reações que ocorrem, devido ao material que constitui os elétrodos. São processos complexos com uma multiplicidade de mecanismos que operam sinergicamente para remover poluentes da água. Tendo em conta a sua complexidade e ainda dificuldade de compreensão, existem na literatura diferentes versões acerca de quais os mecanismos chave, assim como diversas configurações geométricas de reatores e elétrodos. Atualmente, este tipo de tratamento tem vindo a evoluir, tornando-se num método economicamente viável para o tratamento de uma grande variedade de águas residuais, nomeadamente, aquelas que possuem compostos recalcitrantes na sua composição. O presente trabalho foi realizado nas instalações da VentilAQUA S.A. e, tendo em conta a sua área de especialidade, o trabalho exposto focou-se no desenvolvimento de soluções técnicas de AOP, nomeadamente na área eletroquímica (eletrocoagulação e eletrooxidação),para estudo dos parâmetros operacionais numa nova configuração geométrica para os elétrodos. Tendo por base os contributos da revisão bibliográfica, o estudo incidiu num reator tubular, com elétrodos de inox dispostos de forma concêntrica, à mesma distância entre si. Com este reator foram executados variados testes, com diferentes efluentes, que permitiram obter resultados operacionais de otimização de funcionamento, tendo em vista a remoção de poluentes. O estudo financeiro associado permitiu concluir que a eletrooxidação é significativamente mais económica que o tratamento físico-químico, nas condições operacionais e para os efluentes tratados. Relativamente ao Acompanhamento e Gestão de ETAR’s (Capítulo 4) foi possível verificar que todos os casos em estudo apresentam uma boa eficiência de remoção de matéria orgânica, permitindo a descarga do seu efluente com uma carga poluente que cumpre com os requisitos legais de descarga em meio hídrico.
Resumo:
O presente estudo tem como objectivo entender todo o universo anexo à performance do silêncio na música clássica contemporânea. Numa nova perspectiva: o estudo do impacto da ansiedade num músico que se observa e que observa a sua interação com o contexto artístico que o rodeia, são estudadas todas as variáveis com influência directa no acto de percepção e gestão dos momentos de ausência de som. Tendo por base os princípios da investigação qualitativa foi criado um modelo teórico de análise na área dos estudos em performance. Este modelo foi aplicado em dois recitais realizados na Universidade de Aveiro e num concerto do Remix Ensemble da Casa da Música do Porto. O uso de ferramentas de pesquisa: O teste do Cortisol e o uso do colete Vitaljacket®, permitiu observar comportamentos fisiológicos no performer e no público nunca antes relatados. Os principais resultados desta investigação permitem aferir a elevada complexidade do fenómeno perceptivo e performativo do silêncio na música contemporânea. A pesquisa realizada permitiu observar que o silêncio na música contemporânea acontece num contexto de elevada ambiguidade semântica e que a duração dada a este num concerto, está directamente dependente do quadro fisiológico observado no performer no momento do concerto. Foi ainda possível aferir que a repetição, numa data posterior, de um mesmo programa de concerto provoca uma acentuada descida dos níveis de ansiedade no performer e essa descida altera a forma como este gere, em concerto, os momentos de silêncio. As conclusões alcançadas em sede de investigação reforçam a pertinência deste estudo. São postas à prova concepções altamente empíricas sobre a performance dos silêncios em música contemporânea. As asserções formuladas têm impacto a nível pedagógico e didático. São apontadas direcções de investigação futura no sentido da valorização do estudo da gestão dos momentos de silêncio em performance.
Resumo:
Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.
Resumo:
Muitos dos problemas de otimização em grafos reduzem-se à determinação de um subconjunto de vértices de cardinalidade máxima que induza um subgrafo k-regular. Uma vez que a determinação da ordem de um subgrafo induzido k-regular de maior ordem é, em geral, um problema NP-difícil, são deduzidos novos majorantes, a determinar em tempo polinomial, que em muitos casos constituam boas aproximações das respetivas soluções ótimas. Introduzem-se majorantes espetrais usando uma abordagem baseada em técnicas de programação convexa e estabelecem-se condições necessárias e suficientes para que sejam atingidos. Adicionalmente, introduzem-se majorantes baseados no espetro das matrizes de adjacência, laplaciana e laplaciana sem sinal. É ainda apresentado um algoritmo não polinomial para a determinação de umsubconjunto de vértices de umgrafo que induz umsubgrafo k-regular de ordem máxima para uma classe particular de grafos. Finalmente, faz-se um estudo computacional comparativo com vários majorantes e apresentam-se algumas conclusões.
Resumo:
“Branch-and-cut” algorithm is one of the most efficient exact approaches to solve mixed integer programs. This algorithm combines the advantages of a pure branch-and-bound approach and cutting planes scheme. Branch-and-cut algorithm computes the linear programming relaxation of the problem at each node of the search tree which is improved by the use of cuts, i.e. by the inclusion of valid inequalities. It should be taken into account that selection of strongest cuts is crucial for their effective use in branch-and-cut algorithm. In this thesis, we focus on the derivation and use of cutting planes to solve general mixed integer problems, and in particular inventory problems combined with other problems such as distribution, supplier selection, vehicle routing, etc. In order to achieve this goal, we first consider substructures (relaxations) of such problems which are obtained by the coherent loss of information. The polyhedral structure of those simpler mixed integer sets is studied to derive strong valid inequalities. Finally those strong inequalities are included in the cutting plane algorithms to solve the general mixed integer problems. We study three mixed integer sets in this dissertation. The first two mixed integer sets arise as a subproblem of the lot-sizing with supplier selection, the network design and the vendor-managed inventory routing problems. These sets are variants of the well-known single node fixed-charge network set where a binary or integer variable is associated with the node. The third set occurs as a subproblem of mixed integer sets where incompatibility between binary variables is considered. We generate families of valid inequalities for those sets, identify classes of facet-defining inequalities, and discuss the separation problems associated with the inequalities. Then cutting plane frameworks are implemented to solve some mixed integer programs. Preliminary computational experiments are presented in this direction.