34 resultados para Bom Jardim


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos objectivos deste trabalho, sobre homicídios múltiplos e o “estripador de Lisboa”, passa por sublinhar a importância dos perfis criminais e abordar os problemas de validade científica dos mesmos, tendo em conta as principais metodologias de investigação criminal e do criminal profiling, atento o valor dos processos de análise de dados que podem ser utilizados para a obtenção de informação de natureza preditiva, com relevância para os contributos da psicologia. Assim, e de um ponto de vista transdisciplinar, definimos o nosso problema de investigação questionando se os conhecimentos e competências da psicologia teriam aumentado a eficácia e a eficiência da investigação criminal relativamente ao “estripador de Lisboa”, em termos preditivos do crime e de elaboração do perfil. Para fundamentar o estudo empírico, analisamos os conceitos de violência e de perigosidade, as teorias explicativas do comportamento criminal, as características das personalidades desviantes, o conceito de psicopatia, de assassinos em série, bem como os métodos científicos e não científicos de perfis criminais. A propósito destes, salientamos o perfil lust murder. Trata-se de um estudo de casos múltiplos, complementado por uma entrevista semi-estruturada e um sistema de criminal profiling (tipo indutivo e dedutivo). A amostra é constituída por cinco mulheres, prostitutas, vítimas de homicídio, encontradas na margem Norte e na margem Sul do Tejo, cujas idades variavam entre 22 e 27 anos. Para a realização do estudo recorremos a fontes documentais, à realização da citada entrevista semi-estruturada gravada, bem como utilizámos uma máquina fotográfica e um manequim, de material acrílico, como simulacro do sexo feminino. Para cada caso foi feita uma análise qualitativa, no âmbito da metodologia de estudo de caso. Para a comparação dos casos efectuámos uma Análise de Correspondências Múltiplas (ACM). Analisados os dados, concluímos que o caso particular do “estripador de Lisboa” é, sem dúvida, um bom exemplo de que a fórmula “organizado / desorganizado” não funciona quando aplicada a casos reais. Contudo, cruzando os contributos da psicologia com a reconstituição dos factos, encontramos evidências que nos levam a classificar o autor dos crimes como um sujeito psicopata, com traços esquizóides. O assassino em série que atormentou a cidade de Lisboa seria um indivíduo aparentemente normal, com uma vida social pouco activa e uma visão hostil do mundo exterior. Seria um sujeito impulsivo e agressivo, sem capacidade para sentir qualquer empatia. Essencialmente vingativo e virado para si próprio, tenderia a desenvolver comportamentos de evitação social, mantendo os seus relacionamentos a um nível superficial. Tratar-se-ia de uma pessoa distante, centrada nele mesmo e desligada de factores externos, o que explica a sua falta de cuidado e de planeamento na cena do crime (pela não antecipação das consequências dos factores envolvidos).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tributilestanho (TBT) é considerado um dos xenobióticos mais tóxicos, produzidos e deliberadamente introduzidos no meio ambiente pelo Homem. Tem sido usado numa variedade de processos industriais e subsequentemente descarregado no meio ambiente. O tempo de meia-vida do TBT em águas marinhas é de várias semanas, mas em condições de anóxia nos sedimentos, pode ser de vários anos, devido à sua degradação mais lenta. Embora o TBT tenha sido descrito como sendo tóxico para eucariotas e procariotas, muitas bactérias podem ser resistentes a este composto. O presente trabalho teve como objetivo principal elucidar o mecanismo de resistência ao TBT em bactérias. Para além disso, pretendeu-se desenvolver um biorepórter para detectar TBT no ambiente. Para atingir estes objetivos foram delineadas várias tarefas cujos principais resultados obtidos se apresentam a seguir. Várias bactérias resistentes ao TBT foram isoladas de sedimento e água do Porto de Pesca Longínqua (PPL) na Ria de Aveiro, Portugal. Entre estas, Aeromonas molluscorum Av27 foi selecionada devido à sua elevada resistência a este composto (concentrações até 3 mM), à sua capacidade de degradar o TBT em compostos menos tóxicos (dibutilestanho, DBT e monobutilestanho, MBT) e também por usar o TBT como fonte de carbono. A. molluscorum Av27 foi caracterizada genotipica e fenotipicamente. Os fatores de virulência estudados mostraram que esta estirpe i) possui atividade lipolítica; ii) não é citotóxica para células de mamíferos, nomeadamente para células Vero; iii) não possui integrões de classe I e II e iv) possui cinco plasmídeos com aproximadamente 4 kb, 7 kb, 10 kb, 100 kb e mais de 100 kb. Estes resultados mostraram que a estirpe Av27 não é tóxica, aumentando assim o interesse nesta bactéria para futuras aplicações, nomeadamente na bioremediação. Os testes de toxicidade ao TBT mostraram que este composto tem um impacto negativo no crescimento desta estirpe, bem como, na densidade, no tamanho e na atividade metabólica das células e é responsável pela formação de agregados celulares. Assim, o TBT mostrou ser bastante tóxico para as bactérias interferindo com a atividade celular geral. O gene Av27-sugE, que codifica a proteína SugE pertencente à família das “small multidrug resistance proteins” (SMR), foi identificado como estando envolvido na resistência ao TBT nesta estirpe. Este gene mostrou ser sobreexpresso quando as células crescem na presença de TBT. O promotor do gene Av27-sugE foi utilizado para construir um bioreporter para detetar TBT, contendo o gene da luciferase do pirilampo como gene repórter. O biorepórter obtido reúne as características mais importantes de um bom biorepórter: sensibilidade (intervalo de limite de detecção de 1-1000 nM), rapidez (3 h são suficientes para a deteção de sinal) e, possivelmente, não é invasivo (pois foi construído numa bactéria ambiental). Usando sedimento recolhido no Porto de Pesca Longínqua da Ria de Aveiro, foi preparada uma experiência de microcosmos com o intuito de avaliar a capacidade de Av27 para bioremediar o TBT, isoladamente ou em associação com a comunidade bacteriana indígena. A análise das amostras de microcosmos por PCR-DGGE e de bibliotecas de 16S rDNA revelaram que a comunidade bacteriana é relativamente estável ao longo do tempo, mesmo quando Av27 é inoculada no sedimento. Para além disso, o sedimento estuarino demonstrou ser dominado por bactérias pertencentes ao filo Proteobacteria (sendo mais abundante as Delta e Gammaproteobacteria) e Bacteroidetes. Ainda, cerca de 13% dos clones bacterianos não revelaram nenhuma semelhança com qualquer dos filos já definidos e quase 100% afiliou com bactérias não cultiváveis do sedimento. No momento da conclusão desta tese, os resultados da análise química de compostos organoestânicos não estavam disponíveis, e por essa razão não foi possível tirar quaisquer conclusões sobre a capacidade desta bactéria remediar o TBT em sedimentos. Esses resultados irão ajudar a esclarecer o papel de A. molluscorum Av27 na remediação de TBT. Recentemente, a capacidade da estirpe Av27 remediar solo contaminado com TBT foi confirmada em bioensaios realizados com plantas, Brassica rapa e Triticum aestivum (Silva 2011a), e também com invertebrados Porcellionides pruinosus (Silva 2011B). Assim, poder-se-á esperar que a bioremediação do sedimento na experiência de microcosmos também tenha ocorrido. No entanto, só a análise química dos compostos organostânicos deverá ser conclusiva. Devido à dificuldade em realizar a análise analítica de organoestânicos, um método de bioensaio fácil, rápido e barato foi adaptado para avaliar a toxicidade do TBT em laboratório, antes de se proceder à análise química das amostras. O método provou a sua utilidade, embora tenha mostrado pouca sensibilidade quando se usam concentrações de TBT baixas. Em geral, os resultados obtidos contribuíram para um melhor entendimento do mecanismo de resistência ao TBT em bactérias e mostraram o potencial biotecnológico de A. molluscorum Av27, nomeadamente, no que refere à sua possível aplicação na descontaminação de TBT no ambiente e também no desenvolvimento de biorepórteres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é descrita a síntese de novos derivados porfirínicos com potencial aplicação em terapia fotodinâmica (PDT) e como quimiossensores para o reconhecimento molecular de catiões metálicos. Os novos compostos foram preparados usando como “template” 2-formil-5,10,15,20-tetrafenilporfirina através de diferentes abordagens sintéticas, tais como, reações de cicloadição 1,3-dipolar ou reações do tipo condensação aldólica. Depois de uma breve introdução sobre porfirinas segue-se no capítulo 2 a descrição dos estudos de formilação de Vilsmeier-Haack dos complexos de Ni(II) e Cu(II) de meso-tetra-arilporfirinas realizados usando irradiação de microondas. Utilizando os complexos de Ni(II) e Cu(II) da 5,10,15,20-tetrafenilporfirina foram considerados vários solventes, potências de irradiação e tempos de reação; as melhores condições encontradas foram aplicadas a outras mesotetra- arilporfirinas. Os derivados formilados resultantes da reação de formilação de Vilsmeier-Haack com irradiação de micro-ondas foram isolados em bons rendimentos e com significativa redução no tempo de reação, que passou de horas, em condiçoes clássicas de aquecimento, para minutos sob irradiação de micro-ondas. O “scale-up” da reação, nas condições estabelecidas, mostrou ser eficiente não sendo a reação afetada pelo aumento da quantidade de porfirina. O capítulo 3 descreve a reação de ciclo-adição 1,3-dipolar de meso-tetraarilporfirinas com iminas de nitrilo, geradas in situ por desidrobromação de hidrazono-α-bromoglioxilatos de etilo na presença de base. A reação de iminas de nitrilo com 5,10,15,20-tetraquis(pentafluorofenil)porfirina, na presença de K2CO3 em tolueno a refluxo, permitiu isolar novas pirazoloclorinas em rendimentos moderados. Foram investigadas as propriedades fotofísicas das novas clorinas e os resultados sugerem que duas delas apresentam potencialidades para serem utilizadas em PDT. Este tipo de reações foi estendida ao complexo 2-vinil-5,10,15,20- tetrafenilporfirinatozinco(II); este complexo reagiu com as iminas de nitrilo obtendo-se os correspondentes derivados porfirina-pirazolina em rendimentos que variaram entre valores de bom e de excelente. A regioquímica dos derivados porfirina-pirazolina formados foi elucidada por RMN e confirmada por difração de raios-X. O tratamento dos derivados porfirina-pirazolina com DDQ proporciona os correspondentes derivados porfirina-pirazol com rendimentos de moderados a excelentes. Quando os derivados porfirina-pirazolina foram submetidos a condições de hidrólise básica, observou-se não só a hidrólise do grupo éster presente no anel pirazolínico mas também a concomitante oxidação desta unidade heterocíclica, isolando-se assim, num único passo reacional, novos derivados de tipo porfirinapirazol com um grupo carboxílico. A descomplexação dos complexos de Zn(II) foi realizada na presença de TFA, tendo-se isolado quantitativamente os respetivos derivados na forma de bases livres.Foram estudadas algumas das propriedades fotofísicas de todos os compostos obtidos, quer na forma de complexos de Zn(II), quer na forma de base livre. Duma forma geral, todos os compostos preparados mostraram ser bons geradores de oxigénio singleto, o que os torna interessantes para possível utilização como fotossensibilizadores em PDT. No capítulo 4 é descrita a reação de 2-formil-5,10,15,20-tetrafenilporfirina com aril-cetonas e acetato de amónio, na presença de La(OTf)3, o que permitiu isolar novas benzoporfirinas e 2-(2,6-diarilpiridina-4-il)porfirinas. Esta metodologia foi utilizada para preparar, pela primeira vez, uma 2-(2,2':6,2''- terpiridin-4-il)porfirina. As estruturas de duas das 2-(2,6-diarilpiridin-4- il)porfirinas foram confirmadas por difração de raios-X de cristal único. A metodologia descrita permite ainda preparar novos derivados de tipo porfirinacalcona, apenas com pequenos ajustes nas condições reacionais através de uma reação do tipo condensação aldólica. Os derivados do tipo porfirinacalcona foram posteriormente usados para preparar derivados do tipo porfirinapirazol 1,3,5-tri-substituídos em bons rendimentos, através de reação de condensação com fenil-hidrazina. Em cada um dos capítulos é descrito os procedimentos experimentais e a caracterização espectroscópica (RMN, UV-vis e massa) dos novos compostos isolados. Em alguns casos foi necessário o recurso a técnicas de RMN bidimensionais como COSY, NOESY, HSQC e HMBC. Os compostos preparados neste trabalho foram ainda objecto de estudos de avaliação das respetivas potencialidades para actuarem como quimiossensores para o reconhecimento de catiões metálicos, nomeadamente, Cu(II), Ag(I), Zn(II), Cd(II) e Hg(II). Assim no capítulo 5 é descrita a caracterização fotofísica dos compostos preparados no capítulo 4 e, os estudos destes como potenciais quimiossensores. Os estudos para verificar a potencialidade dos compostos como quimiossensores foram efectuados: i) em solução, através de titulações espectrofotométricas e espectrofluorimétricas, ii) no estado sólido, recorrendo à preparação de filmes de PMMA dopados com os ligandos porfirínicos em estudo e, iii) na fase gasosa, seguindo as titulações dos ligandos com metais por espectrometria de massa (MALDI-TOF-MS). Os compostos estudados mostraram ter capacidade para atuarem como quimiossensores de catiões metálicos capazes de distinguirem entre os iões Zn(II) e Hg(II).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Considerando que a escola tem como missão formar cidadãos saudáveis, conscientes e responsáveis, é de importância primordial que a Educação para a Saúde (EpS) integre o Projeto Educativo (PE) e seja abordada de forma transversal, numa dimensão essencial ao percurso educativo e formativo dos jovens. Tendo em conta o contexto educativo concreto de cada escola/agrupamento e o quadro legislativo vigente, deve ser criado um Projeto de Educação para a Saúde (PEpS). Este terá como objetivo fomentar a capacitação (empowerment) de crianças e adolescentes, dotando-as de conhecimentos, atitudes e valores que os ajudem a fazer opções e a tomar decisões adequadas à saúde e ao bem-estar físico, social e mental. A partir da leitura efetuada do atual quadro de conhecimentos dos domínios abrangidos – avaliação, projetos e promoção e educação da saúde em meio escolar, constatou-se a escassez de estudos de avaliação, em Portugal, nesta área. No estudo multicasos desenvolvido, em que se explorou uma metodologia de índole qualitativa, procedeu-se à descrição e avaliação das dinâmicas de implementação de cinco PEpS. Os projetos foram avaliados a partir de cinco dimensões avaliativas (organizacional, comunitária, ecológica, psicossocial e curricular), em resultado da triangulação de dados recolhidos através de análise documental, de observações e da análise de entrevistas. A avaliação considerou o contexto e alicerçou-se sobre uma démarche de referencialização. Fez apelo a uma perspetiva de avaliação holística e interativa, como construção e coconstrução coletiva de sentido. O protocolo construído – “Referencial de Avaliação”, que se configura como um dos contributos deste estudo, compreendeu a seleção de critérios de qualidade para um PEpS, fundamentados na literatura da especialidade e de indicadores. O estudo evidenciou práticas consideradas de referência nas dinâmicas de implementação dos PEpS. Contudo, só para um dos projetos se registou os critérios de qualidade que o permitem definir como um “bom” projeto. A título de exemplo, refira-se a estrutura coesa da equipa educativa, cujos elementos têm funções claramente definidas, aliada a forte liderança. A análise dos resultados e a literatura consultada possibilitou definir recomendações, que se sistematizaram num guião de práticas de referência, nomeadamente, integração da EpS no PE, aposta numa forte liderança, trabalho de equipa e continuidade de ação. O guião apresenta-se como um contributo que pode potenciar a articulação entre teoria e prática no que respeita à implementação da EpS em escolas portuguesas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As técnicas estatísticas são fundamentais em ciência e a análise de regressão linear é, quiçá, uma das metodologias mais usadas. É bem conhecido da literatura que, sob determinadas condições, a regressão linear é uma ferramenta estatística poderosíssima. Infelizmente, na prática, algumas dessas condições raramente são satisfeitas e os modelos de regressão tornam-se mal-postos, inviabilizando, assim, a aplicação dos tradicionais métodos de estimação. Este trabalho apresenta algumas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, em particular na estimação de modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. A investigação é desenvolvida em três vertentes, nomeadamente na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, na estimação do parâmetro ridge em regressão ridge e, por último, em novos desenvolvimentos na estimação com máxima entropia. Na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, o trabalho desenvolvido evidencia um melhor desempenho dos estimadores de máxima entropia em relação ao estimador de máxima verosimilhança. Este bom desempenho é notório em modelos com poucas observações por estado e em modelos com um grande número de estados, os quais são comummente afetados por colinearidade. Espera-se que a utilização de estimadores de máxima entropia contribua para o tão desejado aumento de trabalho empírico com estas fronteiras de produção. Em regressão ridge o maior desafio é a estimação do parâmetro ridge. Embora existam inúmeros procedimentos disponíveis na literatura, a verdade é que não existe nenhum que supere todos os outros. Neste trabalho é proposto um novo estimador do parâmetro ridge, que combina a análise do traço ridge e a estimação com máxima entropia. Os resultados obtidos nos estudos de simulação sugerem que este novo estimador é um dos melhores procedimentos existentes na literatura para a estimação do parâmetro ridge. O estimador de máxima entropia de Leuven é baseado no método dos mínimos quadrados, na entropia de Shannon e em conceitos da eletrodinâmica quântica. Este estimador suplanta a principal crítica apontada ao estimador de máxima entropia generalizada, uma vez que prescinde dos suportes para os parâmetros e erros do modelo de regressão. Neste trabalho são apresentadas novas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, tendo por base o estimador de máxima entropia de Leuven, a teoria da informação e a regressão robusta. Os estimadores desenvolvidos revelam um bom desempenho em modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. Por último, são apresentados alguns códigos computacionais para estimação com máxima entropia, contribuindo, deste modo, para um aumento dos escassos recursos computacionais atualmente disponíveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Componente de Apoio à Família surge como resposta à necessidade daquelas famílias cujo horário de trabalho não é compatível com o tempo letivo diário disponibilizado pelos jardins-de-infância públicos aos seus filhos. O Jardim-de-infância situa-se num contexto organizacional diversificado, uma vez que estabelece relações com o agrupamento de escolas a que pertence, com a autarquia, com os pais, com as associações de pais, com as instituições particulares de solidariedade social, com a comunidade e com outros parceiros educativos. Este estudo visa analisar a participação de diferentes prestadores de serviços: autarquias, associações de pais e instituições particulares de solidariedade social na organização, funcionamento e gestão da Componente de Apoio à Família. Neste contexto, pretendemos identificar os princípios e as estratégias que sustentam os diferentes prestadores de serviços e o modo como lidam com as questões da Componente de Apoio à Família, isto é, as lógicas de ação inerentes a cada prestador de serviços. Partindo de uma matriz metodológica qualitativa, recorremos ao estudo de caso, desenvolvendo o trabalho empírico em três concelhos da zona centro denominados Concelhos do Mar, da Ria e da Praia. Privilegia-se a realização de entrevistas, nomeadamente a educadores de infância, representantes dos agrupamentos de escolas, presidentes de associações de pais, diretoras/coordenadoras das instituições particulares de solidariedade social, animadores da componente de apoio à família e representantes das autarquias, num total de 56 entrevistas. Como principais resultados, verificamos que nos concelhos em estudo a resposta da Componente de Apoio à Família prestada por diferentes organizações apresentam lógicas de ação distintas: no Concelho do Mar a predominância vai para as lógicas de ação de poder local e de associativismo; no Concelho da Ria predominam lógicas de ação de natureza empresarial/mercado e de poder local; no Concelho da Praia salientamos as lógicas de ação burocrática e de poder local.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The assessment of ecological status of lotic freshwater bodies, based on stringent criteria of classification, has been defined by the Water Framework Directive (WFD), as a result of the implementation and optimization of methodologies that integrate physico-chemical, biological, and hydromorphological parameters. It is recognized that the application of this methodology is not easy, because it requires deep technical and scientific knowledge; it is time consuming in its application involving high financial costs. Thus, the main objective of this study was the development of cheaper and faster complementary methodologies that may contribute to the technical application of the classification criteria defined by the WFD, achieving the same final results of evaluation. In order to achieve this main goal, the river Mau, a small mountain river subjected to different stressors (eg, metals, pesticides), was established as the main sampling area. This thesis reviewed the historical development of various biotic indexes and its application in assessing water quality, especially highlighting the new paradigm defined by the WFD, and the corresponding actions developed for optimization and intercalibration of methodologies, evaluating the final state of water bodies. The ecological spatiotemporal characterization of the river Mau focused on the application of the WFD methodology, using at this stage only macroinvertebrates collected during four seasons. Results were compared with historical data of the last three years and they demonstrated that the river is in good condition. However, the ecological quality decreased at certain locations indicating that organisms were subjected to some type of disturbance. As the ecological quality can be conditioned by pulses of contamination from the sediments, in environmental adverse conditions, assays were performed with elutriates, obtained from sediments collected near the mining complex Braçal-Palhal. Results showed that this method was effective achieving the state of contamination, which may be important in prioritizing/scoring of critical areas within river ecosystems potentially impacted, using the WFD methodology. However, this methodology requires the collection of sediment which can promote the modification and / or loss of contaminants. To solve this potential problem, we developed a new methodology to obtain similar results. For this, we used a benthic microalga, belonging to the Portuguese flora, sensitive to organic pollution and metals. This methodology was optimized for application in situ, by immobilization of diatom in calcium alginate beads. The results showedthat their sensitivity and normal growth rate are similar to data obtained when used free cells of diatom. This new methodology allowed the achievement of a very quick response on the degree of contamination of a site, providing a complementary methodology to WFD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta algoritmos que estimam o espetro de um sinal não periódico a partir de um numero finito de amostras, tirando partido da esparsidade do sinal no domínio da frequência. Trata-se de um problema em que devido aos efeitos de leakage, o sucesso dos algoritmos tradicionais esta limitado. Para ultrapassar o problema, os algoritmos propostos transformam a base DFT numa frame com um maior numero de colunas, inserindo um numero reduzido de colunas entre algumas das iniciais. Estes algoritmos são baseados na teoria do compressed sensing, que permite obter e representar sinais esparsos e compressíveis, utilizando uma taxa de amostragem muito inferior à taxa de Nyquist. Os algoritmos propostos apresentam um bom desempenho em comparação com os algoritmos existentes, destacando-se na estimação do espetro de sinais compostos por sinusóides com frequências muito próximas, com amplitudes diferentes e na presença de ruído, situação particularmente difícil e perante a qual os restantes algoritmos falham.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese descreve diversas estratégias preparativas assim como estudos de caracterização de nanocompósitos e outras nanoestruturas, para a análise em espectroscopia de Raman com intensificação por superfície (SERS). Em particular foi estudada a incorporação de nanopartículas (NPs) metálicas de Ag e Au em matrizes poliméricas visando avaliar o potencial destes materiais como novos substratos para SERS na deteção de moléculas. O primeiro capítulo consiste numa revisão bibliográfica, onde é destacado o desenvolvimento de novos substratos para SERS utilizando nomeadamente nanopartículas de Ag, Au e Cu. Numa primeira fase, esta secção apresenta uma breve descrição sobre as propriedades plasmónicas dos metais utilizados e alguns conceitos básicos de espectroscopia de difusão de Raman. Posteriormente, descreve-se em mais detalhe o efeito de SERS, revendo-se sobretudo a química de materiais descrita em trabalhos recentes tendo em conta a sua utilização como novas plataformas para análise química por SERS. O capítulo 2 descreve a síntese e caracterização de nanocompósitos de poli(acrilato de butilo) obtidos através de polimerização in situ por miniemulsão na presença de nanopartículas de Ag. Os nanocompósitos Ag/PtBA foram investigados como novos substratos de SERS visando o desenvolvimento de novas plataformas versáteis para deteção molecular. Estudos como o efeito da temperatura, pH e pressão foram investigados, visando a compreensão do efeito da matriz polimérica na difusão/adsorção do analito (ácido tiossalicílico) na superfície metálica. No capítulo 3, os nanocompósitos de Ag/PtBA descritos anteriormente foram investigados detalhadamente como substratos para bio-deteção em SERS, usando a adenina como analito modelo. Os nanocompósitos foram submetidos a vários tratamentos pré-analíticos para a bio-deteção da adenina. Foram realizadas experiências nos sistemas Ag/PtBA de modo a obter informação sobre o efeito do pH na deteção deste analito em soluções aquosas diluídas. Os nanocompósitos poliméricos obtidos apresentam a vantagem de poderem ser processados utilizando tecnologia disponível. Pelo que o estudo das suas propriedades térmicas é especialmente relevante. Assim, a influência da incorporação de NPs inorgânicas na temperatura de transição vítrea (Tg) do polímero PtBA foi investigada por meio de calorimetria diferencial de varrimento (DSC) e os resultados são apresentados no capítulo 4. Estes estudos descrevem efeitos na Tg do PtBA quando analisado em nanocompósitos obtidos por diferentes métodos (métodos ex situ e in situ), contendo nanopartículas metálicas com diferentes distribuições de tamanho e presentes em quantidade variável na matriz polimérica. Estes estudos possibilitaram relacionar a influência das NPs metálicas na mobilidade das cadeias poliméricas com as propriedades térmicas observadas. O capítulo 5 descreve a preparação e caracterização de materiais compósitos de base polimérica (PtBA) e NPs de Au com morfologia de bastonetes (NRs). Estes materiais foram investigados como substratos para SERS tendo originado um bom sinal de SERS na análise de 2-2’-ditiodipiridina. Investigouse igualmente o efeito da variação da morfologia das NPs metálicas (esferas e bastonetes), a razão de aspecto (R.A.) dos bastonetes e o tipo de matriz polimérica (PtBA e PnBA) no sinal de SERS. No capítulo 6 é descrita a utilização da técnica de SERS como método alternativo para a monitorização de alterações morfológicas de coloides de NRs de Au. Os NRs de Au foram recolhidos em diferentes fases de oxidação promovida pela presença de K2S2O8 e a sua sensibilidade como substratos de SERS foi avaliada utilizando o anião dietilditiocarbamato (DTC) como analito modelo. Os estudos foram realizados utilizando as linhas de excitação a 1064 nm e 633 nm. Este estudo demonstrou que a sensibilidade dos NRs de Au como substratos de SERS diminui à medida que a sua R.A. diminui devido à competitividade do CTAB (estabilizante) e o DTC pela superfície dos NRs. É de salientar que este processo é acompanhado por um diferente comportamento em termos de adsorção dos dois tautómeros do DTC à superfície do metal. O capítulo 7 introduz um novo tipo de compósitos para SERS, utilizando matrizes biopoliméricas. Assim, descreve-se a preparação e caracterização de nanocompósitos de carragenano e NPs de Ag. Nesta secção é avaliada a utilização destes materiais como novos substratos para a análise em SERS, utilizando a 2-2’-ditiodipiridina como molécula modelo. Descrevem-se estudos pioneiros que procuram relacionar a dependência do sinal de SERS com a força do gel. Para tal, realizou-se um estudo sistemático aos nanobiocompósitos usados como substratos de SERS em diferentes condições analíticas e investigaram-se as suas propriedades reológicas. No capitulo 8 é descrita a investigação de nanocompósitos de Ag/Gelatina como substratos para SERS, utilizando o anião dietilditiocarbamato como analito modelo. Realizaram-se várias experiências para correlacionar a variação da força do gel com o aumento do sinal de SERS bem como a diferente adsorção dos dois tautómeros do DTC à superfície do metal. Ao longo desta dissertação são apresentados metodologias distintas para a preparação e obtenção de nanocompósitos com base em polímeros (sintéticos ou naturais) e NPs metálicas (Ag e Au). Esta investigação não só permitiu a síntese e estudo de novos substratos para SERS mas também a compreensão do efeito matriz/NPs metálicas no sinal de SERS e na formação de “hot spots”. Este trabalho contribui para o enriquecimento na área da Nanociência e Nanotecnologia demonstrando a eficácia e reprodutibilidade de nanocompósitos com base em polímeros como novos substratos para SERS. Embora as propriedades óticas apresentadas por estes materiais serem aqui direcionadas para a deteção molecular pela técnica de SERS, estes materiais podem ser investigados em outras área tecnológicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The expectations of citizens from the Information Technologies (ITs) are increasing as the ITs have become integral part of our society, serving all kinds of activities whether professional, leisure, safety-critical applications or business. Hence, the limitations of the traditional network designs to provide innovative and enhanced services and applications motivated a consensus to integrate all services over packet switching infrastructures, using the Internet Protocol, so as to leverage flexible control and economical benefits in the Next Generation Networks (NGNs). However, the Internet is not capable of treating services differently while each service has its own requirements (e.g., Quality of Service - QoS). Therefore, the need for more evolved forms of communications has driven to radical changes of architectural and layering designs which demand appropriate solutions for service admission and network resources control. This Thesis addresses QoS and network control issues, aiming to improve overall control performance in current and future networks which classify services into classes. The Thesis is divided into three parts. In the first part, we propose two resource over-reservation algorithms, a Class-based bandwidth Over-Reservation (COR) and an Enhanced COR (ECOR). The over-reservation means reserving more bandwidth than a Class of Service (CoS) needs, so the QoS reservation signalling rate is reduced. COR and ECOR allow for dynamically defining over-reservation parameters for CoSs based on network interfaces resource conditions; they aim to reduce QoS signalling and related overhead without incurring CoS starvation or waste of bandwidth. ECOR differs from COR by allowing for optimizing control overhead minimization. Further, we propose a centralized control mechanism called Advanced Centralization Architecture (ACA), that uses a single state-full Control Decision Point (CDP) which maintains a good view of its underlying network topology and the related links resource statistics on real-time basis to control the overall network. It is very important to mention that, in this Thesis, we use multicast trees as the basis for session transport, not only for group communication purposes, but mainly to pin packets of a session mapped to a tree to follow the desired tree. Our simulation results prove a drastic reduction of QoS control signalling and the related overhead without QoS violation or waste of resources. Besides, we provide a generic-purpose analytical model to assess the impact of various parameters (e.g., link capacity, session dynamics, etc.) that generally challenge resource overprovisioning control. In the second part of this Thesis, we propose a decentralization control mechanism called Advanced Class-based resource OverpRovisioning (ACOR), that aims to achieve better scalability than the ACA approach. ACOR enables multiple CDPs, distributed at network edge, to cooperate and exchange appropriate control data (e.g., trees and bandwidth usage information) such that each CDP is able to maintain a good knowledge of the network topology and the related links resource statistics on real-time basis. From scalability perspective, ACOR cooperation is selective, meaning that control information is exchanged dynamically among only the CDPs which are concerned (correlated). Moreover, the synchronization is carried out through our proposed concept of Virtual Over-Provisioned Resource (VOPR), which is a share of over-reservations of each interface to each tree that uses the interface. Thus, each CDP can process several session requests over a tree without requiring synchronization between the correlated CDPs as long as the VOPR of the tree is not exhausted. Analytical and simulation results demonstrate that aggregate over-reservation control in decentralized scenarios keep low signalling without QoS violations or waste of resources. We also introduced a control signalling protocol called ACOR Protocol (ACOR-P) to support the centralization and decentralization designs in this Thesis. Further, we propose an Extended ACOR (E-ACOR) which aggregates the VOPR of all trees that originate at the same CDP, and more session requests can be processed without synchronization when compared with ACOR. In addition, E-ACOR introduces a mechanism to efficiently track network congestion information to prevent unnecessary synchronization during congestion time when VOPRs would exhaust upon every session request. The performance evaluation through analytical and simulation results proves the superiority of E-ACOR in minimizing overall control signalling overhead while keeping all advantages of ACOR, that is, without incurring QoS violations or waste of resources. The last part of this Thesis includes the Survivable ACOR (SACOR) proposal to support stable operations of the QoS and network control mechanisms in case of failures and recoveries (e.g., of links and nodes). The performance results show flexible survivability characterized by fast convergence time and differentiation of traffic re-routing under efficient resource utilization i.e. without wasting bandwidth. In summary, the QoS and architectural control mechanisms proposed in this Thesis provide efficient and scalable support for network control key sub-systems (e.g., QoS and resource control, traffic engineering, multicasting, etc.), and thus allow for optimizing network overall control performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Over 11 million tons of nanomaterials (NMs) have been produced in 2012 and predictions point the increase in production. Despite predictions and extended usage via consumer products and industry, the understanding of the potential impact of these materials on the environment is virtually absent. The main aim of this thesis is to understand how a selected group of nanomaterials (metal based particles) may impact soil invertebrates, with special focus on the mechanisms of response. Since a case-by-case Environmental Risk Assessment (ERA) of all the emerging contaminants (particularly NMs) is impossible, among others due to time and cost reasons, to gain understanding on the mechanism of action and response is very important to reach a common paradigm. Understanding the modes of action provides predictive characters in cross particle extrapolation. Besides, it also provides insight for the production of new and sustainable materials. Overall, the effects of the selected NMs (Copper and Silver, Titanium and Zirconium oxides) and the respective salt forms, were investigated at the gene expression (using high-throughput tools, microarray and qPCR technology), biochemical (using enzymatic assays for analysis of oxidative stress markers) and organism (survival and reproduction as in OECD test guidelines) levels, this using standard soil species (Enchytraeus albidus, Enchytraeus crypticus, Eisenia fetida). Gene expression analysis provided valuable information on the mechanisms affected by each of the NMs. The gene expression profile highlighted a (nano)material signature and the effect of the duration of exposure. The functional analyses integrated with the biochemical and organism data, revealed a good understanding power. The biochemical parameters (oxidative stress related) were distinct across the materials and also influenced by duration of exposure and concentration. The standardized organismal responses differed the least between the various materials. The overall outcome is that, in this context of NMs effect assessment, gene expression and enzymatic assays introduced a very important knowledge gap, which could not had been achieved by the standard organismal effects alone. A reoccurring issue with some metal based NMs is the possible dissolution and subsequent release of ions that then causes toxicity e.g. Cu-NPs or Ag-NPs release Cu2+ or Ag+. The oxidation state of the particles was investigated, although this was not the focus of the thesis. The study of fate, e.g. dissolution of NPs, is also only in its beginning and the appropriate techniques are currently being developed. The results showed a specific nanoparticle effect. The UV exposure with titanium dioxide nanoparticles increased its effect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, o número de vítimas de acidentes de tráfego por milhões de habitantes em Portugal tem sido mais elevado do que a média da União Europeia. Ao nível nacional torna-se premente uma melhor compreensão dos dados de acidentes e sobre o efeito do veículo na gravidade do mesmo. O objetivo principal desta investigação consistiu no desenvolvimento de modelos de previsão da gravidade do acidente, para o caso de um único veículo envolvido e para caso de uma colisão, envolvendo dois veículos. Além disso, esta investigação compreendeu o desenvolvimento de uma análise integrada para avaliar o desempenho do veículo em termos de segurança, eficiência energética e emissões de poluentes. Os dados de acidentes foram recolhidos junto da Guarda Nacional Republicana Portuguesa, na área metropolitana do Porto para o período de 2006-2010. Um total de 1,374 acidentes foram recolhidos, 500 acidentes envolvendo um único veículo e 874 colisões. Para a análise da segurança, foram utilizados modelos de regressão logística. Para os acidentes envolvendo um único veículo, o efeito das características do veículo no risco de feridos graves e/ou mortos (variável resposta definida como binária) foi explorado. Para as colisões envolvendo dois veículos foram criadas duas variáveis binárias adicionais: uma para prever a probabilidade de feridos graves e/ou mortos num dos veículos (designado como veículo V1) e outra para prever a probabilidade de feridos graves e/ou mortos no outro veículo envolvido (designado como veículo V2). Para ultrapassar o desafio e limitações relativas ao tamanho da amostra e desigualdade entre os casos analisados (apenas 5.1% de acidentes graves), foi desenvolvida uma metodologia com base numa estratégia de reamostragem e foram utilizadas 10 amostras geradas de forma aleatória e estratificada para a validação dos modelos. Durante a fase de modelação, foi analisado o efeito das características do veículo, como o peso, a cilindrada, a distância entre eixos e a idade do veículo. Para a análise do consumo de combustível e das emissões, foi aplicada a metodologia CORINAIR. Posteriormente, os dados das emissões foram modelados de forma a serem ajustados a regressões lineares. Finalmente, foi desenvolvido um indicador de análise integrada (denominado “SEG”) que proporciona um método de classificação para avaliar o desempenho do veículo ao nível da segurança rodoviária, consumos e emissões de poluentes.Face aos resultados obtidos, para os acidentes envolvendo um único veículo, o modelo de previsão do risco de gravidade identificou a idade e a cilindrada do veículo como estatisticamente significativas para a previsão de ocorrência de feridos graves e/ou mortos, ao nível de significância de 5%. A exatidão do modelo foi de 58.0% (desvio padrão (D.P.) 3.1). Para as colisões envolvendo dois veículos, ao prever a probabilidade de feridos graves e/ou mortos no veículo V1, a cilindrada do veículo oposto (veículo V2) aumentou o risco para os ocupantes do veículo V1, ao nível de significância de 10%. O modelo para prever o risco de gravidade no veículo V1 revelou um bom desempenho, com uma exatidão de 61.2% (D.P. 2.4). Ao prever a probabilidade de feridos graves e/ou mortos no veículo V2, a cilindrada do veículo V1 aumentou o risco para os ocupantes do veículo V2, ao nível de significância de 5%. O modelo para prever o risco de gravidade no veículo V2 também revelou um desempenho satisfatório, com uma exatidão de 40.5% (D.P. 2.1). Os resultados do indicador integrado SEG revelaram que os veículos mais recentes apresentam uma melhor classificação para os três domínios: segurança, consumo e emissões. Esta investigação demonstra que não existe conflito entre a componente da segurança, a eficiência energética e emissões relativamente ao desempenho dos veículos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O coping desempenha um importante papel na saúde individual e rendimento organizacional. Tal como o coping é um tema de interesse recente e promissor na área da psicologia da saúde ocupacional, também os fatores psicossociais do trabalho têm ganho um crescente interesse no domínio da saúde ocupacio-nal. No entanto, pouco se sabe acerca das configurações de coping mais salu-togénicas no mundo do trabalho, e menos ainda acerca da participação dos fatores psicossociais na definição das mesmas. Esta última perspetiva assume os fatores psicossociais não como causas de stresse, mas enquanto recursos de coping. Com o presente estudo, desejávamos saber se as pessoas com melhor saúde no trabalho usam estratégias de coping diferentes daquelas com menor saúde, bem como se a escolha dessas estratégias é influenciada pelos fatores psicossociais do trabalho. Pretendia-se ainda caracterizar o coping dos trabalhadores mais saudáveis e produtivos, e perceber que fatores psicosso-ciais contribuem para o mesmo. Foram estudados 2960 profissionais de traba-lhos mentais, sendo 31% (n=909) profissionais de saúde e 69% (n=2051) pro-fissionais de outras áreas. Além das variáveis sociodemográficas, avaliou-se o coping (Brief COPE), os fatores psicossociais do trabalho (COPSOQ) e o índi-ce de capacidade para o trabalho (ICT), enquanto indicador de saúde ocupa-cional. Desenhou-se um estudo transversal e quantitativo, com níveis de análi-se descritivo, exploratório, correlacional e preditivo. Os resultados confirmaram as hipóteses de estudo e permitem concluir genericamente que (1) o coping diferencia e determina a saúde no trabalho, (2) os fatores psicossociais do trabalho influenciam o coping, ainda que modestamente, e (3) o coping dos profissionais de saúde é estruturalmente diferente do coping dos não profissio-nais de saúde. Os resultados possibilitam ainda estabelecer perfis de bom e de mau coping no trabalho e concorrem para definir estratégias de intervenção psicológica para o desenvolvimento do reportório de coping dos profissionais de trabalhos mentais, bem como estratégias de gestão (de recursos humanos) para a melhoria do ambiente psicossocial do trabalho. Por fim, os resultados estimulam algumas considerações teóricas e metodológicas que sugerem direções futuras para o estudo dos efeitos da relação do coping com o ambien-te psicossocial do trabalho na saúde e bem-estar individual, no rendimento organizacional e na qualidade de vida no trabalho. Julgamos, por fim, que os resultados obtidos podem contribuir para aprimorar os mecanismos de coping dos profissionais e para ajustar o ambiente psicossocial do trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Future emerging market trends head towards positioning based services placing a new perspective on the way we obtain and exploit positioning information. On one hand, innovations in information technology and wireless communication systems enabled the development of numerous location based applications such as vehicle navigation and tracking, sensor networks applications, home automation, asset management, security and context aware location services. On the other hand, wireless networks themselves may bene t from localization information to improve the performances of di erent network layers. Location based routing, synchronization, interference cancellation are prime examples of applications where location information can be useful. Typical positioning solutions rely on measurements and exploitation of distance dependent signal metrics, such as the received signal strength, time of arrival or angle of arrival. They are cheaper and easier to implement than the dedicated positioning systems based on ngerprinting, but at the cost of accuracy. Therefore intelligent localization algorithms and signal processing techniques have to be applied to mitigate the lack of accuracy in distance estimates. Cooperation between nodes is used in cases where conventional positioning techniques do not perform well due to lack of existing infrastructure, or obstructed indoor environment. The objective is to concentrate on hybrid architecture where some nodes have points of attachment to an infrastructure, and simultaneously are interconnected via short-range ad hoc links. The availability of more capable handsets enables more innovative scenarios that take advantage of multiple radio access networks as well as peer-to-peer links for positioning. Link selection is used to optimize the tradeo between the power consumption of participating nodes and the quality of target localization. The Geometric Dilution of Precision and the Cramer-Rao Lower Bound can be used as criteria for choosing the appropriate set of anchor nodes and corresponding measurements before attempting location estimation itself. This work analyzes the existing solutions for node selection in order to improve localization performance, and proposes a novel method based on utility functions. The proposed method is then extended to mobile and heterogeneous environments. Simulations have been carried out, as well as evaluation with real measurement data. In addition, some speci c cases have been considered, such as localization in ill-conditioned scenarios and the use of negative information. The proposed approaches have shown to enhance estimation accuracy, whilst signi cantly reducing complexity, power consumption and signalling overhead.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Network virtualisation is seen as a promising approach to overcome the so-called “Internet impasse” and bring innovation back into the Internet, by allowing easier migration towards novel networking approaches as well as the coexistence of complementary network architectures on a shared infrastructure in a commercial context. Recently, the interest from the operators and mainstream industry in network virtualisation has grown quite significantly, as the potential benefits of virtualisation became clearer, both from an economical and an operational point of view. In the beginning, the concept has been mainly a research topic and has been materialized in small-scale testbeds and research network environments. This PhD Thesis aims to provide the network operator with a set of mechanisms and algorithms capable of managing and controlling virtual networks. To this end, we propose a framework that aims to allocate, monitor and control virtual resources in a centralized and efficient manner. In order to analyse the performance of the framework, we performed the implementation and evaluation on a small-scale testbed. To enable the operator to make an efficient allocation, in real-time, and on-demand, of virtual networks onto the substrate network, it is proposed a heuristic algorithm to perform the virtual network mapping. For the network operator to obtain the highest profit of the physical network, it is also proposed a mathematical formulation that aims to maximize the number of allocated virtual networks onto the physical network. Since the power consumption of the physical network is very significant in the operating costs, it is important to make the allocation of virtual networks in fewer physical resources and onto physical resources already active. To address this challenge, we propose a mathematical formulation that aims to minimize the energy consumption of the physical network without affecting the efficiency of the allocation of virtual networks. To minimize fragmentation of the physical network while increasing the revenue of the operator, it is extended the initial formulation to contemplate the re-optimization of previously mapped virtual networks, so that the operator has a better use of its physical infrastructure. It is also necessary to address the migration of virtual networks, either for reasons of load balancing or for reasons of imminent failure of physical resources, without affecting the proper functioning of the virtual network. To this end, we propose a method based on cloning techniques to perform the migration of virtual networks across the physical infrastructure, transparently, and without affecting the virtual network. In order to assess the resilience of virtual networks to physical network failures, while obtaining the optimal solution for the migration of virtual networks in case of imminent failure of physical resources, the mathematical formulation is extended to minimize the number of nodes migrated and the relocation of virtual links. In comparison with our optimization proposals, we found out that existing heuristics for mapping virtual networks have a poor performance. We also found that it is possible to minimize the energy consumption without penalizing the efficient allocation. By applying the re-optimization on the virtual networks, it has been shown that it is possible to obtain more free resources as well as having the physical resources better balanced. Finally, it was shown that virtual networks are quite resilient to failures on the physical network.