88 resultados para metodologias participativas
Resumo:
Anualmente ocorrem cerca de 16 milhões AVCs em todo o mundo. Cerca de metade dos sobreviventes irá apresentar défice motor que necessitará de reabilitação na janela dos 3 aos 6 meses depois do AVC. Nos países desenvolvidos, é estimado que os custos com AVCs representem cerca de 0.27% do Produto Interno Bruto de cada País. Esta situação implica um enorme peso social e financeiro. Paradoxalmente a esta situação, é aceite na comunidade médica a necessidade de serviços de reabilitação motora mais intensivos e centrados no doente. Na revisão do estado da arte, demonstra-se o arquétipo que relaciona metodologias terapêuticas mais intensivas com uma mais proficiente reabilitação motora do doente. Revelam-se também as falhas nas soluções tecnológicas existentes que apresentam uma elevada complexidade e custo associado de aquisição e manutenção. Desta forma, a pergunta que suporta o trabalho de doutoramento seguido inquire a possibilidade de criar um novo dispositivo de simples utilização e de baixo custo, capaz de apoiar uma recuperação motora mais eficiente de um doente após AVC, aliando intensidade com determinação da correcção dos movimentos realizados relativamente aos prescritos. Propondo o uso do estímulo vibratório como uma ferramenta proprioceptiva de intervenção terapêutica a usar no novo dispositivo, demonstra-se a tolerabilidade a este tipo de estímulos através do teste duma primeira versão do sistema apenas com a componente de estimulação num primeiro grupo de 5 doentes. Esta fase validará o subsequente desenvolvimento do sistema SWORD. Projectando o sistema SWORD como uma ferramenta complementar que integra as componentes de avaliação motora e intervenção proprioceptiva por estimulação, é descrito o desenvolvimento da componente de quantificação de movimento que o integra. São apresentadas as diversas soluções estudadas e o algoritmo que representa a implementação final baseada na fusão sensorial das medidas provenientes de três sensores: acelerómetro, giroscópio e magnetómetro. O teste ao sistema SWORD, quando comparado com o método de reabilitação tradicional, mostrou um ganho considerável de intensidade e qualidade na execução motora para 4 dos 5 doentes testados num segundo grupo experimental. É mostrada a versatilidade do sistema SWORD através do desenvolvimento do módulo de Tele-Reabilitação que complementa a componente de quantificação de movimento com uma interface gráfica de feedback e uma ferramenta de análise remota da evolução motora do doente. Finalmente, a partir da componente de quantificação de movimento, foi ainda desenvolvida uma versão para avaliação motora automatizada, implementada a partir da escala WMFT, que visa retirar o factor subjectivo da avaliação humana presente nas escalas de avaliação motora usadas em Neurologia. Esta versão do sistema foi testada num terceiro grupo experimental de cinco doentes.
Resumo:
A exigente inovação na área das aplicações biomédicas tem guiado a evolução das tecnologias de informação nas últimas décadas. Os desafios associados a uma gestão, integração, análise e interpretação eficientes dos dados provenientes das mais modernas tecnologias de hardware e software requerem um esforço concertado. Desde hardware para sequenciação de genes a registos electrónicos de paciente, passando por pesquisa de fármacos, a possibilidade de explorar com precisão os dados destes ambientes é vital para a compreensão da saúde humana. Esta tese engloba a discussão e o desenvolvimento de melhores estratégias informáticas para ultrapassar estes desafios, principalmente no contexto da composição de serviços, incluindo técnicas flexíveis de integração de dados, como warehousing ou federação, e técnicas avançadas de interoperabilidade, como serviços web ou LinkedData. A composição de serviços é apresentada como um ideal genérico, direcionado para a integração de dados e para a interoperabilidade de software. Relativamente a esta última, esta investigação debruçou-se sobre o campo da farmacovigilância, no contexto do projeto Europeu EU-ADR. As contribuições para este projeto, um novo standard de interoperabilidade e um motor de execução de workflows, sustentam a sucesso da EU-ADR Web Platform, uma plataforma para realizar estudos avançados de farmacovigilância. No contexto do projeto Europeu GEN2PHEN, esta investigação visou ultrapassar os desafios associados à integração de dados distribuídos e heterogéneos no campo do varíoma humano. Foi criada uma nova solução, WAVe - Web Analyses of the Variome, que fornece uma coleção rica de dados de variação genética através de uma interface Web inovadora e de uma API avançada. O desenvolvimento destas estratégias evidenciou duas oportunidades claras na área de software biomédico: melhorar o processo de implementação de software através do recurso a técnicas de desenvolvimento rápidas e aperfeiçoar a qualidade e disponibilidade dos dados através da adopção do paradigma de web semântica. A plataforma COEUS atravessa as fronteiras de integração e interoperabilidade, fornecendo metodologias para a aquisição e tradução flexíveis de dados, bem como uma camada de serviços interoperáveis para explorar semanticamente os dados agregados. Combinando as técnicas de desenvolvimento rápidas com a riqueza da perspectiva "Semantic Web in a box", a plataforma COEUS é uma aproximação pioneira, permitindo o desenvolvimento da próxima geração de aplicações biomédicas.
Resumo:
O trabalho apresentado nesta tese teve como principais objectivos contribuir para o conhecimento da composição do líquido amniótico humano (LA), colhido no 2º trimestre de gravidez, assim como investigar possíveis alterações na sua composição devido à ocorrência de patologias pré-natais, recorrendo à metabonómica e procurando, assim, definir novos biomarcadores de doenças da grávida e do feto. Após uma introdução descrevendo o estado da arte relacionado com este trabalho (Capítulo 1) e os princípios das metodologias analíticas usadas (Capítulo 2), seguida de uma descrição dos aspectos experimentais associados a esta tese (Capítulo 3), apresentam-se os resultados da caracterização da composição química do LA (gravidez saudável) por espectroscopia de ressonância magnética nuclear (RMN), assim como da monitorização da sua estabilidade durante o armazenamento e após ciclos de congelamento-descongelamento (Capítulo 4). Amostras de LA armazenadas a -20°C registaram alterações significativas, tornando-se estas menos pronunciadas (mas ainda mensuráveis) a -70°C, temperatura recomendada para o armazenamento de LA. Foram também observadas alterações de composição após 1-2 ciclos de congelamento-descongelamento (a ter em conta aquando da reutilização de amostras), assim como à temperatura ambiente (indicando um período máximo de 4h para a manipulação e análise de LA). A aquisição de espectros de RMN de 1H de alta resolução e RMN acoplado (LC-NMR/MS) permitiu a detecção de 75 compostos no LA do 2º trimestre, 6 dos quais detectados pela primeira vez no LA. Experiências de difusão (DOSY) permitiram ainda a caracterização das velocidades de difusão e massas moleculares médias das proteínas mais abundantes. O Capítulo 5 descreve o estudo dos efeitos de malformações fetais (FM) e de cromossomopatias (CD) na composição do LA do 2º trimestre de gravidez. A extensão deste trabalho ao estudo dos efeitos de patologias no LA que ocorrem no 3º trimestre de gravidez é descrita no Capítulo 6, nomeadamente no que se refere ao parto pré-termo (PTD), pré-eclampsia (PE), restrição do crescimento intra-uterino (IUGR), ruptura prematura de membranas (PROM) e diabetes mellitus gestacional (GDM). Como complemento a estes estudos, realizou-se uma análise preliminar da urina materna do 2º trimestre para o estudo de FM e GDM, descrita no Capítulo 7. Para interpretação dos dados analíticos, obtidos por espectroscopia RMN de 1H, cromatografia líquida de ultra eficiência acoplada a espectrometria de massa (UPLC-MS) e espectroscopia do infravermelho médio (MIR), recorreu-se à análise discriminante pelos métodos dos mínimos quadrados parciais e o método dos mínimos quadrados parciais ortogonal (PLS-DA e OPLS-DA) e à correlação espectral. Após análise por validação cruzada de Monte-Carlo (MCCV), os modelos PLS-DA de LA permitiram distinguir as FM dos controlos (sensibilidades 69-85%, especificidades 80-95%, taxas de classificação 80-90%), revelando variações metabólicas ao nível do metabolismo energético, dos metabolismos dos aminoácidos e glícidos assim como possíveis alterações ao nível do funcionamento renal. Observou-se também um grande impacto das FM no perfil metabólico da urina materna (medido por UPLC-MS), tendo no entanto sido registados modelos PLS-DA com menor sensibilidade (40-60%), provavelmente devido ao baixo número de amostras e maior variabilidade da composição da urina (relativamente ao LA). Foram sugeridos possíveis marcadores relacionados com a ocorrência de FM, incluindo lactato, glucose, leucina, valina, glutamina, glutamato, glicoproteínas e conjugados de ácido glucurónico e/ou sulfato e compostos endógenos e/ou exógenos (<1 M) (os últimos visíveis apenas na urina). No LA foram também observadas variações metabólicas devido à ocorrência de vários tipos de cromossomopatias (CD), mas de menor magnitude. Os perfis metabólicos de LA associado a pré- PTD produziram modelos que, apesar do baixo poder de previsão, sugeriram alterações precoces no funcionamento da unidade fetoplacentária, hiperglicémia e stress oxidativo. Os modelos obtidos para os grupos pré- IUGR pré- PE, pré- PROM e pré-diagnóstico GDM (LA e urina materna) registaram baixo poder de previsão, indicando o pouco impacto destas condições na composição do LA e/ou urina do 2º trimestre. Os resultados obtidos demonstram as potencialidades da análise dos perfis metabólicos do LA (e, embora com base em menos estudos, da urina materna) do 2º trimestre para o desenvolvimento de novos e complementares métodos de diagnóstico, nomeadamente para FM e PTD.
Resumo:
Desde a Pré-História que a escolha de materiais esteve relacionada com a Arte. Mais tarde, durante a Idade Moderna vai ganhando uma importância cada vez maior. Atingida que foi a Idade Contemporânea, nomeadamente após a Revolução Industrial e durante a Segunda Guerra Mundial, devido ao aumento do número de materiais disponíveis, é que se pode falar de uma verdadeira seleção de materiais. É também após a Revolução Industrial que se clarificam as relações entre a evolução dos materiais e os movimentos e correntes das Artes Plásticas. Neste contexto, estudaram-se as interligações entre o processo de design e as metodologias de seleção, assim como as diversas tipologias de ferramentas existentes para esse efeito. Deste estudo, consideradas as respetivas vantagens e limitações, foi possível identificar bases de dados essencialmente técnicas, ou ao invés, ferramentas para inspiração com muitas imagens e pouca informação sobre as propriedades dos materiais. Para completar este levantamento crítico sobre processos e ferramentas de seleção, inquiriram-se cinquenta e três profissionais que trabalhavam em diferentes gabinetes de design portugueses. As perguntas dirigidas aos designers portugueses versaram sobre problemas relacionados com a escolha de materiais, abrangendo o tipo de matériasprimas empregues, processos utilizados e a qualidade da informação obtida. Na sequência deste estudo, verificou-se a existência de diversas lacunas relativamente aos meios disponíveis, rotinas de seleção, qualidade da informação existente e metodologias utilizadas. Foi neste contexto que se iniciou o projeto de criação de uma nova metodologia suportada por uma ferramenta digital. Os principais aspetos inovadores são: uma melhor interligação entre a metodologia de design e o processo de seleção de materiais e a sua sincronização; a informação necessária em cada etapa e o destaque dos fatores catalisadores da seleção de materiais. Outro elemento inovador foi a conjugação de três formas deferentes de seleção de materiais numa só ferramenta (a geral, a visual e a específica) e a hipótese de aceder a diferentes graus de informação. A metodologia, no contexto dos recursos disponíveis, foi materializada sob a forma de ferramenta digital (ptmaterials.com). O protótipo foi aferido com testes de usabilidade de cariz heurístico, com a participação de dezanove utilizadores. Foram detetadas diversas falhas de interação que condicionaram a liberdade e o controlo da navegação no seio da interface. Os utilizadores também mencionaram a existência de lacunas na prevenção de erros e a ligação do sistema à lógica habitual de outras aplicações já existentes. No entanto, também constituiu um estímulo a circunstância da maioria dos designers avaliarem o sistema como eficaz, eficiente, satisfatório e confirmarem o interesse da existência dos três tipos de seleção. Posteriormente, ao analisar os restantes resultados dos testes de usabilidade, também foram evidenciadas as vantagens dos diferentes tipos de informação disponibilizada e a utilidade de uma ferramenta desta natureza para a Indústria e Economia Nacionais. Esta ferramenta é apenas um ponto de partida, existindo espaço para melhorar a proposta, apesar da concretização de uma ferramenta digital ser um trabalho de grande complexidade. Não obstante se tratar de um protótipo, esta ferramenta está adequada aos dias de hoje e é passível de evoluir no futuro, tendo também a possibilidade de vir a ser preferencialmente utilizada por outros países de língua portuguesa.
Resumo:
No âmbito dos contextos de aprendizagem de projeto em Design, nas instituições de Ensino Superior, é cada vez mais frequente a utilização de plataformas de gestão das aprendizagens on-line (LMS) no suporte às atividades curriculares à distância. Contudo estes sistemas apesar de darem um precioso contributo através da gestão de conteúdos, das funcionalidades ligadas à avaliação dos alunos e da comunicação entre pares, respondem de forma ineficiente a outras necessidades específicas de alunos e professores no desenvolvimento de unidades curriculares de Design ligadas à aprendizagem de projeto. Este fato contribuiu para que recorrêssemos às tecnologias móveis e sociais na procura de uma solução que melhor se ajuste à aplicação das novas metodologias de e-learning adaptadas a este tipo de contextos. Partindo dessa constatação desenvolvemos e testámos um modelo tecnológico que julgamos introduzir vantagens bastante significativas na definição de novas metodologias de suporte on-line a contextos de aprendizagem personalizada (PLE) em disciplinas ligadas à aprendizagem colaborativa de projeto em Design. Através do levantamento de necessidades detetadas no terreno e da análise da oferta tecnológica existente, reunimos um conjunto de requisitos que nos permitiu desenvolver o protótipo de um sistema tecnológico que fundamenta a totalidade do modelo teórico que propomos em resposta aos pressupostos equacionados no início deste relatório.
Resumo:
A micro-camada superficial da água (SML) é caracterizada pela ocorrência de grandes quantidades de compostos orgânicos, pela acumulação de contaminantes antropogênicos e é submetida a uma intensa radiação solar, extrema mudança de temperatura e, no caso dos estuários, flutuação de salinidade. Estas propriedades físico-químicas estão, provavelmente, a modular a comunidade bacteriana (bacterioneuston) com propriedades filogenéticas e funcionais específicas. Neste estudo, as abordagens dependentes e independentes do cultivo foram aplicadas para avaliar a estrutura e dinâmica das comunidades bacterioneuston e bacterioplâncton em três localizações geográficas ao longo do estuário da Ria de Aveiro. Além disso, comparámos a diversidade filogenética de grupos específicos (Aeromonas, Pseudomonas e Psychrobacter) presentes em bacterioneuston e bacterioplâncton. Finalmente, as duas comunidades foram comparadas em termos de prevalência e diversidade de bactérias resistentes aos antibióticos e respetivos genes de resistência. Bactérias heterotróficas cultiváveis foram enriquecidas em SML. Eletroforese em gel de gradiente desnaturante (DGGE) permitiu a identificação de filotipos específicos em SML. Além disso, a análise de agrupamento dos perfis de DGGE de ambas as comunidades revelou uma ligeira tendência de agrupamento de acordo com a camada amostrada. As diferenças entre as duas comunidades variaram de acordo com factores espaciais e temporais. Em termos de diversidade filogenética de grupos específicos, não foram identificadas diferenças consistentes entre SML e UW com relação às comunidades de Aeromonas. Com relação ao género Pseudomonas, uma unidade operacional taxonómica cultivável foi consistentemente hiper-representada nas amostras de SML. Metodologias dependentes e independentes do cultivo revelaram a presença de populações de Psychrobacter complexas e muito estáveis em todos os sítios e datas de amostragens, com diferenças significativas entre as comunidades de Psychrobacter presentes em SML e UW. Estirpes representativas de prováveis novas espécies também foram cultivadas. Em termos de resistência aos antibióticos, a prevalência de bactérias resistentes em SML foi alta sugerindo selecção pelas condições presentes em SML. É preciso enfatizar que a resistência aos antibióticos foi incomum entre as bactérias estuarinas e os mecanismos de resistência foram, predominantemente, intrínsecos. Pela combinação de abordagens inovadoras dependentes e independentes do cultivo, este estudo forneceu novas e consistentes informações com relação às diferenças em ambas as comunidades bacterianas e em relação a alguns dos fatores que contribuem para a sua formação.
Resumo:
As técnicas estatísticas são fundamentais em ciência e a análise de regressão linear é, quiçá, uma das metodologias mais usadas. É bem conhecido da literatura que, sob determinadas condições, a regressão linear é uma ferramenta estatística poderosíssima. Infelizmente, na prática, algumas dessas condições raramente são satisfeitas e os modelos de regressão tornam-se mal-postos, inviabilizando, assim, a aplicação dos tradicionais métodos de estimação. Este trabalho apresenta algumas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, em particular na estimação de modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. A investigação é desenvolvida em três vertentes, nomeadamente na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, na estimação do parâmetro ridge em regressão ridge e, por último, em novos desenvolvimentos na estimação com máxima entropia. Na estimação de eficiência técnica com fronteiras de produção condicionadas a estados contingentes, o trabalho desenvolvido evidencia um melhor desempenho dos estimadores de máxima entropia em relação ao estimador de máxima verosimilhança. Este bom desempenho é notório em modelos com poucas observações por estado e em modelos com um grande número de estados, os quais são comummente afetados por colinearidade. Espera-se que a utilização de estimadores de máxima entropia contribua para o tão desejado aumento de trabalho empírico com estas fronteiras de produção. Em regressão ridge o maior desafio é a estimação do parâmetro ridge. Embora existam inúmeros procedimentos disponíveis na literatura, a verdade é que não existe nenhum que supere todos os outros. Neste trabalho é proposto um novo estimador do parâmetro ridge, que combina a análise do traço ridge e a estimação com máxima entropia. Os resultados obtidos nos estudos de simulação sugerem que este novo estimador é um dos melhores procedimentos existentes na literatura para a estimação do parâmetro ridge. O estimador de máxima entropia de Leuven é baseado no método dos mínimos quadrados, na entropia de Shannon e em conceitos da eletrodinâmica quântica. Este estimador suplanta a principal crítica apontada ao estimador de máxima entropia generalizada, uma vez que prescinde dos suportes para os parâmetros e erros do modelo de regressão. Neste trabalho são apresentadas novas contribuições para a teoria de máxima entropia na estimação de modelos mal-postos, tendo por base o estimador de máxima entropia de Leuven, a teoria da informação e a regressão robusta. Os estimadores desenvolvidos revelam um bom desempenho em modelos de regressão linear com pequenas amostras, afetados por colinearidade e outliers. Por último, são apresentados alguns códigos computacionais para estimação com máxima entropia, contribuindo, deste modo, para um aumento dos escassos recursos computacionais atualmente disponíveis.
Resumo:
Por parte da indústria de estampagem tem-se verificado um interesse crescente em simulações numéricas de processos de conformação de chapa, incluindo também métodos de engenharia inversa. Este facto ocorre principalmente porque as técnicas de tentativa-erro, muito usadas no passado, não são mais competitivas a nível económico. O uso de códigos de simulação é, atualmente, uma prática corrente em ambiente industrial, pois os resultados tipicamente obtidos através de códigos com base no Método dos Elementos Finitos (MEF) são bem aceites pelas comunidades industriais e científicas Na tentativa de obter campos de tensão e de deformação precisos, uma análise eficiente com o MEF necessita de dados de entrada corretos, como geometrias, malhas, leis de comportamento não-lineares, carregamentos, leis de atrito, etc.. Com o objetivo de ultrapassar estas dificuldades podem ser considerados os problemas inversos. No trabalho apresentado, os seguintes problemas inversos, em Mecânica computacional, são apresentados e analisados: (i) problemas de identificação de parâmetros, que se referem à determinação de parâmetros de entrada que serão posteriormente usados em modelos constitutivos nas simulações numéricas e (ii) problemas de definição geométrica inicial de chapas e ferramentas, nos quais o objetivo é determinar a forma inicial de uma chapa ou de uma ferramenta tendo em vista a obtenção de uma determinada geometria após um processo de conformação. São introduzidas e implementadas novas estratégias de otimização, as quais conduzem a parâmetros de modelos constitutivos mais precisos. O objetivo destas estratégias é tirar vantagem das potencialidades de cada algoritmo e melhorar a eficiência geral dos métodos clássicos de otimização, os quais são baseados em processos de apenas um estágio. Algoritmos determinísticos, algoritmos inspirados em processos evolucionários ou mesmo a combinação destes dois são usados nas estratégias propostas. Estratégias de cascata, paralelas e híbridas são apresentadas em detalhe, sendo que as estratégias híbridas consistem na combinação de estratégias em cascata e paralelas. São apresentados e analisados dois métodos distintos para a avaliação da função objetivo em processos de identificação de parâmetros. Os métodos considerados são uma análise com um ponto único ou uma análise com elementos finitos. A avaliação com base num único ponto caracteriza uma quantidade infinitesimal de material sujeito a uma determinada história de deformação. Por outro lado, na análise através de elementos finitos, o modelo constitutivo é implementado e considerado para cada ponto de integração. Problemas inversos são apresentados e descritos, como por exemplo, a definição geométrica de chapas e ferramentas. Considerando o caso da otimização da forma inicial de uma chapa metálica a definição da forma inicial de uma chapa para a conformação de um elemento de cárter é considerado como problema em estudo. Ainda neste âmbito, um estudo sobre a influência da definição geométrica inicial da chapa no processo de otimização é efetuado. Este estudo é realizado considerando a formulação de NURBS na definição da face superior da chapa metálica, face cuja geometria será alterada durante o processo de conformação plástica. No caso dos processos de otimização de ferramentas, um processo de forjamento a dois estágios é apresentado. Com o objetivo de obter um cilindro perfeito após o forjamento, dois métodos distintos são considerados. No primeiro, a forma inicial do cilindro é otimizada e no outro a forma da ferramenta do primeiro estágio de conformação é otimizada. Para parametrizar a superfície livre do cilindro são utilizados diferentes métodos. Para a definição da ferramenta são também utilizados diferentes parametrizações. As estratégias de otimização propostas neste trabalho resolvem eficientemente problemas de otimização para a indústria de conformação metálica.
Resumo:
Este trabalho investiga novas metodologias para as redes óticas de acesso de próxima geração (NG-OAN). O trabalho está dividido em quatro tópicos de investigação: projeto da rede, modelos numéricos para efeitos não lineares da fibra ótica, impacto dos efeitos não lineares da fibra ótica e otimização da rede. A rede ótica de acesso investigada nesse trabalho está projetado para suprir os requisitos de densidade de utilizadores e cobertura, isto é, suportar muitos utilizadores ( 1000) com altas velocidades de conexão dedicada ( 1 Gb/s) ocupando uma faixa estreita do espectro ( 25 nm) e comprimentos de fibra ótica até 100 km. Os cenários são baseados em redes óticas passivas com multiplexagem por divisão no comprimento de onda de alta densidade (UDWDM-PON) utilizando transmissores/receptores coerentes nos terminais da rede. A rede é avaliada para vários ritmos de transmissão usando formatos de modulação avançados, requisitos de largura de banda por utilizador e partilha de banda com tecnologias tradicionais de redes óticas passivas (PON). Modelos numéricos baseados em funções de transferência das séries de Volterra (VSTF) são demonstrados tanto para a análise dos efeitos não lineares da fibra ótica quanto para avaliação do desempenho total da rede. São apresentadas as faixas de potência e distância de transmissão nas quais as séries de Volterra apresentam resultados semelhantes ao modelo referência Split-Step Fourier (SSF) (validado experimentalmente) para o desempenho total da rede. Além disso, um algoritmo, que evita componentes espectrais com intensidade nulo, é proposto para realizar cálculos rápidos das séries. O modelo VSTF é estendido para identificar unicamente os efeitos não lineares da fibra ótica mais relevantes no cenário investigado: Self-Phase Modulation (SPM), Cross-Phase Modulation (XPM) e Four-Wave Mixing (FWM). Simulações numéricas são apresentadas para identificar o impacto isolado de cada efeito não linear da fibra ótica, SPM, XPM e FWM, no desempenho da rede com detecção coerente UDWDM-PON, transportando canais com modulação digital em fase (M-ária PSK) ou modulação digital em amplitude (M-ária QAM). A análise numérica é estendida para diferentes comprimentos de fibra ótica mono modo (SSMF), potência por canal e ritmo de transmissão por canal. Por conseguinte, expressões analíticas são extrapoladas para determinar a evolução do SPM, XPM e FWM em função da potência e distância de transmissão em cenários NG-OAN. O desempenho da rede é otimizada através da minimização parcial da interferência FWM (via espaçamento desigual dos canais), que nesse caso, é o efeito não linear da fibra ótica mais relevante. Direções para melhorias adicionas no desempenho da rede são apresentados para cenários em que o XPM é relevante, isto é, redes transportando formatos de modulação QAM. A solução, nesse caso, é baseada na utilização de técnicas de processamento digital do sinal.
Resumo:
Embora o objetivo principal da proteção internacional dos solos seja proteger tanto as funções quanto a estrutura do solo, a atual abordagem trata principalmente da proteção ao nível estrutural. Há uma carência de estudos que contemplem a ligação das funções do solo com os níveis da comunidade. Além disso, é ainda desconhecido se as variáveis ambientais (ex: tipos de solo, condições climáticas) atuam nas funções do solo da mesma maneira que influenciam sua estrutura biológica. Ademais, as alterações climáticas poderão ter sozinhas ou combinadas com os poluentes, um grande efeito nos ecossistemas terrestres. O presente trabalho propõe estudar as funções e a estrutura biológica do solo quando impactados devido a estresse tóxico (poluição por Cu) e/ou alterações a fatores como a temperatura e abundância de organismos, de maneira a simular possíveis variações regionais ou climáticas. Para alcançar os objetivos principais 3 experiências utilizando diferentes densidades de E. crypticus e 2 gerações foram feitas (Capítulos II e III). Duas experiências com mesocosmos (SMS) decorreram durante 3 meses sob uma gama de diversas temperaturas (10 – 29°C), que representam temperaturas médias para Portugal e Dinamarca (Capítulos IV e V). Duas experiências de campo também foram realizadas com intuito de validar os SMSs (Capítulo VI). Resultados demonstraram que os efeitos do Cu na reprodução dos enquitraídeos dependem da densidade inicial de organismos, especialmente na 2ª geração. Entretanto, nos SMSs expostos a Cu, a densidade inicial é menos importante nos resultados finais. O aumento da temperatura alterou majoritariamente a fase inicial de crescimento populacional. Em períodos mais longos, a abundância estabilizou tornando-se menos influenciada pelas temperaturas. Períodos longos de exposição reforçaram os efeitos da temperatura, como por ex: diversas espécies foram similarmente afetadas a 29 ou 26°C quando expostas durante 28 ou 61 dias respectivamente. De forma geral, o Cu reduziu a abundância da maioria das espécies ao longo do tempo, com poucas exceções. Os resultados da decomposição da matéria orgânica (MO) e atividade alimentar associaram-se com a abundância de organismos em baixas temperaturas (10-23°C). Entretanto, com o aumento das temperaturas (19-29°C), este comportamento não foi claro e a abundância de espécies e atividade alimentar diminuíram enquanto a decomposição da MO aumentou. Além disso, os resultados observados nos SMSs foram confirmados no campo. Mais especificamente, alterações ocorreram na fase de crescimento (correspondente à Primavera) e a exposição ao Cu diminuiu os efeitos da temperatura. Metodologias mais complexas (ex: mais gerações e experiências com múltiplas espécies) apresentam muitos benefícios, mas também proporcionam respostas mais complexas, as quais exigem um maior “peso” de evidências para serem comprovadas.
Resumo:
A perfuração é uma das operações envolvidas no desmonte de rocha com explosivos. A forma como esta operação é executada é determinante para o sucesso do desmonte. Quando é realizada correctamente o desmonte produz superfícies limpas com o mínimo de sobrescavação e perturbação. A selecção das ferramentas de perfuração é um dos factores preponderantes para os custos do desmonte de maciços rochosos. O objectivo deste trabalho é demonstrar a interdependência entre os parâmetros petrofísicos, geotécnicos e geomecânicos do maciço rochoso e as tecnologias de perfuração de forma a optimizar tanto técnica como economicamente. A forma como a perfuração é executada é determinante para a boa fragmentação do maciço rochoso. Este estudo irá centrar-se na perfurabilidade do maciço, linearidade dos furos, rendimento e desgaste das ferramentas de perfuração e desenvolvimento de metodologias do ciclo de perfuração. Neste trabalho, discute-se a importância de uma abordagem integrativa para fins de geoengenhara mineira em que foi aplicada a técnica de amostragem linear em superfícies expostas do maciço num ambiente de uma exploração granítica. As áreas seleccionadas para este estudo — Pedreira de Serdedelo (Ribeira, Ponte de Lima) e pedreira do Fojo (Ferreira, Paredes de Coura), NW de Portugal — estão situadas nas proximidades de falhas geológicas regionais. Em todo os casos de estudo foram desenvolvidos numa plataforma SIG usando as seguintes ferramentas: cartografia geo-aplicada, técnicas de geologia estrutural, da geotecnia e da geomecânica mineiras e avaliação de geotecnologias. Esta abordagem leva-nos a compreender a relevância da heterogeneidade do maciço rochoso para o dimensionamento da exploração a diferentes escalas. O controlo geomecânico do desmonte do maciço rochoso através de uma perfuração alinhada é salientado com o intuito de uma abordagem de geoengenharia integrada nos maciços rochosos.
Resumo:
The assessment of ecological status of lotic freshwater bodies, based on stringent criteria of classification, has been defined by the Water Framework Directive (WFD), as a result of the implementation and optimization of methodologies that integrate physico-chemical, biological, and hydromorphological parameters. It is recognized that the application of this methodology is not easy, because it requires deep technical and scientific knowledge; it is time consuming in its application involving high financial costs. Thus, the main objective of this study was the development of cheaper and faster complementary methodologies that may contribute to the technical application of the classification criteria defined by the WFD, achieving the same final results of evaluation. In order to achieve this main goal, the river Mau, a small mountain river subjected to different stressors (eg, metals, pesticides), was established as the main sampling area. This thesis reviewed the historical development of various biotic indexes and its application in assessing water quality, especially highlighting the new paradigm defined by the WFD, and the corresponding actions developed for optimization and intercalibration of methodologies, evaluating the final state of water bodies. The ecological spatiotemporal characterization of the river Mau focused on the application of the WFD methodology, using at this stage only macroinvertebrates collected during four seasons. Results were compared with historical data of the last three years and they demonstrated that the river is in good condition. However, the ecological quality decreased at certain locations indicating that organisms were subjected to some type of disturbance. As the ecological quality can be conditioned by pulses of contamination from the sediments, in environmental adverse conditions, assays were performed with elutriates, obtained from sediments collected near the mining complex Braçal-Palhal. Results showed that this method was effective achieving the state of contamination, which may be important in prioritizing/scoring of critical areas within river ecosystems potentially impacted, using the WFD methodology. However, this methodology requires the collection of sediment which can promote the modification and / or loss of contaminants. To solve this potential problem, we developed a new methodology to obtain similar results. For this, we used a benthic microalga, belonging to the Portuguese flora, sensitive to organic pollution and metals. This methodology was optimized for application in situ, by immobilization of diatom in calcium alginate beads. The results showedthat their sensitivity and normal growth rate are similar to data obtained when used free cells of diatom. This new methodology allowed the achievement of a very quick response on the degree of contamination of a site, providing a complementary methodology to WFD.
Resumo:
The introduction of chemicals into the environment by human activities may represent a serious risk to environmental and human health. Environmental risk assessment requires the use of efficient and sensitive tools to determine the impact of contaminants on the ecosystems. The use of zebrafish for the toxicity assessment of pharmaceuticals, drugs, and pollutants, is becoming well accepted due to zebrafish unique advantages for the screening of compounds for hazard identification. The aim of the present work is to apply toxicogenomic approaches to identify novel biomarkers and uncovered potential modes of action of classic and emergent contaminants able to disrupt endocrine systems, such as the Retinoic Acid Receptor, Retinoid X Receptor and the Aryl Hydrocarbon Receptor. This study relies on different nuclear and cytosolic protein receptors and other conditional (ligand- or stress- activated) transcriptional factors that are intimately involved in the regulation of defensome genes and in mechanisms of chemical toxicity. The transcriptomic effects of organic compounds, endogenous compounds, and nanoparticles were analysed during the early stages of zebrafish development. Studying the gene expression profiles of exposed and unexposed organisms to pollutants using microarrays allowed the identification of specific gene markers and to establish a "genetic code" for the tested compounds. Changes in gene expression were observed at toxicant concentrations that did not cause morphological effects. Even at low toxicant concentrations, the observed changes in transcript levels were robust for some target genes. Microarray responses of selected genes were further complemented by the real time quantitative polymerase chain reaction (qRT-PCR) methodology. The combination of bio-informatic, toxicological analyses of differential gene expression profiles, and biochemical and phenotypic responses across the treatments allowed the identification of uncovered potential mechanisms of action. In addition, this work provides an integrated set of tools that can be used to aid management-decision making by improving the predictive capability to measure environmental stress of contaminants in freshwater ecosystems. This study also illustrates the potential of zebrafish embryos for the systematic, large-scale analysis of chemical effects on developing vertebrates.
Resumo:
The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.
Resumo:
O trabalho de investigação apresentado nesta dissertação foi desenvolvido tendo como objectivo a síntese e funcionalização de meso-triarilcorróis para utilização como quimiossensores. Este trabalho encontra-se apresentado ao longo de cinco capítulos. No primeiro capítulo são apresentadas as características gerais, as metodologias de síntese e de funcionalização de macrociclos de tipo corrólico, e descrevemse algumas aplicações em que têm sido utilizados. São ainda abordadas algumas das propriedades e características dos quimiossensores e os mecanismos de deteção de diversos analítos. No segundo capítulo, após uma pequena introdução às reações de Wittig e de Diels-Alder, escolhidas para a funcionalização do macrociclo corrólico, descreve-se o estudo efectuado para a obtenção do complexo de gálio(III) do 3- vinil-5,10,15-tris(pentafluorofenil)corrol e o seu comportamento como dieno, em reações de Diels-Alder na presença dos dienófilos 1,4-benzoquinona e 1,4- naftoquinona. Desses estudos resultaram dois aductos cuja habilidade sensorial, bem como a dos seus precursores, foi estudada, em solução, na presença de aniões esféricos (F-, Br-, Cl-), lineares (CN-) e volumosos (CH3COO-, H2PO4 -). Dos macrociclos estudados verificou-se que o corrol base-livre 5,10,15-tris(pentafluorofenil)corrol apresenta uma elevada sensibilidade para o anião fluoreto (F-), e que a coordenação do núcleo corrólico com gálio(III) diminui a afinidade para este anião. Em geral, todos os compostos mostraram afinidade para o anião cianeto (CN-) mesmo quando em suportes poliméricos. O gel de poliacrilamida revelou-se muito promissor na determinação de CN- em amostras de água. No terceiro capítulo é avaliada a reatividade do complexo de gálio(III) do 3- vinil-5,10,15-tris(pentafluorofenil)corrol ainda como dieno mas agora na presença de um dienófilo linear, o acetilenodicarboxilato de dimetilo. Desse estudo resultaram dois novos derivados corrólicos. A habilidade sensorial dos mesmos perante os aniões fluoreto, cianeto, acetato, e fosfato foi avaliada por espectroscopia de absorção e emissão tendo um dos aductos mostrado ser colorimétrico para o anião cianeto. No quarto capítulo descreve-se a síntese e caracterização de dois conjugados do tipo corrol-cumarina, resultantes de reações de Hetero-Diels-Alder entre o 3-vinil-5,10,15-tris(pentafluorofenil)corrolatogálio(III)(piridina) e orto-quinonasmetídeos gerados in situ a partir de reacções de Knoevenagel entre cumarinas e paraformaldeído. Realizaram-se estudos de afinidade sensorial para aniões e catiões com estes macrociclos, bem como com conjugados porfirinacumarina análogos. A inserção de uma unidade cumarina conferiu uma excepcional solubilidade tendo os novos derivados apresentado solubilidade em etanol. No quinto e último capítulo desta dissertação é avaliada a capacidade sensorial do 5,10,15-tris(pentafluorofenil)corrol e da sua espécie monoaniónica, para os catiões metálicos Na+, Ca2+, Cu2+, Cd2+, Pb2+, Hg2+, Ag+, Al3+, Zn2+, Ni2+, Cr3+, Ga3+, Fe3+ em tolueno e acetonitrilo. Os macrociclos corrólicos mostraram ser selectivos e colorimétricos para o catião Hg2+. Neste trabalho descreve-se ainda a síntese do derivado -iminocorrol, que após funcionalização com o 3-isocianatopropiltrimetoxisilano originou um derivado do tipo alcoxisilano, que foi, posteriormente, ancorado a nanopartículas comerciais de sílica. As novas nanopartículas ancoradas com o alcoxisilano corrol foram estudadas na presença de Cu2+, Hg2+ e Ag+. Na presença do catião Ag+ assistiu-se a uma mudança de cor, de verde para amarelo.