73 resultados para Processamento sísmico
Resumo:
A optimização estrutural é uma temática antiga em engenharia. No entanto, com o crescimento do método dos elementos finitos em décadas recentes, dá origem a um crescente número de aplicações. A optimização topológica, especificamente, surge associada a uma fase de definição de domínio efectivo de um processo global de optimização estrutural. Com base neste tipo de optimização, é possível obter a distribuição óptima de material para diversas aplicações e solicitações. Os materiais compósitos e alguns materiais celulares, em particular, encontram-se entre os materiais mais proeminentes dos nossos dias, em termos das suas aplicações e de investigação e desenvolvimento. No entanto, a sua estrutura potencialmente complexa e natureza heterogénea acarretam grandes complexidades, tanto ao nível da previsão das suas propriedades constitutivas quanto na obtenção das distribuições óptimas de constituintes. Procedimentos de homogeneização podem fornecer algumas respostas em ambos os casos. Em particular, a homogeneização por expansão assimptótica pode ser utilizada para determinar propriedades termomecânicas efectivas e globais a partir de volumes representativos, de forma flexível e independente da distribuição de constituintes. Além disso, integra processos de localização e fornece informação detalhada acerca de sensibilidades locais em metodologias de optimização multiescala. A conjugação destas áreas pode conduzir a metodologias de optimização topológica multiescala, nas quais de procede à obtenção não só de estruturas óptimas mas também das distribuições ideais de materiais constituintes. Os problemas associados a estas abordagens tendem, no entanto, a exigir recursos computacionais assinaláveis, criando muitas vezes sérias limitações à exequibilidade da sua resolução. Neste sentido, técnicas de cálculo paralelo e distribuído apresentam-se como uma potencial solução. Ao dividir os problemas por diferentes unidades memória e de processamento, é possível abordar problemas que, de outra forma, seriam proibitivos. O principal foco deste trabalho centra-se na importância do desenvolvimento de procedimentos computacionais para as aplicações referidas. Adicionalmente, estas conduzem a diversas abordagens alternativas na procura simultânea de estruturas e materiais para responder a aplicações termomecânicas. Face ao exposto, tudo isto é integrado numa plataforma computacional de optimização multiobjectivo multiescala em termoelasticidade, desenvolvida e implementada ao longo deste trabalho. Adicionalmente, o trabalho é complementado com a montagem e configuração de um cluster do tipo Beowulf, assim como com o desenvolvimento do código com vista ao cálculo paralelo e distribuído.
Resumo:
A Doença de Alzheimer (AD) é a maior doença neurodegenerativa a nível mundial, e a principal causa de demência na população idosa. O processamento da proteína precursora de amilóide (APP) pelas β- e g- secretases origina o peptídeo Aβ, que agrega em oligómeros neurotóxicos e em placas senis. Estes são eventos-chave na patogénese da DA que levam à rutura da neurotransmissão sináptica, morte neuronal e inflamação neuronal do hipocampo e córtex cerebral, causando perda de memória disfunção cognitiva geral. Apesar dos grandes avanços no conhecimento do papel do processamento da APP na DA, a sua função fisiológica ainda não foi totalmente elucidada. Os mapas de interações proteína-proteína (PPI) humanos têm desempenhado um papel importante na investigação biomédica, em particular no estudo de vias de sinalização e de doenças humanas. O método dois-híbrido em levedura (YTH) consiste numa plataforma para a produção rápida de redes de PPI em larga-escala. Neste trabalho foram realizados vários rastreios YTH com o objetivo de identificar proteínas específicas de cérebro humano que interagissem com a APP, ou com o seu domínio intracelular (AICD), tanto o tipo selvagem como com os mutantes Y687F, que mimetizam o estado desfosforilado do resíduo Tyr-687. De facto, a endocitose da APP e a produção de Aβ estão dependentes do estado de fosforilação da Tyr-687. Os rastreios YTH permitiram assim obter de redes proteínas que interagem com a APP, utilizando como “isco” a APP, APPY687F e AICDY687F. Os clones positivos foram isolados e identificados através de sequenciação do cDNA. A maior parte dos clones identificados, 118, correspondia a sequências que codificam para proteínas conhecidas, resultando em 31 proteínas distintas. A análise de proteómica funcional das proteínas identificadas neste estudo e em dois projetos anteriores (AICDY687E, que mimetiza a fosforilação, e AICD tipo selvagem), permitiram avaliar a relevância da fosforilação da Tyr-687. Três clones provenientes do rastreio YTH com a APPY687F foram identificados como um novo transcrito da proteína Fe65, resultante de splicing alternativo, a Fe65E3a (GenBank Accession: EF103274), que codifica para a isoforma p60Fe65. A p60Fe65 está enriquecida no cérebro e os seus níveis aumentam durante a diferenciação neuronal de células PC12, evidenciando o potencial papel que poderá desempenhar na patologia da DA. A RanBP9 é uma proteína nuclear e citoplasmática envolvida em diversas vias de sinalização celulares. Neste trabalho caracterizou-se a nova interação entre a RanBP9 e o AICD, que pode ser regulada pela fosforilação da Tyr-687. Adicionalmente, foi identificada uma nova interação entre a RanBP9 e a acetiltransferase de histonas Tip60. Demonstrou-se ainda que a RanBP9 tem um efeito de regulação inibitório na transcrição mediada por AICD, através da interação com a Tip60, afastando o AICD dos locais de transcrição ativos. O estudo do interactoma da APP/AICD, modelado pela fosforilação da Tyr-687, revela que a APP poderá estar envolvida em novas vias celulares, contribuindo não só para o conhecimento do papel fisiológico da APP, como também auxilia a revelar as vias que levam à agregação de Aβ e neurodegeneração. A potencial relevância deste trabalho relaciona-se com a descoberta de algumas interações proteicas/vias de sinalização que podem que podem ser relevantes para o desenvolvimento de novas estratégias terapêuticas na DA.
Resumo:
O objetivo deste trabalho foi efetuar um estudo de otimização dos parâmetros de exposição do mamógrafo digital da marca GE, modelo Senographe DS instalado no Instituto Português de Oncologia de Coimbra (IPOC) baseado numa análise contraste detalhe e avaliar o impacto do resultado obtido na melhoria da capacidade de detecção clínica das estruturas da mama. O mamógrafo em estudo dispõe de um sistema de controle automático da exposição designado por sistema AOP (Automatic Optimization of Parameters) que foi otimizado pelo fabricante a partir da razão contraste ruído. O sistema AOP é usado na prática clínica na quase totalidade dos exames de mamografia realizados no IPOC. Tendo em conta o tipo de estrutura que se pretende visualizar na mamografia, nomeadamente estruturas de baixo contraste como as massas e estruturas de dimensão submilimétrica como as microcalcificações, a análise contraste detalhe poderia constituir uma abordagem mais adequada para o estudo de otimização dos parâmetros de exposição uma vez que permitiria uma avaliação conjunta do contraste, da resolução espacial e do ruído da imagem. Numa primeira fase do trabalho foi efetuada a caracterização da prática clínica realizada no mamógrafo em estudo em termos de espessura de mama comprimida “típica”, dos parâmetros técnicos de exposição e das opções de processamento das imagens aplicadas pelo sistema AOP (combinação alvo/filtro, tensão aplicada na ampola - kVp e produto corrente-tempo da ampola - mAs). Numa segunda fase foi realizado um estudo de otimização da qualidade da imagem versus dose na perspectiva dos parâmetros físicos. Para tal foi efetuada uma análise contrastedetalhe no objeto simulador de mama CDMAM e usada uma figura de mérito definida a partir do IQFinv (inverted image quality figure) e da dose glandular média. Os resultados apontaram para uma diferença entre o ponto ótimo resultante do estudo de otimização e o ponto associado aos parâmetros de exposição escolhidos pelo sistema AOP, designadamente no caso da mama pequena. Sendo a qualidade da imagem na perspectiva clínica um conceito mais complexo cujo resultado da apreciação de uma imagem de boa qualidade deve ter em conta as diferenças entre observadores, foi efetuado na última parte deste trabalho um estudo do impacto clínico da proposta de otimização da qualidade de imagem. A partir das imagens realizadas com o objeto simulador antropomórfico TOR MAM simulando uma mama pequena, seis médicos(as) radiologistas com mais de 5 anos de experiência em mamografia avaliaram as imagens “otimizadas” obtidas utilizando-se os parâmetros técnicos de exposição resultantes do estudo de otimização e a imagem resultante da escolha do sistema AOP. A análise estatística das avaliações feitas pelos médicos indica que a imagem “otimizada” da mama pequena apresenta uma melhor visualização das microcalcificações sem perda da qualidade da imagem na deteção de fibras e de massas em comparação com a imagem “standard”. Este trabalho permitiu introduzir uma nova definição da figura de mérito para o estudo de otimização da qualidade da imagem versus dose em mamografia. Permitiu também estabelecer uma metodologia consistente que pode facilmente ser aplicada a qualquer outro mamógrafo, contribuindo para a área da otimização em mamografia digital que é uma das áreas mais relevantes no que toca à proteção radiológica do paciente.
Resumo:
Nos últimos anos, as tecnologias que dão suporte à robótica avançaram expressivamente. É possível encontrar robôs de serviço nos mais variados campos. O próximo passo é o desenvolvimento de robôs inteligentes, com capacidade de comunicação em linguagem falada e de realizar trabalhos úteis em interação/cooperação com humanos. Torna-se necessário, então, encontrar um modo de interagir eficientemente com esses robôs, e com agentes inteligentes de maneira geral, que permita a transmissão de conhecimento em ambos os sentidos. Partiremos da hipótese de que é possível desenvolver um sistema de diálogo baseado em linguagem natural falada que resolva esse problema. Assim, o objetivo principal deste trabalho é a definição, implementação e avaliação de um sistema de diálogo utilizável na interação baseada em linguagem natural falada entre humanos e agentes inteligentes. Ao longo deste texto, mostraremos os principais aspectos da comunicação por linguagem falada, tanto entre os humanos, como também entre humanos e máquinas. Apresentaremos as principais categorias de sistemas de diálogo, com exemplos de alguns sistemas implementados, assim como ferramentas para desenvolvimento e algumas técnicas de avaliação. A seguir, entre outros aspectos, desenvolveremos os seguintes: a evolução levada a efeito na arquitetura computacional do Carl, robô utilizado neste trabalho; o módulo de aquisição e gestão de conhecimento, desenvolvido para dar suporte à interação; e o novo gestor de diálogo, baseado na abordagem de “Estado da Informação”, também concebido e implementado no âmbito desta tese. Por fim, uma avaliação experimental envolvendo a realização de diversas tarefas de interação com vários participantes voluntários demonstrou ser possível interagir com o robô e realizar as tarefas solicitadas. Este trabalho experimental incluiu avaliação parcial de funcionalidades, avaliação global do sistema de diálogo e avaliação de usabilidade.
Resumo:
Esta tese teve como objectivo estudar estratégias de conservação de pescado fresco, recorrendo ao uso de extractos e óleos essenciais de plantas e do processamento por alta pressão (HPP), usando filetes de robalo como um caso de estudo modelo. Relativamente aos extractos e óleos essenciais, avaliaram-se as suas propriedades antibacterianas e antioxidantes. Os extractos aquosos quente de poejo e de orégão e o óleo essencial de cravinho apresentaram a maior actividade antioxidante. Os óleos essenciais foram mais eficientes do que os extractos para inibir o crescimento das estirpes bacterianas testadas, tendo-se observado os menores valores de concentração mínima inibitória nos óleos essenciais de orégão, citronela, alho e orégão Espanhol. De seguida, estudou-se o efeito dos óleos essenciais de orégão Espanhol e de limão na conservação de filetes de robalo fresco tendo em conta critérios microbiológicos, químicos, físicos e sensoriais. A aplicação do óleo essencial de orégão Espanhol aumentou o tempo de vida útil dos filetes sob o ponto de vista bacteriano, mas não em termos sensoriais. A combinação dos óleos essenciais de orégão Espanhol e de limão melhorou o efeito antioxidante e reduziu a intensidade do odor e a sua eficácia em relação às Enterobacteriaceae, comparando com o tratamento com óleo essencial de orégão Espanhol per se. No sentido de reduzir o odor conferido pelos óleos essenciais realizou-se um estudo de conservação para avaliar o efeito de películas com óleos essenciais (citronela, alho e tomilho) em filetes de robalo, recorrendo a uma teste de desafio bacteriano. As películas sem óleos essenciais aumentaram o tempo de vida útil sob o ponto de vista bacteriano, mas este efeito não foi observado com a incorporação dos óleos essenciais nas películas. Em relação ao HPP, testaram-se diversas condições (nível de pressão, tempo de pressurização e taxa de pressurização) e avaliaram-se os efeitos na actividade enzimática, na qualidade global e na conservação de filetes de robalo fresco. Em geral, o aumento do nível de pressão e do tempo de pressurização diminuiu a actividade da fosfatase ácida e das enzimas proteolíticas, a carga bacteriana e a capacidade de retenção de água, enquanto que os filetes ficaram mais brancos. O HPP revelou potencial para o desenvolvimento de novos produtos: mais brancos, não translúcidos, mais firmes e com maior tempo de frescura e estabilidade microbiológica. Em conclusão, os óleos essenciais e o HPP têm potencial para conservar pescado fresco, devido aos seus efeitos na qualidade bacteriana. Ainda assim, mais esforços devem ser feitos no sentido de reduzir a transferência de odor dos óleos essenciais para o pescado e os efeitos do HPP no aspecto do pescado e na oxidação lipídica.
Resumo:
Este trabalho investiga novas metodologias para as redes óticas de acesso de próxima geração (NG-OAN). O trabalho está dividido em quatro tópicos de investigação: projeto da rede, modelos numéricos para efeitos não lineares da fibra ótica, impacto dos efeitos não lineares da fibra ótica e otimização da rede. A rede ótica de acesso investigada nesse trabalho está projetado para suprir os requisitos de densidade de utilizadores e cobertura, isto é, suportar muitos utilizadores ( 1000) com altas velocidades de conexão dedicada ( 1 Gb/s) ocupando uma faixa estreita do espectro ( 25 nm) e comprimentos de fibra ótica até 100 km. Os cenários são baseados em redes óticas passivas com multiplexagem por divisão no comprimento de onda de alta densidade (UDWDM-PON) utilizando transmissores/receptores coerentes nos terminais da rede. A rede é avaliada para vários ritmos de transmissão usando formatos de modulação avançados, requisitos de largura de banda por utilizador e partilha de banda com tecnologias tradicionais de redes óticas passivas (PON). Modelos numéricos baseados em funções de transferência das séries de Volterra (VSTF) são demonstrados tanto para a análise dos efeitos não lineares da fibra ótica quanto para avaliação do desempenho total da rede. São apresentadas as faixas de potência e distância de transmissão nas quais as séries de Volterra apresentam resultados semelhantes ao modelo referência Split-Step Fourier (SSF) (validado experimentalmente) para o desempenho total da rede. Além disso, um algoritmo, que evita componentes espectrais com intensidade nulo, é proposto para realizar cálculos rápidos das séries. O modelo VSTF é estendido para identificar unicamente os efeitos não lineares da fibra ótica mais relevantes no cenário investigado: Self-Phase Modulation (SPM), Cross-Phase Modulation (XPM) e Four-Wave Mixing (FWM). Simulações numéricas são apresentadas para identificar o impacto isolado de cada efeito não linear da fibra ótica, SPM, XPM e FWM, no desempenho da rede com detecção coerente UDWDM-PON, transportando canais com modulação digital em fase (M-ária PSK) ou modulação digital em amplitude (M-ária QAM). A análise numérica é estendida para diferentes comprimentos de fibra ótica mono modo (SSMF), potência por canal e ritmo de transmissão por canal. Por conseguinte, expressões analíticas são extrapoladas para determinar a evolução do SPM, XPM e FWM em função da potência e distância de transmissão em cenários NG-OAN. O desempenho da rede é otimizada através da minimização parcial da interferência FWM (via espaçamento desigual dos canais), que nesse caso, é o efeito não linear da fibra ótica mais relevante. Direções para melhorias adicionas no desempenho da rede são apresentados para cenários em que o XPM é relevante, isto é, redes transportando formatos de modulação QAM. A solução, nesse caso, é baseada na utilização de técnicas de processamento digital do sinal.
Resumo:
Durante as ultimas décadas, os registos de saúde eletrónicos (EHR) têm evoluído para se adaptar a novos requisitos. O cidadão tem-se envolvido cada vez mais na prestação dos cuidados médicos, sendo mais pró ativo e desejando potenciar a utilização do seu registo. A mobilidade do cidadão trouxe mais desafios, a existência de dados dispersos, heterogeneidade de sistemas e formatos e grande dificuldade de partilha e comunicação entre os prestadores de serviços. Para responder a estes requisitos, diversas soluções apareceram, maioritariamente baseadas em acordos entre instituições, regiões e países. Estas abordagens são usualmente assentes em cenários federativos muito complexos e fora do controlo do paciente. Abordagens mais recentes, como os registos pessoais de saúde (PHR), permitem o controlo do paciente, mas levantam duvidas da integridade clinica da informação aos profissionais clínicos. Neste cenário os dados saem de redes e sistemas controlados, aumentando o risco de segurança da informação. Assim sendo, são necessárias novas soluções que permitam uma colaboração confiável entre os diversos atores e sistemas. Esta tese apresenta uma solução que permite a colaboração aberta e segura entre todos os atores envolvidos nos cuidados de saúde. Baseia-se numa arquitetura orientada ao serviço, que lida com a informação clínica usando o conceito de envelope fechado. Foi modelada recorrendo aos princípios de funcionalidade e privilégios mínimos, com o propósito de fornecer proteção dos dados durante a transmissão, processamento e armazenamento. O controlo de acesso _e estabelecido por políticas definidas pelo paciente. Cartões de identificação eletrónicos, ou certificados similares são utilizados para a autenticação, permitindo uma inscrição automática. Todos os componentes requerem autenticação mútua e fazem uso de algoritmos de cifragem para garantir a privacidade dos dados. Apresenta-se também um modelo de ameaça para a arquitetura, por forma a analisar se as ameaças possíveis foram mitigadas ou se são necessários mais refinamentos. A solução proposta resolve o problema da mobilidade do paciente e a dispersão de dados, capacitando o cidadão a gerir e a colaborar na criação e manutenção da sua informação de saúde. A arquitetura permite uma colaboração aberta e segura, possibilitando que o paciente tenha registos mais ricos, atualizados e permitindo o surgimento de novas formas de criar e usar informação clínica ou complementar.
Resumo:
Esta tese apresenta algoritmos que estimam o espetro de um sinal não periódico a partir de um numero finito de amostras, tirando partido da esparsidade do sinal no domínio da frequência. Trata-se de um problema em que devido aos efeitos de leakage, o sucesso dos algoritmos tradicionais esta limitado. Para ultrapassar o problema, os algoritmos propostos transformam a base DFT numa frame com um maior numero de colunas, inserindo um numero reduzido de colunas entre algumas das iniciais. Estes algoritmos são baseados na teoria do compressed sensing, que permite obter e representar sinais esparsos e compressíveis, utilizando uma taxa de amostragem muito inferior à taxa de Nyquist. Os algoritmos propostos apresentam um bom desempenho em comparação com os algoritmos existentes, destacando-se na estimação do espetro de sinais compostos por sinusóides com frequências muito próximas, com amplitudes diferentes e na presença de ruído, situação particularmente difícil e perante a qual os restantes algoritmos falham.
Resumo:
The exponential growth of the world population has led to an increase of settlements often located in areas prone to natural disasters, including earthquakes. Consequently, despite the important advances in the field of natural catastrophes modelling and risk mitigation actions, the overall human losses have continued to increase and unprecedented economic losses have been registered. In the research work presented herein, various areas of earthquake engineering and seismology are thoroughly investigated, and a case study application for mainland Portugal is performed. Seismic risk assessment is a critical link in the reduction of casualties and damages due to earthquakes. Recognition of this relation has led to a rapid rise in demand for accurate, reliable and flexible numerical tools and software. In the present work, an open-source platform for seismic hazard and risk assessment is developed. This software is capable of computing the distribution of losses or damage for an earthquake scenario (deterministic event-based) or earthquake losses due to all the possible seismic events that might occur within a region for a given interval of time (probabilistic event-based). This effort has been developed following an open and transparent philosophy and therefore, it is available to any individual or institution. The estimation of the seismic risk depends mainly on three components: seismic hazard, exposure and vulnerability. The latter component assumes special importance, as by intervening with appropriate retrofitting solutions, it may be possible to decrease directly the seismic risk. The employment of analytical methodologies is fundamental in the assessment of structural vulnerability, particularly in regions where post-earthquake building damage might not be available. Several common methodologies are investigated, and conclusions are yielded regarding the method that can provide an optimal balance between accuracy and computational effort. In addition, a simplified approach based on the displacement-based earthquake loss assessment (DBELA) is proposed, which allows for the rapid estimation of fragility curves, considering a wide spectrum of uncertainties. A novel vulnerability model for the reinforced concrete building stock in Portugal is proposed in this work, using statistical information collected from hundreds of real buildings. An analytical approach based on nonlinear time history analysis is adopted and the impact of a set of key parameters investigated, including the damage state criteria and the chosen intensity measure type. A comprehensive review of previous studies that contributed to the understanding of the seismic hazard and risk for Portugal is presented. An existing seismic source model was employed with recently proposed attenuation models to calculate probabilistic seismic hazard throughout the territory. The latter results are combined with information from the 2011 Building Census and the aforementioned vulnerability model to estimate economic loss maps for a return period of 475 years. These losses are disaggregated across the different building typologies and conclusions are yielded regarding the type of construction more vulnerable to seismic activity.
Resumo:
Vitis vinifera L., the most widely cultivated fruit crop in the world, was the starting point for the development of this PhD thesis. This subject was exploited following on two actual trends: i) the development of rapid, simple, and high sensitive methodologies with minimal sample handling; and ii) the valuation of natural products as a source of compounds with potential health benefits. The target group of compounds under study were the volatile terpenoids (mono and sesquiterpenoids) and C13 norisoprenoids, since they may present biological impact, either from the sensorial point of view, as regards to the wine aroma, or by the beneficial properties for the human health. Two novel methodologies for quantification of C13 norisoprenoids in wines were developed. The first methodology, a rapid method, was based on the headspace solid-phase microextraction combined with gas chromatography-quadrupole mass spectrometry operating at selected ion monitoring mode (HS-SPME/GC-qMS-SIM), using GC conditions that allowed obtaining a C13 norisoprenoid volatile signature. It does not require any pre-treatment of the sample, and the C13 norisoprenoid composition of the wine was evaluated based on the chromatographic profile and specific m/z fragments, without complete chromatographic separation of its components. The second methodology, used as reference method, was based on the HS-SPME/GC-qMS-SIM, allowing the GC conditions for an adequate chromatographic resolution of wine components. For quantification purposes, external calibration curves were constructed with β-ionone, with regression coefficient (r2) of 0.9968 (RSD 12.51 %) and 0.9940 (RSD of 1.08 %) for the rapid method and for the reference method, respectively. Low detection limits (1.57 and 1.10 μg L-1) were observed. These methodologies were applied to seventeen white and red table wines. Two vitispirane isomers (158-1529 L-1) and 1,1,6-trimethyl-1,2-dihydronaphthalene (TDN) (6.42-39.45 μg L-1) were quantified. The data obtained for vitispirane isomers and TDN using the two methods were highly correlated (r2 of 0.9756 and 0.9630, respectively). A rapid methodology for the establishment of the varietal volatile profile of Vitis vinifera L. cv. 'Fernão-Pires' (FP) white wines by headspace solid-phase microextraction combined with comprehensive two-dimensional gas chromatography with time-of-flight mass spectrometry (HS-SPME/GCxGC-TOFMS) was developed. Monovarietal wines from different harvests, Appellations, and producers were analysed. The study was focused on the volatiles that seem to be significant to the varietal character, such as mono and sesquiterpenic compounds, and C13 norisoprenoids. Two-dimensional chromatographic spaces containing the varietal compounds using the m/z fragments 93, 121, 161, 175 and 204 were established as follows: 1tR = 255-575 s, 2tR = 0,424-1,840 s, for monoterpenoids, 1tR = 555-685 s, 2tR = 0,528-0,856 s, for C13 norisoprenoids, and 1tR = 695-950 s, 2tR = 0,520-0,960 s, for sesquiterpenic compounds. For the three chemical groups under study, from a total of 170 compounds, 45 were determined in all wines, allowing defining the "varietal volatile profile" of FP wine. Among these compounds, 15 were detected for the first time in FP wines. This study proposes a HS-SPME/GCxGC-TOFMS based methodology combined with classification-reference sample to be used for rapid assessment of varietal volatile profile of wines. This approach is very useful to eliminate the majority of the non-terpenic and non-C13 norisoprenic compounds, allowing the definition of a two-dimensional chromatographic space containing these compounds, simplifying the data compared to the original data, and reducing the time of analysis. The presence of sesquiterpenic compounds in Vitis vinifera L. related products, to which are assigned several biological properties, prompted us to investigate the antioxidant, antiproliferative and hepatoprotective activities of some sesquiterpenic compounds. Firstly, the antiradical capacity of trans,trans-farnesol, cis-nerolidol, α-humulene and guaiazulene was evaluated using chemical (DPPH• and hydroxyl radicals) and biological (Caco-2 cells) models. Guaiazulene (IC50= 0.73 mM) was the sesquiterpene with higher scavenger capacity against DPPH•, while trans,trans-farnesol (IC50= 1.81 mM) and cis-nerolidol (IC50= 1.48 mM) were more active towards hydroxyl radicals. All compounds, with the exception of α-humulene, at non-cytotoxic levels (≤ 1 mM), were able to protect Caco-2 cells from oxidative stress induced by tert-butyl hydroperoxide. The activity of the compounds under study was also evaluated as antiproliferative agents. Guaiazulene and cis-nerolidol were able to more effectively arrest the cell cycle in the S-phase than trans,trans-farnesol and α-humulene, being the last almost inactive. The relative hepatoprotection effect of fifteen sesquiterpenic compounds, presenting different chemical structures and commonly found in plants and plant-derived foods and beverages, was assessed. Endogenous lipid peroxidation and induced lipid peroxidation with tert-butyl hydroperoxide were evaluated in liver homogenates from Wistar rats. With the exception of α-humulene, all the sesquiterpenic compounds under study (1 mM) were effective in reducing the malonaldehyde levels in both endogenous and induced lipid peroxidation up to 35% and 70%, respectively. The developed 3D-QSAR models, relating the hepatoprotection activity with molecular properties, showed good fit (R2LOO > 0.819) with good prediction power (Q2 > 0.950 and SDEP < 2%) for both models. A network of effects associated with structural and chemical features of sesquiterpenic compounds such as shape, branching, symmetry, and presence of electronegative fragments, can modulate the hepatoprotective activity observed for these compounds. In conclusion, this study allowed the development of rapid and in-depth methods for the assessment of varietal volatile compounds that might have a positive impact on sensorial and health attributes related to Vitis vinifera L. These approaches can be extended to the analysis of other related food matrices, including grapes and musts, among others. In addition, the results of in vitro assays open a perspective for the promising use of the sesquiterpenic compounds, with similar chemical structures such as those studied in the present work, as antioxidants, hepatoprotective and antiproliferative agents, which meets the current challenges related to diseases of modern civilization.
Resumo:
Este trabalho teve como principal objetivo estudar e modificar as propriedades funcionais das proteínas de soja de forma a otimizar e diversificar a sua aplicação industrial. Para tal, foram propostas e estudadas quatro estratégias: i) extração do isolado de proteínas de soja (IPS) a partir de diferentes matérias-primas, ii) adição de galactomananas (GM) com graus de ramificação e massas moleculares diferentes, iii) hidrólise enzimática controlada das proteínas de soja, iv) processamento por alta pressão hidrostática. O estudo e a interpretação da influência destas estratégias sobre as propriedades funcionais das proteínas de soja, nomeadamente, na capacidade gelificante e emulsionante, foram realizados recorrendo fundamentalmente a ensaios reológicos dinâmicos a baixas deformação, espectroscopia de infravermelho, electroforeses, calorimetria diferencial de varrimento e ensaios de microscopia confocal de varrimento laser. O estudo da extração e caracterização dos isolados de proteínas de soja obtidos a partir de diferentes matérias-primas permitiu concluir que as caraterísticas físico-químicas dos isolados são dependentes da origem da matéria-prima de extração e da severidade dos tratamentos industriais prévios à extração do isolado. Contudo, as propriedades viscoelásticas dos géis obtidos por aquecimento controlado não foram significativamente distintas embora tenha sido possível relacionar o grau de agregação com a diminuição da temperatura de gelificação e com o aumento inicial dos módulos viscoelásticos. As alterações sofridas pelos isolados de origem comercial mostraram ser irreversíveis resultando em géis menos rígidos e com maior caráter viscoso. A adição de galactomanana alterou significativamente o mecanismo de gelificação induzido termicamente das proteínas de soja, bem como as propriedades viscoelásticas dos géis e a microestrutura dos géis, demonstrando-se a ocorrência de separação de fases, em virtude da incompatibilidade termodinâmica entre os biopolímeros, resultando em géis mais rígidos e no decréscimo da temperatura de gelificação. A extensão destas alterações foi dependente da massa molecular, grau de ramificação e da razão IPS/GM. O efeito da hidrólise enzimática por ação da bromelina, nas propriedades gelificantes e emulsionantes das proteínas de soja, mostrou ser dependente do grau de hidrólise (GH). Valores de GH inferiores a 15 % melhoraram as propriedades gelificantes das proteínas de soja. Por outro lado, o aumento do GH teve um efeito negativo nas propriedades emulsionantes, o qual foi atenuado por adição da goma de alfarroba, com efeito positivo na gelificação das proteínas de soja. A concentração crítica limite de compatibilidade entre os hidrolisados de proteína de soja e a goma de alfarroba aumentou com o decréscimo do GH e da massa molecular do polissacacrídeo. O efeito da AP sobre as propriedades físico-químicas e funcionais dos IPS foi influenciado pela origem do isolado e pelas condições de tratamento. O processamento até 100 MPa desencadeou um aumento da atividade emulsionante e considerável melhoria da capacidade gelificante. Contudo, valores de pressão superiores promoveram a desnaturação das proteínas constituintes dos isolados, resultando no decréscimo da temperatura de gelificação e numa re-associação das subunidades proteicas, diminuindo a elasticidade dos géis finais. Os resultados sugeriram que as alterações nas proteínas de soja promovidas durante o tratamento por AP constituem um fator limitante para o desdobramento e re-associação durante o aquecimento térmico, necessários para a formação e fortalecimento de gel formado. O processamento por AP influenciou a estrutura secundária e a microestrutura das amostras. A presença de GA teve um papel baroprotetor. Assim, com este trabalho demonstrou-se que com as estratégias seguidas para manipulação das propriedades funcionais de proteínas de soja, nomeadamente através da adição de um polissacarídeo com propriedades estruturais controladas, da adequada combinação da adição de um polissacarídeo neutro com a hidrólise controlada das proteínas ou com tratamento por alta pressão, é possível a criação de novas funcionalidades, com utilidade no desenvolvimento de novas formulações alimentares, permitindo expandir a aplicação destas proteínas vegetais.
Resumo:
Ao longo das últimas décadas, a micromoldação (u-moldação) por injeção de termoplásticos ganhou um lugar de destaque no mercado de equipamentos eletrónicos e de uma ampla gama de componentes mecânicos. No entanto, quando o tamanho do componente diminui, os pressupostos geralmente aceites na moldação por injeção convencional deixam de ser válidos para descrever o comportamento reológico e termomecânico do polímero na microimpressão. Por isso, a compreensão do comportamento dinâmico do polímero à escala micro bem como da sua caraterização, análise e previsão das propriedades mecânicas exige uma investigação mais alargada. O objetivo principal deste programa doutoral passa por uma melhor compreensão do fenómeno físico intrínseco ao processo da μ-moldação por injeção. Para cumprir com o objetivo estabelecido, foi efetuado um estudo paramétrico do processo de μ-moldação por injeção, cujos resultados foram comparados com os resultados obtidos por simulação numérica. A caracterização dinâmica mecânica das μ-peças foi efetuada com o objetivo de recolher os dados necessários para a previsão do desempenho mecânico das mesmas, a longo prazo. Finalmente, depois da calibração do modelo matemático do polímero, foram realizadas análises estruturais com o intuito de prever o desempenho mecânico das μ-peças no longo prazo. Verificou-se que o desempenho mecânico das μ-peças pode ser significativamente afetado pelas tensões residuais de origem mecânica e térmica. Estas últimas, resultantes do processo de fabrico e das condições de processamento, por isso, devem ser consideradas na previsão do desempenho mecânico e do tempo de serviço das u-moldações.
Resumo:
Nos últimos anos, a Optoelectrónica tem sido estabelecida como um campo de investigação capaz de conduzir a novas soluções tecnológicas. As conquistas abundantes no campo da óptica e lasers, bem como em comunicações ópticas têm sido de grande importância e desencadearam uma série de inovações. Entre o grande número de componentes ópticos existentes, os componentes baseados em fibra óptica são principalmente relevantes devido à sua simplicidade e à elevada de transporte de dados da fibra óptica. Neste trabalho foi focado um destes componentes ópticos: as redes de difracção em fibra óptica, as quais têm propriedades ópticas de processamento únicas. Esta classe de componentes ópticos é extremamente atraente para o desenvolvimento de dispositivos de comunicações ópticas e sensores. O trabalho começou com uma análise teórica aplicada a redes em fibra e foram focados os métodos de fabricação de redes em fibra mais utilizados. A inscrição de redes em fibra também foi abordado neste trabalho, onde um sistema de inscrição automatizada foi implementada para a fibra óptica de sílica, e os resultados experimentais mostraram uma boa aproximação ao estudo de simulação. Também foi desenvolvido um sistema de inscrição de redes de Bragg em fibra óptica de plástico. Foi apresentado um estudo detalhado da modulação acústico-óptica em redes em fibra óptica de sílica e de plástico. Por meio de uma análise detalhada dos modos de excitação mecânica aplicadas ao modulador acústico-óptico, destacou-se que dois modos predominantes de excitação acústica pode ser estabelecidos na fibra óptica, dependendo da frequência acústica aplicada. Através dessa caracterização, foi possível desenvolver novas aplicações para comunicações ópticas. Estudos e implementação de diferentes dispositivos baseados em redes em fibra foram realizados, usando o efeito acústico-óptico e o processo de regeneração em fibra óptica para várias aplicações tais como rápido multiplexador óptico add-drop, atraso de grupo sintonizável de redes de Bragg, redes de Bragg com descolamento de fase sintonizáveis, método para a inscrição de redes de Bragg com perfis complexos, filtro sintonizável para equalização de ganho e filtros ópticos notch ajustáveis.
Resumo:
A Engenharia de Tecidos é um domínio multidisciplinar que combina especialistas de múltiplos domínios, no sentido de se desenvolverem substitutos biológicos para a regeneração, reparação ou restauração de funções de órgãos ou tecidos. A estratégia mais comum em engenharia de tecidos consiste na utilização de matrizes de suporte (scaffolds) tridimensionais, biocompatíveis, biodegradáveis e altamente porosos, os quais servem de substrato físico ao processo de adesão, proliferação e diferenciação celular. O objectivo deste trabalho de investigação centrou-se na produção e caracterização de scaffolds de PCL e de PCL com partículas de biovidro, abordando um processo de biofabricação, que teve por base o princípio da extrusão. Utilizou-se para tal um equipamento patenteado pelo Centro para o Desenvolvimento Rápido e Sustentado do Produto (CDRsp) designado Bioextruder. Trata-se de um sistema concebido para a produção de matrizes com ou sem encapsulamento de células, de uma forma automática, flexível e integrada. As estruturas obtidas caracterizaram-se quanto às propriedades térmicas, químicas, morfológicas e mecânicas. Realizaram-se ainda, testes de bioactividade e testes de degradação in vitro. Os resultados obtidos mostram que as condições de processamento não induzem qualquer alteração no que diz respeito às propriedades térmicas e químicas dos materiais, que o aumento do teor de biovidro conduz a uma fragmentação da matriz polimérica num período de tempo mais curto, que os scaffolds obtidos apresentam uma geometria bem definida e uma distribuição de poros uniforme. Demonstra-se assim, que a combinação da matriz polimérica (PCL) com o biovidro, sob a forma de scaffolds é promissora para aplicações em Engenharia de Tecidos e Medicina Regenerativa.
Resumo:
For the actual existence of e-government it is necessary and crucial to provide public information and documentation, making its access simple to citizens. A portion, not necessarily small, of these documents is in an unstructured form and in natural language, and consequently outside of which the current search systems are generally able to cope and effectively handle. Thus, in thesis, it is possible to improve access to these contents using systems that process natural language and create structured information, particularly if supported in semantics. In order to put this thesis to test, this work was developed in three major phases: (1) design of a conceptual model integrating the creation of structured information and making it available to various actors, in line with the vision of e-government 2.0; (2) definition and development of a prototype instantiating the key modules of this conceptual model, including ontology based information extraction supported by examples of relevant information, knowledge management and access based on natural language; (3) assessment of the usability and acceptability of querying information as made possible by the prototype - and in consequence of the conceptual model - by users in a realistic scenario, that included comparison with existing forms of access. In addition to this evaluation, at another level more related to technology assessment and not to the model, evaluations were made on the performance of the subsystem responsible for information extraction. The evaluation results show that the proposed model was perceived as more effective and useful than the alternatives. Associated with the performance of the prototype to extract information from documents, comparable to the state of the art, results demonstrate the feasibility and advantages, with current technology, of using natural language processing and integration of semantic information to improve access to unstructured contents in natural language. The conceptual model and the prototype demonstrator intend to contribute to the future existence of more sophisticated search systems that are also more suitable for e-government. To have transparency in governance, active citizenship, greater agility in the interaction with the public administration, among others, it is necessary that citizens and businesses have quick and easy access to official information, even if it was originally created in natural language.