911 resultados para Processamento de pescado
Resumo:
Os nitretos binários semicondutores do grupo III, e respetivos compostos, são vastamente estudados devido à sua possível aplicabilidade em dispositivos optoeletrónicos, tais como díodos emissores de luz (LEDs) e LASERs, assim como dispositivos para a eletrónica de elevadas temperatura, potência e frequência. Enquanto se concretizou a comercialização na última década de LEDs e LASERs recorrendo ao ternário In1-yGayN, estudos das propriedades fundamentais estruturais e óticas, assim como de técnicas de processamento no desenvolvimento de novas aplicações de outros ternários do grupo III-N encontram-se na sua fase inicial. Esta tese apresenta a investigação experimental de filmes finos epitaxiais de Al1-xInxN crescidos sobre camadas tampão de GaN e de Al1-yGayN e o estudo do recozimento e implantação de super-redes (SL) compostas por pontos quânticos de GaN (QD) envolvidos por camadas de AlN. Apesar do hiato energético do Al1-xInxN poder variar entre os 0,7 eV e os 6,2 eV e, por isso, numa gama, consideravelmente superior à dos ternários Al1-yGayN e InyGa1-yN, o primeiro é o menos estudado devido a dificuldades no crescimento de filmes com elevada qualidade cristalina. É efetuada, nesta tese, uma caracterização estrutural e composicional de filmes finos de Al1-xInxN crescidos sobre camadas tampão de GaN e de Al1-yGayN usando técnicas de raios-X, feixe de iões e de microscopia. Mostra-se que o Al1-xInxN pode ser crescido com elevada qualidade cristalina quando a epitaxia do crescimento se aproxima da condição de rede combinada do Al1-xInxN e da camada tampão (GaN ou Al1-yGayN), isto é, com conteúdo de InN de ~18%, quando crescido sobre uma camada de GaN. Quando o conteúdo de InN é inferior/superior à condição de rede combinada, fenómenos de relaxação de tensão e deterioração do cristal tais como o aumento da rugosidade de superfície prejudicam a qualidade cristalina do filme de Al1-xInxN. Observou-se que a qualidade dos filmes de Al1-xInxN depende fortemente da qualidade cristalina da camada tampão e, em particular, da sua morfologia e densidade de deslocações. Verificou-se que, dentro da exatidão experimental, os parâmetros de rede do ternário seguem a lei empírica de Vegard, ou seja, variam linearmente com o conteúdo de InN. Contudo, em algumas amostras, a composição determinada via espetrometria de retrodispersão de Rutherford e difração e raios-X mostra valores discrepantes. Esta discrepância pode ser atribuída a defeitos ou impurezas capazes de alterar os parâmetros de rede do ternário. No que diz respeito às SL dos QD e camadas de AlN, estudos de recozimento mostraram elevada estabilidade térmica dos QD de GaN quando estes se encontram inseridos numa matriz de AlN. Por implantação iónica, incorporou-se európio nestas estruturas e, promoveu-se a ativação ótica dos iões de Eu3+ através de tratamentos térmicos. Foram investigados os efeitos da intermistura e da relaxação da tensão ocorridos durante o recozimento e implantação nas propriedades estruturais e óticas. Verificou-se que para fluências elevadas os defeitos gerados por implantação são de difícil remoção. Contudo, a implantação com baixa fluência de Eu, seguida de tratamento térmico, promove uma elevada eficiência e estabilidade térmica da emissão vermelha do ião lantanídeo incorporado nos QD de GaN. Estes resultados são, particularmente relevantes, pois, na região espetral indicada, a eficiência quântica dos LEDs convencionais de InGaN é baixa.
Resumo:
O objeto principal desta tese é o estudo de algoritmos de processamento e representação automáticos de dados, em particular de informação obtida por sensores montados a bordo de veículos (2D e 3D), com aplicação em contexto de sistemas de apoio à condução. O trabalho foca alguns dos problemas que, quer os sistemas de condução automática (AD), quer os sistemas avançados de apoio à condução (ADAS), enfrentam hoje em dia. O documento é composto por duas partes. A primeira descreve o projeto, construção e desenvolvimento de três protótipos robóticos, incluindo pormenores associados aos sensores montados a bordo dos robôs, algoritmos e arquitecturas de software. Estes robôs foram utilizados como plataformas de ensaios para testar e validar as técnicas propostas. Para além disso, participaram em várias competições de condução autónoma tendo obtido muito bons resultados. A segunda parte deste documento apresenta vários algoritmos empregues na geração de representações intermédias de dados sensoriais. Estes podem ser utilizados para melhorar técnicas já existentes de reconhecimento de padrões, deteção ou navegação, e por este meio contribuir para futuras aplicações no âmbito dos AD ou ADAS. Dado que os veículos autónomos contêm uma grande quantidade de sensores de diferentes naturezas, representações intermédias são particularmente adequadas, pois podem lidar com problemas relacionados com as diversas naturezas dos dados (2D, 3D, fotométrica, etc.), com o carácter assíncrono dos dados (multiplos sensores a enviar dados a diferentes frequências), ou com o alinhamento dos dados (problemas de calibração, diferentes sensores a disponibilizar diferentes medições para um mesmo objeto). Neste âmbito, são propostas novas técnicas para a computação de uma representação multi-câmara multi-modal de transformação de perspectiva inversa, para a execução de correcção de côr entre imagens de forma a obter mosaicos de qualidade, ou para a geração de uma representação de cena baseada em primitivas poligonais, capaz de lidar com grandes quantidades de dados 3D e 2D, tendo inclusivamente a capacidade de refinar a representação à medida que novos dados sensoriais são recebidos.
Resumo:
Coordenação Multicélula é um tópico de investigação em rápido crescimento e uma solução promissora para controlar a interferência entre células em sistemas celulares, melhorando a equidade do sistema e aumentando a sua capacidade. Esta tecnologia já está em estudo no LTEAdvanced sob o conceito de coordenação multiponto (COMP). Existem várias abordagens sobre coordenação multicélula, dependendo da quantidade e do tipo de informação partilhada pelas estações base, através da rede de suporte (backhaul network), e do local onde essa informação é processada, i.e., numa unidade de processamento central ou de uma forma distribuída em cada estação base. Nesta tese, são propostas técnicas de pré-codificação e alocação de potência considerando várias estratégias: centralizada, todo o processamento é feito na unidade de processamento central; semidistribuída, neste caso apenas parte do processamento é executado na unidade de processamento central, nomeadamente a potência alocada a cada utilizador servido por cada estação base; e distribuída em que o processamento é feito localmente em cada estação base. Os esquemas propostos são projectados em duas fases: primeiro são propostas soluções de pré-codificação para mitigar ou eliminar a interferência entre células, de seguida o sistema é melhorado através do desenvolvimento de vários esquemas de alocação de potência. São propostas três esquemas de alocação de potência centralizada condicionada a cada estação base e com diferentes relações entre desempenho e complexidade. São também derivados esquemas de alocação distribuídos, assumindo que um sistema multicelular pode ser visto como a sobreposição de vários sistemas com uma única célula. Com base neste conceito foi definido uma taxa de erro média virtual para cada um desses sistemas de célula única que compõem o sistema multicelular, permitindo assim projectar esquemas de alocação de potência completamente distribuídos. Todos os esquemas propostos foram avaliados em cenários realistas, bastante próximos dos considerados no LTE. Os resultados mostram que os esquemas propostos são eficientes a remover a interferência entre células e que o desempenho das técnicas de alocação de potência propostas é claramente superior ao caso de não alocação de potência. O desempenho dos sistemas completamente distribuídos é inferior aos baseados num processamento centralizado, mas em contrapartida podem ser usados em sistemas em que a rede de suporte não permita a troca de grandes quantidades de informação.
Resumo:
A optimização estrutural é uma temática antiga em engenharia. No entanto, com o crescimento do método dos elementos finitos em décadas recentes, dá origem a um crescente número de aplicações. A optimização topológica, especificamente, surge associada a uma fase de definição de domínio efectivo de um processo global de optimização estrutural. Com base neste tipo de optimização, é possível obter a distribuição óptima de material para diversas aplicações e solicitações. Os materiais compósitos e alguns materiais celulares, em particular, encontram-se entre os materiais mais proeminentes dos nossos dias, em termos das suas aplicações e de investigação e desenvolvimento. No entanto, a sua estrutura potencialmente complexa e natureza heterogénea acarretam grandes complexidades, tanto ao nível da previsão das suas propriedades constitutivas quanto na obtenção das distribuições óptimas de constituintes. Procedimentos de homogeneização podem fornecer algumas respostas em ambos os casos. Em particular, a homogeneização por expansão assimptótica pode ser utilizada para determinar propriedades termomecânicas efectivas e globais a partir de volumes representativos, de forma flexível e independente da distribuição de constituintes. Além disso, integra processos de localização e fornece informação detalhada acerca de sensibilidades locais em metodologias de optimização multiescala. A conjugação destas áreas pode conduzir a metodologias de optimização topológica multiescala, nas quais de procede à obtenção não só de estruturas óptimas mas também das distribuições ideais de materiais constituintes. Os problemas associados a estas abordagens tendem, no entanto, a exigir recursos computacionais assinaláveis, criando muitas vezes sérias limitações à exequibilidade da sua resolução. Neste sentido, técnicas de cálculo paralelo e distribuído apresentam-se como uma potencial solução. Ao dividir os problemas por diferentes unidades memória e de processamento, é possível abordar problemas que, de outra forma, seriam proibitivos. O principal foco deste trabalho centra-se na importância do desenvolvimento de procedimentos computacionais para as aplicações referidas. Adicionalmente, estas conduzem a diversas abordagens alternativas na procura simultânea de estruturas e materiais para responder a aplicações termomecânicas. Face ao exposto, tudo isto é integrado numa plataforma computacional de optimização multiobjectivo multiescala em termoelasticidade, desenvolvida e implementada ao longo deste trabalho. Adicionalmente, o trabalho é complementado com a montagem e configuração de um cluster do tipo Beowulf, assim como com o desenvolvimento do código com vista ao cálculo paralelo e distribuído.
Resumo:
A Doença de Alzheimer (AD) é a maior doença neurodegenerativa a nível mundial, e a principal causa de demência na população idosa. O processamento da proteína precursora de amilóide (APP) pelas β- e g- secretases origina o peptídeo Aβ, que agrega em oligómeros neurotóxicos e em placas senis. Estes são eventos-chave na patogénese da DA que levam à rutura da neurotransmissão sináptica, morte neuronal e inflamação neuronal do hipocampo e córtex cerebral, causando perda de memória disfunção cognitiva geral. Apesar dos grandes avanços no conhecimento do papel do processamento da APP na DA, a sua função fisiológica ainda não foi totalmente elucidada. Os mapas de interações proteína-proteína (PPI) humanos têm desempenhado um papel importante na investigação biomédica, em particular no estudo de vias de sinalização e de doenças humanas. O método dois-híbrido em levedura (YTH) consiste numa plataforma para a produção rápida de redes de PPI em larga-escala. Neste trabalho foram realizados vários rastreios YTH com o objetivo de identificar proteínas específicas de cérebro humano que interagissem com a APP, ou com o seu domínio intracelular (AICD), tanto o tipo selvagem como com os mutantes Y687F, que mimetizam o estado desfosforilado do resíduo Tyr-687. De facto, a endocitose da APP e a produção de Aβ estão dependentes do estado de fosforilação da Tyr-687. Os rastreios YTH permitiram assim obter de redes proteínas que interagem com a APP, utilizando como “isco” a APP, APPY687F e AICDY687F. Os clones positivos foram isolados e identificados através de sequenciação do cDNA. A maior parte dos clones identificados, 118, correspondia a sequências que codificam para proteínas conhecidas, resultando em 31 proteínas distintas. A análise de proteómica funcional das proteínas identificadas neste estudo e em dois projetos anteriores (AICDY687E, que mimetiza a fosforilação, e AICD tipo selvagem), permitiram avaliar a relevância da fosforilação da Tyr-687. Três clones provenientes do rastreio YTH com a APPY687F foram identificados como um novo transcrito da proteína Fe65, resultante de splicing alternativo, a Fe65E3a (GenBank Accession: EF103274), que codifica para a isoforma p60Fe65. A p60Fe65 está enriquecida no cérebro e os seus níveis aumentam durante a diferenciação neuronal de células PC12, evidenciando o potencial papel que poderá desempenhar na patologia da DA. A RanBP9 é uma proteína nuclear e citoplasmática envolvida em diversas vias de sinalização celulares. Neste trabalho caracterizou-se a nova interação entre a RanBP9 e o AICD, que pode ser regulada pela fosforilação da Tyr-687. Adicionalmente, foi identificada uma nova interação entre a RanBP9 e a acetiltransferase de histonas Tip60. Demonstrou-se ainda que a RanBP9 tem um efeito de regulação inibitório na transcrição mediada por AICD, através da interação com a Tip60, afastando o AICD dos locais de transcrição ativos. O estudo do interactoma da APP/AICD, modelado pela fosforilação da Tyr-687, revela que a APP poderá estar envolvida em novas vias celulares, contribuindo não só para o conhecimento do papel fisiológico da APP, como também auxilia a revelar as vias que levam à agregação de Aβ e neurodegeneração. A potencial relevância deste trabalho relaciona-se com a descoberta de algumas interações proteicas/vias de sinalização que podem que podem ser relevantes para o desenvolvimento de novas estratégias terapêuticas na DA.
Resumo:
O objetivo deste trabalho foi efetuar um estudo de otimização dos parâmetros de exposição do mamógrafo digital da marca GE, modelo Senographe DS instalado no Instituto Português de Oncologia de Coimbra (IPOC) baseado numa análise contraste detalhe e avaliar o impacto do resultado obtido na melhoria da capacidade de detecção clínica das estruturas da mama. O mamógrafo em estudo dispõe de um sistema de controle automático da exposição designado por sistema AOP (Automatic Optimization of Parameters) que foi otimizado pelo fabricante a partir da razão contraste ruído. O sistema AOP é usado na prática clínica na quase totalidade dos exames de mamografia realizados no IPOC. Tendo em conta o tipo de estrutura que se pretende visualizar na mamografia, nomeadamente estruturas de baixo contraste como as massas e estruturas de dimensão submilimétrica como as microcalcificações, a análise contraste detalhe poderia constituir uma abordagem mais adequada para o estudo de otimização dos parâmetros de exposição uma vez que permitiria uma avaliação conjunta do contraste, da resolução espacial e do ruído da imagem. Numa primeira fase do trabalho foi efetuada a caracterização da prática clínica realizada no mamógrafo em estudo em termos de espessura de mama comprimida “típica”, dos parâmetros técnicos de exposição e das opções de processamento das imagens aplicadas pelo sistema AOP (combinação alvo/filtro, tensão aplicada na ampola - kVp e produto corrente-tempo da ampola - mAs). Numa segunda fase foi realizado um estudo de otimização da qualidade da imagem versus dose na perspectiva dos parâmetros físicos. Para tal foi efetuada uma análise contrastedetalhe no objeto simulador de mama CDMAM e usada uma figura de mérito definida a partir do IQFinv (inverted image quality figure) e da dose glandular média. Os resultados apontaram para uma diferença entre o ponto ótimo resultante do estudo de otimização e o ponto associado aos parâmetros de exposição escolhidos pelo sistema AOP, designadamente no caso da mama pequena. Sendo a qualidade da imagem na perspectiva clínica um conceito mais complexo cujo resultado da apreciação de uma imagem de boa qualidade deve ter em conta as diferenças entre observadores, foi efetuado na última parte deste trabalho um estudo do impacto clínico da proposta de otimização da qualidade de imagem. A partir das imagens realizadas com o objeto simulador antropomórfico TOR MAM simulando uma mama pequena, seis médicos(as) radiologistas com mais de 5 anos de experiência em mamografia avaliaram as imagens “otimizadas” obtidas utilizando-se os parâmetros técnicos de exposição resultantes do estudo de otimização e a imagem resultante da escolha do sistema AOP. A análise estatística das avaliações feitas pelos médicos indica que a imagem “otimizada” da mama pequena apresenta uma melhor visualização das microcalcificações sem perda da qualidade da imagem na deteção de fibras e de massas em comparação com a imagem “standard”. Este trabalho permitiu introduzir uma nova definição da figura de mérito para o estudo de otimização da qualidade da imagem versus dose em mamografia. Permitiu também estabelecer uma metodologia consistente que pode facilmente ser aplicada a qualquer outro mamógrafo, contribuindo para a área da otimização em mamografia digital que é uma das áreas mais relevantes no que toca à proteção radiológica do paciente.
Resumo:
Nos últimos anos, as tecnologias que dão suporte à robótica avançaram expressivamente. É possível encontrar robôs de serviço nos mais variados campos. O próximo passo é o desenvolvimento de robôs inteligentes, com capacidade de comunicação em linguagem falada e de realizar trabalhos úteis em interação/cooperação com humanos. Torna-se necessário, então, encontrar um modo de interagir eficientemente com esses robôs, e com agentes inteligentes de maneira geral, que permita a transmissão de conhecimento em ambos os sentidos. Partiremos da hipótese de que é possível desenvolver um sistema de diálogo baseado em linguagem natural falada que resolva esse problema. Assim, o objetivo principal deste trabalho é a definição, implementação e avaliação de um sistema de diálogo utilizável na interação baseada em linguagem natural falada entre humanos e agentes inteligentes. Ao longo deste texto, mostraremos os principais aspectos da comunicação por linguagem falada, tanto entre os humanos, como também entre humanos e máquinas. Apresentaremos as principais categorias de sistemas de diálogo, com exemplos de alguns sistemas implementados, assim como ferramentas para desenvolvimento e algumas técnicas de avaliação. A seguir, entre outros aspectos, desenvolveremos os seguintes: a evolução levada a efeito na arquitetura computacional do Carl, robô utilizado neste trabalho; o módulo de aquisição e gestão de conhecimento, desenvolvido para dar suporte à interação; e o novo gestor de diálogo, baseado na abordagem de “Estado da Informação”, também concebido e implementado no âmbito desta tese. Por fim, uma avaliação experimental envolvendo a realização de diversas tarefas de interação com vários participantes voluntários demonstrou ser possível interagir com o robô e realizar as tarefas solicitadas. Este trabalho experimental incluiu avaliação parcial de funcionalidades, avaliação global do sistema de diálogo e avaliação de usabilidade.
Resumo:
Este trabalho investiga novas metodologias para as redes óticas de acesso de próxima geração (NG-OAN). O trabalho está dividido em quatro tópicos de investigação: projeto da rede, modelos numéricos para efeitos não lineares da fibra ótica, impacto dos efeitos não lineares da fibra ótica e otimização da rede. A rede ótica de acesso investigada nesse trabalho está projetado para suprir os requisitos de densidade de utilizadores e cobertura, isto é, suportar muitos utilizadores ( 1000) com altas velocidades de conexão dedicada ( 1 Gb/s) ocupando uma faixa estreita do espectro ( 25 nm) e comprimentos de fibra ótica até 100 km. Os cenários são baseados em redes óticas passivas com multiplexagem por divisão no comprimento de onda de alta densidade (UDWDM-PON) utilizando transmissores/receptores coerentes nos terminais da rede. A rede é avaliada para vários ritmos de transmissão usando formatos de modulação avançados, requisitos de largura de banda por utilizador e partilha de banda com tecnologias tradicionais de redes óticas passivas (PON). Modelos numéricos baseados em funções de transferência das séries de Volterra (VSTF) são demonstrados tanto para a análise dos efeitos não lineares da fibra ótica quanto para avaliação do desempenho total da rede. São apresentadas as faixas de potência e distância de transmissão nas quais as séries de Volterra apresentam resultados semelhantes ao modelo referência Split-Step Fourier (SSF) (validado experimentalmente) para o desempenho total da rede. Além disso, um algoritmo, que evita componentes espectrais com intensidade nulo, é proposto para realizar cálculos rápidos das séries. O modelo VSTF é estendido para identificar unicamente os efeitos não lineares da fibra ótica mais relevantes no cenário investigado: Self-Phase Modulation (SPM), Cross-Phase Modulation (XPM) e Four-Wave Mixing (FWM). Simulações numéricas são apresentadas para identificar o impacto isolado de cada efeito não linear da fibra ótica, SPM, XPM e FWM, no desempenho da rede com detecção coerente UDWDM-PON, transportando canais com modulação digital em fase (M-ária PSK) ou modulação digital em amplitude (M-ária QAM). A análise numérica é estendida para diferentes comprimentos de fibra ótica mono modo (SSMF), potência por canal e ritmo de transmissão por canal. Por conseguinte, expressões analíticas são extrapoladas para determinar a evolução do SPM, XPM e FWM em função da potência e distância de transmissão em cenários NG-OAN. O desempenho da rede é otimizada através da minimização parcial da interferência FWM (via espaçamento desigual dos canais), que nesse caso, é o efeito não linear da fibra ótica mais relevante. Direções para melhorias adicionas no desempenho da rede são apresentados para cenários em que o XPM é relevante, isto é, redes transportando formatos de modulação QAM. A solução, nesse caso, é baseada na utilização de técnicas de processamento digital do sinal.
Resumo:
Durante as ultimas décadas, os registos de saúde eletrónicos (EHR) têm evoluído para se adaptar a novos requisitos. O cidadão tem-se envolvido cada vez mais na prestação dos cuidados médicos, sendo mais pró ativo e desejando potenciar a utilização do seu registo. A mobilidade do cidadão trouxe mais desafios, a existência de dados dispersos, heterogeneidade de sistemas e formatos e grande dificuldade de partilha e comunicação entre os prestadores de serviços. Para responder a estes requisitos, diversas soluções apareceram, maioritariamente baseadas em acordos entre instituições, regiões e países. Estas abordagens são usualmente assentes em cenários federativos muito complexos e fora do controlo do paciente. Abordagens mais recentes, como os registos pessoais de saúde (PHR), permitem o controlo do paciente, mas levantam duvidas da integridade clinica da informação aos profissionais clínicos. Neste cenário os dados saem de redes e sistemas controlados, aumentando o risco de segurança da informação. Assim sendo, são necessárias novas soluções que permitam uma colaboração confiável entre os diversos atores e sistemas. Esta tese apresenta uma solução que permite a colaboração aberta e segura entre todos os atores envolvidos nos cuidados de saúde. Baseia-se numa arquitetura orientada ao serviço, que lida com a informação clínica usando o conceito de envelope fechado. Foi modelada recorrendo aos princípios de funcionalidade e privilégios mínimos, com o propósito de fornecer proteção dos dados durante a transmissão, processamento e armazenamento. O controlo de acesso _e estabelecido por políticas definidas pelo paciente. Cartões de identificação eletrónicos, ou certificados similares são utilizados para a autenticação, permitindo uma inscrição automática. Todos os componentes requerem autenticação mútua e fazem uso de algoritmos de cifragem para garantir a privacidade dos dados. Apresenta-se também um modelo de ameaça para a arquitetura, por forma a analisar se as ameaças possíveis foram mitigadas ou se são necessários mais refinamentos. A solução proposta resolve o problema da mobilidade do paciente e a dispersão de dados, capacitando o cidadão a gerir e a colaborar na criação e manutenção da sua informação de saúde. A arquitetura permite uma colaboração aberta e segura, possibilitando que o paciente tenha registos mais ricos, atualizados e permitindo o surgimento de novas formas de criar e usar informação clínica ou complementar.
Resumo:
Esta tese apresenta algoritmos que estimam o espetro de um sinal não periódico a partir de um numero finito de amostras, tirando partido da esparsidade do sinal no domínio da frequência. Trata-se de um problema em que devido aos efeitos de leakage, o sucesso dos algoritmos tradicionais esta limitado. Para ultrapassar o problema, os algoritmos propostos transformam a base DFT numa frame com um maior numero de colunas, inserindo um numero reduzido de colunas entre algumas das iniciais. Estes algoritmos são baseados na teoria do compressed sensing, que permite obter e representar sinais esparsos e compressíveis, utilizando uma taxa de amostragem muito inferior à taxa de Nyquist. Os algoritmos propostos apresentam um bom desempenho em comparação com os algoritmos existentes, destacando-se na estimação do espetro de sinais compostos por sinusóides com frequências muito próximas, com amplitudes diferentes e na presença de ruído, situação particularmente difícil e perante a qual os restantes algoritmos falham.
Resumo:
Vitis vinifera L., the most widely cultivated fruit crop in the world, was the starting point for the development of this PhD thesis. This subject was exploited following on two actual trends: i) the development of rapid, simple, and high sensitive methodologies with minimal sample handling; and ii) the valuation of natural products as a source of compounds with potential health benefits. The target group of compounds under study were the volatile terpenoids (mono and sesquiterpenoids) and C13 norisoprenoids, since they may present biological impact, either from the sensorial point of view, as regards to the wine aroma, or by the beneficial properties for the human health. Two novel methodologies for quantification of C13 norisoprenoids in wines were developed. The first methodology, a rapid method, was based on the headspace solid-phase microextraction combined with gas chromatography-quadrupole mass spectrometry operating at selected ion monitoring mode (HS-SPME/GC-qMS-SIM), using GC conditions that allowed obtaining a C13 norisoprenoid volatile signature. It does not require any pre-treatment of the sample, and the C13 norisoprenoid composition of the wine was evaluated based on the chromatographic profile and specific m/z fragments, without complete chromatographic separation of its components. The second methodology, used as reference method, was based on the HS-SPME/GC-qMS-SIM, allowing the GC conditions for an adequate chromatographic resolution of wine components. For quantification purposes, external calibration curves were constructed with β-ionone, with regression coefficient (r2) of 0.9968 (RSD 12.51 %) and 0.9940 (RSD of 1.08 %) for the rapid method and for the reference method, respectively. Low detection limits (1.57 and 1.10 μg L-1) were observed. These methodologies were applied to seventeen white and red table wines. Two vitispirane isomers (158-1529 L-1) and 1,1,6-trimethyl-1,2-dihydronaphthalene (TDN) (6.42-39.45 μg L-1) were quantified. The data obtained for vitispirane isomers and TDN using the two methods were highly correlated (r2 of 0.9756 and 0.9630, respectively). A rapid methodology for the establishment of the varietal volatile profile of Vitis vinifera L. cv. 'Fernão-Pires' (FP) white wines by headspace solid-phase microextraction combined with comprehensive two-dimensional gas chromatography with time-of-flight mass spectrometry (HS-SPME/GCxGC-TOFMS) was developed. Monovarietal wines from different harvests, Appellations, and producers were analysed. The study was focused on the volatiles that seem to be significant to the varietal character, such as mono and sesquiterpenic compounds, and C13 norisoprenoids. Two-dimensional chromatographic spaces containing the varietal compounds using the m/z fragments 93, 121, 161, 175 and 204 were established as follows: 1tR = 255-575 s, 2tR = 0,424-1,840 s, for monoterpenoids, 1tR = 555-685 s, 2tR = 0,528-0,856 s, for C13 norisoprenoids, and 1tR = 695-950 s, 2tR = 0,520-0,960 s, for sesquiterpenic compounds. For the three chemical groups under study, from a total of 170 compounds, 45 were determined in all wines, allowing defining the "varietal volatile profile" of FP wine. Among these compounds, 15 were detected for the first time in FP wines. This study proposes a HS-SPME/GCxGC-TOFMS based methodology combined with classification-reference sample to be used for rapid assessment of varietal volatile profile of wines. This approach is very useful to eliminate the majority of the non-terpenic and non-C13 norisoprenic compounds, allowing the definition of a two-dimensional chromatographic space containing these compounds, simplifying the data compared to the original data, and reducing the time of analysis. The presence of sesquiterpenic compounds in Vitis vinifera L. related products, to which are assigned several biological properties, prompted us to investigate the antioxidant, antiproliferative and hepatoprotective activities of some sesquiterpenic compounds. Firstly, the antiradical capacity of trans,trans-farnesol, cis-nerolidol, α-humulene and guaiazulene was evaluated using chemical (DPPH• and hydroxyl radicals) and biological (Caco-2 cells) models. Guaiazulene (IC50= 0.73 mM) was the sesquiterpene with higher scavenger capacity against DPPH•, while trans,trans-farnesol (IC50= 1.81 mM) and cis-nerolidol (IC50= 1.48 mM) were more active towards hydroxyl radicals. All compounds, with the exception of α-humulene, at non-cytotoxic levels (≤ 1 mM), were able to protect Caco-2 cells from oxidative stress induced by tert-butyl hydroperoxide. The activity of the compounds under study was also evaluated as antiproliferative agents. Guaiazulene and cis-nerolidol were able to more effectively arrest the cell cycle in the S-phase than trans,trans-farnesol and α-humulene, being the last almost inactive. The relative hepatoprotection effect of fifteen sesquiterpenic compounds, presenting different chemical structures and commonly found in plants and plant-derived foods and beverages, was assessed. Endogenous lipid peroxidation and induced lipid peroxidation with tert-butyl hydroperoxide were evaluated in liver homogenates from Wistar rats. With the exception of α-humulene, all the sesquiterpenic compounds under study (1 mM) were effective in reducing the malonaldehyde levels in both endogenous and induced lipid peroxidation up to 35% and 70%, respectively. The developed 3D-QSAR models, relating the hepatoprotection activity with molecular properties, showed good fit (R2LOO > 0.819) with good prediction power (Q2 > 0.950 and SDEP < 2%) for both models. A network of effects associated with structural and chemical features of sesquiterpenic compounds such as shape, branching, symmetry, and presence of electronegative fragments, can modulate the hepatoprotective activity observed for these compounds. In conclusion, this study allowed the development of rapid and in-depth methods for the assessment of varietal volatile compounds that might have a positive impact on sensorial and health attributes related to Vitis vinifera L. These approaches can be extended to the analysis of other related food matrices, including grapes and musts, among others. In addition, the results of in vitro assays open a perspective for the promising use of the sesquiterpenic compounds, with similar chemical structures such as those studied in the present work, as antioxidants, hepatoprotective and antiproliferative agents, which meets the current challenges related to diseases of modern civilization.
Resumo:
Este trabalho teve como principal objetivo estudar e modificar as propriedades funcionais das proteínas de soja de forma a otimizar e diversificar a sua aplicação industrial. Para tal, foram propostas e estudadas quatro estratégias: i) extração do isolado de proteínas de soja (IPS) a partir de diferentes matérias-primas, ii) adição de galactomananas (GM) com graus de ramificação e massas moleculares diferentes, iii) hidrólise enzimática controlada das proteínas de soja, iv) processamento por alta pressão hidrostática. O estudo e a interpretação da influência destas estratégias sobre as propriedades funcionais das proteínas de soja, nomeadamente, na capacidade gelificante e emulsionante, foram realizados recorrendo fundamentalmente a ensaios reológicos dinâmicos a baixas deformação, espectroscopia de infravermelho, electroforeses, calorimetria diferencial de varrimento e ensaios de microscopia confocal de varrimento laser. O estudo da extração e caracterização dos isolados de proteínas de soja obtidos a partir de diferentes matérias-primas permitiu concluir que as caraterísticas físico-químicas dos isolados são dependentes da origem da matéria-prima de extração e da severidade dos tratamentos industriais prévios à extração do isolado. Contudo, as propriedades viscoelásticas dos géis obtidos por aquecimento controlado não foram significativamente distintas embora tenha sido possível relacionar o grau de agregação com a diminuição da temperatura de gelificação e com o aumento inicial dos módulos viscoelásticos. As alterações sofridas pelos isolados de origem comercial mostraram ser irreversíveis resultando em géis menos rígidos e com maior caráter viscoso. A adição de galactomanana alterou significativamente o mecanismo de gelificação induzido termicamente das proteínas de soja, bem como as propriedades viscoelásticas dos géis e a microestrutura dos géis, demonstrando-se a ocorrência de separação de fases, em virtude da incompatibilidade termodinâmica entre os biopolímeros, resultando em géis mais rígidos e no decréscimo da temperatura de gelificação. A extensão destas alterações foi dependente da massa molecular, grau de ramificação e da razão IPS/GM. O efeito da hidrólise enzimática por ação da bromelina, nas propriedades gelificantes e emulsionantes das proteínas de soja, mostrou ser dependente do grau de hidrólise (GH). Valores de GH inferiores a 15 % melhoraram as propriedades gelificantes das proteínas de soja. Por outro lado, o aumento do GH teve um efeito negativo nas propriedades emulsionantes, o qual foi atenuado por adição da goma de alfarroba, com efeito positivo na gelificação das proteínas de soja. A concentração crítica limite de compatibilidade entre os hidrolisados de proteína de soja e a goma de alfarroba aumentou com o decréscimo do GH e da massa molecular do polissacacrídeo. O efeito da AP sobre as propriedades físico-químicas e funcionais dos IPS foi influenciado pela origem do isolado e pelas condições de tratamento. O processamento até 100 MPa desencadeou um aumento da atividade emulsionante e considerável melhoria da capacidade gelificante. Contudo, valores de pressão superiores promoveram a desnaturação das proteínas constituintes dos isolados, resultando no decréscimo da temperatura de gelificação e numa re-associação das subunidades proteicas, diminuindo a elasticidade dos géis finais. Os resultados sugeriram que as alterações nas proteínas de soja promovidas durante o tratamento por AP constituem um fator limitante para o desdobramento e re-associação durante o aquecimento térmico, necessários para a formação e fortalecimento de gel formado. O processamento por AP influenciou a estrutura secundária e a microestrutura das amostras. A presença de GA teve um papel baroprotetor. Assim, com este trabalho demonstrou-se que com as estratégias seguidas para manipulação das propriedades funcionais de proteínas de soja, nomeadamente através da adição de um polissacarídeo com propriedades estruturais controladas, da adequada combinação da adição de um polissacarídeo neutro com a hidrólise controlada das proteínas ou com tratamento por alta pressão, é possível a criação de novas funcionalidades, com utilidade no desenvolvimento de novas formulações alimentares, permitindo expandir a aplicação destas proteínas vegetais.
Resumo:
Ao longo das últimas décadas, a micromoldação (u-moldação) por injeção de termoplásticos ganhou um lugar de destaque no mercado de equipamentos eletrónicos e de uma ampla gama de componentes mecânicos. No entanto, quando o tamanho do componente diminui, os pressupostos geralmente aceites na moldação por injeção convencional deixam de ser válidos para descrever o comportamento reológico e termomecânico do polímero na microimpressão. Por isso, a compreensão do comportamento dinâmico do polímero à escala micro bem como da sua caraterização, análise e previsão das propriedades mecânicas exige uma investigação mais alargada. O objetivo principal deste programa doutoral passa por uma melhor compreensão do fenómeno físico intrínseco ao processo da μ-moldação por injeção. Para cumprir com o objetivo estabelecido, foi efetuado um estudo paramétrico do processo de μ-moldação por injeção, cujos resultados foram comparados com os resultados obtidos por simulação numérica. A caracterização dinâmica mecânica das μ-peças foi efetuada com o objetivo de recolher os dados necessários para a previsão do desempenho mecânico das mesmas, a longo prazo. Finalmente, depois da calibração do modelo matemático do polímero, foram realizadas análises estruturais com o intuito de prever o desempenho mecânico das μ-peças no longo prazo. Verificou-se que o desempenho mecânico das μ-peças pode ser significativamente afetado pelas tensões residuais de origem mecânica e térmica. Estas últimas, resultantes do processo de fabrico e das condições de processamento, por isso, devem ser consideradas na previsão do desempenho mecânico e do tempo de serviço das u-moldações.
Resumo:
Nos últimos anos, a Optoelectrónica tem sido estabelecida como um campo de investigação capaz de conduzir a novas soluções tecnológicas. As conquistas abundantes no campo da óptica e lasers, bem como em comunicações ópticas têm sido de grande importância e desencadearam uma série de inovações. Entre o grande número de componentes ópticos existentes, os componentes baseados em fibra óptica são principalmente relevantes devido à sua simplicidade e à elevada de transporte de dados da fibra óptica. Neste trabalho foi focado um destes componentes ópticos: as redes de difracção em fibra óptica, as quais têm propriedades ópticas de processamento únicas. Esta classe de componentes ópticos é extremamente atraente para o desenvolvimento de dispositivos de comunicações ópticas e sensores. O trabalho começou com uma análise teórica aplicada a redes em fibra e foram focados os métodos de fabricação de redes em fibra mais utilizados. A inscrição de redes em fibra também foi abordado neste trabalho, onde um sistema de inscrição automatizada foi implementada para a fibra óptica de sílica, e os resultados experimentais mostraram uma boa aproximação ao estudo de simulação. Também foi desenvolvido um sistema de inscrição de redes de Bragg em fibra óptica de plástico. Foi apresentado um estudo detalhado da modulação acústico-óptica em redes em fibra óptica de sílica e de plástico. Por meio de uma análise detalhada dos modos de excitação mecânica aplicadas ao modulador acústico-óptico, destacou-se que dois modos predominantes de excitação acústica pode ser estabelecidos na fibra óptica, dependendo da frequência acústica aplicada. Através dessa caracterização, foi possível desenvolver novas aplicações para comunicações ópticas. Estudos e implementação de diferentes dispositivos baseados em redes em fibra foram realizados, usando o efeito acústico-óptico e o processo de regeneração em fibra óptica para várias aplicações tais como rápido multiplexador óptico add-drop, atraso de grupo sintonizável de redes de Bragg, redes de Bragg com descolamento de fase sintonizáveis, método para a inscrição de redes de Bragg com perfis complexos, filtro sintonizável para equalização de ganho e filtros ópticos notch ajustáveis.
Resumo:
A Engenharia de Tecidos é um domínio multidisciplinar que combina especialistas de múltiplos domínios, no sentido de se desenvolverem substitutos biológicos para a regeneração, reparação ou restauração de funções de órgãos ou tecidos. A estratégia mais comum em engenharia de tecidos consiste na utilização de matrizes de suporte (scaffolds) tridimensionais, biocompatíveis, biodegradáveis e altamente porosos, os quais servem de substrato físico ao processo de adesão, proliferação e diferenciação celular. O objectivo deste trabalho de investigação centrou-se na produção e caracterização de scaffolds de PCL e de PCL com partículas de biovidro, abordando um processo de biofabricação, que teve por base o princípio da extrusão. Utilizou-se para tal um equipamento patenteado pelo Centro para o Desenvolvimento Rápido e Sustentado do Produto (CDRsp) designado Bioextruder. Trata-se de um sistema concebido para a produção de matrizes com ou sem encapsulamento de células, de uma forma automática, flexível e integrada. As estruturas obtidas caracterizaram-se quanto às propriedades térmicas, químicas, morfológicas e mecânicas. Realizaram-se ainda, testes de bioactividade e testes de degradação in vitro. Os resultados obtidos mostram que as condições de processamento não induzem qualquer alteração no que diz respeito às propriedades térmicas e químicas dos materiais, que o aumento do teor de biovidro conduz a uma fragmentação da matriz polimérica num período de tempo mais curto, que os scaffolds obtidos apresentam uma geometria bem definida e uma distribuição de poros uniforme. Demonstra-se assim, que a combinação da matriz polimérica (PCL) com o biovidro, sob a forma de scaffolds é promissora para aplicações em Engenharia de Tecidos e Medicina Regenerativa.