907 resultados para Suco de laranja - Processamento do FCOJ


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coordenação Multicélula é um tópico de investigação em rápido crescimento e uma solução promissora para controlar a interferência entre células em sistemas celulares, melhorando a equidade do sistema e aumentando a sua capacidade. Esta tecnologia já está em estudo no LTEAdvanced sob o conceito de coordenação multiponto (COMP). Existem várias abordagens sobre coordenação multicélula, dependendo da quantidade e do tipo de informação partilhada pelas estações base, através da rede de suporte (backhaul network), e do local onde essa informação é processada, i.e., numa unidade de processamento central ou de uma forma distribuída em cada estação base. Nesta tese, são propostas técnicas de pré-codificação e alocação de potência considerando várias estratégias: centralizada, todo o processamento é feito na unidade de processamento central; semidistribuída, neste caso apenas parte do processamento é executado na unidade de processamento central, nomeadamente a potência alocada a cada utilizador servido por cada estação base; e distribuída em que o processamento é feito localmente em cada estação base. Os esquemas propostos são projectados em duas fases: primeiro são propostas soluções de pré-codificação para mitigar ou eliminar a interferência entre células, de seguida o sistema é melhorado através do desenvolvimento de vários esquemas de alocação de potência. São propostas três esquemas de alocação de potência centralizada condicionada a cada estação base e com diferentes relações entre desempenho e complexidade. São também derivados esquemas de alocação distribuídos, assumindo que um sistema multicelular pode ser visto como a sobreposição de vários sistemas com uma única célula. Com base neste conceito foi definido uma taxa de erro média virtual para cada um desses sistemas de célula única que compõem o sistema multicelular, permitindo assim projectar esquemas de alocação de potência completamente distribuídos. Todos os esquemas propostos foram avaliados em cenários realistas, bastante próximos dos considerados no LTE. Os resultados mostram que os esquemas propostos são eficientes a remover a interferência entre células e que o desempenho das técnicas de alocação de potência propostas é claramente superior ao caso de não alocação de potência. O desempenho dos sistemas completamente distribuídos é inferior aos baseados num processamento centralizado, mas em contrapartida podem ser usados em sistemas em que a rede de suporte não permita a troca de grandes quantidades de informação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A optimização estrutural é uma temática antiga em engenharia. No entanto, com o crescimento do método dos elementos finitos em décadas recentes, dá origem a um crescente número de aplicações. A optimização topológica, especificamente, surge associada a uma fase de definição de domínio efectivo de um processo global de optimização estrutural. Com base neste tipo de optimização, é possível obter a distribuição óptima de material para diversas aplicações e solicitações. Os materiais compósitos e alguns materiais celulares, em particular, encontram-se entre os materiais mais proeminentes dos nossos dias, em termos das suas aplicações e de investigação e desenvolvimento. No entanto, a sua estrutura potencialmente complexa e natureza heterogénea acarretam grandes complexidades, tanto ao nível da previsão das suas propriedades constitutivas quanto na obtenção das distribuições óptimas de constituintes. Procedimentos de homogeneização podem fornecer algumas respostas em ambos os casos. Em particular, a homogeneização por expansão assimptótica pode ser utilizada para determinar propriedades termomecânicas efectivas e globais a partir de volumes representativos, de forma flexível e independente da distribuição de constituintes. Além disso, integra processos de localização e fornece informação detalhada acerca de sensibilidades locais em metodologias de optimização multiescala. A conjugação destas áreas pode conduzir a metodologias de optimização topológica multiescala, nas quais de procede à obtenção não só de estruturas óptimas mas também das distribuições ideais de materiais constituintes. Os problemas associados a estas abordagens tendem, no entanto, a exigir recursos computacionais assinaláveis, criando muitas vezes sérias limitações à exequibilidade da sua resolução. Neste sentido, técnicas de cálculo paralelo e distribuído apresentam-se como uma potencial solução. Ao dividir os problemas por diferentes unidades memória e de processamento, é possível abordar problemas que, de outra forma, seriam proibitivos. O principal foco deste trabalho centra-se na importância do desenvolvimento de procedimentos computacionais para as aplicações referidas. Adicionalmente, estas conduzem a diversas abordagens alternativas na procura simultânea de estruturas e materiais para responder a aplicações termomecânicas. Face ao exposto, tudo isto é integrado numa plataforma computacional de optimização multiobjectivo multiescala em termoelasticidade, desenvolvida e implementada ao longo deste trabalho. Adicionalmente, o trabalho é complementado com a montagem e configuração de um cluster do tipo Beowulf, assim como com o desenvolvimento do código com vista ao cálculo paralelo e distribuído.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Doença de Alzheimer (AD) é a maior doença neurodegenerativa a nível mundial, e a principal causa de demência na população idosa. O processamento da proteína precursora de amilóide (APP) pelas β- e g- secretases origina o peptídeo Aβ, que agrega em oligómeros neurotóxicos e em placas senis. Estes são eventos-chave na patogénese da DA que levam à rutura da neurotransmissão sináptica, morte neuronal e inflamação neuronal do hipocampo e córtex cerebral, causando perda de memória disfunção cognitiva geral. Apesar dos grandes avanços no conhecimento do papel do processamento da APP na DA, a sua função fisiológica ainda não foi totalmente elucidada. Os mapas de interações proteína-proteína (PPI) humanos têm desempenhado um papel importante na investigação biomédica, em particular no estudo de vias de sinalização e de doenças humanas. O método dois-híbrido em levedura (YTH) consiste numa plataforma para a produção rápida de redes de PPI em larga-escala. Neste trabalho foram realizados vários rastreios YTH com o objetivo de identificar proteínas específicas de cérebro humano que interagissem com a APP, ou com o seu domínio intracelular (AICD), tanto o tipo selvagem como com os mutantes Y687F, que mimetizam o estado desfosforilado do resíduo Tyr-687. De facto, a endocitose da APP e a produção de Aβ estão dependentes do estado de fosforilação da Tyr-687. Os rastreios YTH permitiram assim obter de redes proteínas que interagem com a APP, utilizando como “isco” a APP, APPY687F e AICDY687F. Os clones positivos foram isolados e identificados através de sequenciação do cDNA. A maior parte dos clones identificados, 118, correspondia a sequências que codificam para proteínas conhecidas, resultando em 31 proteínas distintas. A análise de proteómica funcional das proteínas identificadas neste estudo e em dois projetos anteriores (AICDY687E, que mimetiza a fosforilação, e AICD tipo selvagem), permitiram avaliar a relevância da fosforilação da Tyr-687. Três clones provenientes do rastreio YTH com a APPY687F foram identificados como um novo transcrito da proteína Fe65, resultante de splicing alternativo, a Fe65E3a (GenBank Accession: EF103274), que codifica para a isoforma p60Fe65. A p60Fe65 está enriquecida no cérebro e os seus níveis aumentam durante a diferenciação neuronal de células PC12, evidenciando o potencial papel que podedesempenhar na patologia da DA. A RanBP9 é uma proteína nuclear e citoplasmática envolvida em diversas vias de sinalização celulares. Neste trabalho caracterizou-se a nova interação entre a RanBP9 e o AICD, que pode ser regulada pela fosforilação da Tyr-687. Adicionalmente, foi identificada uma nova interação entre a RanBP9 e a acetiltransferase de histonas Tip60. Demonstrou-se ainda que a RanBP9 tem um efeito de regulação inibitório na transcrição mediada por AICD, através da interação com a Tip60, afastando o AICD dos locais de transcrição ativos. O estudo do interactoma da APP/AICD, modelado pela fosforilação da Tyr-687, revela que a APP poderá estar envolvida em novas vias celulares, contribuindo não só para o conhecimento do papel fisiológico da APP, como também auxilia a revelar as vias que levam à agregação de Aβ e neurodegeneração. A potencial relevância deste trabalho relaciona-se com a descoberta de algumas interações proteicas/vias de sinalização que podem que podem ser relevantes para o desenvolvimento de novas estratégias terapêuticas na DA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi efetuar um estudo de otimização dos parâmetros de exposição do mamógrafo digital da marca GE, modelo Senographe DS instalado no Instituto Português de Oncologia de Coimbra (IPOC) baseado numa análise contraste detalhe e avaliar o impacto do resultado obtido na melhoria da capacidade de detecção clínica das estruturas da mama. O mamógrafo em estudo dispõe de um sistema de controle automático da exposição designado por sistema AOP (Automatic Optimization of Parameters) que foi otimizado pelo fabricante a partir da razão contraste ruído. O sistema AOP é usado na prática clínica na quase totalidade dos exames de mamografia realizados no IPOC. Tendo em conta o tipo de estrutura que se pretende visualizar na mamografia, nomeadamente estruturas de baixo contraste como as massas e estruturas de dimensão submilimétrica como as microcalcificações, a análise contraste detalhe poderia constituir uma abordagem mais adequada para o estudo de otimização dos parâmetros de exposição uma vez que permitiria uma avaliação conjunta do contraste, da resolução espacial e do ruído da imagem. Numa primeira fase do trabalho foi efetuada a caracterização da prática clínica realizada no mamógrafo em estudo em termos de espessura de mama comprimida “típica”, dos parâmetros técnicos de exposição e das opções de processamento das imagens aplicadas pelo sistema AOP (combinação alvo/filtro, tensão aplicada na ampola - kVp e produto corrente-tempo da ampola - mAs). Numa segunda fase foi realizado um estudo de otimização da qualidade da imagem versus dose na perspectiva dos parâmetros físicos. Para tal foi efetuada uma análise contrastedetalhe no objeto simulador de mama CDMAM e usada uma figura de mérito definida a partir do IQFinv (inverted image quality figure) e da dose glandular média. Os resultados apontaram para uma diferença entre o ponto ótimo resultante do estudo de otimização e o ponto associado aos parâmetros de exposição escolhidos pelo sistema AOP, designadamente no caso da mama pequena. Sendo a qualidade da imagem na perspectiva clínica um conceito mais complexo cujo resultado da apreciação de uma imagem de boa qualidade deve ter em conta as diferenças entre observadores, foi efetuado na última parte deste trabalho um estudo do impacto clínico da proposta de otimização da qualidade de imagem. A partir das imagens realizadas com o objeto simulador antropomórfico TOR MAM simulando uma mama pequena, seis médicos(as) radiologistas com mais de 5 anos de experiência em mamografia avaliaram as imagens “otimizadas” obtidas utilizando-se os parâmetros técnicos de exposição resultantes do estudo de otimização e a imagem resultante da escolha do sistema AOP. A análise estatística das avaliações feitas pelos médicos indica que a imagem “otimizada” da mama pequena apresenta uma melhor visualização das microcalcificações sem perda da qualidade da imagem na deteção de fibras e de massas em comparação com a imagem “standard”. Este trabalho permitiu introduzir uma nova definição da figura de mérito para o estudo de otimização da qualidade da imagem versus dose em mamografia. Permitiu também estabelecer uma metodologia consistente que pode facilmente ser aplicada a qualquer outro mamógrafo, contribuindo para a área da otimização em mamografia digital que é uma das áreas mais relevantes no que toca à proteção radiológica do paciente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos, as tecnologias que dão suporte à robótica avançaram expressivamente. É possível encontrar robôs de serviço nos mais variados campos. O próximo passo é o desenvolvimento de robôs inteligentes, com capacidade de comunicação em linguagem falada e de realizar trabalhos úteis em interação/cooperação com humanos. Torna-se necessário, então, encontrar um modo de interagir eficientemente com esses robôs, e com agentes inteligentes de maneira geral, que permita a transmissão de conhecimento em ambos os sentidos. Partiremos da hipótese de que é possível desenvolver um sistema de diálogo baseado em linguagem natural falada que resolva esse problema. Assim, o objetivo principal deste trabalho é a definição, implementação e avaliação de um sistema de diálogo utilizável na interação baseada em linguagem natural falada entre humanos e agentes inteligentes. Ao longo deste texto, mostraremos os principais aspectos da comunicação por linguagem falada, tanto entre os humanos, como também entre humanos e máquinas. Apresentaremos as principais categorias de sistemas de diálogo, com exemplos de alguns sistemas implementados, assim como ferramentas para desenvolvimento e algumas técnicas de avaliação. A seguir, entre outros aspectos, desenvolveremos os seguintes: a evolução levada a efeito na arquitetura computacional do Carl, robô utilizado neste trabalho; o módulo de aquisição e gestão de conhecimento, desenvolvido para dar suporte à interação; e o novo gestor de diálogo, baseado na abordagem de “Estado da Informação”, também concebido e implementado no âmbito desta tese. Por fim, uma avaliação experimental envolvendo a realização de diversas tarefas de interação com vários participantes voluntários demonstrou ser possível interagir com o robô e realizar as tarefas solicitadas. Este trabalho experimental incluiu avaliação parcial de funcionalidades, avaliação global do sistema de diálogo e avaliação de usabilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese teve como objectivo estudar estratégias de conservação de pescado fresco, recorrendo ao uso de extractos e óleos essenciais de plantas e do processamento por alta pressão (HPP), usando filetes de robalo como um caso de estudo modelo. Relativamente aos extractos e óleos essenciais, avaliaram-se as suas propriedades antibacterianas e antioxidantes. Os extractos aquosos quente de poejo e de orégão e o óleo essencial de cravinho apresentaram a maior actividade antioxidante. Os óleos essenciais foram mais eficientes do que os extractos para inibir o crescimento das estirpes bacterianas testadas, tendo-se observado os menores valores de concentração mínima inibitória nos óleos essenciais de orégão, citronela, alho e orégão Espanhol. De seguida, estudou-se o efeito dos óleos essenciais de orégão Espanhol e de limão na conservação de filetes de robalo fresco tendo em conta critérios microbiológicos, químicos, físicos e sensoriais. A aplicação do óleo essencial de orégão Espanhol aumentou o tempo de vida útil dos filetes sob o ponto de vista bacteriano, mas não em termos sensoriais. A combinação dos óleos essenciais de orégão Espanhol e de limão melhorou o efeito antioxidante e reduziu a intensidade do odor e a sua eficácia em relação às Enterobacteriaceae, comparando com o tratamento com óleo essencial de orégão Espanhol per se. No sentido de reduzir o odor conferido pelos óleos essenciais realizou-se um estudo de conservação para avaliar o efeito de películas com óleos essenciais (citronela, alho e tomilho) em filetes de robalo, recorrendo a uma teste de desafio bacteriano. As películas sem óleos essenciais aumentaram o tempo de vida útil sob o ponto de vista bacteriano, mas este efeito não foi observado com a incorporação dos óleos essenciais nas películas. Em relação ao HPP, testaram-se diversas condições (nível de pressão, tempo de pressurização e taxa de pressurização) e avaliaram-se os efeitos na actividade enzimática, na qualidade global e na conservação de filetes de robalo fresco. Em geral, o aumento do nível de pressão e do tempo de pressurização diminuiu a actividade da fosfatase ácida e das enzimas proteolíticas, a carga bacteriana e a capacidade de retenção de água, enquanto que os filetes ficaram mais brancos. O HPP revelou potencial para o desenvolvimento de novos produtos: mais brancos, não translúcidos, mais firmes e com maior tempo de frescura e estabilidade microbiológica. Em conclusão, os óleos essenciais e o HPP têm potencial para conservar pescado fresco, devido aos seus efeitos na qualidade bacteriana. Ainda assim, mais esforços devem ser feitos no sentido de reduzir a transferência de odor dos óleos essenciais para o pescado e os efeitos do HPP no aspecto do pescado e na oxidação lipídica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho investiga novas metodologias para as redes óticas de acesso de próxima geração (NG-OAN). O trabalho está dividido em quatro tópicos de investigação: projeto da rede, modelos numéricos para efeitos não lineares da fibra ótica, impacto dos efeitos não lineares da fibra ótica e otimização da rede. A rede ótica de acesso investigada nesse trabalho está projetado para suprir os requisitos de densidade de utilizadores e cobertura, isto é, suportar muitos utilizadores ( 1000) com altas velocidades de conexão dedicada ( 1 Gb/s) ocupando uma faixa estreita do espectro ( 25 nm) e comprimentos de fibra ótica até 100 km. Os cenários são baseados em redes óticas passivas com multiplexagem por divisão no comprimento de onda de alta densidade (UDWDM-PON) utilizando transmissores/receptores coerentes nos terminais da rede. A rede é avaliada para vários ritmos de transmissão usando formatos de modulação avançados, requisitos de largura de banda por utilizador e partilha de banda com tecnologias tradicionais de redes óticas passivas (PON). Modelos numéricos baseados em funções de transferência das séries de Volterra (VSTF) são demonstrados tanto para a análise dos efeitos não lineares da fibra ótica quanto para avaliação do desempenho total da rede. São apresentadas as faixas de potência e distância de transmissão nas quais as séries de Volterra apresentam resultados semelhantes ao modelo referência Split-Step Fourier (SSF) (validado experimentalmente) para o desempenho total da rede. Além disso, um algoritmo, que evita componentes espectrais com intensidade nulo, é proposto para realizar cálculos rápidos das séries. O modelo VSTF é estendido para identificar unicamente os efeitos não lineares da fibra ótica mais relevantes no cenário investigado: Self-Phase Modulation (SPM), Cross-Phase Modulation (XPM) e Four-Wave Mixing (FWM). Simulações numéricas são apresentadas para identificar o impacto isolado de cada efeito não linear da fibra ótica, SPM, XPM e FWM, no desempenho da rede com detecção coerente UDWDM-PON, transportando canais com modulação digital em fase (M-ária PSK) ou modulação digital em amplitude (M-ária QAM). A análise numérica é estendida para diferentes comprimentos de fibra ótica mono modo (SSMF), potência por canal e ritmo de transmissão por canal. Por conseguinte, expressões analíticas são extrapoladas para determinar a evolução do SPM, XPM e FWM em função da potência e distância de transmissão em cenários NG-OAN. O desempenho da rede é otimizada através da minimização parcial da interferência FWM (via espaçamento desigual dos canais), que nesse caso, é o efeito não linear da fibra ótica mais relevante. Direções para melhorias adicionas no desempenho da rede são apresentados para cenários em que o XPM é relevante, isto é, redes transportando formatos de modulação QAM. A solução, nesse caso, é baseada na utilização de técnicas de processamento digital do sinal.