993 resultados para Pruning composed


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The development of high spatial resolution airborne and spaceborne sensors has improved the capability of ground-based data collection in the fields of agriculture, geography, geology, mineral identification, detection [2, 3], and classification [4–8]. The signal read by the sensor from a given spatial element of resolution and at a given spectral band is a mixing of components originated by the constituent substances, termed endmembers, located at that element of resolution. This chapter addresses hyperspectral unmixing, which is the decomposition of the pixel spectra into a collection of constituent spectra, or spectral signatures, and their corresponding fractional abundances indicating the proportion of each endmember present in the pixel [9, 10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. The linear mixing model holds when the mixing scale is macroscopic [13]. The nonlinear model holds when the mixing scale is microscopic (i.e., intimate mixtures) [14, 15]. The linear model assumes negligible interaction among distinct endmembers [16, 17]. The nonlinear model assumes that incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [18]. Under the linear mixing model and assuming that the number of endmembers and their spectral signatures are known, hyperspectral unmixing is a linear problem, which can be addressed, for example, under the maximum likelihood setup [19], the constrained least-squares approach [20], the spectral signature matching [21], the spectral angle mapper [22], and the subspace projection methods [20, 23, 24]. Orthogonal subspace projection [23] reduces the data dimensionality, suppresses undesired spectral signatures, and detects the presence of a spectral signature of interest. The basic concept is to project each pixel onto a subspace that is orthogonal to the undesired signatures. As shown in Settle [19], the orthogonal subspace projection technique is equivalent to the maximum likelihood estimator. This projection technique was extended by three unconstrained least-squares approaches [24] (signature space orthogonal projection, oblique subspace projection, target signature space orthogonal projection). Other works using maximum a posteriori probability (MAP) framework [25] and projection pursuit [26, 27] have also been applied to hyperspectral data. In most cases the number of endmembers and their signatures are not known. Independent component analysis (ICA) is an unsupervised source separation process that has been applied with success to blind source separation, to feature extraction, and to unsupervised recognition [28, 29]. ICA consists in finding a linear decomposition of observed data yielding statistically independent components. Given that hyperspectral data are, in given circumstances, linear mixtures, ICA comes to mind as a possible tool to unmix this class of data. In fact, the application of ICA to hyperspectral data has been proposed in reference 30, where endmember signatures are treated as sources and the mixing matrix is composed by the abundance fractions, and in references 9, 25, and 31–38, where sources are the abundance fractions of each endmember. In the first approach, we face two problems: (1) The number of samples are limited to the number of channels and (2) the process of pixel selection, playing the role of mixed sources, is not straightforward. In the second approach, ICA is based on the assumption of mutually independent sources, which is not the case of hyperspectral data, since the sum of the abundance fractions is constant, implying dependence among abundances. This dependence compromises ICA applicability to hyperspectral images. In addition, hyperspectral data are immersed in noise, which degrades the ICA performance. IFA [39] was introduced as a method for recovering independent hidden sources from their observed noisy mixtures. IFA implements two steps. First, source densities and noise covariance are estimated from the observed data by maximum likelihood. Second, sources are reconstructed by an optimal nonlinear estimator. Although IFA is a well-suited technique to unmix independent sources under noisy observations, the dependence among abundance fractions in hyperspectral imagery compromises, as in the ICA case, the IFA performance. Considering the linear mixing model, hyperspectral observations are in a simplex whose vertices correspond to the endmembers. Several approaches [40–43] have exploited this geometric feature of hyperspectral mixtures [42]. Minimum volume transform (MVT) algorithm [43] determines the simplex of minimum volume containing the data. The MVT-type approaches are complex from the computational point of view. Usually, these algorithms first find the convex hull defined by the observed data and then fit a minimum volume simplex to it. Aiming at a lower computational complexity, some algorithms such as the vertex component analysis (VCA) [44], the pixel purity index (PPI) [42], and the N-FINDR [45] still find the minimum volume simplex containing the data cloud, but they assume the presence in the data of at least one pure pixel of each endmember. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. Hyperspectral sensors collects spatial images over many narrow contiguous bands, yielding large amounts of data. For this reason, very often, the processing of hyperspectral data, included unmixing, is preceded by a dimensionality reduction step to reduce computational complexity and to improve the signal-to-noise ratio (SNR). Principal component analysis (PCA) [46], maximum noise fraction (MNF) [47], and singular value decomposition (SVD) [48] are three well-known projection techniques widely used in remote sensing in general and in unmixing in particular. The newly introduced method [49] exploits the structure of hyperspectral mixtures, namely the fact that spectral vectors are nonnegative. The computational complexity associated with these techniques is an obstacle to real-time implementations. To overcome this problem, band selection [50] and non-statistical [51] algorithms have been introduced. This chapter addresses hyperspectral data source dependence and its impact on ICA and IFA performances. The study consider simulated and real data and is based on mutual information minimization. Hyperspectral observations are described by a generative model. This model takes into account the degradation mechanisms normally found in hyperspectral applications—namely, signature variability [52–54], abundance constraints, topography modulation, and system noise. The computation of mutual information is based on fitting mixtures of Gaussians (MOG) to data. The MOG parameters (number of components, means, covariances, and weights) are inferred using the minimum description length (MDL) based algorithm [55]. We study the behavior of the mutual information as a function of the unmixing matrix. The conclusion is that the unmixing matrix minimizing the mutual information might be very far from the true one. Nevertheless, some abundance fractions might be well separated, mainly in the presence of strong signature variability, a large number of endmembers, and high SNR. We end this chapter by sketching a new methodology to blindly unmix hyperspectral data, where abundance fractions are modeled as a mixture of Dirichlet sources. This model enforces positivity and constant sum sources (full additivity) constraints. The mixing matrix is inferred by an expectation-maximization (EM)-type algorithm. This approach is in the vein of references 39 and 56, replacing independent sources represented by MOG with mixture of Dirichlet sources. Compared with the geometric-based approaches, the advantage of this model is that there is no need to have pure pixels in the observations. The chapter is organized as follows. Section 6.2 presents a spectral radiance model and formulates the spectral unmixing as a linear problem accounting for abundance constraints, signature variability, topography modulation, and system noise. Section 6.3 presents a brief resume of ICA and IFA algorithms. Section 6.4 illustrates the performance of IFA and of some well-known ICA algorithms with experimental data. Section 6.5 studies the ICA and IFA limitations in unmixing hyperspectral data. Section 6.6 presents results of ICA based on real data. Section 6.7 describes the new blind unmixing scheme and some illustrative examples. Section 6.8 concludes with some remarks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho de Dissertação de Natureza Científica para obtenção do grau de Mestre em Engenharia Civil na Área de Especialização em Estruturas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Engenharia Civil na Área de Especialização em Edificações

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertation presented to obtain a Ph.D. degree in Engineering and Technology Sciences, Systems Biology at the Instituto de Tecnologia Química e Biológica, Universidade Nova de Lisboa

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: É reconhecida a importância do ligamento cruzado anterior (LCA) no funcionamento normal do joelho. Em caso de rotura ligamentar, nomeadamente em desportos com marcada solicitação dos movimentos de rotação do joelho, é justificada a necessidade de reconstrução do LCA na maioria dos casos. Objetivo (s): Avaliar a influência do tipo de enxerto na reconstrução do ligamento cruzado anterior na força muscular isocinética, assim como na funcionalidade e sintomas após 6 meses. Métodos: Estudo transversal analítico, constituído por 20 indivíduos voluntários do sexo masculino, que haviam sido submetidos a uma ligamentoplastia do cruzado anterior, pelo mesmo cirurgião, seguido de uma intervenção individualizada por um fisioterapeuta. Em 10 indivíduos, o procedimento cirúrgico foi realizado com enxerto do tendão rotuliano (grupo OTO), e nos restantes 10 com enxerto do semitendinoso e gracilis (grupo STG). Como forma de avaliar a Força Muscular Isocinética (Peak Torque, Trabalho Total Muscular, ratio Isquiotibiais/Quadricipite), foi utilizado o Dinamómetro Isocinético Biodex. A avaliação foi efectuada apenas aos 6 meses após o procedimento cirúrgico. Para observação da funcionalidade, amplitude de movimento e sintomas, utilizou-se o questionário International Knee Documentation Committee (IKDC). Resultados: Foi possível observar que entre os grupos apenas se observaram diferenças significativas no peak torque de extensão a 180º no membro não lesado (p=0,019). Contudo, foi observada uma tendência para o grupo OTO apresentar um maior défice no peak torque e trabalho total muscular em extensão. Comparativamente ao membro contra-lateral, o membro lesado apresentou valores significativamente inferiores na maioria das variáveis ( p < 0,05). Conclusão: Após 6 meses de pós-cirúrgico com reabilitação de fisioterapia, não foi possível apontar qual o enxerto que garante uma melhor recuperação da força muscular. Aos 6 meses, ambos os grupos ainda apresentaram limitações musculares, quando comparados com o lado contra-lateral. Relativamente ao rácio isquiotibiais/quadricípite, assim como no IKDC, não se observaram diferenças entre os dois tipos de enxertos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso da tecnologia tem crescido nas últimas décadas nas mais diversas áreas, seja na indústria ou no dia-a-dia, e é cada vez mais evidente os benefícios que traz. No desporto não é diferente. Cada dia surgem novos desenvolvimentos objetivando a melhoria do desempenho dos praticantes de atividades físicas, possibilitando atingir resultados nunca antes pensados. Além disto, a utilização da tecnologia no desporto permite a obtenção de dados biomecânicos que podem ser utilizados tanto no treinamento quando na melhoria da qualidade de vida dos atletas auxiliando na prevenção de lesões, por exemplo. Deste modo, o presente projeto se aplica na área do desporto, nomeadamente, na modalidade do surfe, onde a ausência de trabalhos científicos ainda é elevada, aliando a tecnologia eletrônica ao desporto para quantificar informações até então desconhecidas. Três fatores básicos de desempenho foram levantados, sendo eles: equilíbrio, posicionamento dos pés e movimentação da prancha de surfe. Estes fatores levaram ao desenvolvimento de um sistema capaz de medi-los dinamicamente através da medição das forças plantares e da rotação da prancha de surfe. Além da medição dos fatores, o sistema é capaz de armazenar os dados adquiridos localmente através de um cartão de memória, para posterior análise; e também enviá-los através de uma comunicação sem fio, permitindo a visualização do centro de pressões plantares; dos ângulos de rotação da prancha de surfe; e da ativação dos sensores; em tempo real. O dispositivo consiste em um sistema eletrônico embarcado composto por um microcontrolador ATMEGA1280; um circuito de aquisição e condicionamento de sinal analógico; uma central inercial; um módulo de comunicação sem fio RN131; e um conjunto de sensores de força Flexiforce. O firmware embarcado foi desenvolvido em linguagem C. O software Matlab foi utilizado para receção de dados e visualização em tempo real. Os testes realizados demostraram que o funcionamento do sistema atende aos requisitos propostos, fornecendo informação acerca do equilíbrio, através do centro de pressões; do posicionamento dos pés, através da distribuição das pressões plantares; e do movimento da prancha nos eixos pitch e roll, através da central inercial. O erro médio de medição de força verificado foi de -0.0012 ± 0.0064 N, enquanto a mínima distância alcançada na transmissão sem fios foi de 100 m. A potência medida do sistema foi de 330 mW.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thesis submitted to Faculdade de Ciências e Tecnologia of Universidade Nova de Lisboa in partial fulfilment of the requirements for the degree of Master in Computer Science

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa de Lisboa para obtenção do grau de mestre em Engenharia Electrotécnica e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os Líquidos Iónicos (LIs) são sais orgânicos constituídos exclusivamente por iões e possuem pontos de fusão inferiores a 100ºC. As suas propriedades únicas e o facto de ser possível ajustar as suas propriedades físicas, químicas e biológicas, de acordo com o objetivo pretendido, tornam esta classe de compostos, um grande objeto de estudo de inúmeros investigadores. Desde os inícios da sua aplicação até à atualidade, a investigação nesta área expandiu o seu raio de ação, estando já descrito o seu potencial como agentes antimicrobianos e, mais recentemente, como compostos farmacêuticos ativos. Atualmente muitas das suas aplicações são baseadas nas suas propriedades biológicas. Esta Tese teve como objetivo avaliar a influência que os LIs podem exercer a nível do crescimento bacteriano e estudar alternativas de combater a resistência bacteriana. Todos os LIs utilizados neste trabalho tinham como anião o ácido valpróico, sendo utilizados catiões orgânicos de amónio e de imidazólio. Foram utilizadas 4 bactérias e avaliou-se a atividade biológica e a respetiva taxa de crescimento. O estudo da sua atividade biológica foi feito através da determinação da Concentração Mínima Inibitória (CMI) e a análise das suas curvas de crescimentos na presença e ausência de composto. Com este trabalho foi possível verificar que dentro dos compostos em estudo, LIs derivados do valproato, o Valproato com o cetilperidínio [valp] [cetylpir] foi o que influenciou o crescimento de todas as bactérias estudadas. Este estudo demonstrou o potencial antibacteriano de alguns compostos, podendo desta forma vir a ser utilizados para fins farmacêuticos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um incêndio é algo difícil de prever, assim como a sua consequência nos elementos de construção. Dessa forma, ao longo das últimas décadas, os elementos de construção têm sido alvo de diversos estudos a fim de avaliar os seus comportamentos quando solicitados em situação de incêndio. O International Building Code (IBC) descreve um método de cálculo analítico para a determinação da resistência ao fogo dos elementos da construção de acordo com os procedimentos de teste estabelecidos na ASTM E119 (Standard Test Methods for Fire Tests of Building Construction and Materials). Nesta dissertação foi feita uma análise desse método, que se mostrou inadequado para estimar a resistência ao fogo das alvenarias, sem função estrutural, de blocos cerâmicos e blocos de betão, uma vez que despreza qualquer efeito do ar no interior das mesmas. No seguimento desta análise, é apresentado um desenvolvimento do método descrito tendo em conta o efeito do ar. Depois de uma análise aos vários tipos de blocos cerâmicos e de betão com diferentes dimensões e geometrias foi possível obter uma relação entre a espessura equivalente de ar existente num bloco e a sua respectiva resistência ao fogo, de modo a serem obtidos os valores descritos na normalização existente. O efeito do ar mostrou ter uma maior influência na resistência ao fogo nas alvenarias constituídas por blocos cerâmicos de furação vertical, já que a sua geometria caracterizada por um elevado número de pequenos alvéolos contribui para o aumento do isolamento térmico, e consequentemente da sua resistência ao fogo. Nas alvenarias rebocadas os valores da resistência ao fogo aumentam cerca de 50%, quando revestidos com argamassa de cimento, e 70% quando revestidos com gesso, logo, o emprego de revestimentos representam uma boa alternativa para aumentar a resistência ao fogo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do Grau de Mestre em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Internet, conforme a conhecemos, foi projetada com base na pilha de protocolos TCP/IP, que foi desenvolvida nos anos 60 e 70 utilizando um paradigma centrado nos endereços individuais de cada máquina (denominado host-centric). Este paradigma foi extremamente bem-sucedido em interligar máquinas através de encaminhamento baseado no endereço IP. Estudos recentes demonstram que, parte significativa do tráfego atual da Internet centra-se na transferência de conteúdos, em vez das tradicionais aplicações de rede, conforme foi originalmente concebido. Surgiram então novos modelos de comunicação, entre eles, protocolos de rede ponto-a-ponto, onde cada máquina da rede pode efetuar distribuição de conteúdo (denominadas de redes peer-to-peer), para melhorar a distribuição e a troca de conteúdos na Internet. Por conseguinte, nos últimos anos o paradigma host-centric começou a ser posto em causa e apareceu uma nova abordagem de Redes Centradas na Informação (ICN - information-centric networking). Tendo em conta que a Internet, hoje em dia, basicamente é uma rede de transferência de conteúdos e informações, porque não centrar a sua evolução neste sentido, ao invés de comunicações host-to-host? O paradigma de Rede Centrada no Conteúdo (CCN - Content Centric Networking) simplifica a solução de determinados problemas de segurança relacionados com a arquitetura TCP/IP e é uma das principais propostas da nova abordagem de Redes Centradas na Informação. Um dos principais problemas do modelo TCP/IP é a proteção do conteúdo. Atualmente, para garantirmos a autenticidade e a integridade dos dados partilhados na rede, é necessário garantir a segurança do repositório e do caminho que os dados devem percorrer até ao seu destino final. No entanto, a contínua ineficácia perante os ataques de negação de serviço praticados na Internet, sugere a necessidade de que seja a própria infraestrutura da rede a fornecer mecanismos para os mitigar. Um dos principais pilares do paradigma de comunicação da CCN é focalizar-se no próprio conteúdo e não na sua localização física. Desde o seu aparecimento em 2009 e como consequência da evolução e adaptação a sua designação mudou atualmente para Redes de Conteúdos com Nome (NNC – Named Network Content). Nesta dissertação, efetuaremos um estudo de uma visão geral da arquitetura CCN, apresentando as suas principais características, quais os componentes que a compõem e como os seus mecanismos mitigam os tradicionais problemas de comunicação e de segurança. Serão efetuadas experiências com o CCNx, que é um protótipo composto por um conjunto de funcionalidades e ferramentas, que possibilitam a implementação deste paradigma. O objetivo é analisar criticamente algumas das propostas existentes, determinar oportunidades, desafios e perspectivas para investigação futura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O potencial de um reservatório de shale gas e influenciado por um grande número de fatores, tais como a sua mineralogia e textura, o seu tipo e maturação de querogénio, a saturação de fluidos, os mecanismos de armazenamento de gás, a profundidade do reservatório e a temperatura e pressão de poros. Nesse sentido, o principal objetivo desta tese foi estabelecer uma metodologia de avaliação preliminar de potenciais jazigos de shale gas (estudo de afloramentos com base numa litoestratigrafia de alta resolução), que foi posteriormente aplicada na Formação de Vale das Fontes (Bacia Lusitânica, Portugal). Esta tese tem a particularidade de contribuir, não só para o aprofundamento da informação a nível geoquímico do local, mas também na abordagem inovadora que permitiu a caracterização petrofísica da Formação de Vale das Fontes. Para a aplicação da metodologia estabelecida, foi necessária a realização dos seguintes ensaios laboratoriais: Rock-Eval 6, picnometria de gás hélio, ensaio de resistência a compressão simples, Darcypress e a difracção de raios-X, aplicando o método de Rietveld. Os resultados obtidos na análise petrofísica mostram uma formação rochosa de baixa porosidade que segundo a classificação ISRM, e classificada como ”Resistente”, para alem de revelar comportamento dúctil e elevado índice de fragilidade. A permeabilidade média obtida situa a Formação no intervalo correspondente as permeabilidades atribuídas aos jazigos de tigh gas, indicando a necessidade de fracturação hidráulica, no caso de uma eventual exploração de hidrocarbonetos, enquanto a difracção de raios-X destaca a calcite, o quartzo e os filossilicatos como os minerais mais presentes na Formação. Do ponto de vista geoquímico, os resultados obtidos mostram que apesar do considerável teor médio de carbono orgânico total, a natureza da matéria orgânica analisada e maioritariamente imatura, composta, principalmente, por querogénio do tipo IV, o que indica a incapacidade de a formação gerar hidrocarbonetos em quantidades economicamente exploráveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde o final do século XVIII, quando se iniciou a revolução industrial, o crescimento económico tem sido assente num consumo elevado de combustíveis fósseis que libertam gases com efeito de estufa. A emissão destes gases e a escassez dos combustíveis fósseis são temas que, desde as últimas duas décadas do século XX, ocupam um lugar de destaque nas agendas de política mundial. A produção de energia através de fontes renováveis surge como alternativa e poderá ser a solução para países com escassos recursos de origem fóssil, como é o caso de Portugal, minimizando também a sua dependência energética do exterior. Uma das medidas de incentivo lançada pelo Governo Português em 2007, foi a criação de um regime simplificado aplicável à microprodução descentralizada de eletricidade através de fontes de energia renováveis e de cogeração. À semelhança da maioria dos países europeus, o principal meio de promoção destes sistemas em Portugal foram as Feed-in-Tariffs, que consistem numa tarifa de venda de energia elétrica de origem renovável acima da tarifa de mercado. Estas tarifas permitiram, sobretudo, o crescimento do setor fotovoltaico em Portugal. Atualmente, o amadurecimento da tecnologia fotovoltaica, associado ao constante aumento das tarifas de energia elétrica, permite que se torne vantajosa a instalação de sistemas fotovoltaicos para autoconsumo. Neste contexto, o atual Governo Português, criou recentemente um regime jurídico aplicável à produção de eletricidade para autoconsumo. O objetivo deste trabalho é demonstrar, com base na minha experiência profissional, a metodologia de dimensionamento de uma central fotovoltaica ligada à Rede Elétrica de Serviço Público. Será utilizado como objeto de estudo um projeto constituído por 28 centrais fotovoltaicas de Miniprodução de 100 kW, dispersas por Portugal Continental, para o qual será efetuada a análise financeira do investimento. Pretende-se ainda apresentar o novo enquadramento legislativo para o Autoconsumo e Pequena Produção distribuída, detalhar as suas principais caraterísticas e efetuar um estudo económico para cada um destes regimes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante séculos a madeira foi dos materiais mais privilegiados e usados na construção. Ainda hoje, existem construções antigas em madeira em bom estado de conservação e que, desempenham as suas funções adequadamente. Com o aparecimento do betão e do aço, os projetistas deixaram de usar este tipo de estruturas. Isto provocou um desinteresse na indústria da madeira, adiando a criação de regulamentos e normas relativamente às exigências funcionais deste tipo de estruturas. Com a necessidade da reabilitação do património edificado, verifica-se uma inversão desta tendência, devido às edificações no centro histórico serem constituídas por estruturas de madeira, essencialmente os pavimentos e coberturas. Na maioria das vezes estas estruturas apresentam um elevado nível de degradação e a solução mais rentável é demolir. Os pavimentos de madeira são então substituídos por lajes aligeiradas ou de betão armado provocando alterações estruturais inadequadas nas fachadas a manter. Pretende-se com esta dissertação mostrar as potencialidades dos pavimentos de madeira e assim incentivar ao seu uso, principalmente nas áreas a reabilitar. São analisados todos os regulamentos e normas aplicáveis às exigências estruturais, térmicas, acústicas e contra incêndio dos pavimentos de madeira. A análise da normalização aplicável vai ser sintetizada, ou seja, só vão ser referidos os aspetos a ter em conta para a verificação das exigências funcionais em pavimentos de madeira. A aplicação dos conceitos e das verificações necessárias são aplicadas a um pavimento de madeira a ser construído na parcela C4 do Quarteirão das Cardosas. Os resultados obtidos neste caso de estudo são encorajadores, e abrem uma perspetiva das potencialidades que este sistema construtivo apresenta.