892 resultados para Database, Image Retrieval, Browsing, Semantic Concept
Resumo:
Generally, the evolution process of applications has impact on their underlining data models, thus becoming a time-consuming problem for programmers and database administrators. In this paper we address this problem within an aspect-oriented approach, which is based on a meta-model for orthogonal persistent programming systems. Applying reflection techniques, our meta-model aims to be simpler than its competitors. Furthermore, it enables database multi-version schemas. We also discuss two case studies in order to demonstrate the advantages of our approach.
Resumo:
The "Ostracoda: database for the Neogene of Portugal", prepared under the Project "POCTl/36531/PAL/2000 - Studies on Portuguese Palaeontology / Post-Paleozoic", is presented. It provides information about 158 especies that have been recognized in sections and boreholes concerning Neogene units in Portugal.
Resumo:
This paper describes preliminary work on the generation of synthesis gas from water electrolysis using graphite electrodes without the separation of the generated gases. This is an innovative process, that has no similar work been done earlier. Preliminary tests allowed to establish correlations between the applied current to the electrolyser and flow rate and composition of the generated syngas, as well as a characterisation of generated carbon nanoparticles. The obtained syngas can further be used to produce synthetic liquid fuels, for example, methane, methanol or DME (dimethyl ether) in a catalytic reactor, in further stages of a present ongoing project, using the ELECTROFUEL® concept. The main competitive advantage of this project lies in the built-in of an innovative technology product, from RE (renewable energy) power in remote locations, for example, islands, villages in mountains as an alternative for energy storage for mobility constraints.
Resumo:
Recent studies have shown that, besides the well-recognized T3 and T4 hormones, there are other relevant thyroid hormones circulating in the human body. In particular, this is the case for 3-iodothyronamine (T1AM) and thyronamine (T0AM). One of the reasons for the lack of studies showing their precise importance is the absence of analytical methodologies available. Herein, for the first time, T1AM and T0AM are electrochemically characterized. T0AM was sensed by means of a glassy carbon electrode; furthermore, T1AM was sensed both with a graphitic surface (oxidatively) as well as with mercury (reductively). For both compounds, after oxidation, it was possible to observe the reversible redox reaction concerning the benzoquinone/hydroquinone couple, thus increasing the specificity of the electroanalysis. Therefore, this work provides the basis for an ‘at-point-of-use’ electrochemical strip test for T1AM and T0AM.
Resumo:
O desenvolvimento de recursos multilingues robustos para fazer face às exigências crescentes na complexidade dos processos intra e inter-organizacionais é um processo complexo que obriga a um aumento da qualidade nos modos de interacção e partilha dos recursos das organizações, através, por exemplo, de um maior envolvimento dos diferentes interlocutores em formas eficazes e inovadoras de colaboração. É um processo em que se identificam vários problemas e dificuldades, como sendo, no caso da criação de bases de dados lexicais multilingues, o desenvolvimento de uma arquitectura capaz de dar resposta a um conjunto vasto de questões linguísticas, como a polissemia, os padrões lexicais ou os equivalentes de tradução. Estas questões colocam-se na construção quer dos recursos terminológicos, quer de ontologias multilingues. No caso da construção de uma ontologia em diferentes línguas, processo no qual focalizaremos a nossa atenção, as questões e a complexidade aumentam, dado o tipo e propósitos do artefacto semântico, os elementos a localizar (conceitos e relações conceptuais) e o contexto em que o processo de localização ocorre. Pretendemos, assim, com este artigo, analisar o conceito e o processo de localização no contexto dos sistemas de gestão do conhecimento baseados em ontologias, tendo em atenção o papel central da terminologia no processo de localização, as diferentes abordagens e modelos propostos, bem como as ferramentas de base linguística que apoiam a implementação do processo. Procuraremos, finalmente, estabelecer alguns paralelismos entre o processo tradicional de localização e o processo de localização de ontologias, para melhor o situar e definir.
Resumo:
Introdução – A pesquisa de informação realizada pelos estudantes de ensino superior em recursos eletrónicos não corresponde necessariamente ao domínio de competências de pesquisa, análise, avaliação, seleção e bom uso da informação recuperada. O conceito de literacia da informação ganha pertinência e destaque, na medida em que abarca competências que permitem reconhecer quando é necessária a informação e de atuar de forma eficiente e efetiva na sua obtenção e utilização. Objetivo – A meta da Escola Superior de Tecnologia da Saúde de Lisboa (ESTeSL) foi a formação em competências de literacia da informação, fora da ESTeSL, de estudantes, professores e investigadores. Métodos – A formação foi integrada em projetos nacionais e internacionais, dependendo dos públicos-alvo, das temáticas, dos conteúdos, da carga horária e da solicitação da instituição parceira. A Fundação Calouste Gulbenkian foi o promotor financeiro privilegiado. Resultados – Decorreram várias intervenções em território nacional e internacional. Em 2010, em Angola, no Instituto Médio de Saúde do Bengo, formação de 10 bibliotecários sobre a construção e a gestão de uma biblioteca de saúde e introdução à literacia da informação (35h). Em 2014, decorrente do ERASMUS Intensive Programme, o OPTIMAX (Radiation Dose and Image Quality Optimisation in Medical Imaging) para 40 professores e estudantes de radiologia (oriundos de Portugal, Reino Unido, Noruega, Países Baixos e Suíça) sobre metodologia e pesquisa de informação na MEDLINE e na Web of Science e sobre o Mendeley, enquanto gestor de referências (4h). Os trabalhos finais deste curso foram publicados em formato de ebook (http://usir.salford.ac.uk/34439/1/Final%20complete%20version.pdf), cuja revisão editorial foi da responsabilidade dos bibliotecários. Ao longo de 2014, na Escola Superior de Educação, Escola Superior de Dança, Instituto Politécnico de Setúbal e Faculdade de Medicina de Lisboa e, ao longo de 2015, na Universidade Aberta, Escola Superior de Comunicação Social, Instituto Egas Moniz, Faculdade de Letras de Lisboa e Centro de Linguística da Universidade de Lisboa foram desenhados conteúdos sobre o uso do ZOTERO e do Mendeley para a gestão de referências bibliográficas e sobre uma nova forma de fazer investigação. Cada uma destas sessões (2,5h) envolveu cerca de 25 estudantes finalistas, mestrandos e professores. Em 2015, em Moçambique, no Instituto Superior de Ciências da Saúde, decorreu a formação de 5 bibliotecários e 46 estudantes e professores (70h). Os conteúdos ministrados foram: 1) gestão e organização de uma biblioteca de saúde (para bibliotecários); 2) literacia da informação: pesquisa de informação na MEDLINE, SciELO e RCAAP, gestores de referências e como evitar o plágio (para bibliotecários e estudantes finalistas de radiologia). A carga horária destinada aos estudantes incluiu a tutoria das monografias de licenciatura, em colaboração com mais duas professoras do projeto. Para 2016 está agendada formação noutras instituições de ensino superior nacionais. Perspetiva-se, ainda, formação similar em Timor-Leste, cujos conteúdos, datas e carga horária estão por agendar. Conclusões – Destas iniciativas beneficia a instituição (pela visibilidade), os bibliotecários (pelo evidenciar de competências) e os estudantes, professores e investigadores (pelo ganho de novas competências e pela autonomia adquirida). O projeto de literacia da informação da ESTeSL tem contribuído de forma efetiva para a construção e para a produção de conhecimento no meio académico, nacional e internacional, sendo a biblioteca o parceiro privilegiado nesta cultura de colaboração.
Resumo:
Partial dynamic reconfiguration of FPGAs can be used to implement complex applications using the concept of virtual hardware. In this work we have used partial dynamic reconfiguration to implement a JPEG decoder with reduced area. The image decoding process was adapted to be implemented on the FPGA fabric using this technique. The architecture was tested in a low cost ZYNQ-7020 FPGA that supports dynamic reconfiguration. The results show that the proposed solution needs only 40% of the resources utilized by a static implementation. The performance of the dynamic solution is about 9X slower than the static solution by trading-off internal resources of the FPGA. A throughput of 7 images per second is achievable with the proposed partial dynamic reconfiguration solution.
Resumo:
This work introduces a novel idea for wireless energy transfer, proposing for the first time the unit-cell of an indoor localization and RF harvesting system embedded into the floor. The unit-cell is composed by a 5.8 GHz patch antenna surrounded by a 13.56 MHz coil. The coil locates a device and activate the patch which, connected to a power grid, radiates to wirelessly charge the localized device. The HF and RF circuits co-existence and functionality are demonstrated in this paper, the novelty of which is also in the adoption of low cost and most of all ecofriendly materials, such as wood and cork, as substrates for electronics.
Resumo:
Dissertação de Natureza Científica elaborada no Laboratório Nacional de Engenharia Civil (LNEC) para obtenção do grau de mestre em Engenharia Civil na Área de Especialização de Hidráulica no âmbito do protocolo de cooperação entre o ISEL e o LNEC
Resumo:
Mestrado em Engenharia Informática - Área de Especialização em Tecnologias do Conhecimento e Decisão
Resumo:
Dissertation presented to obtain the degree of Doctor of Philosophy in Electrical Engineering, speciality on Perceptional Systems, by the Universidade Nova de Lisboa, Faculty of Sciences and Technology
Resumo:
This paper introduces a new toolbox for hyperspectral imagery, developed under the MATLAB environment. This toolbox provides easy access to different supervised and unsupervised classification methods. This new application is also versatile and fully dynamic since the user can embody their own methods, that can be reused and shared. This toolbox, while extends the potentiality of MATLAB environment, it also provides a user-friendly platform to assess the results of different methodologies. In this paper it is also presented, under the new application, a study of several different supervised and unsupervised classification methods on real hyperspectral data.
Resumo:
Hyperspectral remote sensing exploits the electromagnetic scattering patterns of the different materials at specific wavelengths [2, 3]. Hyperspectral sensors have been developed to sample the scattered portion of the electromagnetic spectrum extending from the visible region through the near-infrared and mid-infrared, in hundreds of narrow contiguous bands [4, 5]. The number and variety of potential civilian and military applications of hyperspectral remote sensing is enormous [6, 7]. Very often, the resolution cell corresponding to a single pixel in an image contains several substances (endmembers) [4]. In this situation, the scattered energy is a mixing of the endmember spectra. A challenging task underlying many hyperspectral imagery applications is then decomposing a mixed pixel into a collection of reflectance spectra, called endmember signatures, and the corresponding abundance fractions [8–10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. Linear mixing model holds approximately when the mixing scale is macroscopic [13] and there is negligible interaction among distinct endmembers [3, 14]. If, however, the mixing scale is microscopic (or intimate mixtures) [15, 16] and the incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [17], the linear model is no longer accurate. Linear spectral unmixing has been intensively researched in the last years [9, 10, 12, 18–21]. It considers that a mixed pixel is a linear combination of endmember signatures weighted by the correspondent abundance fractions. Under this model, and assuming that the number of substances and their reflectance spectra are known, hyperspectral unmixing is a linear problem for which many solutions have been proposed (e.g., maximum likelihood estimation [8], spectral signature matching [22], spectral angle mapper [23], subspace projection methods [24,25], and constrained least squares [26]). In most cases, the number of substances and their reflectances are not known and, then, hyperspectral unmixing falls into the class of blind source separation problems [27]. Independent component analysis (ICA) has recently been proposed as a tool to blindly unmix hyperspectral data [28–31]. ICA is based on the assumption of mutually independent sources (abundance fractions), which is not the case of hyperspectral data, since the sum of abundance fractions is constant, implying statistical dependence among them. This dependence compromises ICA applicability to hyperspectral images as shown in Refs. [21, 32]. In fact, ICA finds the endmember signatures by multiplying the spectral vectors with an unmixing matrix, which minimizes the mutual information among sources. If sources are independent, ICA provides the correct unmixing, since the minimum of the mutual information is obtained only when sources are independent. This is no longer true for dependent abundance fractions. Nevertheless, some endmembers may be approximately unmixed. These aspects are addressed in Ref. [33]. Under the linear mixing model, the observations from a scene are in a simplex whose vertices correspond to the endmembers. Several approaches [34–36] have exploited this geometric feature of hyperspectral mixtures [35]. Minimum volume transform (MVT) algorithm [36] determines the simplex of minimum volume containing the data. The method presented in Ref. [37] is also of MVT type but, by introducing the notion of bundles, it takes into account the endmember variability usually present in hyperspectral mixtures. The MVT type approaches are complex from the computational point of view. Usually, these algorithms find in the first place the convex hull defined by the observed data and then fit a minimum volume simplex to it. For example, the gift wrapping algorithm [38] computes the convex hull of n data points in a d-dimensional space with a computational complexity of O(nbd=2cþ1), where bxc is the highest integer lower or equal than x and n is the number of samples. The complexity of the method presented in Ref. [37] is even higher, since the temperature of the simulated annealing algorithm used shall follow a log( ) law [39] to assure convergence (in probability) to the desired solution. Aiming at a lower computational complexity, some algorithms such as the pixel purity index (PPI) [35] and the N-FINDR [40] still find the minimum volume simplex containing the data cloud, but they assume the presence of at least one pure pixel of each endmember in the data. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. PPI algorithm uses the minimum noise fraction (MNF) [41] as a preprocessing step to reduce dimensionality and to improve the signal-to-noise ratio (SNR). The algorithm then projects every spectral vector onto skewers (large number of random vectors) [35, 42,43]. The points corresponding to extremes, for each skewer direction, are stored. A cumulative account records the number of times each pixel (i.e., a given spectral vector) is found to be an extreme. The pixels with the highest scores are the purest ones. N-FINDR algorithm [40] is based on the fact that in p spectral dimensions, the p-volume defined by a simplex formed by the purest pixels is larger than any other volume defined by any other combination of pixels. This algorithm finds the set of pixels defining the largest volume by inflating a simplex inside the data. ORA SIS [44, 45] is a hyperspectral framework developed by the U.S. Naval Research Laboratory consisting of several algorithms organized in six modules: exemplar selector, adaptative learner, demixer, knowledge base or spectral library, and spatial postrocessor. The first step consists in flat-fielding the spectra. Next, the exemplar selection module is used to select spectral vectors that best represent the smaller convex cone containing the data. The other pixels are rejected when the spectral angle distance (SAD) is less than a given thresh old. The procedure finds the basis for a subspace of a lower dimension using a modified Gram–Schmidt orthogonalizati on. The selected vectors are then projected onto this subspace and a simplex is found by an MV T pro cess. ORA SIS is oriented to real-time target detection from uncrewed air vehicles using hyperspectral data [46]. In this chapter we develop a new algorithm to unmix linear mixtures of endmember spectra. First, the algorithm determines the number of endmembers and the signal subspace using a newly developed concept [47, 48]. Second, the algorithm extracts the most pure pixels present in the data. Unlike other methods, this algorithm is completely automatic and unsupervised. To estimate the number of endmembers and the signal subspace in hyperspectral linear mixtures, the proposed scheme begins by estimating sign al and noise correlation matrices. The latter is based on multiple regression theory. The signal subspace is then identified by selectin g the set of signal eigenvalue s that best represents the data, in the least-square sense [48,49 ], we note, however, that VCA works with projected and with unprojected data. The extraction of the end members exploits two facts: (1) the endmembers are the vertices of a simplex and (2) the affine transformation of a simplex is also a simplex. As PPI and N-FIND R algorithms, VCA also assumes the presence of pure pixels in the data. The algorithm iteratively projects data on to a direction orthogonal to the subspace spanned by the endmembers already determined. The new end member signature corresponds to the extreme of the projection. The algorithm iterates until all end members are exhausted. VCA performs much better than PPI and better than or comparable to N-FI NDR; yet it has a computational complexity between on e and two orders of magnitude lower than N-FINDR. The chapter is structure d as follows. Section 19.2 describes the fundamentals of the proposed method. Section 19.3 and Section 19.4 evaluate the proposed algorithm using simulated and real data, respectively. Section 19.5 presents some concluding remarks.
Resumo:
Introdução: A prematuridade constitui um fator de risco para a ocorrência de lesões ao nível do sistema nervoso central, sendo que uma idade gestacional inferior a 36 semanas potencia esse mesmo risco, nomeadamente para a paralisia cerebral (PC) do tipo diplegia espástica. A sequência de movimento de sentado para de pé (SPP), sendo uma das aprendizagens motoras que exige um controlo postural (CP) ao nível da tibiotársica, parece ser uma tarefa funcional frequentemente comprometida em crianças prematuras com e sem PC. Objetivo(s): Descrever o comportamento dos músculos da tibiotársica, tibial anterior (TA) e solear (SOL), no que diz respeito ao timing de ativação, magnitude e co-ativação muscular durante a fase I e início da fase II na sequência de movimento de SPP realizada por cinco crianças prematuras com PC do tipo diplegia espástica e cinco crianças prematuras sem diagnóstico de alteração neuromotoras, sendo as primeiras sujeitas a um programa de intervenção baseado nos princípios do conceito de Bobath – Tratamento do Neurodesenvolvimento (TND). Métodos: Foram avaliadas 10 crianças prematuras, cinco com PC e cinco sem diagnóstico de alterações neuromotoras, tendo-se recorrido à eletromiografia de superfície para registar parâmetros musculares, nomeadamente timings, magnitudes e valores de co-ativação dos músculos TA e SOL, associados à fase I e inico da fase II da sequência de movimento de SPP. Procedeu-se ao registo de imagem de modo a facilitar a avaliação dos componentes de movimento associados a esta tarefa. Estes procedimentos foram realizados num único momento, no caso das crianças sem diagnóstico de alterações neuromotoras e em dois momentos, antes e após a aplicação de um programa de intervenção segundo o Conceito de Bobath – TND no caso das crianças com PC. A estas foi ainda aplicado o Teste da Medida das Funções Motoras (TMFM–88) e a Classificação Internacional da Funcionalidade Incapacidade e Saúde – crianças e jovens (CIF-CJ). Resultados: Através da eletromiografia constatou-se que ambos os grupos apresentaram timings de ativação afastados da janela temporal considerada como ajustes posturais antecipatórios (APAs), níveis elevados de co-ativação, em alguns casos com inversão na ordem de recrutamento muscular o que foi possível modificar nas crianças com PC após o período de intervenção. Nestas, verificou-se ainda que, a sequência de movimento de SPP foi realizada com menor número de compensações e com melhor relação entre estruturas proximais e distais compatível com o aumento do score final do TMFM-88 e modificação positiva nos itens de atividade e participação da CIF-CJ. Conclusão: As crianças prematuras com e sem PC apresentaram alterações no CP da tibiotársica e níveis elevados de co-ativação muscular. Após o período de intervenção as crianças com PC apresentaram modificações positivas no timing e co-ativação muscular, com impacto funcional evidenciado no aumento do score final da TMFM-88 e modificações positivas na CIF-CJ.
Resumo:
Introdução: A dificuldade na organização dos ajustes posturais antecipatórios (APAs) é frequentemente associada ao défice de controlo postural (CP) em crianças/jovens com um quadro motor de hemiplegia espástica, resultante de paralisia cerebral. As alterações biomecânicas da tibiotársica e do pé são características comummente observadas nestas crianças/jovens e influenciam o CP na sua globalidade. Objectivo(s): descrever o comportamento dos APAs associados ao início da marcha, face à modificação do alinhamento do pé em crianças/jovens com hemiplegia espástica, após 12 semanas de intervenção, segundo o Conceito Bobath-TND e aplicação de uma Ligadura Funcional (LF). Métodos: Foram avaliadas quatro crianças/jovens num momento inicial (M0) e após 12 semanas de intervenção e de aplicação de uma LF (M1). Recorrendo à eletromiografia de superfície, registaram-se os timings de activação dos músculos tibial anterior, solear, recto abdominal e erector da espinha (bilateralmente). O início do movimento foi calculado a partir da alteração do sinal obtido através da plataforma de pressões. Recorreu-se à aplicação da TMFM-88 para avaliar a função motora global e à aplicação da CIF-CJ para classificar a funcionalidade mediante as actividades e a participação. Procedeu-se ao registo de imagem para facilitar a observação/avaliação das componentes de movimento das crianças/jovens em estudo. Resultados: Após o período de intervenção, verificou-se uma modificação nos valores dos timings de ativação dos músculos em análise, que se aproximaram da janela temporal definida como APAs, bem como na distribuição de carga na base de suporte, nos scores da TMFM-88 e nos qualificadores das “Actividades e Participação”, sugestivos de uma melhor organização dos mecanismos de controlo postural. Conclusão: As crianças/jovens em estudo evidenciaram, após uma intervenção de fisioterapia baseada no Conceito Bobath- TND e aplicação de uma LF, uma evolução favorável tanto ao nível do CP da tibiotársica e do pé, apresentando timings de ativação muscular temporalmente mais ajustados à tarefa, com repercussões positivas nas actividades e participação.