940 resultados para Renewall capability
Resumo:
Nos últimos anos têm existido bastantes pesquisas e um grande investimento quer na área da educação à distância quer ao nível das tecnologias móveis. A dada altura percebeu-se que cada vez mais poderiam ser utilizados dispositivos móveis no contexto da educação e de que estes já seriam capazes de responder às exigências necessárias para que fosse possível criar ou melhorar cenários com recursos educativos. Este trabalho tem como objetivo propor um modelo que facilite a aprendizagem em dispositivos móveis. Nesse sentido, decidiu-se que seria uma mais-valia adicionar a este projeto, a utilização da Realidade Aumentada como potenciador de melhorias no processo de aprendizagem. A Realidade Aumentada, a par do que acontece com a educação à distância e com as tecnologias móveis, é uma área alvo de constantes investigações e inovação. Apresenta como principal capacidade a interação do utilizador com vários modelos virtuais incluídos numa cena real. Esta capacidade proporciona experiências que podem contribuir para o aumento da motivação e da perceção por parte dos alunos. A forma como o utilizador interage com as aplicações móveis é vista com extrema importância, principalmente na área da educação. Aliar uma boa interação à utilização da Realidade Aumentada, é parte integrante deste trabalho. Foram estudados exemplos de interações e formas como o utilizador vive a experiência durante a utilização de aplicações que partilham o mesmo tipo de tecnologias utilizadas neste projeto. O objetivo final foca-se na criação de uma aplicação, capaz de fornecer uma experiência enriquecedora no âmbito do ensino, ligado ao tema história e que consiga fundamentar a criação de um modelo que facilite a aprendizagem utilizando plataformas móveis. Os objetivos são corroborados por um conjunto de testes efetuados à aplicação e pelos resultados obtidos através de um questionário feito a um grupo de pessoas que testaram o protótipo.
Resumo:
Numa Estação de Tratamento de Águas Residuais (ETAR), a otimização do processo de Digestão Anaeróbia (DA) é fundamental para o aumento da produção de biogás, que por sua vez é convertido em energia, essencial para a rentabilidade de exploração de ETAR. No entanto, a complexidade do processo de Digestão Anaeróbia das lamas constitui um obstáculo à sua otimização. Com este trabalho pretende-se efetuar a análise e tratamento de dados de Digestão Anaeróbia, com recurso a Redes Neuronais Artificiais (RNA), contribuindo, desta forma, para a compreensão do processo e do impacto de algumas variáveis na produção de biogás. As Redes Neuronais Artificiais são modelos matemáticos computacionais inspirados no funcionamento do cérebro humano, com capacidade para entender relações complexas num determinado conjunto de dados, motivo por que se optou pela sua utilização na procura de soluções que permitem predizer o comportamento de uma DA. Para o desenvolvimento das RNA utilizou-se o programa NeuralToolsTM da PalisadeTM. Como caso de estudo, a metodologia foi aplicada ao Digestor A da ETAR Sul da SIMRIA, empresa onde teve lugar o estágio curricular que originou o presente trabalho. Nesse contexto, utilizaram-se dados com informação referente aos últimos dois anos de funcionamento do digestor, disponíveis na empresa. Apesar de se terem verificado certas limitações, na predição em alguns casos particulares, de um modo geral, considera-se que os resultados obtidos permitiram concluir que as redes neuronais modeladas apresentam boa capacidade de generalização na imitação do processo anaeróbio. Conclui-se, portanto, que o estudo realizado pode constituir um contributo com interesse para a otimização da produção do biogás na DA de ETAR Sul da SIMRIA e que a utilização de RNA poderá ser uma ferramenta a explorar, quer nessa área, quer noutras áreas de gestão de sistemas de saneamento básico.
Resumo:
Modelação e simulação baseadas em agentes estão a ganhar cada vez mais importância e adeptos devido à sua flexibilidade e potencialidade em reproduzir comportamentos e estudar um sistema na perspetiva global ou das interações individuais. Neste trabalho, criou-se um sistema baseado em agentes e desenvolvido em Repast Simphony com o objectivo de analisar a difusão de um novo produto ou serviço através de uma rede de potenciais clientes, tentando compreender, assim, como ocorre e quanto tempo demora esta passagem de informação (inovação) com diversas topologias de rede, no contato direto entre pessoas. A simulação baseia-se no conceito da existencia de iniciadores, que são os primeiros consumidores a adotar um produto quando este chega ao mercado e os seguidores, que são os potenciais consumidores que, apesar de terem alguma predisposição para adotar um novo produto, normalmente só o fazem depois de terem sido sujeitos a algum tipo de influência. Com a aplicação criada, simularam-se diversas situações com a finalidade de obter e observar os resultados gerados a partir de definições iniciais diferentes. Com os resultados gerados pelas simulações foram criados gráficos representativos dos diversos cenários. A finalidade prática desta aplicação, poderá ser o seu uso em sala de aula para simulação de casos de estudo e utilização, em casos reais, como ferramenta de apoio à tomada de decisão, das empresas.
Resumo:
Objetivos: O objetivo deste estudo é descrever o quadro de inovação no setor da saúde em Portugal, identificar os fatores críticos de sucesso da inovação, investigando os impactos da inovação nas organizações do setor da saúde. Metodologia: Na concretização da presente dissertação, recorremos a uma abordagem quantitativa, combinando a análise documental com a estatística, ao nível da análise do tratamento dos dados recolhidos através do Inquérito Comunitário à Inovação, efetuando assim um estudo de caso exploratório, descritivo e transversal. Principais resultados: As organizações analisadas operam sobretudo em mercados locais e regionais, de onde provém, maioritariamente, o seu volume de negócios, 80% do qual é composto por produtos pré-existentes. A maioria introduziu inovações de produto, processo, organizacionais ou de marketing, revelando potencial inovador. A maioria dos produtos novos ou significativamente melhorados foram desenvolvidos internamente, privilegiando fornecedores, consultores, instituições privadas de I&D e instituições do ensino superior como parceiros de cooperação, localizados sobretudo em Portugal e outros países europeus. As razões que motivam estas organizações a inovar são a melhoria da qualidade dos produtos e da capacidade de resposta a clientes e fornecedores, a diversificação da gama de produtos e o reforço da capacidade de desenvolvimento de novos produtos. Conclusões: O setor revela dinamismo na introdução de produtos novos para o mercado e para a empresa, apostando sobretudo num processo de inovação fechada. A cooperação externa é muito orientada à I&D e há um reduzido envolvimento dos agentes de mercado nas atividades de I&D através de parcerias. Contudo, estes são considerados importantes como fonte de informação e as organizações procuram responder às suas necessidades. Diferentes tipos de organizações adotam diferentes estratégias de inovação, conforme o seu mercado e a sua situação atual, o que traduz a materialização de políticas de inovação contextual, em linha com os desenvolvimentos teóricos da atualidade.
Resumo:
Applied Physics B Lasers and Optics, vol.71
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Química
Resumo:
In search of an efficient but simple, low cost procedure for the serodiagnosis of Toxoplasmosis, especially suited for routine laboratories facing technical and budget limitations as in less developed countries, the diagnostic capability of Hematoxo® , an hemagglutination test for toxoplasmosis, was evaluated in relation to a battery of tests including IgG- and IgM-immunofluorescence tests, hemagglutination and an IgM-capture enzymatic assay. Detecting a little as 5 I.U. of IgG antitoxoplasma antibodies, Hematoxo® showed a straight agreement as to reactivity and non-reactivity for the 443 non-reactive and the 387 reactive serum samples, included in this study. In 23 cases presenting a serological pattern of acute toxoplasmosis and showing IgM antibodies, Hematoxo® could detect IgM antibodies in 18, indicated by negativation or a significant decrease in titers as a result of treating samples with 2-mercapto-ethanol. However, a neat increase in sensitivity for IgM specific antibodies could be achieved by previously removing IgG from the sample, as demonstrated in a series of acute toxoplasmosis sera. A simple procedure was developed for this purpose, by reconstituting a lyophilized suspension of Protein A - rich Staphylococcus with the lowest serum dilution to be tested. Of low cost and easy to perform, Hematoxo® affords not only a practical qualitative procedure for screening reactors and non-reactors, as in prenatal services, but also quantitative assays that permit to titrate antibodies as well as to identify IgM antibodies.
Resumo:
Thesis submitted to Faculdade de Ciências e Tecnologia of the Universidade Nova de Lisboa, in partial fulfillment of the requirements for the degree of Master in Computer Science
Resumo:
Background: The role of persistent organic pollutants (POPs) with endocrine disrupting activity in the aetiology of obesity and other metabolic dysfunctions has been recently highlighted. Adipose tissue (AT) is a common site of POPs accumulation where they can induce adverse effects on human health. Objectives: To evaluate the presence of POPs in human visceral (vAT) and subcutaneous (scAT) adipose tissue in a sample of Portuguese obese patients that underwent bariatric surgery, and assess their putative association with metabolic disruption preoperatively, as well as with subsequent body mass index (BMI) reduction. Methods: AT samples (n=189) from obese patients (BMI ≥35) were collected and the levels of 13 POPs were determined by gas chromatography with electron-capture detection (GC-ECD). Anthropometric and biochemical data were collected at the time of surgery. BMI variation was evaluated after 12 months and adipocyte size was measured in AT samples. Results: Our data confirm that POPs are pervasive in this obese population (96.3% of detection on both tissues), their abundance increasing with age (RS=0.310, p<0.01) and duration of obesity (RS=0.170, p<0.05). We observed a difference in AT depot POPs storage capability, with higher levels of ΣPOPs in vAT (213.9±204.2 compared to 155.1±147.4 ng/g of fat, p<0.001), extremely relevant when evaluating their metabolic impact. Furthermore, there was a positive correlation between POP levels and the presence of metabolic syndrome components, namely dysglycaemia and hypertension, and more importantly with cardiovascular risk (RS=0.277, p<0.01), with relevance for vAT (RS=0.315, p<0.01). Finally, we observed an interesting relation of higher POP levels with lower weight loss in older patients. Conclusion: Our sample of obese subjects allowed us to highlight the importance of POPs stored in AT on the development of metabolic dysfunction in a context of obesity, shifting the focus to their metabolic effects and not only for their recognition as environmental obesogens.
Resumo:
A vigilância de efeitos indesejáveis após a vacinação é complexa. Existem vários actores de confundimento que podem dar origem a associações espúrias, meramente temporais mas que podem provocar uma percepção do risco alterada e uma consequente desconfiança generalizada acerca do uso das vacinas. Com efeito as vacinas são medicamentos complexos com características únicas cuja vigilância necessita de abordagens metodológicas desenvolvidas para esse propósito. Do exposto se entende que, desde o desenvolvimento da farmacovigilância se tem procurado desenvolver novas metodologias que sejam concomitantes aos Sistemas de Notificação Espontânea que já existem. Neste trabalho propusemo-nos a desenvolver e testar um modelo de vigilância de reacções adversas a vacinas, baseado na auto-declaração pelo utente de eventos ocorridos após a vacinação e testar a capacidade de gerar sinais aplicando cálculos de desproporção a datamining. Para esse efeito foi constituída uma coorte não controlada de utentes vacinados em Centros de Saúde que foram seguidos durante quinze dias. A recolha de eventos adversos a vacinas foi efectuada pelos próprios utentes através de um diário de registo. Os dados recolhidos foram objecto de análise descritiva e análise de data-mining utilizando os cálculos Proportional Reporting Ratio e o Information Component. A metodologia utilizada permitiu gerar um corpo de evidência suficiente para a geração de sinais. Tendo sido gerados quatro sinais. No âmbito do data-mining a utilização do Information Component como método de geração de sinais parece aumentar a eficiência científica ao permitir reduzir o número de ocorrências até detecção de sinal. A informação reportada pelos utentes parece válida como indicador de sinais de reacções adversas não graves, o que permitiu o registo de eventos sem incluir o viés da avaliação da relação causal pelo notificador. Os principais eventos reportados foram eventos adversos locais (62,7%) e febre (31,4%).------------------------------------------ABSTRACT: The monitoring of undesirable effects following vaccination is complex. There are several confounding factors that can lead to merely temporal but spurious associations that can cause a change in the risk perception and a consequent generalized distrust about the safe use of vaccines. Indeed, vaccines are complex drugs with unique characteristics so that its monitoring requires specifically designed methodological approaches. From the above-cited it is understandable that since the development of Pharmacovigilance there has been a drive for the development of new methodologies that are concomitant with Spontaneous Reporting Systems already in place. We proposed to develop and test a new model for vaccine adverse reaction monitoring, based on self-report by users of events following vaccination and to test its capability to generate disproportionality signals applying quantitative methods of signal generation to data-mining. For that effect we set up an uncontrolled cohort of users vaccinated in Healthcare Centers,with a follow-up period of fifteen days. Adverse vaccine events we registered by the users themselves in a paper diary The data was analyzed using descriptive statistics and two quantitative methods of signal generation: Proportional Reporting Ratio and Information Component. themselves in a paper diary The data was analyzed using descriptive statistics and two quantitative methods of signal generation: Proportional Reporting Ratio and Information Component. The methodology we used allowed for the generation of a sufficient body of evidence for signal generation. Four signals were generated. Regarding the data-mining, the use of Information Component as a method for generating disproportionality signals seems to increase scientific efficiency by reducing the number of events needed to signal detection. The information reported by users seems valid as an indicator of non serious adverse vaccine reactions, allowing for the registry of events without the bias of the evaluation of the casual relation by the reporter. The main adverse events reported were injection site reactions (62,7%) and fever (31,4%).
Resumo:
This paper presents a step count algorithm designed to work in real-time using low computational power. This proposal is our first step for the development of an indoor navigation system, based on Pedestrian Dead Reckoning (PDR). We present two approaches to solve this problem and compare them based in their error on step counting, as well as, the capability of their use in a real time system.
Resumo:
The capability to anticipate a contact with another device can greatly improve the performance and user satisfaction not only of mobile social network applications but of any other relying on some form of data harvesting or hoarding. One of the most promising approaches for contact prediction is to extrapolate from past experiences. This paper investigates the recurring contact patterns observed between groups of devices using an 8-year dataset of wireless access logs produced by more than 70000 devices. This effort permitted to model the probabilities of occurrence of a contact at a predefined date between groups of devices using a power law distribution that varies according to neighbourhood size and recurrence period. In the general case, the model can be used by applications that need to disseminate large datasets by groups of devices. As an example, the paper presents and evaluates an algorithm that provides daily contact predictions, based on the history of past pairwise contacts and their duration. Copyright © 2015 ICST.
Resumo:
The development of high spatial resolution airborne and spaceborne sensors has improved the capability of ground-based data collection in the fields of agriculture, geography, geology, mineral identification, detection [2, 3], and classification [4–8]. The signal read by the sensor from a given spatial element of resolution and at a given spectral band is a mixing of components originated by the constituent substances, termed endmembers, located at that element of resolution. This chapter addresses hyperspectral unmixing, which is the decomposition of the pixel spectra into a collection of constituent spectra, or spectral signatures, and their corresponding fractional abundances indicating the proportion of each endmember present in the pixel [9, 10]. Depending on the mixing scales at each pixel, the observed mixture is either linear or nonlinear [11, 12]. The linear mixing model holds when the mixing scale is macroscopic [13]. The nonlinear model holds when the mixing scale is microscopic (i.e., intimate mixtures) [14, 15]. The linear model assumes negligible interaction among distinct endmembers [16, 17]. The nonlinear model assumes that incident solar radiation is scattered by the scene through multiple bounces involving several endmembers [18]. Under the linear mixing model and assuming that the number of endmembers and their spectral signatures are known, hyperspectral unmixing is a linear problem, which can be addressed, for example, under the maximum likelihood setup [19], the constrained least-squares approach [20], the spectral signature matching [21], the spectral angle mapper [22], and the subspace projection methods [20, 23, 24]. Orthogonal subspace projection [23] reduces the data dimensionality, suppresses undesired spectral signatures, and detects the presence of a spectral signature of interest. The basic concept is to project each pixel onto a subspace that is orthogonal to the undesired signatures. As shown in Settle [19], the orthogonal subspace projection technique is equivalent to the maximum likelihood estimator. This projection technique was extended by three unconstrained least-squares approaches [24] (signature space orthogonal projection, oblique subspace projection, target signature space orthogonal projection). Other works using maximum a posteriori probability (MAP) framework [25] and projection pursuit [26, 27] have also been applied to hyperspectral data. In most cases the number of endmembers and their signatures are not known. Independent component analysis (ICA) is an unsupervised source separation process that has been applied with success to blind source separation, to feature extraction, and to unsupervised recognition [28, 29]. ICA consists in finding a linear decomposition of observed data yielding statistically independent components. Given that hyperspectral data are, in given circumstances, linear mixtures, ICA comes to mind as a possible tool to unmix this class of data. In fact, the application of ICA to hyperspectral data has been proposed in reference 30, where endmember signatures are treated as sources and the mixing matrix is composed by the abundance fractions, and in references 9, 25, and 31–38, where sources are the abundance fractions of each endmember. In the first approach, we face two problems: (1) The number of samples are limited to the number of channels and (2) the process of pixel selection, playing the role of mixed sources, is not straightforward. In the second approach, ICA is based on the assumption of mutually independent sources, which is not the case of hyperspectral data, since the sum of the abundance fractions is constant, implying dependence among abundances. This dependence compromises ICA applicability to hyperspectral images. In addition, hyperspectral data are immersed in noise, which degrades the ICA performance. IFA [39] was introduced as a method for recovering independent hidden sources from their observed noisy mixtures. IFA implements two steps. First, source densities and noise covariance are estimated from the observed data by maximum likelihood. Second, sources are reconstructed by an optimal nonlinear estimator. Although IFA is a well-suited technique to unmix independent sources under noisy observations, the dependence among abundance fractions in hyperspectral imagery compromises, as in the ICA case, the IFA performance. Considering the linear mixing model, hyperspectral observations are in a simplex whose vertices correspond to the endmembers. Several approaches [40–43] have exploited this geometric feature of hyperspectral mixtures [42]. Minimum volume transform (MVT) algorithm [43] determines the simplex of minimum volume containing the data. The MVT-type approaches are complex from the computational point of view. Usually, these algorithms first find the convex hull defined by the observed data and then fit a minimum volume simplex to it. Aiming at a lower computational complexity, some algorithms such as the vertex component analysis (VCA) [44], the pixel purity index (PPI) [42], and the N-FINDR [45] still find the minimum volume simplex containing the data cloud, but they assume the presence in the data of at least one pure pixel of each endmember. This is a strong requisite that may not hold in some data sets. In any case, these algorithms find the set of most pure pixels in the data. Hyperspectral sensors collects spatial images over many narrow contiguous bands, yielding large amounts of data. For this reason, very often, the processing of hyperspectral data, included unmixing, is preceded by a dimensionality reduction step to reduce computational complexity and to improve the signal-to-noise ratio (SNR). Principal component analysis (PCA) [46], maximum noise fraction (MNF) [47], and singular value decomposition (SVD) [48] are three well-known projection techniques widely used in remote sensing in general and in unmixing in particular. The newly introduced method [49] exploits the structure of hyperspectral mixtures, namely the fact that spectral vectors are nonnegative. The computational complexity associated with these techniques is an obstacle to real-time implementations. To overcome this problem, band selection [50] and non-statistical [51] algorithms have been introduced. This chapter addresses hyperspectral data source dependence and its impact on ICA and IFA performances. The study consider simulated and real data and is based on mutual information minimization. Hyperspectral observations are described by a generative model. This model takes into account the degradation mechanisms normally found in hyperspectral applications—namely, signature variability [52–54], abundance constraints, topography modulation, and system noise. The computation of mutual information is based on fitting mixtures of Gaussians (MOG) to data. The MOG parameters (number of components, means, covariances, and weights) are inferred using the minimum description length (MDL) based algorithm [55]. We study the behavior of the mutual information as a function of the unmixing matrix. The conclusion is that the unmixing matrix minimizing the mutual information might be very far from the true one. Nevertheless, some abundance fractions might be well separated, mainly in the presence of strong signature variability, a large number of endmembers, and high SNR. We end this chapter by sketching a new methodology to blindly unmix hyperspectral data, where abundance fractions are modeled as a mixture of Dirichlet sources. This model enforces positivity and constant sum sources (full additivity) constraints. The mixing matrix is inferred by an expectation-maximization (EM)-type algorithm. This approach is in the vein of references 39 and 56, replacing independent sources represented by MOG with mixture of Dirichlet sources. Compared with the geometric-based approaches, the advantage of this model is that there is no need to have pure pixels in the observations. The chapter is organized as follows. Section 6.2 presents a spectral radiance model and formulates the spectral unmixing as a linear problem accounting for abundance constraints, signature variability, topography modulation, and system noise. Section 6.3 presents a brief resume of ICA and IFA algorithms. Section 6.4 illustrates the performance of IFA and of some well-known ICA algorithms with experimental data. Section 6.5 studies the ICA and IFA limitations in unmixing hyperspectral data. Section 6.6 presents results of ICA based on real data. Section 6.7 describes the new blind unmixing scheme and some illustrative examples. Section 6.8 concludes with some remarks.
Resumo:
A correlation and predictive scheme for the viscosity and self-diffusivity of liquid dialkyl adipates is presented. The scheme is based on the kinetic theory for dense hard-sphere fluids, applied to the van der Waals model of a liquid to predict the transport properties. A "universal" curve for a dimensionless viscosity of dialkyl adipates was obtained using recently published experimental viscosity and density data of compressed liquid dimethyl (DMA), dipropyl (DPA), and dibutyl (DBA) adipates. The experimental data are described by the correlation scheme with a root-mean-square deviation of +/- 0.34 %. The parameters describing the temperature dependence of the characteristic volume, V-0, and the roughness parameter, R-eta, for each adipate are well correlated with one single molecular parameter. Recently published experimental self-diffusion coefficients of the same set of liquid dialkyl adipates at atmospheric pressure were correlated using the characteristic volumes obtained from the viscosity data. The roughness factors, R-D, are well correlated with the same single molecular parameter found for viscosity. The root-mean-square deviation of the data from the correlation is less than 1.07 %. Tests are presented in order to assess the capability of the correlation scheme to estimate the viscosity of compressed liquid diethyl adipate (DEA) in a range of temperatures and pressures by comparison with literature data and of its self-diffusivity at atmospheric pressure in a range of temperatures. It is noteworthy that no data for DEA were used to build the correlation scheme. The deviations encountered between predicted and experimental data for the viscosity and self-diffusivity do not exceed 2.0 % and 2.2 %, respectively, which are commensurate with the estimated experimental measurement uncertainty, in both cases.
Resumo:
Nos últimos anos, o processo de ensino e aprendizagem tem sofrido significativas alterações graças ao aparecimento da Internet. Novas ferramentas para apoio ao ensino têm surgido, nas quais se destacam os laboratórios remotos. Atualmente, muitas instituições de ensino disponibilizam laboratórios remotos nos seus cursos, que permitem, a professores e alunos, a realização de experiências reais através da Internet. Estes são implementados por diferentes arquiteturas e infraestruturas, suportados por vários módulos de laboratório acessíveis remotamente (e.g. instrumentos de medição). No entanto, a sua inclusão no ensino é ainda deficitária, devido: i) à falta de meios e competências técnicas das instituições de ensino para os desenvolverem, ii) à dificuldade na partilha dos módulos de laboratório por diferentes infraestruturas e, iii) à reduzida capacidade de os reconfigurar com esses módulos. Para ultrapassar estas limitações, foi idealizado e desenvolvido no âmbito de um trabalho de doutoramento [1] um protótipo, cuja arquitetura é baseada na norma IEEE 1451.0 e na tecnologia de FPGAs. Para além de garantir o desenvolvimento e o acesso de forma normalizada a um laboratório remoto, este protótipo promove ainda a partilha de módulos de laboratório por diferentes infraestruturas. Nesse trabalho explorou-se a capacidade de reconfiguração de FPGAs para embutir na infraestrutura do laboratório vários módulos, todos descritos em ficheiros, utilizando linguagens de descrição de hardware estruturados de acordo com a norma IEEE 1451.0. A definição desses módulos obriga à criação de estruturas de dados binárias (Transducer Electronic Data Sheets, TEDSs), bem como de outros ficheiros que possibilitam a sua interligação com a infraestrutura do laboratório. No entanto, a criação destes ficheiros é bastante complexa, uma vez que exige a realização de vários cálculos e conversões. Tendo em consideração essa mesma complexidade, esta dissertação descreve o desenvolvimento de uma aplicação Web para leitura e escrita dos TEDSs. Para além de um estudo sobre os laboratórios remotos, é efetuada uma descrição da norma IEEE 1451.0, com particular atenção para a sua arquitetura e para a estrutura dos diferentes TEDSs. Com o objetivo de enquadrar a aplicação desenvolvida, efetua-se ainda uma breve apresentação de um protótipo de um laboratório remoto reconfigurável, cuja reconfiguração é apoiada por esta aplicação. Por fim, é descrita a verificação da aplicação Web, de forma a tirar conclusões sobre o seu contributo para a simplificação dessa reconfiguração.