968 resultados para Implicit calibration


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A comparative study concerning the robustness of a novel, Fixed Point Transformations/Singular Value Decomposition (FPT/SVD)-based adaptive controller and the Slotine-Li (S&L) approach is given by numerical simulations using a three degree of freedom paradigm of typical Classical Mechanical systems, the cart + double pendulum. The effects of the imprecision of the available dynamical model, presence of dynamic friction at the axles of the drives, and the existence of external disturbance forces unknown and not modeled by the controller are considered. While the Slotine-Li approach tries to identify the parameters of the formally precise, available analytical model of the controlled system with the implicit assumption that the generalized forces are precisely known, the novel one makes do with a very rough, affine form and a formally more precise approximate model of that system, and uses temporal observations of its desired vs. realized responses. Furthermore, it does not assume the lack of unknown perturbations caused either by internal friction and/or external disturbances. Its another advantage is that it needs the execution of the SVD as a relatively time-consuming operation on a grid of a rough system-model only one time, before the commencement of the control cycle within which it works only with simple computations. The simulation examples exemplify the superiority of the FPT/SVD-based control that otherwise has the deficiency that it can get out of the region of its convergence. Therefore its design and use needs preliminary simulation investigations. However, the simulations also exemplify that its convergence can be guaranteed for various practical purposes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os métodos clínicos que são realizados com recurso a tecnologias de imagiologia têm registado um aumento de popularidade nas últimas duas décadas. Os procedimentos tradicionais usados em cirurgia têm sido substituídos por métodos minimamente invasivos de forma a conseguir diminuir os custos associados e aperfeiçoar factores relacionados com a produtividade. Procedimentos clínicos modernos como a broncoscopia e a cardiologia são caracterizados por se focarem na minimização de acções invasivas, com os arcos em ‘C’ a adoptarem um papel relevante nesta área. Apesar de o arco em ‘C’ ser uma tecnologia amplamente utilizada no auxílio da navegação em intervenções minimamente invasivas, este falha na qualidade da informação fornecida ao cirurgião. A informação obtida em duas dimensões não é suficiente para proporcionar uma compreensão total da localização tridimensional da região de interesse, revelando-se como uma tarefa essencial o estabelecimento de um método que permita a aquisição de informação tridimensional. O primeiro passo para alcançar este objectivo foi dado ao definir um método que permite a estimativa da posição e orientação de um objecto em relação ao arco em ‘C’. De forma a realizar os testes com o arco em ‘C’, a geometria deste teve que ser inicialmente definida e a calibração do sistema feita. O trabalho desenvolvido e apresentado nesta tese foca-se num método que provou ser suficientemente sustentável e eficiente para se estabelecer como um ponto de partida no caminho para alcançar o objectivo principal: o desenvolvimento de uma técnica que permita o aperfeiçoamento da qualidade da informação adquirida com o arco em ‘C’ durante uma intervenção clínica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Química - Ramo Optimização Energética na Indústria Química

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na atualidade, está a emergir um novo paradigma de interação, designado por Natural User Interface (NUI) para reconhecimento de gestos produzidos com o corpo do utilizador. O dispositivo de interação Microsoft Kinect foi inicialmente concebido para controlo de videojogos, para a consola Xbox360. Este dispositivo demonstra ser uma aposta viável para explorar outras áreas, como a do apoio ao processo de ensino e de aprendizagem para crianças do ensino básico. O protótipo desenvolvido visa definir um modo de interação baseado no desenho de letras no ar, e realizar a interpretação dos símbolos desenhados, usando os reconhecedores de padrões Kernel Discriminant Analysis (KDA), Support Vector Machines (SVM) e $N. O desenvolvimento deste projeto baseou-se no estudo dos diferentes dispositivos NUI disponíveis no mercado, bibliotecas de desenvolvimento NUI para este tipo de dispositivos e algoritmos de reconhecimento de padrões. Com base nos dois elementos iniciais, foi possível obter uma visão mais concreta de qual o hardware e software disponíveis indicados à persecução do objetivo pretendido. O reconhecimento de padrões constitui um tema bastante extenso e complexo, de modo que foi necessária a seleção de um conjunto limitado deste tipo de algoritmos, realizando os respetivos testes por forma a determinar qual o que melhor se adequava ao objetivo pretendido. Aplicando as mesmas condições aos três algoritmos de reconhecimento de padrões permitiu avaliar as suas capacidades e determinar o $N como o que apresentou maior eficácia no reconhecimento. Por último, tentou-se averiguar a viabilidade do protótipo desenvolvido, tendo sido testado num universo de elementos de duas faixas etárias para determinar a capacidade de adaptação e aprendizagem destes dois grupos. Neste estudo, constatou-se um melhor desempenho inicial ao modo de interação do grupo de idade mais avançada. Contudo, o grupo mais jovem foi revelando uma evolutiva capacidade de adaptação a este modo de interação melhorando progressivamente os resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas de perceção existentes nos robôs autónomos, hoje em dia, são bastante complexos. A informação dos vários sensores, existentes em diferentes partes do robôs, necessitam de estar relacionados entre si face ao referencial do robô ou do mundo. Para isso, o conhecimento da atitude (posição e rotação) entre os referenciais dos sensores e o referencial do robô é um fator critico para o desempenho do mesmo. O processo de calibração dessas posições e translações é chamado calibração dos parâmetros extrínsecos. Esta dissertação propõe o desenvolvimento de um método de calibração autónomo para robôs como câmaras direcionais, como é o caso dos robôs da equipa ISePorto. A solução proposta consiste na aquisição de dados da visão, giroscópio e odometria durante uma manobra efetuada pelo robô em torno de um alvo com um padrão conhecido. Esta informação é então processada em conjunto através de um Extended Kalman Filter (EKF) onde são estimados necessários para relacionar os sensores existentes no robô em relação ao referencial do mesmo. Esta solução foi avaliada com recurso a vários testes e os resultados obtidos foram bastante similares aos obtidos pelo método manual, anteriormente utilizado, com um aumento significativo em rapidez e consistência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada à Escola Superior de Educação de Lisboa para obtenção de grau de mestre em Didática da Língua Portuguesa

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em engenharia electrotécnica e de computadores - Área de Especialização de Sistemas Autónomos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

IEEE International Symposium on Circuits and Systems, pp. 220 – 223, Seattle, EUA

Relevância:

10.00% 10.00%

Publicador:

Resumo:

IEEE International Symposium on Circuits and Systems, pp. 2258 – 2261, Seattle, EUA

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Review of scientific instruments, Vol.72, Nº9

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho de projeto realizado para obtenção do grau de Mestre em Engenharia Informática e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho foi realizado como parte integrante do mestrado em música da Escola Superior de Música de Lisboa (ESML), e procurou explorar a utilização de “novos ritmos” (Belling, 2010), sobretudo a polimetria em uma peça para piano e percussão intitulada de “Martulus”, com pequena influência de células rítmicas afro-brasileiras e composta durante o último semestre do mestrado. A polimétrica realiza-se na peça sobrepondo, em vários momentos, os diferentes instrumentos em compassos diferentes uns dos outros o que resulta no fato de as barras de compassos por vezes não serem simétricas e o primeiro tempo do compasso acontecer em vários momentos diferentes, os instrumentos que utilizam duas claves, como o piano e a marimba, puderam utilizar às vezes de compassos diferentes em cada clave de forma sobreposta. A peça termina com o compasso de 0/8 e sem barras de compasso, o 8 do denominador faz alusão as colcheias que passa a ser a única forma de guia para os instrumentistas e ausência de primeiro tempo deixando a música suspensa sem acentos implícitos. A peça foi composta para 7 instrumentistas e 7 instrumentos; piano, marimba, tímpano, bumbo grande, caixa, congas, bongôs, e da forma como foi escrita um mesmo percussionista não pode tocar mais do que um instrumento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Basidiomycete strains synthesize several types of beta-D-glucans, which play a major role in the medicinal properties of mushrooms. Therefore, the specific quantification of these beta-D-glucans in mushroom strains is of great biochemical importance. Because published assay methods for these beta-D-glucans present some disadvantages, a novel colorimetric assay method for beta-D-glucan with alcian blue dye was developed. The complex formation was detected by following the decrease in absorbance in the range of 620 nm and by hypsochromic shift from 620 to 606 nm (similar to 14 nm) in UV-Vis spectrophotometer. Analysis of variance was used for optimization of the slope of the calibration curve by using the assay mixture containing 0.017% (w/v) alcian blue in 2% (v/v) acetic acid at pH 3.0. The high-throughput colorimetric assay method on microtiter plates was used for quantification of beta-D-glucans in the range of 0-0.8 mu g, with a slope of 44.15 x 10(-2) and a limit of detection of 0.017 mu g/well. Recovery experiments were carried out by using a sample of Hericium erinaceus, which exhibited a recovery of 95.8% for beta-1,3-D-glucan. The present assay method exhibited a 10-fold higher sensitivity and a 59-fold lower limit of detection compared with the published method with congo red beta-D-glucans of several mushrooms strains were isolated from fruiting bodies and mycelia, and they were quantified by this assay method. This assay method is fast, specific, simple, and it can be used to quantify beta-D-glucans from other biological sources. (C) 2015 American Institute of Chemical Engineers

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Human epidermal growth factor receptor 2 (HER2) is a breast cancer biomarker that plays a major role in promoting breast cancer cell proliferation and malignant growth. The extracellular domain (ECD) of HER2 can be shed into the blood stream and its concentration is measurable in the serum fraction of blood. In this work an electrochemical immunosensor for the analysis of HER2 ECD in human serum samples was developed. To achieve this goal a screen-printed carbon electrode, modified with gold nanoparticles, was used as transducer surface. A sandwich immunoassay, using two monoclonal antibodies, was employed and the detection of the antibody–antigen interaction was performed through the analysis of an enzymatic reaction product by linear sweep voltammetry. Using the optimized experimental conditions the calibration curve (ip vs. log[HER2 ECD]) was established between 15 and 100 ng/mL and a limit of detection (LOD) of 4.4 ng/mL was achieved. These results indicate that the developed immunosensor could be a promising tool in breast cancer diagnostics, patient follow-up and monitoring of metastatic breast cancer since it allows quantification in a useful concentration range and has an LOD below the established cut-off value (15 ng/mL).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Consider the problem of assigning implicit-deadline sporadic tasks on a heterogeneous multiprocessor platform comprising two different types of processors—such a platform is referred to as two-type platform. We present two low degree polynomial time-complexity algorithms, SA and SA-P, each providing the following guarantee. For a given two-type platform and a task set, if there exists a task assignment such that tasks can be scheduled to meet deadlines by allowing them to migrate only between processors of the same type (intra-migrative), then (i) using SA, it is guaranteed to find such an assignment where the same restriction on task migration applies but given a platform in which processors are 1+α/2 times faster and (ii) SA-P succeeds in finding a task assignment where tasks are not allowed to migrate between processors (non-migrative) but given a platform in which processors are 1+α times faster. The parameter 0<α≤1 is a property of the task set; it is the maximum of all the task utilizations that are no greater than 1. We evaluate average-case performance of both the algorithms by generating task sets randomly and measuring how much faster processors the algorithms need (which is upper bounded by 1+α/2 for SA and 1+α for SA-P) in order to output a feasible task assignment (intra-migrative for SA and non-migrative for SA-P). In our evaluations, for the vast majority of task sets, these algorithms require significantly smaller processor speedup than indicated by their theoretical bounds. Finally, we consider a special case where no task utilization in the given task set can exceed one and for this case, we (re-)prove the performance guarantees of SA and SA-P. We show, for both of the algorithms, that changing the adversary from intra-migrative to a more powerful one, namely fully-migrative, in which tasks can migrate between processors of any type, does not deteriorate the performance guarantees. For this special case, we compare the average-case performance of SA-P and a state-of-the-art algorithm by generating task sets randomly. In our evaluations, SA-P outperforms the state-of-the-art by requiring much smaller processor speedup and by running orders of magnitude faster.