964 resultados para AVOIDING DIVERGENCE
Resumo:
The trajectory planning of redundant robots is an important area of research and efficient optimization algorithms are needed. The pseudoinverse control is not repeatable, causing drift in joint space which is undesirable for physical control. This paper presents a new technique that combines the closed-loop pseudoinverse method with genetic algorithms, leading to an optimization criterion for repeatable control of redundant manipulators, and avoiding the joint angle drift problem. Computer simulations performed based on redundant and hyper-redundant planar manipulators show that, when the end-effector traces a closed path in the workspace, the robot returns to its initial configuration. The solution is repeatable for a workspace with and without obstacles in the sense that, after executing several cycles, the initial and final states of the manipulator are very close.
Resumo:
In order to correctly assess the biaxial fatigue material properties one must experimentally test different load conditions and stress levels. With the rise of new in-plane biaxial fatigue testing machines, using smaller and more efficient electrical motors, instead of the conventional hydraulic machines, it is necessary to reduce the specimen size and to ensure that the specimen geometry is appropriated for the load capacity installed. At the present time there are no standard specimen’s geometries and the indications on literature how to design an efficient test specimen are insufficient. The main goal of this paper is to present the methodology on how to obtain an optimal cruciform specimen geometry, with thickness reduction in the gauge area, appropriated for fatigue crack initiation, as a function of the base material sheet thickness used to build the specimen. The geometry is optimized for maximum stress using several parameters, ensuring that in the gauge area the stress is uniform and maximum with two limit phase shift loading conditions. Therefore the fatigue damage will always initiate on the center of the specimen, avoiding failure outside this region. Using the Renard Series of preferred numbers for the base material sheet thickness as a reference, the reaming geometry parameters are optimized using a derivative-free methodology, called direct multi search (DMS) method. The final optimal geometry as a function of the base material sheet thickness is proposed, as a guide line for cruciform specimens design, and as a possible contribution for a future standard on in-plane biaxial fatigue tests. © 2014, Gruppo Italiano Frattura. All rights reserved.
Resumo:
Meshless methods are used for their capability of producing excellent solutions without requiring a mesh, avoiding mesh related problems encountered in other numerical methods, such as finite elements. However, node placement is still an open question, specially in strong form collocation meshless methods. The number of used nodes can have a big influence on matrix size and therefore produce ill-conditioned matrices. In order to optimize node position and number, a direct multisearch technique for multiobjective optimization is used to optimize node distribution in the global collocation method using radial basis functions. The optimization method is applied to the bending of isotropic simply supported plates. Using as a starting condition a uniformly distributed grid, results show that the method is capable of reducing the number of nodes in the grid without compromising the accuracy of the solution. (C) 2013 Elsevier Ltd. All rights reserved.
Resumo:
In this paper a new PCA-based positioning sensor and localization system for mobile robots to operate in unstructured environments (e. g. industry, services, domestic ...) is proposed and experimentally validated. The inexpensive positioning system resorts to principal component analysis (PCA) of images acquired by a video camera installed onboard, looking upwards to the ceiling. This solution has the advantage of avoiding the need of selecting and extracting features. The principal components of the acquired images are compared with previously registered images, stored in a reduced onboard image database, and the position measured is fused with odometry data. The optimal estimates of position and slippage are provided by Kalman filters, with global stable error dynamics. The experimental validation reported in this work focuses on the results of a set of experiments carried out in a real environment, where the robot travels along a lawn-mower trajectory. A small position error estimate with bounded co-variance was always observed, for arbitrarily long experiments, and slippage was estimated accurately in real time.
Resumo:
Os biocombustíveis são combustíveis com origem em matérias-primas naturais e renováveis, como óleos vegetais, gorduras animais, óleos e gorduras residuais entre outros, utilizados como substitutos de combustíveis minerais, como o gasóleo ou gasolina. Esta alternativa aos combustíveis de origem fóssil, tem-se vindo a revelar cada vez mais atrativa, sobretudo devido aos seus benefícios ambientais, destacando-se entre ele s o facto de serem biodegradáveis, não tóxicos e emitirem menos gases aquando da sua combustão, não contribuindo deste modo para o aumento do efeito de estufa na atmosfera. Na execução do presente trabalho, assume-se como finalidade o desenvolvimento de procedimentos laboratoriais sistemático de modo, com o intuito de elaborar um controlo de qualidade para a produção do biodiesel que permita a implementação de novas medidas processuais melhorando a produção de biodiesel. Este trabalho é resultado do estágio no Ecoparque Braval Valorização e Tratamento de Resíduos Sólidos, S.A. Com a avaliação sistemática e contínua, tanto da matéria-prima usada na produção do biodiesel, como do produto final em si, através de procedimentos laboratoriais específicos para o efeito, visa-se que em distintas fases do processo de produção do biodiesel seja compreendido o que ocorre de forma efetiva, e assim se assumam medidas preventivas e corretivas com o intuito de melhorar a qualidade do produto final. Na elaboração deste trabalho foram também reunidos esforços no sentido de controlar as especificações do óleo à entrada das instalações e iniciar o controlo de qualidade do produto final através de análises comparativas elaboradas no laboratório da Unidade de Produção de Biodiesel do Ecoparque Brava! - Valorização e Tratamento de Resíduos Sólidos, S.A. Outra abordagem do trabalho em questão, incide no estudo do efeito da variação das condições operatórias, nomeadamente a razão molar metanol/óleo , quantidade de catalizador na produção de biodiesel, nomeadamente, na quantidade de glicerina obtida como subproduto da reação e na facilidade de separação de fases. Neste sentido, o trabalho proposto pretende controlar a qualidade da matéria-prima usada, a qualidade do produto final e apresentar os aspetos-chave que deve m ser considerados para urna melhor gestão do s recursos de produção do biocombustível.
Resumo:
In the field of appearance-based robot localization, the mainstream approach uses a quantized representation of local image features. An alternative strategy is the exploitation of raw feature descriptors, thus avoiding approximations due to quantization. In this work, the quantized and non-quantized representations are compared with respect to their discriminativity, in the context of the robot global localization problem. Having demonstrated the advantages of the non-quantized representation, the paper proposes mechanisms to reduce the computational burden this approach would carry, when applied in its simplest form. This reduction is achieved through a hierarchical strategy which gradually discards candidate locations and by exploring two simplifying assumptions about the training data. The potential of the non-quantized representation is exploited by resorting to the entropy-discriminativity relation. The idea behind this approach is that the non-quantized representation facilitates the assessment of the distinctiveness of features, through the entropy measure. Building on this finding, the robustness of the localization system is enhanced by modulating the importance of features according to the entropy measure. Experimental results support the effectiveness of this approach, as well as the validity of the proposed computation reduction methods.
Resumo:
This article reports on a new and swift hydrothermal chemical route to prepare titanate nanostructures (TNS) avoiding the use of crystalline TiO2 as starting material. The synthesis approach uses a commercial solution of TiCl3 as titanium source to prepare an amorphous precursor, circumventing the use of hazardous chemical compounds. The influence of the reaction temperature and dwell autoclave time on the structure and morphology of the synthesised materials was studied. Homogeneous titanate nanotubes with a high length/diameter aspect ratio were synthesised at 160 degrees C and 24 h. A band gap of 3.06 +/- 0.03 eV was determined for the TNS samples prepared in these experimental conditions. This value is red shifted by 0.14 eV compared to the band gap value usually reported for the TiO2 anatase. Moreover, such samples show better adsorption capacity and photocatalytic performance on the dye rhodamine 6G (R6G) photodegradation process than TiO2 nanoparticles. A 98% reduction of the R6G concentration was achieved after 45 min of irradiation of a 10 ppm dye aqueous solution and 1 g L-1 of TNS catalyst.
Resumo:
The integration of large amounts of wind energy in power systems raises important operation issues such as the balance between power demand and generation. The pumped storage hydro (PSH) units are seen as one solution for this issue, avoiding the need for wind power curtailments. However, the behavior of a PSH unit might differ considerably when it operates in a liberalized market with some degree of market power. In this regard, a new approach for the optimal daily scheduling of a PSH unit in the day-ahead electricity market was developed and presented in this paper, in which the market power is modeled by a residual inverse demand function with a variable elasticity. The results obtained show that increasing degrees of market power of the PSH unit correspond to decreasing levels of storage and, therefore, the capacity to integrate wind power is considerably reduced under these circumstances.
Resumo:
To boost logic density and reduce per unit power consumption SRAM-based FPGAs manufacturers adopted nanometric technologies. However, this technology is highly vulnerable to radiation-induced faults, which affect values stored in memory cells, and to manufacturing imperfections. Fault tolerant implementations, based on Triple Modular Redundancy (TMR) infrastructures, help to keep the correct operation of the circuit. However, TMR is not sufficient to guarantee the safe operation of a circuit. Other issues like module placement, the effects of multi- bit upsets (MBU) or fault accumulation, have also to be addressed. In case of a fault occurrence the correct operation of the affected module must be restored and/or the current state of the circuit coherently re-established. A solution that enables the autonomous restoration of the functional definition of the affected module, avoiding fault accumulation, re-establishing the correct circuit state in real-time, while keeping the normal operation of the circuit, is presented in this paper.
Resumo:
To increase the amount of logic available in SRAM-based FPGAs manufacturers are using nanometric technologies to boost logic density and reduce prices. However, nanometric scales are highly vulnerable to radiation-induced faults that affect values stored in memory cells. Since the functional definition of FPGAs relies on memory cells, they become highly prone to this type of faults. Fault tolerant implementations, based on triple modular redundancy (TMR) infrastructures, help to keep the correct operation of the circuit. However, TMR is not sufficient to guarantee the safe operation of a circuit. Other issues like the effects of multi-bit upsets (MBU) or fault accumulation, have also to be addressed. Furthermore, in case of a fault occurrence the correct operation of the affected module must be restored and the current state of the circuit coherently re-established. A solution that enables the autonomous correct restoration of the functional definition of the affected module, avoiding fault accumulation, re-establishing the correct circuit state in realtime, while keeping the normal operation of the circuit, is presented in this paper.
Resumo:
A pesquisa sobre resiliência sugere que a criança que se desenvolve em contexto adverso, poderá usufruir de atributos relevantes, pessoais e do ambiente. Neste sentido pretendeu-se estudar, até que ponto, as competências de modulação sensorial da criança e a qualidade das interacções mãe-filho, influenciavam as trajectórias de risco e podiam promover as oportunidades de resiliência da criança. Participaram no estudo 136 crianças, 67 do sexo feminino e 69 do sexo masculino, com idades entre os 7 e os 36 meses. Analisámos a sensibilidade materna em situação de jogo livre recorrendo à escala CARE-Index e o processamento sensorial através do de entrevista baseado no protocolo de Dunn (1997) assente nos quatro padrões de processamento sensorial: baixo registo; sensibilidade sensorial; procura sensorial; evitamento sensorial, construto anteriormente validado. Constituímos, com base nas premissas do modelo de avaliação autêntica, um índex de capacidades, que nos serviu como referencial para a avaliação do risco e da resiliência. Os resultados indicaram que a resiliência infantil em ambiente de pobrezaestava associada a indicadores de elevada sensibilidade materna e a índices adequados de processamento sensorial. A discussão dos resultados enquadrou-se nos modelos actuais e emergentes das influências neurobiológicas e ambientais nos processos de risco e de resiliência.
Resumo:
O consumo de energia a nível mundial tem atingido valores históricos, devido ao crescimento da população mundial e ao aumento do consumo per capita. Nesta medida é extremamente importante existirem alternativas para que a redução do consumo de energia de todos os países seja uma realidade, evitando também as consequências ambientais, em particular as alterações climáticas, resultantes da utilização intensiva de combustíveis fósseis. Portugal, tal como outros países da União Europeia, tem que cumprir metas, pelo que é urgente encontrarem-se soluções de forma a diminuir o consumo de energia sem interferir com o nosso dia-a-dia. A cidade do Porto, tal como qualquer cidade, precisa de imensa energia desde os transportes até à indústria, passando pelos edifícios. Os edifícios, residenciais e de serviços, são responsáveis por mais de 50% de energia primária consumida no concelho do Porto, sendo que aos edifícios residenciais corresponde um consumo de 1.473 GWh/ano de energia primária, o que é um valor elevado. Numa primeira parte deste trabalho foi efetuado um levantamento de informação caracterizando a cidade do Porto relativamente ao seu edificado e consumos energéticos. Numa segunda parte propuseram-se medidas para reduzir o consumo para cada tipo de utilização de energia, nomeadamente preparação de refeições, AQS (água quente sanitária), aquecimento ambiente, frio (frigorífico, arcas, etc.), outros e iluminação. Para cada um destes tipos de utilização estudou-se, sempre que possível, a evolução do longo do tempo (2004 a 2012) e possíveis cenários de evolução para o futuro. Para além disso, também se estudou a evolução do mix de produção de energia elétrica de 2004 até 2012 e previsões da evolução do mix para o futuro. Nesta análise foi tido em conta o aspeto ambiental contabilizando-se, sempre que possível, as emissões de poluentes resultantes do consumo de energia. Por fim, efetuou-se uma avaliação técnica, ambiental e económica das medidas propostas. Pode dizer-se que a maioria das medidas propostas a serem implementadas conduziria a uma redução do consumo de energia e consequentemente a uma diminuição das emissões de poluentes, em particular dos gases com efeito de estufa (CO2). Em termos técnicos a maioria das medidas pode ser aplicada embora algumas delas envolvam custos de investimento significativos. Dada a conjuntura atual, seria importante obter o financiamento necessário para a implementação das medidas propostas e a divulgação de medidas já existentes, tais como os programas para AQS e janelas eficientes.
Resumo:
As novas tecnologias, e a Internet em particular, criaram novas formas de transmissão de informação para o público e alteraram a forma como as pessoas comunicam. Isto abriu portas a novas formas de publicidade e ao aparecimento de um novo género de jogos, os advergames, aproveitando o facto dos jogos online contarem já com milhões de jogadores a nível mundial, um número que continua em constante crescimento. O conceito é relativamente recente mas apresenta resultados bastante positivos, com muitos especialistas a defender que os advergames são o futuro da publicidade, em grande parte devido aos custos inferiores e ao tempo de exposição do produto, quando comparado com os métodos mais tradicionais de publicidade. Os Jogos Sérios e, em especial, os advergames são o tema principal desta tese, com uma análise detalhada das suas vantagens e desvantagens, origens e oportunidade de desenvolvimento no futuro. São também analisados alguns casos de advergames de sucesso. A componente prática da tese tem como objetivo a criação de um advergame com o propósito principal de auxiliar os novos alunos do ISEP no seu processo de integração. O jogo consiste num formato de labirinto em duas dimensões, com objetivos que consistem na captura de certos objetos e entrega dos mesmos em pontos de destino pré-definidos, sempre dentro de um tempo limite e evitando outros perigos e obstáculos. Os resultados obtidos com a aplicação deste jogo demonstram que a transmissão de informação é bastante eficaz junto do seu público-alvo, devido em parte à abordagem mais dinâmica e interativa que um advergame tem com os seus utilizadores. A simplicidade da interface e facilidade de utilização proporcionada pelo jogo permitem uma exposição alargada da mensagem a passar, aumentando a motivação do jogador para se manter em contacto com o mesmo. Isto apresenta perspetivas bastante otimistas para o futuro da utilização de advergames no meio Universitário.
Resumo:
A dificuldade de controlo de um motor de indução, bem como o armazenamento de energia CC e posterior utilização como energia alternada promoveram o desenvolvimento de variadores de frequência e inversores. Assim, como projeto de tese de mestrado em Automação e Sistemas surge o desenvolvimento de um variador de frequência. Para elaboração do variador de frequência efetuou-se um estudo sobre as técnicas de modulação utilizadas nos inversores. A técnica escolhida e utilizada é a Sinusoidal Pulse Width Modulation (SPWM). Esta técnica baseia-se na modelação por largura de impulso (PWM), o qual é formado por comparação de um sinal de referência com um sinal de portadora de elevada frequência. Por sua vez, a topologia escolhida para o inversor corresponde a um Voltage Source Inverter (VSI) de ponte trifásica completa a três terminais. O desenvolvimento da técnica de modulação SPWM levou ao desenvolvimento de um modelo de simulação em SIMULINK, o qual permitiu retirar conclusões sobre os resultados obtidos. Na fase de implementação, foram desenvolvidas placas para o funcionamento do variador de frequência. Assim, numa fase inicial foi desenvolvida a placa de controlo, a qual contém a unidade de processamento e que é responsável pela atuação de Insulated Gate Bipolar Transistors (IGBTs). Para além disso, foi desenvolvida uma placa para proteção dos IGBTs (evitando condução simultânea no mesmo terminal) e uma placa de fontes isoladas para alimentação dos circuitos e para atuação dos IGBTs. Ainda, foi desenvolvida a técnica de SPWM em software para a unidade de controlo e finalmente foi desenvolvida uma interface gráfica para interação com o utilizador. A validação do projeto foi conseguida através da variação da velocidade do motor de indução trifásico. Para isso, este foi colocado a funcionar a diversas frequências de funcionamento e a diferentes amplitudes. Para além disso, o seu funcionamento foi também validado utilizando uma carga trifásica equilibrada de 3 lâmpadas de forma a ser visualizada a variação de frequência e variação de amplitude.
Resumo:
α3/4-Fucosyltransferases (α3/4-FUTs) are glycosyltransferases (GTs) that catalyze the transfer of fucose in an α3/4-linkage onto the N-acetylglucosamine residue from acceptors containing the type II or type I (Galβ4/3GlcNAc, respectively) structures, thus synthesizing the fucosylated Lewis (Le) carbohydrate determinants. Fucosyltransferase IX (FUT9), the most recently identified member of the family, presents the higher divergence from the other FUTs and its sequence is the only highly conserved among species. FUT9 synthesizes the Lewisx (Lex) epitope (Galβ4(Fucα3)GlcNAc). Recent evidence has suggested that it is the enzyme responsible for the synthesis of Lex in the mouse brain. Lex expression has been described in glycoproteins, proteoglycans and glycolipids from the central nervous system (CNS) of diverse species, including rodents and humans.