329 resultados para Simplicidade
Resumo:
An alternative nonlinear technique for decoupling and control is presented. This technique is based on a RBF (Radial Basis Functions) neural network and it is applied to the synchronous generator model. The synchronous generator is a coupled system, in other words, a change at one input variable of the system, changes more than one output. The RBF network will perform the decoupling, separating the control of the following outputs variables: the load angle and flux linkage in the field winding. This technique does not require knowledge of the system parameters and, due the nature of radial basis functions, it shows itself stable to parametric uncertainties, disturbances and simpler when it is applied in control. The RBF decoupler is designed in this work for decouple a nonlinear MIMO system with two inputs and two outputs. The weights between hidden and output layer are modified online, using an adaptive law in real time. The adaptive law is developed by Lyapunov s Method. A decoupling adaptive controller uses the errors between system outputs and model outputs, and filtered outputs of the system to produce control signals. The RBF network forces each outputs of generator to behave like reference model. When the RBF approaches adequately control signals, the system decoupling is achieved. A mathematical proof and analysis are showed. Simulations are presented to show the performance and robustness of the RBF network
Resumo:
Nowadays, classifying proteins in structural classes, which concerns the inference of patterns in their 3D conformation, is one of the most important open problems in Molecular Biology. The main reason for this is that the function of a protein is intrinsically related to its spatial conformation. However, such conformations are very difficult to be obtained experimentally in laboratory. Thus, this problem has drawn the attention of many researchers in Bioinformatics. Considering the great difference between the number of protein sequences already known and the number of three-dimensional structures determined experimentally, the demand of automated techniques for structural classification of proteins is very high. In this context, computational tools, especially Machine Learning (ML) techniques, have become essential to deal with this problem. In this work, ML techniques are used in the recognition of protein structural classes: Decision Trees, k-Nearest Neighbor, Naive Bayes, Support Vector Machine and Neural Networks. These methods have been chosen because they represent different paradigms of learning and have been widely used in the Bioinfornmatics literature. Aiming to obtain an improvment in the performance of these techniques (individual classifiers), homogeneous (Bagging and Boosting) and heterogeneous (Voting, Stacking and StackingC) multiclassification systems are used. Moreover, since the protein database used in this work presents the problem of imbalanced classes, artificial techniques for class balance (Undersampling Random, Tomek Links, CNN, NCL and OSS) are used to minimize such a problem. In order to evaluate the ML methods, a cross-validation procedure is applied, where the accuracy of the classifiers is measured using the mean of classification error rate, on independent test sets. These means are compared, two by two, by the hypothesis test aiming to evaluate if there is, statistically, a significant difference between them. With respect to the results obtained with the individual classifiers, Support Vector Machine presented the best accuracy. In terms of the multi-classification systems (homogeneous and heterogeneous), they showed, in general, a superior or similar performance when compared to the one achieved by the individual classifiers used - especially Boosting with Decision Tree and the StackingC with Linear Regression as meta classifier. The Voting method, despite of its simplicity, has shown to be adequate for solving the problem presented in this work. The techniques for class balance, on the other hand, have not produced a significant improvement in the global classification error. Nevertheless, the use of such techniques did improve the classification error for the minority class. In this context, the NCL technique has shown to be more appropriated
Resumo:
Quadrotors aircraft are composed by four propellers mounted on four engines on a cross or x disposition, and, in this structure, the engines on the same arm spin in the same direction and the other arm in the opposite direction. By rotating each helix generates vertical upward thrust. The control is done by varying the rotational speed of each motor. Among the advantages of this type of vehicle can cite the mechanical simplicity of construction, the high degree of maneuverability and the ability to have vertical takeoffs and landings. The modeling and control of quadrirrotores have been a challenge due to problems such as nonlinearity and coupling between variables. Several strategies have been developed to control this type of vehicle, from the classical control to modern. There are air surveillance applications where a camera is fixed on the vehicle to point forward, where it is desired that the quadrotor moves at a fixed altitude toward the target also pointing forward, which imposes an artificial constraint motion, because it is not desired that it moves laterally, but only forwards or backwards and around its axes . This restriction is similar to the naturally existing on robots powered by wheels with differential drive, which also can not move laterally, due to the friction of the wheels. Therefore, a position control strategy similar to that used in this type of robot could be adapted for aerial robots like quadrotor. This dissertation presents and discusses some strategies for the control of position and orientation of quadrotors found in the literature and proposes a strategy based on dynamic control of mobile robots with differential drive, called the variable reference control. The validity of the proposed strategy is demonstrated through computer simulations
Resumo:
The area of research and development involving the PID tune of controllers is an active area in the academic and industrial sectors yet. All this due to the wide use of PID controllers in the industry (96% of all controllers in the industry is still PID). Controllers well tuned and tools to monitor their performance over time with the possibility of selftuning, become an item almost obligatory to maintain processes with high productivity and low cost. In a globalized world, it is essential for their self survival. Although there are several new tools and techniques that make PID tune, in this paper will explore the PID tune using the relay method, due its good acceptance in the industrial environment. In addition, we will discuss some techniques for evaluation of control loops, as IAE, ISE, Goodhart, the variation of the control signal and index Harris, which are necessary to propose new tuning for control loops that have a low performance. Will be proposed in this paper a tool for tuning and self tuning PID. Will be proposed in this paper a PID auto-tuning software using a relay method. In particular, will be highlighted the relay method with hysteresis. This method has shown tunings with satisfactory performance when applied to the didactic, simulated and real plants
Resumo:
The technical and economic viability of solar heating for swimming pools is unquestionable, besides there it replaces the high costs and environmental impacts of conventional supply of energy, and it improves an optimization in the pool heating uses. This work applies the principles of the greenhouse effect: advanced thermodynamics, heat retention and equalization of temperature, to optimize the solar heating equipment, reducing the area required by collectors as much as 40% (still estimated value) for commercial collectors, with minor architectural and aesthetic impacts on the environment. It features a solar heating alternative in pools, whose main characteristics: low cost, simplicity in manufacturing and assembly and a faster heating. The system consists of two collectors spiral hoses made of polyethylene with a hundred meters each, and working on a forced flow, with only one pass of the working fluid inside the coils, and is used to pump itself treatment of pool water to obtain the desired flow. One of the collectors will be exposed to direct solar radiation, and the other will be covered by a glass slide and closed laterally, so providing the greenhouse effect. The equipment will be installed in parallel and simultaneously exposed to the sun in order to obtain comparative data on their effectiveness. Will be presented results of thermal tests for this the two cases, with and without transparent cover. Will be demonstrated, by comparison, the thermal, economic and material feasibility of these systems for heating swimming pools.
Resumo:
The present work presents a contribution in the study of modelings of transference of heat for foods submitted to the experimental tests in the considered solar oven, where the best modeling for the beefburger of chicken in study was evaluated, comparing the results, considering this food as a half-infinite(1er object considered model) and,after that, considered the chicken beefburger as a plain plate in transient regimen in two distinct conditions: not considering and another model considering the contribution of the generation term, through the Criterion of Pomerantsev. The Sun, beyond life source, is the origin of all the energy forms that the man comes using during its history and can be the reply for the question of the energy supplying in the future, a time that learns to use to advantage in rational way the light that this star constantly special tax on our planet. Shining more than the 5 billion years, it is calculated that the Sun still in them will privilege for others 6 billion years, or either, it is only in the half of its existence and will launch on the Earth, only in this year, 4000 times more energy that we will consume. Front to this reality, would be irrational not to search, by all means technical possible, to use to advantage this clean, ecological and gratuitous power plant. In this dissertation evaluate the performance of solar cooker of the type box. Laboratory of Solar Energy of the Federal University of the Great River of North - UFRN was constructed by the group (LES) a model of solar stove of the type box and was tested its viability technique, considering modeling foods submitted when baking in the solar oven, the cooker has main characteristic the easiness of manufacture and assembly, the low cost (was used material accessible composition to the low income communities) and simplicity in the mechanism of movement of the archetype for incidence of the direct solar light. They had been proposals modeling for calculations of food the minimum baking time, considering the following models of transference of heat in the transient state: object the halfinfinite, plain plate and the model of the sphere to study the necessary temperature for the it bakes of bread (considering spherical geometry). After evaluate the models of transmission of heat will be foods submitted you the processes of to it bakes of, the times gotten for the modeling with the experimental times of it bakes in the solar oven had been compared, demonstrating the modeling that more good that it portraies the accuracies of the results of the model
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
A posição que a renomada estatí stica de Boltzmann-Gibbs (BG) ocupa no cenário cientifíco e incontestável, tendo um âmbito de aplicabilidade muito abrangente. Por em, muitos fenômenos físicos não podem ser descritos por esse formalismo. Isso se deve, em parte, ao fato de que a estatística de BG trata de fenômenos que se encontram no equilíbrio termodinâmico. Em regiões onde o equilíbrio térmico não prevalece, outros formalismos estatísticos devem ser utilizados. Dois desses formalismos emergiram nas duas ultimas décadas e são comumente denominados de q-estatística e k-estatística; o primeiro deles foi concebido por Constantino Tsallis no final da década de 80 e o ultimo por Giorgio Kaniadakis em 2001. Esses formalismos possuem caráter generalizador e, por isso, contem a estatística de BG como caso particular para uma escolha adequada de certos parâmetros. Esses dois formalismos, em particular o de Tsallis, nos conduzem também a refletir criticamente sobre conceitos tão fortemente enraizados na estat ística de BG como a aditividade e a extensividade de certas grandezas físicas. O escopo deste trabalho esta centrado no segundo desses formalismos. A k -estatstica constitui não só uma generalização da estatística de BG, mas, atraves da fundamentação do Princípio de Interação Cinético (KIP), engloba em seu âmago as celebradas estatísticas quânticas de Fermi- Dirac e Bose-Einstein; além da própria q-estatística. Neste trabalho, apresentamos alguns aspectos conceituais da q-estatística e, principalmente, da k-estatística. Utilizaremos esses conceitos junto com o conceito de informação de bloco para apresentar um funcional entrópico espelhado no formalismo de Kaniadakis que será utilizado posteriormente para descrever aspectos informacionais contidos em fractais tipo Cantor. Em particular, estamos interessados em conhecer as relações entre parâmetros fractais, como a dimensão fractal, e o parâmetro deformador. Apesar da simplicidade, isso nos proporcionará, em trabalho futuros, descrever estatisticamente estruturas mais complexas como o DNA, super-redes e sistema complexos
Resumo:
OBJETIVOS: comparar dois testes de rastreamento do diabete gestacional. MÉTODOS: estudo prospectivo no qual foram avaliadas 356 gestantes, sem diagnóstico prévio do diabete melito, submetidas, de modo independente, a dois testes de rastreamento: associação glicemia de jejum e fator de risco (GJ+FR) e teste oral simplificado de tolerância à glicose (TTG50g). A comparação entre os métodos foi realizada pelos índices de sensibilidade (S), especificidade (E) e valores preditivos positivo (VPP) e negativo (VPN), resultados falsos, positivos (FP) e negativos (FN) e pela diferença dos resultados observados e esperados, avaliada pelo teste do Qui-quadrado (p<0,05). RESULTADOS: a associação GJ+FR determinou a confirmação diagnóstica em maior número de gestantes (187; 52,5%) que o TTG50g (49; 13,8%). Esta diferença foi significativa (p<0,05). A associação GJ+FR apresentou sensibilidade de 83,7% e valor preditivo negativo (VPN) de 95,3% em relação ao TTG50g. CONCLUSÕES: os índices elevados de sensibilidade e VPN da associação GJ+FR em relação ao TTG50g, sua simplicidade, praticidade, baixo custo e fácil replicação permitem sua indicação no rastreamento do diabete gestacional.
Resumo:
CONTEXTO E OBJETIVO: A falta de consenso sobre os protocolos de rastreamento e diagnóstico do diabetes gestacional, associada às dificuldades na realização do teste oral simplificado do diabete gestacional (o teste de tolerância a 100 g de glicose, considerado padrão-ouro) justificam a comparação com alternativas. O objetivo deste trabalho é comparar o teste padrão-ouro a dois testes de rastreamento: associação de glicemia de jejum e fatores de risco (GJ + FR) e o teste oral simplificado de tolerância a 50 g de glicose (TTG 50 g), com o teste de tolerância a 100 g de glicose (TTG 100 g). TIPO DE ESTUDO E LOCAL: Estudo de coorte longitudinal, prospectivo, realizado no Serviço de Ginecologia e Obstetrícia do Hospital Universitário da Universidade Federal de Mato Grosso do Sul. MÉTODOS: 341 gestantes foram submetidas aos três testes. Calcularam-se os índices de sensibilidade (S), especificidade (E), valores preditivos (VPP e VPN), razões de probabilidade (RPP e RPN) e resultados falsos (FP e FN), positivos e negativos da associação GJ + FR e do TTG 50 g em relação ao TTG 100 g. Compararam-se as médias das glicemias de uma hora pós-sobrecarga (1hPS) com 50 e 100 g. Na análise estatística, empregou-se o teste t de Student, com limite de significância de 5%. RESULTADOS: A associação GJ + FR encaminhou mais gestantes (53,9%) para a confirmação diagnóstica que o TTG 50 g (14,4%). Os dois testes foram equivalentes nos índices de S (86,4 e 76,9%), VPN (98,7 e 98,9%), RPN (0,3 e 0,27) e FN (15,4 e 23,1%). As médias das glicemias 1hPS foram semelhantes, 106,8 mg/dl para o TTG 50 g e 107,5 mg/dl para o TTG 100 g. CONCLUSÕES: Os resultados da eficiência diagnóstica associados à simplicidade, praticabilidade e custo referendaram a associação GJ + FR como o mais adequado para o rastreamento. A equivalência das glicemias de 1hPS permitiram a proposição de um novo protocolo de rastreamento e diagnóstico do diabete gestacional, com menores custo e desconforto.
Resumo:
INTRODUÇÃO: as discrepâncias entre o tamanho mesiodistal dos dentes superiores e inferiores e seus efeitos sobre a oclusão têm sido relatados há muito tempo. O método proposto por Bolton para o diagnóstico de discrepância de tamanho dentário é, inegavelmente, um dos mais difundidos no meio ortodôntico, devido à sua relativa simplicidade. Entretanto, a aplicação desse método requer cálculos matemáticos e o uso de tabelas que, muitas vezes, inviabilizam a sua utilização durante a avaliação clínica. OBJETIVO: avaliar o método proposto por Wolford, que não requer o uso de tabelas, como alternativa ao método tradicional de Bolton. MÉTODOS: a amostra foi composta por 90 pares de modelos dentários iniciais de pacientes adultos, com diferentes más oclusões. A proporção entre os dentes inferiores e superiores foi calculada para cada paciente, resultando na obtenção de dois índices (a razão total e a razão anterior). Os índices foram obtidos por meio do método originalmente proposto por Bolton e por um método alternativo, composto por duas fórmulas (uma simplificada e a variação da mesma), que foram analisadas separadamente. RESULTADOS: comparadas ao método de Bolton, as fórmulas simplificadas mostraram uma tendência de superestimar as discrepâncias dentárias inferiores (total e anterior), embora em pequena proporção. CONCLUSÕES: ambas as fórmulas do método alternativo podem ser utilizadas em substituição ao método tradicional, uma vez que mostraram diferenças médias menores que 0,58mm quando comparadas ao método de Bolton, não apresentando, portanto, significância clínica.
Resumo:
Os aplicadores de herbicidas baseados em pavios de corda foram introducidos e largamente aceitos nos EUA a partir de 1978, devido a sua grande simplicidade, baixo custo operacional e economia do herbicida. Um protótipo fabricado com material inteiramente nacional, montado sobre duas rodas de bicicleta, tracionado pelo homem, tendo uma barra de 2 metros de comprimento, foi desenvolvido pelo departamento de defesa fitossanitária da Faculdade de Ciência Agrárias e Veterinárias de Jaboticabal - UNESP e submetido a um ensaio preliminar. A área estava uniformemente coberta com vegetação natural, com altura média de 55 cm e a maioria das plantas daninhas em estádio de maturação das sementes. O aplicador foi deslocado à velocidade de 2,7 km/h, com consumo médio de 9,3 litros de calda por hectare, tendo aplicado diluições de glyphosate em água, nas proporções de 1:2, 1:4 e 1:6 (produto comercial: água) e comparado à pulverização convencional tratorizada, efetuada com velocidade de 4,2 km/h e consumo de 4 litros de produto comercial com 310 litros de água por hectare. As avaliações do controle foram efetuadas através da determinação da biomassa epígea por ocasião de aplicação aos 15 e 33 dias após , além da atribuição de notas aos 33 dias da aplicação. Os resultados mostraram-se promissores para o protótipo, que pode desde já ser considerado um precioso instrumento para o manejo de plantas daninhas.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)