1000 resultados para Método hierárquico linear (MHL)
Resumo:
With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.
Resumo:
As teorias de formação de equipes visam, em linhas gerais, melhorar os diferentes aspectos do funcionamento dos grupos de trabalho. Literaturas prévias mostram que a presença de relações de confiança no ambiente organizacional está diretamente ligada a aumento de produtividade e eficiência. Sendo assim, o presente estudo busca analisar como o nível de confiança interpessoal dentro das hierarquias organizacionais é afetado pelas variáveis idade e nível educacional. Espera-se que o resultado desta pesquisa seja meio para a contínua instrumentalização dos atores envolvidos, agregamdo conhecimento e contribuindo para aumentar o nível de confiança intra-organizacional, aumentando por decorrência a produtividade das equipes. Através de uma base de dados resultante de pesquisa previamente realizada por Marco Tulio Zanini por meio do questionário desenvolvido por Nicole Gillespie chamado Behavioral Trust Inventory, utilizou-se do método estatístico de regressão linear múltipla para análise das relações aqui estudadas. Os resultados revelam que idade é fator relevante para definição de nível de confiança quando tratamos de relação entre subordinado e superior, e do funcionário em sua equipe de trabalho. Nesses casos, vimos que quanto maior é a idade, maior é o grau de confiança nas relações estabelecidas. Com relação à grau de educação formal, temos que este não é significativo para definir níveis de confiança entre subordinados e superiores. No entanto,nas relações intraorganizacionais entre parceiros de trabalho de mesmo nível hierárquico e do funcionário em sua equipe, os resultados mostram que quanto menor a escolaridade, maior o grau de confiança estabelecido.
Resumo:
Uma das grandes preocupações da academia na área de Estratégia Empresarial é a evolução das teorias das inovações disruptivas versus inovações incrementais. Dentro destas discussões encaixam-se as teorias que estruturam a linha das inovações tecnológicas versus as inovações que alteram os modelos de negócios. Mais complexo é o estudo das inovações que alteram tanto as tecnologias quanto os modelos de negócios não só de algumas empresas, mas de toda uma cadeia produtiva. Esta dissertação propõe um método de antecipação das consequências que sofrerão todos os agentes de uma cadeia produtiva sob efeito de inovações disruptivas. Para lidar com a complexidade desta antevisão usamos o instrumental de sistemas dinâmicos e o pensamento sistêmico. Como estudo de caso, estamos analisamos a implantação do cinema digital no Brasil, a qual afeta toda a cadeia do áudio visual no país. No nosso referencial teórico sobre inovação utilizamos um encadeamento, não totalmente linear cronologicamente, de teorias composto pelos os conceitos de diversificação, descontinuidades tecnológicas, descontinuidades estratégicas, inovações disruptivas, modelos duais, reações organizacionais, organizações ambidestras, verticalização versus integração das cadeias produtivas e harmonização de modelos mentais. A presente dissertação discorre sobre estes fundamentos teóricos e usa o caso da implantação do Cinema Digital no Brasil como verificação empírica. A exibição digital está apresentando indícios de ser uma inovação disruptiva que altera tanto padrões tecnológicos como os modelos de negócios dos exibidores sendo, portanto, um campo adequado de verificação e extensão da teoria. Através do exame das estratégias possíveis das redes de exibidores de cinema no atual momento da digitalização no Brasil mostramos como elas podem vencer mais facilmente os desafios decorrentes do processo, aperfeiçoar os resultados econômicos e financeiros, minimizando o tempo de sua concretização e se tornarem ambidestras isto é, se prepararem para enfrentar um processo no qual muitas outras inovações ainda vão ocorrer estando, no momento, nas suas fases de gestação. A estrutura da dissertação foi construída com um maior detalhamento no início de sua parte metodológica pela utilização do instrumental sistêmico para facilitar o entendimento do projeto. Muita da literatura sobre inovações, descontinuidades e disrupções já se utilizava de uma forma de pensar sistêmica sem colocá-la sob este formato. Quando isto ocorreu de forma significativa em uma teoria importante para os nossos propósitos fizemos sua “tradução” para a simbologia sistêmica. Dentro deste objetivo, fazemos, já no capítulo 3, uma breve explanação sobre a forma de pensar em Sistemas Dinâmicos, a identificação de “loops” causais, de “delays” (atrasos) e das principais mudanças plausíveis ao longo do tempo. A seguir, no capítulo 4 fazemos uma revisão da teoria das inovações disruptivas, e no capítulo 5 mostramos como a implantação do cinema digital se encaixa nesta teoria e de como a cadeia inteira do audiovisual está sendo afetada de forma sistêmica, cuja complexidade pode ser manejada pela construção do mapa causal que relaciona as estratégias de todos os seus agentes ao longo do tempo. Este mapa causal é usado para antecipar comportamentos estratégicos dos componentes da cadeia audiovisual sob ambiente disruptivo. No capítulo 6, como contribuição teórica, propomos que esta forma de organizar a complexidade seja um processo perene a ser utilizado no mapeamento e previsão de outras mudanças em ambientes de inovações disruptivas aceleradas além de elencar recomendações estratégicas para a transformação das cadeias de exibição brasileiras em organizações ambidestras com capacidade de competir eficientemente com as cadeias internacionais que chegaram e ainda estão chegando ao país e que já são responsáveis hoje por aproximadamente 45% da receita de bilheteria de cinema no país. No capítulo 7 mostramos sugestões de aplicação do método a outras cadeias produtivas que estão no meio de processos disruptivos, as vantagens de sua adoção, limitações e aperfeiçoamentos futuros.
Resumo:
Nos últimos dez anos, milhares de trabalhos foram publicados somente no desenvolvimento da técnica de eletroforese capilar (CE) e suas aplicações em ciências biológicas, química e em outras áreas. Apesar disto, muitos tópicos de pesquisa básica da CE ainda continuam sendo desenvolvidos. Algumas vantagens da CE sobre as demais técnicas de separação são marcantes, tais como: possibilidade de automação, rapidez na obtenção dos resultados e alto poder de resolução. A pequena quantidade de amostra que é necessária para uma análise é uma característica muito interessante no estudo de sistemas biológicos, sendo que normalmente são injetados no capilar, volumes de 5 a 50 nl de amostra. Por outro lado, esta reduzida quantidade de amostra utilizada, a pequena janela de detecção e as baixas concentrações dos analitos nas amostras biológicas, são fatores que desafiam os pesquisadores nesta área. Para contornar este problema diversos métodos de pré-concentração de amostra foram desenvolvidos. Neste trabalho, foi desenvolvido um método inédito de pré-concentração de amostras através de gradientes térmicos em CE. O princípio do método é concentrar o analito quando ele passa de uma zona de alta temperatura para uma zona de baixa temperatura. Um modelo teórico foi desenvolvido para auxiliar o planejamento experimental no que diz respeito à determinação das condições em que a corrida deve ser realizada (pH, tipo de tampão, temperatura) para aplicar a compressão térmica em um analito. Foi utilizado L-Lisina derivatizada com naftaleno 2,3-dicarboxialdeído (Lys/NDA) como analito modelo. Uma diferença de temperatura de 58 °C entre as duas zonas térmicas foi suficiente para comprimir em 2,5 vezes a banda da Lys/NDA em um tampão de baixo coeficiente térmico com o pH ajustado para 8,7. O método de compressão de banda por gradientes térmicos proposto neste trabalho é uma nova opção para aumentar a sensibilidade e a resolução em CE. Ao contrário dos métodos clássicos de pré-concentração, esse novo método pode ser aplicado em amostras tanto com alta ou baixa condutividade iônica, comprimir bandas de analitos aniônicos ou catiônicos e ser aplicado em corridas em solução livre ou não. Além disso, considerando que o controle de temperatura seja realizado de maneira automatizada, pode apresentar altas taxas de reprodutibilidade, além de ser de simples e de fácil aplicação, podendo ser empregado em análises de rotina. Diferentes LEDs (Light Emitting Diode) foram testado em detector por fluorescência induzida por LED. Além disso, um novo sistema de aquisição de dados e tratamento de sinal utilizando a placa de som de um PC (Personal Computer) e um amplificador Lock-in emulado por software foi montado e comparado com um sistema de aquisição de dados convencional. O equipamento de CE utilizado neste trabalho com esses componentes, apresentou uma elevada sensibilidade, na faixa de 0,5 à 1 fmol para os peptídeos e aminoácidos testados e foi superior ao sistema convencional em vários aspectos como: sensibilidade de detecção, faixa linear de detecção em concentração do analito, facilidade de operação e custo do sistema.
Resumo:
Esta dissertação tem como principal objectivo comparar os métodos propostos pelo Eurocódigo 2, através de uma análise paramétrica dos efeitos de segunda ordem em pilares de betão armado. Os métodos estudados foram o método simplificado baseado na Curvatura Nominal e o Método Geral. Através da comparação destes dois métodos verificou-se se o dimensionamento efectuado para o primeiro método é correcto e se encontra do lado da segurança. Para este efeito são analisado noventa e seis pórticos, onde setenta e dois são pórticos simples e vinte e quatro são pórticos parede. Todos os pórticos apresentam uma estrutura simples, constituída por dois elementos verticais, pilar ou parede, e um elemento horizontal, viga. Os noventa e seis pórticos são divididos em dois grupos. Um grupo em que a ligação entre pilar viga é rotulada e o outro grupo onde a ligação é rígida. Dentro de cada grupo é definido oito conjuntos de pórticos cuja diferença reside na percentagem de carga que cada um dos elementos verticais recebe, sendo estas características iguais para os dois grupos. Cada conjunto é constituído por seis pórticos em que é variada a esbelteza. Em todos os modelos analisados manteve-se as mesmas características de materiais e acções. Efectuou-se um primeiro dimensionamento através do método baseado na curvatura nominal, onde obteve-se os esforços e armaduras, que serão utilizados para a modelação no método geral. Este método geral, consiste numa análise não linear, e é efectuado num programa de análise não linear de elementos finitos, Atena. A modelação efectuou-se da seguinte forma: aplicou-se numa primeira fase a totalidade da carga vertical aplicada à estrutura de forma incremental, e quando esta atingiu a carga de dimensionamento, aplicou-se a carga horizontal também de forma incremental até ao colapso da estrutura. De acordo com os resultados obtidos, pode concluir-se que o dimensionamento efectuado pelo método simplificado está do lado da segurança, sendo em alguns casos em que possui pilares esbeltos demasiado conservativo, onde obteve-se mais 200% de carga horizontal.
Resumo:
The ethanol is the most overused psychoactive drug over the world; this fact makes it one of the main substances required in toxicological exams nowadays. The development of an analytical method, adaptation or implementation of a method known, involves a process of validation that estimates its efficiency in the laboratory routine and credibility of the method. The stability is defined as the ability of the sample of material to keep the initial value of a quantitative measure for a defined period within specific limits when stored under defined conditions. This study aimed to evaluate the method of Gas chromatography and study the stability of ethanol in blood samples, considering the variables time and temperature of storage, and the presence of preservative and, with that check if the conditions of conservation and storage used in this study maintain the quality of the sample and preserve the originally amount of analyte present. Blood samples were collected from 10 volunteers to evaluate the method and to study the stability of ethanol. For the evaluation of the method, part of the samples was added to known concentrations of ethanol. In the study of stability, the other side of the pool of blood was placed in two containers: one containing the preservative sodium fluoride 1% and the anticoagulant heparin and the other only heparin, was added ethanol at a concentration of 0.6 g/L, fractionated in two bottles, one being stored at 4ºC (refrigerator) and another at -20ºC (freezer), the tests were performed on the same day (time zero) and after 1, 3, 7, 14, 30 and 60 days of storage. The assessment found the difference in results during storage in relation to time zero. It used the technique of headspace associated with gas chromatography with the FID and capillary column with stationary phase of polyethylene. The best analysis of chromatographic conditions were: temperature of 50ºC (column), 150ºC (jet) and 250ºC (detector), with retention time for ethanol from 9.107 ± 0.026 and the tercbutanol (internal standard) of 8.170 ± 0.081 minutes, the ethanol being separated properly from acetaldehyde, acetone, methanol and 2-propanol, which are potential interfering in the determination of ethanol. The technique showed linearity in the concentration range of 0.01 and 3.2 g/L (0.8051 x + y = 0.6196; r2 = 0.999). The calibration curve showed the following equation of the line: y = x 0.7542 + 0.6545, with a linear correlation coefficient equal to 0.996. The average recovery was 100.2%, the coefficients of variation of accuracy and inter intra test showed values of up to 7.3%, the limit of detection and quantification was 0.01 g/L and showed coefficient of variation within the allowed. The analytical method evaluated in this study proved to be fast, efficient and practical, given the objective of this work satisfactorily. The study of stability has less than 20% difference in the response obtained under the conditions of storage and stipulated period, compared with the response obtained at time zero and at the significance level of 5%, no statistical difference in the concentration of ethanol was observed between analysis. The results reinforce the reliability of the method of gas chromatography and blood samples in search of ethanol, either in the toxicological, forensic, social or clinic
Resumo:
A área foliar é uma das principais características usadas para avaliar o crescimento vegetal. O objetivo desta pesquisa foi determinar uma equação matemática para estimar a área foliar de Synedrellopsis grisebachii - uma importante planta daninha no Brasil - a partir de dimensões lineares dos limbos foliares. Duzentas folhas foram medidas em comprimento (C), largura máxima (L) e área foliar real (AF). Os dados de AF e CxL foram submetidos à análise de regressão linear, determinando-se uma equação matemática para estimar a área foliar da espécie. A correlação entre os valores de área foliar real e estimada foi significativa. Portanto, a área foliar de S. grisebachii pode ser estimada satisfatoriamente pela equação: AF = 0,730829(C×L).
Resumo:
The herbal medicine Sanativo® is produced by the Pernambucano Laboratory since 1888 with indications of healing and hemostasis. It is composed of a fluid extract about Piptadenia colubrina, Schinus terebinthifolius, Cereus peruvianus and Physalis angulata. Among the plants in their composition, S. terebinthifolius and P. colubrina have in common phenolic compounds which are assigned most of its pharmacological effects. The tannins, gallic acid and catechin were selected as markers for quality control. The aim of this study was the development and validation of analytical method by HPLC/UV/DAD for the separation and simultaneous quantification of gallic acid (GAC) and catechin (CTQ) in Sanativo®. The chromatographic system was to stationary phase, C-18 RP column, 4,6 x 150 mm (5 mm) under a temperature of 35 ° C, detection at 270 and 210 nm. The mobile phase consisted of 0.05% trifluoroacetic acid and methanol in the proportions 88:12 (v/v), a flow rate of 1 ml/min. The analytical method presented a retention factor of 0.30 and 1.36, tail factor of 1.8 and 1.63 for gallic acid and catechin, respectively, resolution of 18.2, and theoretical plates above 2000. The method validation parameters met the requirements of Resolution n º 899 of May 29, 2003, ANVISA. The correlation coefficient of linear regression analysis for GAC and CTQ from the standard solution was 0.9958 and 0.9973 and when performed from the Sanativo® 0.9973 and 0.9936, the matrix does not interfere in the range 70 to 110 %. The limits of detection and quantification for GAC and CQT were 3.25 and 0.863, and 9.57 and 2.55 mg/mL, respectively. The markers, GAC and CQT, showed repetibility (coefficient of variation of 0.94 % and 2.36 %) and satisfactory recovery (100.02 ± 1.11 % and 101.32 ± 1.36 %). The method has been characterized selective and robust quantification of GAC and CTQ in the Sanativo® and was considered validated
Resumo:
The present work deals with the linear analysis of bi-dimensional axisymmetric structures, through development and implementation of a Finite Element Method code. The structures are initially studied alone and afterwards compatibilized into coupled structures, that is, assemblages, including tanks and pressure vessels. Examples are analysed and, in order to prove accuracy, the results were compared with those furnished by the analytical solutions
Resumo:
Telecommunication is one of the most dynamic and strategic areas in the world. Many technological innovations has modified the way information is exchanged. Information and knowledge are now shared in networks. Broadband Internet is the new way of sharing contents and information. This dissertation deals with performance indicators related to maintenance services of telecommunications networks and uses models of multivariate regression to estimate churn, which is the loss of customers to other companies. In a competitive environment, telecommunications companies have devised strategies to minimize the loss of customers. Loosing customers presents a higher cost than obtaining new ones. Corporations have plenty of data stored in a diversity of databases. Usually the data are not explored properly. This work uses the Knowledge Discovery in Databases (KDD) to establish rules and new models to explain how churn, as a dependent variable, are related to a diversity of service indicators, such as time to deploy the service (in hours), time to repair (in hours), and so on. Extraction of meaningful knowledge is, in many cases, a challenge. Models were tested and statistically analyzed. The work also shows results that allows the analysis and identification of which quality services indicators influence the churn. Actions are also proposed to solve, at least in part, this problem
Resumo:
The Predictive Controller has been receiving plenty attention in the last decades, because the need to understand, to analyze, to predict and to control real systems has been quickly growing with the technological and industrial progress. The objective of this thesis is to present a contribution for the development and implementation of Nonlinear Predictive Controllers based on Hammerstein model, as well as to its make properties evaluation. In this case, in the Nonlinear Predictive Controller development the time-step linearization method is used and a compensation term is introduced in order to improve the controller performance. The main motivation of this thesis is the study and stability guarantee for the Nonlinear Predictive Controller based on Hammerstein model. In this case, was used the concepts of sections and Popov Theorem. Simulation results with literature models shows that the proposed approaches are able to control with good performance and to guarantee the systems stability
Resumo:
Objetivou-se com este trabalho, desenvolver modelos de programação não-linear para sistematização de terras, aplicáveis para áreas com formato regular e que minimizem a movimentação de terra, utilizando o software GAMS para o cálculo. Esses modelos foram comparados com o Método dos Quadrados Mínimos Generalizado, desenvolvido por Scaloppi & Willardson (1986), sendo o parâmetro de avaliação o volume de terra movimentado. Concluiu-se que, ambos os modelos de programação não-linear desenvolvidos nesta pesquisa mostraram-se adequados para aplicação em áreas regulares e forneceram menores valores de movimentação de terra quando comparados com o método dos quadrados mínimos.
Resumo:
A hierarchical fuzzy control scheme is applied to improve vibration suppression by using an electro-mechanical system based on the lever principle. The hierarchical intelligent controller consists of a hierarchical fuzzy supervisor, one fuzzy controller and one robust controller. The supervisor combines controllers output signal to generate the control signal that will be applied on the plant. The objective is to improve the performance of the electromechanical system, considering that the supervisor could take advantage of the different techniques based controllers. The robust controller design is based on a linear mathematical model. Genetic algorithms are used on the fuzzy controller and the supervisor tuning, which are based on non-linear mathematical model. In order to attest the efficiency of the hierarchical fuzzy control scheme, digital simulations were employed. Some comparisons involving the optimized hierarchical controller and the non-optimized hierarchical controller will be made to prove the efficiency of the genetic algorithms and the advantages of its use
Resumo:
This work presents a modelling and identification method for a wheeled mobile robot, including the actuator dynamics. Instead of the classic modelling approach, where the robot position coordinates (x,y) are utilized as state variables (resulting in a non linear model), the proposed discrete model is based on the travelled distance increment Delta_l. Thus, the resulting model is linear and time invariant and it can be identified through classical methods such as Recursive Least Mean Squares. This approach has a problem: Delta_l can not be directly measured. In this paper, this problem is solved using an estimate of Delta_l based on a second order polynomial approximation. Experimental data were colected and the proposed method was used to identify the model of a real robot
Resumo:
Slugging is a well-known slugging phenomenon in multiphase flow, which may cause problems such as vibration in pipeline and high liquid level in the separator. It can be classified according to the place of its occurrence. The most severe, known as slugging in the riser, occurs in the vertical pipe which feeds the platform. Also known as severe slugging, it is capable of causing severe pressure fluctuations in the flow of the process, excessive vibration, flooding in separator tanks, limited production, nonscheduled stop of production, among other negative aspects that motivated the production of this work . A feasible solution to deal with this problem would be to design an effective method for the removal or reduction of the system, a controller. According to the literature, a conventional PID controller did not produce good results due to the high degree of nonlinearity of the process, fueling the development of advanced control techniques. Among these, the model predictive controller (MPC), where the control action results from the solution of an optimization problem, it is robust, can incorporate physical and /or security constraints. The objective of this work is to apply a non-conventional non-linear model predictive control technique to severe slugging, where the amount of liquid mass in the riser is controlled by the production valve and, indirectly, the oscillation of flow and pressure is suppressed, while looking for environmental and economic benefits. The proposed strategy is based on the use of the model linear approximations and repeatedly solving of a quadratic optimization problem, providing solutions that improve at each iteration. In the event where the convergence of this algorithm is satisfied, the predicted values of the process variables are the same as to those obtained by the original nonlinear model, ensuring that the constraints are satisfied for them along the prediction horizon. A mathematical model recently published in the literature, capable of representing characteristics of severe slugging in a real oil well, is used both for simulation and for the project of the proposed controller, whose performance is compared to a linear MPC