949 resultados para Sistemas eletrônicos de medidas e de controle
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
The education designed and planned in a clear and objective manner is of paramount importance for universities to prepare competent professionals for the labor market, and above all can serve the population with an efficient work. Specifically, in relation to engineering, conducting classes in the laboratories it is very important for the application of theory and development of the practical part of the student. The planning and preparation of laboratories, as well as laboratory equipment and activities should be developed in a succinct and clear way, showing to students how to apply in practice what has been learned in theory and often shows them why and where it can be used when they become engineers. This work uses the MATLAB together with the System Identification Toolbox and Arduino for the identification of linear systems in Linear Control Lab. MATLAB is a widely used program in the engineering area for numerical computation, signal processing, graphing, system identification, among other functions. Thus the introduction to MATLAB and consequently the identification of systems using the System Identification Toolbox becomes relevant in the formation of students to thereafter when necessary to identify a system the base and the concept has been seen. For this procedure the open source platform Arduino was used as a data acquisition board being the same also introduced to the student, offering them a range of software and hardware for learning, giving you every day more luggage to their training
Resumo:
The education designed and planned in a clear and objective manner is of paramount importance for universities to prepare competent professionals for the labor market, and above all can serve the population with an efficient work. Specifically, in relation to engineering, conducting classes in the laboratories it is very important for the application of theory and development of the practical part of the student. The planning and preparation of laboratories, as well as laboratory equipment and activities should be developed in a succinct and clear way, showing to students how to apply in practice what has been learned in theory and often shows them why and where it can be used when they become engineers. This work uses the MATLAB together with the System Identification Toolbox and Arduino for the identification of linear systems in Linear Control Lab. MATLAB is a widely used program in the engineering area for numerical computation, signal processing, graphing, system identification, among other functions. Thus the introduction to MATLAB and consequently the identification of systems using the System Identification Toolbox becomes relevant in the formation of students to thereafter when necessary to identify a system the base and the concept has been seen. For this procedure the open source platform Arduino was used as a data acquisition board being the same also introduced to the student, offering them a range of software and hardware for learning, giving you every day more luggage to their training
Resumo:
Identifica os riscos de perda de documentos eletrônicos de caráter arquivístico em uma organização, tomando por base um estudo de caso na Câmara dos Deputados. Analisa as diversas origens desses riscos na instituição : visão estratégica do problema, monitoração e auditoria, treinamento, conservação e obsolescência tecnológica, políticas e responsabilidades, aspectos técnicos, administrativos e culturais, sistemas eletrônicos de gestão arquivística de documentos, conhecimento de normas e padrões.
Resumo:
Com o avanço no desenvolvimento e utilização de veículos e robôs autoequilibrantes, faz-se necessário a investigação de controladores capazes de atender os diversos desafios relacionados à utilização desses sistemas. Neste trabalho foi estudado o controle de equilíbrio e posição de um robô auto-equilibrante de duas rodas. O interesse particular nesta aplicação vem da sua estrutura e da riqueza de sua dinâmica física. Por ser um problema complexo e não trivial há grande interesse em avaliar os controladores inteligentes. A primeira parte da dissertação aborda o desenvolvimento de um controle clássico do tipo PID, para em seguida ser comparado com a implementação de dois tipos de controladores inteligentes: On-line Neuro Fuzzy Control (ONFC) e Proportional-Integral-Derivative Neural-Network (PIDNN). Também é apresentada a implementação dos controladores em uma plataforma de hardware, utilizando o kit LEGO Mindstorm, e numa plataforma de simulação utilizando o MATLAB-Simulink. Em seguida, dois estudos de casos são desenvolvidos visando comparar o desempenho dos controladores. O primeiro caso avalia o controle de equilíbrio e posição do robô auto-equilibrante de duas rodas sobre um terreno plano tendo como interesse observar o desempenho intrínseco do sistema sob ausência de fatores externos. O segundo caso estuda o controle de equilíbrio e posição do robô em terrenos irregulares visando investigar a resposta do sistema sob influência de condições adversas em seu ambiente. Finalmente, o desempenho de cada um dos controladores desenvolvidos é discutido, verificando-se resultados competitivos no controle do robô auto-equilibrante de duas rodas.
Resumo:
O objetivo deste trabalho é apresentar um modelo de controle de acesso para aplicações Web (Sistema de Informação sobre o mercado de software brasileiro) e mostrar como ele pode ser reutilizável para outras aplicações que utilizam o paradigma cliente-servidor. A ênfase do trabalho será, portanto, mostrar o modelo de controle de acesso e sua implementação usando software livre.
Resumo:
A mosca-dos-chifres, Haematobia irritans e considerada a maior praga dos bovinos nos Estado Unidos (Drummond et al., 1981) e uma das maiores pragas na Australia, sendo tambem muito importante na Europa. No Brasil, a mosca ocorre praticamente em todo o Pais, e os pecuaristas, especialmente da regiao do Cerrado, tem apontado o inseto como responsavel por grandes prejuizos. Sua introducao ocorreu por volta de 1976 na regiao norte, e a partir dai dispersou-se rapida e eficientemente. No Distrito Federal, a mosca foi observada pela primeira vez em 1990 (Saueressig, 1990). Por ser uma praga relativamente nova, existe pouca informacao sobre sua epidemiologia, controle e possiveis danos (nivel e grau de prejuizo) nessa regiao. A partir da sua dispersao no Brasil, varios trabalhos cientificos tem sido conduzidos (Collares, 1991; Barros, 1994; Saueressig et al., 1995; Bianchin e Alves, 1997) com o objetivo de responder as duvidas frequentemente levantadas por produtores rurais e tecnicos, porem muitas sao as questoes a responder, principalmente em relacao ao controle de inseto. Este trabalho tem por objetivos: fornecer informacoes ja existentes na literatura sobre o inseto; e sugerir medidas para o controle racional, incluindo o biologico, utilizando besouros coprofagos, cuja tecnica para criacao massal em laboratorio e descrita.
Resumo:
Medidas restritivas de controle de antimicrobianos têm sido propostas para controlar surtos epidêmicos de infecção por germes multirresistentes em hospitais, mas são escassas as publicações a respeito de sua eficácia. Em um estudo quaseexperimental com controles históricos, avaliou-se a efetividade de uma intervenção restritiva ao uso de antimicrobianos para controlar a emergência de germes multirresistentes em uma unidade de cuidados intensivos (UTI) de um hospital geral. Os Serviços de Controle de Infecção e Comissão de Medicamentos restringiu o uso de drogas antimicrobianas em pacientes hospitalizados na UTI a não mais que dois agentes simultaneamente, exceto em casos autorizados por aqueles serviços. A incidência de eventos clínicos e bacteriológicos foi comparada entre o ano que precedeu a intervenção e o ano que a seguiu. No total, 225 pacientes com idade igual ou maior de 15 anos , com infecção, internados na UTI por pelo menos 48 horas, foram estudados no ano precedente a intervenção e 263 no ano seguinte a ela. No ano seguinte à intervenção, um percentual menor de pacientes foi tratado simultaneamente com mais de dois antimicrobianos, mas não houve modificação no número total de antimicrobianos prescritos, na duração e no custo do tratamento. Mortalidade e tempo de internação foram similares nos dois períodos de observação. O número de culturas positivas aumentou depois da intervenção, tanto para germes Gram positivos, quanto para germes Gram negativos, principalmente devido ao aumento do número de isolados do trato respiratório. A maioria dos isolados foi Staphylococcus aureus dentre os Gram positivos e Acinetobacter sp dentre os germes Gram negativos. No ano seguinte à intervenção, a sensibilidade dos microorganismos Gram negativos para carbenicilina, ceftazidima e ceftriaxona aumentou, e para o imipenem diminuiu. A ausência de resposta dessa intervenção sobre desfechos clínicos pode ser em conseqüência da insuficiente aderência ou a sua relativa ineficácia. A melhora da sensibilidade microbiana de alguns germes, semaumento de custos ou a incidência de efeitos adversos, encoraja o uso de protocolos similares de restrição de drogas antimicrobianas para reduzir a taxa de resistência bacteriana na UTI.
Resumo:
O método de Taguchi é muito conhecido no setor industrial de manufatura onde é usado para controle de qualidade. Apresenta conceitos interessantes tais como robustez e perda de qualidade, sendo bastante útil para identificar variações do sistema de produção, durante o processo industrial, quantificando a variação e permitindo, eliminar os fatores indesejáveis. Ao revermos a literatura, verificamos que o método de Taguchi nunca havia sido aplicado em organizações, como ferramenta para quantificar e hierarquizar problemas gerenciais. Resolvemos então fazer um experimento e usá-lo no Instituto de Saúde. Através do uso de matriz ortogonal, foi possível quantificar a insatisfação quanto aos problemas gerenciais e hierarquizá-los para posterior resolução. O método foi validado com verificação dos resultados através de entrevistas posteriores ao processo, que mostraram grande concordância de resultados. A nossa conclusão é que o Método de Taguchi pode ser bastante útil nas organizações principalmente quando se tem muitas variáveis e todas parecem igualmente importante e prioritárias. Esse método é útil para reduzir o número de fatores e hierarquizá-los segundo a importância para organização em questão. A construção de uma escala de prioridades, sem dúvida facilita o processo de tomada de decisão, permitindo a gerência tomar medidas eficientes e de qualidade.
Resumo:
O comércio eletrônico é uma força que promete mudar definitivamente o cenário das empresas e seu relacionamento com clientes, fornecedores e parceiros. De olho no crescimento explosivo da Internet e da Web, as empresas estão aprendendo a utilizar o comércio eletrônico em seus processos de negócio tanto quanto nas suas estratégias de integração interna e externa. Os bancos têm, desde há muito, estado entre as empresas que mais investem em tecnologia de informação para apoiar os seus processos de negócio, buscar a eficiência empresarial e aumentar a qualidade dos seus serviços. Tendo suas origens na convergência tecnológica entre a computação e a telecomunicação, o comércio eletrônico abre um leque de oportunidades aos bancos que há muito buscam alternativas para oferecer aos seus clientes a possibilidade de operar serviços bancários remotamente, sem a necessidade de deslocamento até Uma agência. Mas a importância da evolução do comércio eletrônico para os bancos é ainda maior se for considerado que não há comércio sem pagamento e os bancos são os principais responsáveis pela manutenção de um sistema de pagamento confiável e versátil. Portanto, a crescente utilização da Web e da Internet pelos bancos implica também na consolidação do comércio eletrônico, tanto pela sua importância no controle dos meios de pagamento quanto na confiabilidade que transmitem aos usuários dos sistemas eletrônicos de transferência de valor. Este trabalho tem como objetivo estabelecer critérios para avaliar a evolução do comércio eletrônico nos serviços bancários e a difusão do uso da Web entre os bancos. A partir da observação de que os bancos podem utilizar a Web para divulgar informação, distribuir produtos e serviços e melhorar o relacionamento com os clientes, foram realizadas pesquisas através de análises em Web sites, questionários e entrevistas, para caracterizar o ritmo, a direção, os determinantes e as implicações da evolução do uso da Web entre os bancos.
Resumo:
Esta dissertação examina soluções para o controle estatístico em sistemas de produção que utilizam meios contínuos, onde freqüentemente os dados de análise apresentam o fenômeno da autocorrelação. A princípio são abordadas as técnicas de CEP tradicional (gráficos de Shewhart) para meios discretos, mostrando-se que estas técnicas não dão o resultado esperado quando utilizadas em processos contínuos, tanto em relação à amostragem como ao problema da autocorrelação. Em seguida são apresentadas outras soluções baseadas em técnicas mais recentes como EWMA e modelos autorregressivos, que tem uma melhor performance em meios contínuos. Damos os aspectos teóricos e exemplos de aplicação de cada solução obtida por consulta bibliográfica. Finalmente, é feita uma simulação comparativa das soluções citadas, baseandose em programação de macros e uso de software, para verificar o escopo e desempenho das soluções, sendo dadas recomendações sobre o seu uso, bem como sugestões para futuras pesquisas.
Resumo:
Este trabalho tem como objetivo criar um material de referência sobre a gestão de segurança em Internet Banking, oferecendo ao administrador uma visão gerencial, mesmo que não tenha conhecimento prévio de tecnologia. A partir do estudo de três casos de bancos, com atuação no Brasil (dois privados, um nacional e um estrangeiro, e uma terceira instituição financeira pública), levantou-se que a Internet foi um evento que motivou a reestruturação da gestão de segurança eletrônica, levando em consideração os novos riscos e oportunidades de atuar em rede pública. Os três bancos possuem medidas de gestão de segurança que atendem às três camadas: física, lógica e humana, e aos 10 domínios da gestão de segurança eletrônica, com foco especial no canal Internet Banking.
Resumo:
O tráfego de veículos, principalmente nas vias públicas de regiões densamente povoadas, tem sido objeto de preocupação por diversos aspectos: segurança no trânsito, supervisão da frota, controle de poluição, prevenção, registro de irregularidades, etc. Sistemas eletrônicos tradicionais são apontados como limitados pelas dificuldades apresentadas na instalação dos sensores e poucos recursos para extração de informações. Este trabalho propõe um sistema baseado no processamento digital de imagens em vídeo para detectar, acompanhar e extrair informações de um veículo em movimento, tais como: posição, velocidade e dimensões. Embora técnicas de pré-processamento sejam empregadas para minimizar problemas iluminação e trepidação, informações obtidas nas etapas finais do processamento, tendem a distorcer em função destes fatores. Algoritmos baseados em análise probabilística no domínio espaço temporal de imagens 2-D são propostos para segmentar o objeto mesmo na presença destes fatores. A fim de tornar o acompanhamento mais robusto a oclusões e pixels espúrio s, é proposto um método que detecta e rejeita posições inconsistentes do objeto de acordo com a estimativa de sua próxima posição.
Resumo:
The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.
Resumo:
A concepção dos sistemas eletrônicos previstos para o futuro próximo implica em uma atividade multidisciplinar, a qual demanda, para o projeto de sistemas eletrônicos, o uso de métodos e técnicas provenientes de diversos domínios do conhecimento humano. Esses domínios podem variar desde a especificação de aplicações, até a realização física de circuitos integrados. A constante evolução dos processos de fabricação de circuitos integrados permite a criação de circuitos bastante complexos, seja em relação ao número de componentes eletrônicos e de suas inter-relações, seja em relação à heterogeneidade funcional presente nas aplicações alvo, previstas para estes sistemas. Para os próximos anos está prevista a possibilidade da inclusão de mais de um bilhão de transistores em uma única pastilha de silício, inaugurando a era da “gigaescala”. Devido a essa situação, a comunidade científica vem demonstrando preocupação em relação às novas técnicas que se fazem necessárias para a concepção dos “gigacircuitos”. Essas técnicas envolvem o uso de diferentes níveis de abstração na concepção e análise das funcionalidades da aplicação alvo, além de abordagens para explorar o grande espaço de busca, inerente à disponibilidade de um grande número de componentes para a implementação da arquitetura alvo, a qual deve ser otimizada para as restrições de projeto. As idéias apresentadas nesse trabalho vão de encontro à necessidade por novas técnicas para a concepção de circuitos eletrônicos complexos. Este trabalho procura contribuir para que esta classe de circuitos possa tornar-se realidade em um futuro próximo, avalizando a disponibilidade de informação, de entretenimento e de serviços para a sociedade. Para tanto, um novo método é proposto, onde um fluxo de projeto considera as ferramentas necessárias para a exploração do espaço de busca em componentes de processamento e de comunicação, visando à sua otimização. As ferramentas seguem os princípios do projeto baseado em plataformas, onde componentes podem ser reutilizadas para aplicações da mesma classe, em diferentes níveis de abstração. Além disso, os princípios da especificação baseada em interface são considerados, visando explicitar a especificação de funcionalidades heterogêneas para componentes arquiteturais, bem como permitir a avaliação dinâmica do comportamento destes.