91 resultados para Sistemas eletrônicos de medidas e de controle
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Medidas restritivas de controle de antimicrobianos têm sido propostas para controlar surtos epidêmicos de infecção por germes multirresistentes em hospitais, mas são escassas as publicações a respeito de sua eficácia. Em um estudo quaseexperimental com controles históricos, avaliou-se a efetividade de uma intervenção restritiva ao uso de antimicrobianos para controlar a emergência de germes multirresistentes em uma unidade de cuidados intensivos (UTI) de um hospital geral. Os Serviços de Controle de Infecção e Comissão de Medicamentos restringiu o uso de drogas antimicrobianas em pacientes hospitalizados na UTI a não mais que dois agentes simultaneamente, exceto em casos autorizados por aqueles serviços. A incidência de eventos clínicos e bacteriológicos foi comparada entre o ano que precedeu a intervenção e o ano que a seguiu. No total, 225 pacientes com idade igual ou maior de 15 anos , com infecção, internados na UTI por pelo menos 48 horas, foram estudados no ano precedente a intervenção e 263 no ano seguinte a ela. No ano seguinte à intervenção, um percentual menor de pacientes foi tratado simultaneamente com mais de dois antimicrobianos, mas não houve modificação no número total de antimicrobianos prescritos, na duração e no custo do tratamento. Mortalidade e tempo de internação foram similares nos dois períodos de observação. O número de culturas positivas aumentou depois da intervenção, tanto para germes Gram positivos, quanto para germes Gram negativos, principalmente devido ao aumento do número de isolados do trato respiratório. A maioria dos isolados foi Staphylococcus aureus dentre os Gram positivos e Acinetobacter sp dentre os germes Gram negativos. No ano seguinte à intervenção, a sensibilidade dos microorganismos Gram negativos para carbenicilina, ceftazidima e ceftriaxona aumentou, e para o imipenem diminuiu. A ausência de resposta dessa intervenção sobre desfechos clínicos pode ser em conseqüência da insuficiente aderência ou a sua relativa ineficácia. A melhora da sensibilidade microbiana de alguns germes, semaumento de custos ou a incidência de efeitos adversos, encoraja o uso de protocolos similares de restrição de drogas antimicrobianas para reduzir a taxa de resistência bacteriana na UTI.
Resumo:
O tráfego de veículos, principalmente nas vias públicas de regiões densamente povoadas, tem sido objeto de preocupação por diversos aspectos: segurança no trânsito, supervisão da frota, controle de poluição, prevenção, registro de irregularidades, etc. Sistemas eletrônicos tradicionais são apontados como limitados pelas dificuldades apresentadas na instalação dos sensores e poucos recursos para extração de informações. Este trabalho propõe um sistema baseado no processamento digital de imagens em vídeo para detectar, acompanhar e extrair informações de um veículo em movimento, tais como: posição, velocidade e dimensões. Embora técnicas de pré-processamento sejam empregadas para minimizar problemas iluminação e trepidação, informações obtidas nas etapas finais do processamento, tendem a distorcer em função destes fatores. Algoritmos baseados em análise probabilística no domínio espaço temporal de imagens 2-D são propostos para segmentar o objeto mesmo na presença destes fatores. A fim de tornar o acompanhamento mais robusto a oclusões e pixels espúrio s, é proposto um método que detecta e rejeita posições inconsistentes do objeto de acordo com a estimativa de sua próxima posição.
Resumo:
The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.
Resumo:
A concepção dos sistemas eletrônicos previstos para o futuro próximo implica em uma atividade multidisciplinar, a qual demanda, para o projeto de sistemas eletrônicos, o uso de métodos e técnicas provenientes de diversos domínios do conhecimento humano. Esses domínios podem variar desde a especificação de aplicações, até a realização física de circuitos integrados. A constante evolução dos processos de fabricação de circuitos integrados permite a criação de circuitos bastante complexos, seja em relação ao número de componentes eletrônicos e de suas inter-relações, seja em relação à heterogeneidade funcional presente nas aplicações alvo, previstas para estes sistemas. Para os próximos anos está prevista a possibilidade da inclusão de mais de um bilhão de transistores em uma única pastilha de silício, inaugurando a era da “gigaescala”. Devido a essa situação, a comunidade científica vem demonstrando preocupação em relação às novas técnicas que se fazem necessárias para a concepção dos “gigacircuitos”. Essas técnicas envolvem o uso de diferentes níveis de abstração na concepção e análise das funcionalidades da aplicação alvo, além de abordagens para explorar o grande espaço de busca, inerente à disponibilidade de um grande número de componentes para a implementação da arquitetura alvo, a qual deve ser otimizada para as restrições de projeto. As idéias apresentadas nesse trabalho vão de encontro à necessidade por novas técnicas para a concepção de circuitos eletrônicos complexos. Este trabalho procura contribuir para que esta classe de circuitos possa tornar-se realidade em um futuro próximo, avalizando a disponibilidade de informação, de entretenimento e de serviços para a sociedade. Para tanto, um novo método é proposto, onde um fluxo de projeto considera as ferramentas necessárias para a exploração do espaço de busca em componentes de processamento e de comunicação, visando à sua otimização. As ferramentas seguem os princípios do projeto baseado em plataformas, onde componentes podem ser reutilizadas para aplicações da mesma classe, em diferentes níveis de abstração. Além disso, os princípios da especificação baseada em interface são considerados, visando explicitar a especificação de funcionalidades heterogêneas para componentes arquiteturais, bem como permitir a avaliação dinâmica do comportamento destes.
Resumo:
The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.
Resumo:
Neste trabalho estudamos modelos teóricos que descrevem sistemas eletrônicos fortemente correlacionados, em especial o modelo t-J, e suas aplicações a compostos de óxidos de cobre, notadamente os compostos que apresentam supercondutividade de alta temperatura crítica e o composto Sr2CuO2Cl2. No primeiro capítulo do trabalho, fazemos uma exposição de três modelos que envolvem o tratamento das interações elétron-elétron, que são os modelos de Hubbard de uma banda, o modelo de Heisenberg e o modelo t-J. Na dedução deste último fazemos uma expansão canônica do hamiltoniano de Hubbard, no limite de acoplamento forte, levando-nos a obter um novo hamiltoniano que pode ser utilizado para descrever um sistema antiferromagnético bidimensional na presen- ça de lacunas, que é exatamente o que caracteriza os compostos supercondutores de alta temperatura crítica na sua fase de baixa dopagem.Após termos obtido o hamiltoniano que descreve o modelo t-J, aplicamos à este uma descrição de polarons de spin, numa representação de holons, que são férmions sem spin, e spinons, que são bósons que carregam somente os graus de liberdade de spin. Utilizando uma função de Green para descrever a propagação do polaron pela rede, obtemos uma equação para a sua autoenergia somando uma série de diagramas de Feynman, sendo que para este cálculo utilizamos a aproxima ção de Born autoconsistente[1]. Do ponto de vista numérico demonstramos que a equação integral de Dyson resultante do tratamento anterior não requer um procedimento iterativo para sua solução, e com isto conseguimos trabalhar com sistemas com grande número de partículas. Os resultados mostram, como um aspecto novo, que o tempo de vida média do holon tem um valor bastante grande no ponto (π,0 ) da rede recíproca, perto da singularidade de Van Hove mencionada na literatura[2]. Este aspecto, e suas implicações, é amplamente discutido neste capítulo. No capítulo 3 estudamos o modelo estendido t-t'-J, com tunelamento à segundos vizinhos e a incorporação dos termos de três sítios[3]. Fazemos a mesma formulação do capítulo anterior, e discutimos as aplicações dos nossos resultados ao óxido mencionado anteriormente. Finalmente, no último capítulo apresentamos uma aplicação original do modelo t-J à uma rede retangular, levemente distorcida, e demonstramos que os resultados do capítulo 3 são reproduzidos sem necessidade de introduzir termos de tunelamento adicionais no hamiltoniano. Esta aplicação pode se tornar relevante para o estudo das fases de tiras encontradas recentemente nesses materiais de óxidos de cobre.
Resumo:
Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.
Resumo:
Ornitina decarboxilase (ODC) (EC 4.1.1.17) é a primeira enzima que desencadeia a síntese das poliaminas putrescina, espermidina e espermina nas células. As poliaminas são cátions alifáticos envolvidos no controle de crescimento e são requeridas para uma variedade de eventos biológicos como síntese de proteína, replicação do DNA e divisão celular. No presente estudo, a atividade da ODC foi medida em ovo, larva, pupa, fêmea jovem e adulta de Anastrepha fraterculus. Durante o desenvolvimento de A. fraterculus, a atividade da ODC apresentou flutuações. Entre os estágios anteriores à emergência, o ovo teve a mais alta atividade específica, provavelmente devido à embriogênese que é caracterizada pela alta taxa de divisão celular. A atividade da ODC foi também altamente significativa em ovários e corpo gorduroso de fêmeas jovens possivelmente devido ao avanço da oogênese e vitelogênese. Parâmetros cinéticos (Km app e Vmax) para atividade da ODC foram determinados em pupa, larva e ovário de fêmeas jovens e apresentaram grande variação. A guanosina trifosfato (GTP) demonstrou afetar grandemente estes parâmetros cinéticos, sugerindo estarem ocorrendo modificações pós-traducionais. Fêmeas jovens (4 dias) de A. fraterculus também foram analisadas quanto ao efeito do estresse de temperatura (6ºC e 20/6ºC) e da aplicação tópica do hormônio juvenil isolados ou em conjunto. . Os principais resultados foram que a concentração de 500 ng e os tempos de incubação de 3, 7 e 18 horas aumentaram a atividade da ODC. As fêmeas mantidas a 6ºC e 20/6ºC tiveram atividade da ODC mais alta do que as fêmeas mantidas a 25ºC. O tempo de incubação de 1 hora com o HJ aumentou a atividade da ODC no tratamento de 6ºC, quando comparado com fêmeas mantidas apenas com o estresse de temperatura sem a adição do hormônio (controle). No entanto, no tratamento das fêmeas mantidas a 20/6ºC, somente os tempos de 3 e 18 horas de incubação com o HJ demonstraram aumento na atividade da ODC quando comparadas com o tempo de incubação de 1 hora e com as fêmeas mantidas sem a adição do hormônio (controle). Os machos não apresentaram diferença na atividade da ODC quando submetidos ao estresse de temperatura de 6ºC, mas as medidas do apódema ejaculatório foram maiores a 25ºC que a 6ºC. Estes resultados podem ser considerados como parte de um processo adaptativo a mudanças ambientais. Por último, observamos que as medidas dos ovários (comprimento e largura) de fêmeas jovens mantidas com o inibidor da ODC, -difluormetilornitina (-DFMO; 50mM) são diferentes significativamente quando comparadas com às medidas das fêmeas controle sem o inibidor. O conjunto desses resultados indica a importância da relação entre ODC, HJ e estresse de temperatura para a A. fraterculus. Como esta mosca é uma das piores pragas para a fruticultura brasileira, estes dados, além de contribuírem para um maior conhecimento de sua biologia básica, poderão também ser usados para a escolha de melhores estratégias de controle populacional.
Resumo:
O tema central deste trabalho é a política cambial. Seu objetivo básico é analisar a condução da política cambial no Brasil entre 1945-1973, que compreende a vigência do Acordo de Bretton Woods, identificando as principais medidas adotadas e seus efeitos sobre algumas das principais variáveis econômicas. Ainda que o Acordo de Bretton Woods tenha estabelecido o dólar norte-americano como base do sistema monetário mundial, de forma que cada país deveria adotar uma taxa fixa de câmbio em relação ao dólar-norte americano, verificou-se, especialmente após a Segunda Guerra Mundial, a utilização freqüente de alternância de instrumentos de política cambial pelo governo brasileiro. Dessa forma, ficou evidenciado que durante o período mencionado, a política cambial, esteve em grande parte, subordinada à gestão de freqüentes estrangulamentos cambiais, decorrentes da necessidade de equilibrar as contas externas ou de fornecer divisas à importação dos bens de produção necessários à continuidade do desenvolvimento industrial. Tais fatos, levavam o governo brasileiro a adotar medidas intercaladas de controle cambial, ora austeras, ora mais flexíveis, para fazer frente a tais desequilíbrios. Em 1973, o Acordo de Bretton Woods ruiu e desta forma o sistema monetário internacional passou a adotar taxas de câmbio flexíveis. No entanto, o Brasil já vinha praticando uma política cambial mais flexível desde 1968, com base em minidesvalorizações cambiais, levando em consideração a variação da paridade do poder de compra. À guisa de conclusão, evidenciou-se que a política cambial teve importância crucial, constituindo-se num marco decisivo no processo de desenvolvimento econômico do país, durante o período analisado, procurando, em conjunturas específicas, compatibilizar a estabilidade econômica com os compromissos desenvolvimentistas assumidos pelos governos do período.
Resumo:
A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.
Resumo:
O objetivo deste trabalho é propor uma metodologia para medição e controle de uma estratégia pré-existente de manufatura, visando a preencher uma lacuna identificada nos processos de gestão estratégica – a falta de alinhamento automático das ações definidas nos processos de planejamento estratégico de manufatura com a medição do desempenho. Observada sob uma perspectiva sistêmica, a manufatura se relaciona com o meio pela importação de informação, energia e materiais, exportando produtos, informação e serviços. Através de mecanismos de realimentação, como a medição de desempenho e a monitoração de grandezas ambientais, a manufatura governa seus recursos de modo a atingir objetivos, geralmente estabelecidos no planejamento estratégico. Considerando a problemática de medição e controle, faz-se uma discussão sobre a perspectiva sistêmica da manufatura, sobre formas de estruturar objetos, muitas vezes intangíveis, que deverão ser medidos e sobre modelos já propostos de medição do desempenho organizacional, comparando-os e propondose uma classificação. Apoiado na revisão bibliográfica, por um método de pesquisa hipotético-dedutivo, propõe-se uma metodologia para estruturar um sistema de medição de uma estratégia existente, que permita o controle das ações sempre que os objetivos não estejam sendo alcançados e que possa se adaptar sempre que o cenário estratégico varie. Por um método de trabalho de aproximações parciais testa-se e refina-se a metodologia proposta. Inicia-se a fase experimental pela modelagem e avaliação da capacidade de competição de uma manufatura de equipamentos eletrônicos, dada uma estratégia existente. Passa-se então à modelagem de parâmetros de processo de manufatura, tais como o tempo de atravessamento, o inventário em processo e o desempenho, necessários para medições internas, testada em uma manufatura calçadista. Agrega-se então ao conhecimento já testado uma técnica de otimização de cursos de ação estratégica e testa-se a metodologia como um todo em uma estratégia existente de manufatura mecânica. Ao fim, discute-se o caso e comparam-se os resultados com outras fontes, encaminhando-se a continuidade de pesquisas.
Resumo:
O ambiente concorrencial atual está impondo novos fatores de competição às empresas. Com a globalização e a abertura do mercado, as empresas brasileiras estão implantando programas de qualidade e produtividade tendo como referencial principal (benchmarking) as empresas japonesas. As conseqüentes mudanças no ambiente empresarial não estão, entretanto, sendo consistentemente acompanhadas por evoluções nas sistemáticas de controle e custeio. As informações relativas ao controle de uma empresa devem ser acuradas o suficiente para subsidiar o processo de tomada de decisões no atual ambiente competitivo. Porém, as tradicionais práticas de controle e custeio, além de obsoletas, podem constituir uma restrição para a continuidade dos programas de melhoria das empresas. Este trabalho mostra a evolução dos sistemas de manufatura, com ênfase particular no Modelo Japonês / Sistema Toyota de Produção. Uma atenção especial é dada à necessidade de mudanças nos sistemas de controle das empresas, principalmente na parte de custeio. Mostra-se ainda algumas características das sistemáticas de controle e custeio nas empresas japonesas em comparação com a lógica predominante nas empresas ocidentais. Apóia-se o trabalho em um caso real de uma empresa que já passou por um processo de racionalização, sob forte influência dos conceitos japoneses de qualidade e produtividade, e que, agora, sente a necessidade de uma maior transparência e melhor entendimento do comportamento dos custos em seu ambiente, para poder dar continuidade a este processo de melhorias.
Resumo:
Este trabalho realiza uma análise do potencial dos sistemas centralizados para controle de tráfego no Brasil, executando uma comparação entre as diferentes tecnologias disponíveis, e os conseqüentes resultados obtidos. Estes resultados são apresentados, através de "cases", na forma de benefícios obtidos, comparados com os custos associados para a implantação de cada sistema. As partes que compõem estes sistemas são apresentadas através de um histórico do controle de tráfego e das evoluções tecnológicas dos equipamentos e dos critérios de controle utilizados. Um resumo dos panoramas atuais, americano e brasileiro, permite uma comparação, quanto à utilização e investimentos em sistemas centralizados para controle de tráfego. Ao final do trabalho é apresentada uma proposta, adequada à realidade brasileira, para implantação de sistemas centralizados de tráfego, baseada em uma metodologia de implantação em etapas, com investimentos e benefícios crescentes, atendendo gradativamente à demanda de cada município.
Resumo:
Nesta dissertação é realizado o estudo e caracterização do comportamento de uma Unidade de Extração de Butadieno. O objetivo deste estudo é a proposição de estratégias de controle para esta unidade que, respeitando as restrições e características do processo, permitam que sejam alcançadas as seguintes metas operacionais: elevação da carga processável, aumento do tempo de campanha, aumento da corrente de produto e diminuição das perdas de butadieno ao longo do processo. O estudo e proposição das estratégias de controle é feito de modo sistemático, seguindo uma metodologia na qual o aspecto fundamental é o entendimento do processo e a compreensão das relações causa e efeito entre as variáveis manipuladas, controladas (ou medidas) e distúrbios. A presença de reciclos mássicos e energéticos somados aos efeitos da destilação extrativa faz com que, muitas vezes, essa relação contrarie o que é esperado pelo senso comum. As informações utilizadas na proposição e classificação das estruturas são oriundas de estudos em modelos do processo construídos em simuladores comerciais (ASPEN Plus v10.1 e ASPEN Dynamics). Ao longo desses estudos, as características estacionárias e dinâmicas do processo foram elucidadas, permitindo com que fosse proposta uma estrutura com potencialidade de atingir os objetivos referidos acima. Como resultados importantes podem ser citados: a importância do conjunto de parâmetros binários na modelagem termodinâmica do processo, a detecção do efeito "SnowBall", relacionado com a forma como os níveis dos equipamentos e vazões das correntes são controladas em sistemas com reciclo, e a determinação do comportamento da composição de vinil acetileno no topo da 2º Coluna de Destilação Extrativa (componente chave de separação nesta coluna) em relação a quantidade de solvente. Conforme a maneira como a corrente de alimentação da coluna Recuperadora de Butadieno é operada (temperatura ou taxa de resfriamento constante), quando a vazão de solvente na 2º Coluna de Destilação Extrativa é modificada, pode ocorrer uma inversão de ganho na concentração deste componente.
Resumo:
Aspectos relativos às moscas frugívoras (Diptera: Tephritidae e Lonchaeidae), em sistemas de produção familiares e com princípios ecológicos, são pouco conhecidos, assim como alternativas para o seu manejo. Este estudo foi realizado com o objetivo de reconhecer as espécies de moscas frugívoras e sua variação numérica, quantificar os danos e avaliar as alternativas de manejo utilizadas pelos citricultores no sistema orgânico de produção de citros, na região do vale do rio Caí, Rio Grande do Sul. O experimento foi instalado em pomares de laranjeira ‘Céu’ (Citrus sinensis), de janeiro a maio de 2003 e 2004, e do tangoreiro ‘Murcott’ (Citrus reticulata x Citrus sinensis), de junho a setembro de 2003 e junho a agosto de 2004, na fase de maturação. Para o monitoramento populacional das moscas foram utilizadas armadilhas tipo McPhail, contendo suco de uva a 25%, verificadas semanalmente. Os danos foram avaliados por meio da porcentagem de frutos danificados. As temperaturas máxima, mínima e média, a precipitação, a umidade relativa do ar e a coloração dos frutos, foram registradas. Os métodos de controle (calda sulfocálcica, soro de leite e ensacamento) foram analisados pela redução dos danos e os impactos na composição dos táxons dos pomares. A viabilidade econômica destes métodos também foi calculada. Constatou-se que Anastrepha fraterculus é a espécie de maior importância para a região. A precipitação é o principal fator climático que afeta o número de moscas frugívoras Em laranjeira ‘Céu’ e em tangoreiro ‘Murcott’, no período que antecede a mudança de coloração dos frutos, os danos ocorrem de forma atrasada em relação ao pico populacional, após este período a resposta é imediata. O ensacamento é o método que promove a maior redução dos danos e com menores impactos na composição de táxons, no entanto, a sua viabilidade econômica é dependente do número de moscas-das-frutas e do valor a ser recebido pela produção.