999 resultados para Modelagem de processos


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Internet tem expandido a área de atuação das empresas aproximando mercados, empresas, pessoas e gerando mudanças significativas no paradigma das relações de trabalho. Juntamente, a chamada “revolução da informação” e a expansão da competitividade entre as empresas no mercado global ocasionaram um movimento de reformulação nas próprias estruturas administrativas das organizações de forma que a informação e o conhecimento passaram a ser vistos como recursos organizacionais tão importantes quanto a mão-de-obra ou a matéria-prima. Estas mudanças revolucionaram os mais diversos processos organizacionais, sobretudo aqueles relacionados com a gestão do conhecimento e da informação. Neste contexto, a problemática do gerenciamento de informação pode ser identificada como desafio crucial, o qual tem sido abordado tanto no cenário acadêmico quanto no cenário empresarial. Assim, o desenvolvimento de meios e métodos para operacionalização do gerenciamento de conteúdos é tema desta dissertação, que objetiva, através da aplicação da metodologia de pesquisa-ação, apresentar a descrição funcional um sistema modular para gerenciamento de conteúdo em ambiente web. Também são discutidos aspectos relacionados com a aplicação prática do sistema em diferentes websites, e realizada uma avaliação onde se constatou que os gestores estão satisfeitos, não apresentando dificuldade de uso, e ainda obtiveram resultados positivos com o uso da ferramenta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O Governo do Presidente Fernando Collor de Mello promoveu uma reforma administrativa do aparelho público federal, tida por muitos como desastrada e inconseqüente. O Departamento Nacional de Estradas de Rodagem - DNER, uma Autarquia responsável pelas estradas federais, foi um dos órgãos da administração indireta afetado. A dissertação se propõe a identificar as conseqüências dessa intervenção na modelagem organizacional do DNER, tomando como referência os processos reformistas ocorridos na administração pública brasileira desde os anos de 1930. A viagem pela história do órgão mostra os momentos iniciais da sua criação e a sua trajetória do sucesso ao declínio, quando então sofreu a reforma Collor de Mello. Os estudos realizados permitem concluir que as mudanças organizacionais efetuadas fizeram surgir um DNER frágil e limitado na sua capacidade operacional.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

o monitoramento da expansão das áreas urbanas e a análise da sua interação com o meio físico têm sido um grande desafio para os técnicos de planejamento urbano. No Brasil, em especial, dada a velocidade com que o fenômeno se processa e graças a um crescimento desordenado das cidades nas últimas décadas, esses estudos, que envolvem um elevado número de informações, tem exigido decisões e diagnósticos urbanos cada vez mais rápidos. Esta dissertação propõe uma metodologia para o planejamento racional do uso do solo urbano através do emprego integrado de tecnologias recentes como Sistema de Informações Geográficas (SIG), Modelagem Numérica do Terreno (MNT) e Sensoriamento Remoto através de imagens orbitais. Para isso, são implementados no SIG desenvolvido pelo INPE dados provenientes de cartas topográficas, de mapas temáticos do meio físico e de imagens orbitais LANSAT/TM da região estudada. A partir desses dados iniciais são geradas, também num SIG, outras informações com objetivo de estudar a evolução da área urbana, identificar áreas com suscetibilidade preliminar à erosão laminar, áreas com restrição ao uso urbano e áreas de eventos perigosos e riscos. o trabalho apresenta inicialmente uma revisão bibliográfica sobre a aplicação de Sensoriamento Remoto, Modelagem Numérica do Terreno (MNT) e Sistema de Informações Geográficas (SIG) em estudos urbanos. Segue-se a conceituação e aspectos teóricos dessas três ferramentas básicas utilizadas. A metodologia propriamente dita traz os planos de informações originais e as suas respectivas fontes de informações, os processos de classificação de imagens digitais empregados e os modelos de cruzamentos desenvolvidos para um SIG. A área teste escolhida é a sub-bacia do Arroio Feijó, localizada na região metropolitana de Porto Alegre, na porção centro-leste do Estado do Rio Grande do Sul. A região é caracterizada por uma elevada densidade populacional, pela presença de áreas inundáveis e pela ocorrência de processos eroslVOS. Os resultados mostram que a metodologia proposta é adequada e eficiente para agilizar as atividades de planejamento urbano, subsidiando a elaboração de Planos Diretores de Desenvolvimento Integrado e orientando o crescimento das cidades para regiões mais favoráveis. Além disso, contribui para a prevenção de parcela dos riscos e problemas geotécnicos relacionados ao meio físico nas áreas urbanas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A implementação de técnicas estatísticas, como modelos de regressão, permite conhecer os efeitos dos fatores sobre a característica de qualidade de um produto, contribuindo na melhoria da qualidade de produtos e processos. O objetivo desta dissertação consiste em elaborar um método que oriente à modelagem de dados mensurados em proporção, levando em consideração a classificação das variáveis dependentes e independentes, com enfoque no Modelo de Regressão Beta e no Modelo de Quaseverossimilhança. O método é ilustrado com um estudo em uma empresa curtidora da região do Vale do Rio dos Sinos no Rio Grande do Sul. A modelagem realizada neste estudo referiuse a proporção de produtos refugados no processo de produção por erro de classificação. Os Modelos de Regressão Beta e de Quase-verossimilhança apresentaram bom ajuste e mostraram-se adequados na modelagem da proporção de produtos por erros de classificação. Esses modelos podem ser estendidos a todos os processos industriais que envolvam a produção de produtos não conformes às especificações de fabricação (defeituosos). O método elaborado apresentou facilidade de entendimento e clareza dos passos para a escolha dos modelos de regressão usados na modelagem de dados mensurados em proporção.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A agricultura é a atividade econômica mais dependente das condições climáticas. Os eventos climáticos afetam não só os processos metabólicos das plantas, diretamente relacionados à produção vegetal, como também as mais diversas atividades no campo. De acordo com Petr (1990) e Fageria (1992), citados por Hoogenboom (2000), ao redor de 80% da variabilidade da produção agrícola no mundo se deve à variabilidade das condições climáticas durante o ciclo de cultivo, especialmente para as culturas de sequeiro, já que os agricultores não podem exercer nenhum controle sobre esses fenômenos naturais. Além de influenciar o crescimento, o desenvolvimento e a produtividade das culturas, o clima afeta também a relação das plantas com microorganismos, insetos, fungos e bactérias, favore-cendo ou não a ocorrência de pragas e doenças, o que demanda as medidas de controle ade-quadas. Muitas das práticas agrícolas de campo, como o preparo do solo, a semeadura, a adu-bação, a irrigação, as pulverizações, a colheita, entre outras, também dependem de condições de tempo e de umidade no solo específicas para que possam ser realizadas de forma eficiente (PEREIRA et al., 2002). Dada a grande importância do clima para a produção agrícola, o uso de informações meteoro-lógicas e climáticas é fundamental para que a agricultura se torne atividade sustentável (SIVAKUMAR et al., 2000). Neste contexto, a agrometeorologia, ciência interdisciplinar que estuda a influência do tempo e do clima na produção de alimentos, fibras e energia, assume papel estratégico no entendimento e na solução dos problemas enfrentados pela agricultura (MAVI E TUPPER, 2004). Os governos apoiam usualmente a gestão de risco dos agricultores concentrando-se nos riscos imprevisíveis e inevitáveis, possivelmente raros, mas que têm graves consequências (perdas catastróficas) se os agricultores não conseguirem gerir estes riscos sozinhos já que existe nú-mero limitado de opções políticas a serem consideradas, quer a nível interno ou internacional, quando o assunto é referente à alimentação dos concidadãos. A preocupação crescente com o aumento da população mundial, com a degradação dos recur-sos naturais e com a sustentabilidade da agricultura tem exigido maiores esforços no desen-volvimento de melhores estratégias e práticas do uso do solo, a partir do melhor entendimento das relações entre a agricultura e o clima. Nesse sentido, o desenvolvimento de ferramentas que auxiliem o planejamento e o processo de tomadas de decisão que resultem em menores impactos ambientais e no aumento da resiliência da agricultura, tem sido um dos objetivos das instituições governamentais e não gover-namentais ligadas à agricultura, ao ambiente e aos recursos naturais. Sem embargo, as sofisticadas técnicas utilizadas para estimar preços no mercado futuro, as perspectivas relativamente instáveis das commodities agrícolas resultam do pressuposto de que em condições normais, as incertezas associadas ao clima, fatores macroeconômicos, in-tervenções de políticas e o custo da energia, entre outros fatores relevantes, sugerem que os preços dos produtos de base agrossilvipastoris permanecerão imprevisíveis. Mesmo que estratégias de hedging continuem sendo preponderantes no que tange à mitigação do risco financeiro causado pela volatilidade de preços, para a grande maioria das empresas, seguradoras, governos e produtores que dependem dos resultados da lavoura para colher os benefícios financeiros da produção agrícola, como no caso das empresas agrossilvipastoris, a mitigação dos riscos de mercado concomitantemente ao gerenciamento do risco agrometeoro-lógico faz todo sentido. A utilização de uma ferramenta de suporte a decisão baseado em sistemas de informação geo-gráfica é a melhor maneira de aproveitar todo o conhecimento que está disponível para o acompanhamento da produção de alimentos e de energia. Os filtros espaciais utilizados para analisar a situação como um todo, aliados a produtos de informação atualizados em tempo hábil para verificar a produção local permitem monitorar de fato os principais riscos relacio-nados condições agrometeorológicas e o manejo da produção agrícola. A convergência tecnológica entre os sistemas de informação e de suporte à decisão por meio de servidores nas nuvens possibilita hoje automatizar grande parte das análises que se podem obter com base nas informações disponíveis e fazer chegar o conhecimento até o usuário final. As redes de empresas formadas para produzir dados espaciais, seja por meio de satélites de sensoriamento remoto ou redes de estações meteorológicas, estão preparadas para garantir um fluxo contínuo de informação para serem consumidos por usuários deste conhecimento. Os informes deste trabalho e as conclusões desta investigação remetem à hipótese de que a comunicação de informações de forma inteligente, em tempo hábil de serem aplicadas na to-mada de decisão eficiente, permite que os riscos associados aos cultivos sejam mais bem mi-tigados e, portanto gerem valor aos acionistas com ativos ligados ao agronegócio. O maior desafio desta dissertação de mestrado encontra-se em mostrar aos atores do agrone-gócio que, ao dotar os agricultores de meios para que eles possam gerir sua atividade com base nas melhores práticas de manejo agrometeorológico, incentivar a criação de mecanismos que aperfeiçoem a gestão rural e ampliem o acesso à informação, e não apenas auxiliá-los sob a forma de apoio ad hoc e assistência agronômica, de fato se amplia a capacidade de gestão dos riscos associados às atividades agrossilvipastoris.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O item não apresenta o texto completo, para aquisição do livro na íntegra você poderá acessar a Editora da UFSCar por meio do link: www.editora.ufscar.br

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Deep bed filtration occurs in several industrial and environmental processes like water filtration and soil contamination. In petroleum industry, deep bed filtration occurs near to injection wells during water injection, causing injectivity reduction. It also takes place during well drilling, sand production control, produced water disposal in aquifers, etc. The particle capture in porous media can be caused by different physical mechanisms (size exclusion, electrical forces, bridging, gravity, etc). A statistical model for filtration in porous media is proposed and analytical solutions for suspended and retained particles are derived. The model, which incorporates particle retention probability, is compared with the classical deep bed filtration model allowing a physical interpretation of the filtration coefficients. Comparison of the obtained analytical solutions for the proposed model with the classical model solutions allows concluding that the larger the particle capture probability, the larger the discrepancy between the proposed and the classical models

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the last decades, the oil, gas and petrochemical industries have registered a series of huge accidents. Influenced by this context, companies have felt the necessity of engaging themselves in processes to protect the external environment, which can be understood as an ecological concern. In the particular case of the nuclear industry, sustainable education and training, which depend too much on the quality and applicability of the knowledge base, have been considered key points on the safely application of this energy source. As a consequence, this research was motivated by the use of the ontology concept as a tool to improve the knowledge management in a refinery, through the representation of a fuel gas sweetening plant, mixing many pieces of information associated with its normal operation mode. In terms of methodology, this research can be classified as an applied and descriptive research, where many pieces of information were analysed, classified and interpreted to create the ontology of a real plant. The DEA plant modeling was performed according to its process flow diagram, piping and instrumentation diagrams, descriptive documents of its normal operation mode, and the list of all the alarms associated to the instruments, which were complemented by a non-structured interview with a specialist in that plant operation. The ontology was verified by comparing its descriptive diagrams with the original plant documents and discussing with other members of the researchers group. All the concepts applied in this research can be expanded to represent other plants in the same refinery or even in other kind of industry. An ontology can be considered a knowledge base that, because of its formal representation nature, can be applied as one of the elements to develop tools to navigate through the plant, simulate its behavior, diagnose faults, among other possibilities

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this dissertation, the theoretical principles governing the molecular modeling were applied for electronic characterization of oligopeptide α3 and its variants (5Q, 7Q)-α3, as well as in the quantum description of the interaction of the aminoglycoside hygromycin B and the 30S subunit of bacterial ribosome. In the first study, the linear and neutral dipeptides which make up the mentioned oligopeptides were modeled and then optimized for a structure of lower potential energy and appropriate dihedral angles. In this case, three subsequent geometric optimization processes, based on classical Newtonian theory, the semi-empirical and density functional theory (DFT), explore the energy landscape of each dipeptide during the search of ideal minimum energy structures. Finally, great conformers were described about its electrostatic potential, ionization energy (amino acids), and frontier molecular orbitals and hopping term. From the hopping terms described in this study, it was possible in subsequent studies to characterize the charge transport propertie of these peptides models. It envisioned a new biosensor technology capable of diagnosing amyloid diseases, related to an accumulation of misshapen proteins, based on the conductivity displayed by proteins of the patient. In a second step of this dissertation, a study carried out by quantum molecular modeling of the interaction energy of an antibiotic ribosomal aminoglicosídico on your receiver. It is known that the hygromycin B (hygB) is an aminoglycoside antibiotic that affects ribosomal translocation by direct interaction with the small subunit of the bacterial ribosome (30S), specifically with nucleotides in helix 44 of the 16S ribosomal RNA (16S rRNA). Due to strong electrostatic character of this connection, it was proposed an energetic investigation of the binding mechanism of this complex using different values of dielectric constants (ε = 0, 4, 10, 20 and 40), which have been widely used to study the electrostatic properties of biomolecules. For this, increasing radii centered on the hygB centroid were measured from the 30S-hygB crystal structure (1HNZ.pdb), and only the individual interaction energy of each enclosed nucleotide was determined for quantum calculations using molecular fractionation with conjugate caps (MFCC) strategy. It was noticed that the dielectric constants underestimated the energies of individual interactions, allowing the convergence state is achieved quickly. But only for ε = 40, the total binding energy of drug-receptor interaction is stabilized at r = 18A, which provided an appropriate binding pocket because it encompassed the main residues that interact more strongly with the hygB - C1403, C1404, G1405, A1493, G1494, U1495, U1498 and C1496. Thus, the dielectric constant ≈ 40 is ideal for the treatment of systems with many electrical charges. By comparing the individual binding energies of 16S rRNA nucleotides with the experimental tests that determine the minimum inhibitory concentration (MIC) of hygB, it is believed that those residues with high binding values generated bacterial resistance to the drug when mutated. With the same reasoning, since those with low interaction energy do not influence effectively the affinity of the hygB in its binding site, there is no loss of effectiveness if they were replaced.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A numerical study on the behavior of tied-back retaining walls in sand, using the finite element method (FEM) is presented. The analyses were performed using the software Plaxis 2D, and were focused on the development of horizontal displacements, horizontal stresses, shear forces and bending moments in the structure during the construction process. Emphasis was placed on the evaluation of wall embedment, tie-back horizontal spacing, wall thickness, and free anchor length on wall behavior. A representative soil profile of a specific region at the City of Natal, Brazil, was used in the numerical analyses. New facilities built on this region often include retaining structures of the same type studied herein. Soil behavior was modeled using the Mohr-Coulomb constitutive model, whereas the structural elements were modeled using the linear elastic model. Shear strength parameters of the soil layers were obtained from direct shear test results conducted with samples collected at the studied site. Deformation parameters were obtained from empirical correlations from SPT test results carried out on the studied site. The results of the numerical analyses revealed that the effect of wall embedment on the investigated parameters is virtually negligible. Conversely, the tie-back horizontal spacing plays an important role on the investigated parameters. The results also demonstrated that the wall thickness significantly affects the wall horizontal displacements, and the shear forces and bending moments within the retaining structure. However, wall thickness was not found to influence horizontal stresses in the structure

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The main goal of this dissertation is to develop a Multi Criteria Decision Aid Model to be used in Oils and Gas perforation rigs contracts choices. The developed model should permit the utilization of multiples criterions, covering problems that exist with models that mainly use the price of the contracts as its decision criterion. The AHP has been chosen because its large utilization, not only academic, but in many other areas, its simplicity of use and flexibility, and also fill all the requirements necessary to complete the task. The development of the model was conducted by interviews and surveys with one specialist in this specific area, who also acts as the main actor on the decision process. The final model consists in six criterions: Costs, mobility, automation, technical support, how fast the service could be concluded and availability to start the operations. Three rigs were chosen as possible solutions for the problem. The results reached by the utilizations of the model suggests that the utilization of AHP as a decision support system in this kind of situation is possible, allowing a simplifications of the problem, and also it s a useful tool to improve every one involved on the process s knowledge about the problem subject, and its possible solutions

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Due of industrial informatics several attempts have been done to develop notations and semantics, which are used for classifying and describing different kind of system behavior, particularly in the modeling phase. Such attempts provide the infrastructure to resolve some real problems of engineering and construct practical systems that aim at, mainly, to increase the productivity, quality, and security of the process. Despite the many studies that have attempted to develop friendly methods for industrial controller programming, they are still programmed by conventional trial-and-error methods and, in practice, there is little written documentation on these systems. The ideal solution would be to use a computational environment that allows industrial engineers to implement the system using high-level language and that follows international standards. Accordingly, this work proposes a methodology for plant and control modelling of the discrete event systems that include sequential, parallel and timed operations, using a formalism based on Statecharts, denominated Basic Statechart (BSC). The methodology also permits automatic procedures to validate and implement these systems. To validate our methodology, we presented two case studies with typical examples of the manufacturing sector. The first example shows a sequential control for a tagged machine, which is used to illustrated dependences between the devices of the plant. In the second example, we discuss more than one strategy for controlling a manufacturing cell. The model with no control has 72 states (distinct configurations) and, the model with sequential control generated 20 different states, but they only act in 8 distinct configurations. The model with parallel control generated 210 different states, but these 210 configurations act only in 26 distinct configurations, therefore, one strategy control less restrictive than previous. Lastly, we presented one example for highlight the modular characteristic of our methodology, which it is very important to maintenance of applications. In this example, the sensors for identifying pieces in the plant were removed. So, changes in the control model are needed to transmit the information of the input buffer sensor to the others positions of the cell

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The control, automation and optimization areas help to improve the processes used by industry. They contribute to a fast production line, improving the products quality and reducing the manufacturing costs. Didatic plants are good tools for research in these areas, providing a direct contact with some industrial equipaments. Given these capabilities, the main goal of this work is to model and control a didactic plant, which is a level and flow process control system with an industrial instrumentation. With a model it is possible to build a simulator for the plant that allows studies about its behaviour, without any of the real processes operational costs, like experiments with controllers. They can be tested several times before its application in a real process. Among the several types of controllers, it was used adaptive controllers, mainly the Direct Self-Tuning Regulators (DSTR) with Integral Action and the Gain Scheduling (GS). The DSTR was based on Pole-Placement design and use the Recursive Least Square to calculate the controller parameters. The characteristics of an adaptive system was very worth to guarantee a good performance when the controller was applied to the plant

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Operating industrial processes is becoming more complex each day, and one of the factors that contribute to this growth in complexity is the integration of new technologies and smart solutions employed in the industry, such as the decision support systems. In this regard, this dissertation aims to develop a decision support system based on an computational tool called expert system. The main goal is to turn operation more reliable and secure while maximizing the amount of relevant information to each situation by using an expert system based on rules designed for a particular area of expertise. For the modeling of such rules has been proposed a high-level environment, which allows the creation and manipulation of rules in an easier way through visual programming. Despite its wide range of possible applications, this dissertation focuses only in the context of real-time filtering of alarms during the operation, properly validated in a case study based on a real scenario occurred in an industrial plant of an oil and gas refinery

Relevância:

30.00% 30.00%

Publicador:

Resumo:

There is a growing need to develop new tools to help end users in tasks related to the design, monitoring, maintenance and commissioning of critical infrastructures. The complexity of the industrial environment, for example, requires that these tools have flexible features in order to provide valuable data for the designers at the design phases. Furthermore, it is known that industrial processes have stringent requirements for dependability, since failures can cause economic losses, environmental damages and danger to people. The lack of tools that enable the evaluation of faults in critical infrastructures could mitigate these problems. Accordingly, the said work presents developing a framework for analyzing of dependability for critical infrastructures. The proposal allows the modeling of critical infrastructure, mapping its components to a Fault Tree. Then the mathematical model generated is used for dependability analysis of infrastructure, relying on the equipment and its interconnections failures. Finally, typical scenarios of industrial environments are used to validate the proposal