977 resultados para Control de processos


Relevância:

70.00% 70.00%

Publicador:

Resumo:

L’objecte del present treball és la realització d’una aplicació que permeti portar a terme el control estadístic multivariable en línia d’una planta SBR. Aquesta eina ha de permetre realitzar un anàlisi estadístic multivariable complet del lot en procés, de l’últim lot finalitzat i de la resta de lots processats a la planta. L’aplicació s’ha de realitzar en l’entorn LabVIEW. L’elecció d’aquest programa ve condicionada per l’actualització del mòdul de monitorització de la planta que s’està desenvolupant en aquest mateix entorn

Relevância:

60.00% 60.00%

Publicador:

Resumo:

One of the techniques used to detect faults in dynamic systems is analytical redundancy. An important difficulty in applying this technique to real systems is dealing with the uncertainties associated with the system itself and with the measurements. In this paper, this uncertainty is taken into account by the use of intervals for the parameters of the model and for the measurements. The method that is proposed in this paper checks the consistency between the system's behavior, obtained from the measurements, and the model's behavior; if they are inconsistent, then there is a fault. The problem of detecting faults is stated as a quantified real constraint satisfaction problem, which can be solved using the modal interval analysis (MIA). MIA is used because it provides powerful tools to extend the calculations over real functions to intervals. To improve the results of the detection of the faults, the simultaneous use of several sliding time windows is proposed. The result of implementing this method is semiqualitative tracking (SQualTrack), a fault-detection tool that is robust in the sense that it does not generate false alarms, i.e., if there are false alarms, they indicate either that the interval model does not represent the system adequately or that the interval measurements do not represent the true values of the variables adequately. SQualTrack is currently being used to detect faults in real processes. Some of these applications using real data have been developed within the European project advanced decision support system for chemical/petrochemical manufacturing processes and are also described in this paper

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Supervisory systems evolution makes the obtaining of significant information from processes more important in the way that the supervision systems' particular tasks are simplified. So, having signal treatment tools capable of obtaining elaborate information from the process data is important. In this paper, a tool that obtains qualitative data about the trends and oscillation of signals is presented. An application of this tool is presented as well. In this case, the tool, implemented in a computer-aided control systems design (CACSD) environment, is used in order to give to an expert system for fault detection in a laboratory plant

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Process supervision is the activity focused on monitoring the process operation in order to deduce conditions to maintain the normality including when faults are present Depending on the number/distribution/heterogeneity of variables, behaviour situations, sub-processes, etc. from processes, human operators and engineers do not easily manipulate the information. This leads to the necessity of automation of supervision activities. Nevertheless, the difficulty to deal with the information complicates the design and development of software applications. We present an approach called "integrated supervision systems". It proposes multiple supervisors coordination to supervise multiple sub-processes whose interactions permit one to supervise the global process

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Expert supervision systems are software applications specially designed to automate process monitoring. The goal is to reduce the dependency on human operators to assure the correct operation of a process including faulty situations. Construction of this kind of application involves an important task of design and development in order to represent and to manipulate process data and behaviour at different degrees of abstraction for interfacing with data acquisition systems connected to the process. This is an open problem that becomes more complex with the number of variables, parameters and relations to account for the complexity of the process. Multiple specialised modules tuned to solve simpler tasks that operate under a co-ordination provide a solution. A modular architecture based on concepts of software agents, taking advantage of the integration of diverse knowledge-based techniques, is proposed for this purpose. The components (software agents, communication mechanisms and perception/action mechanisms) are based on ICa (Intelligent Control architecture), software middleware supporting the build-up of applications with software agent features

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The paper focuses on taking advantage of large amounts of data that are systematically stored in plants (by means of SCADA systems), but not exploited enough in order to achieve supervisory goals (fault detection, diagnosis and reconfiguration). The methodology of case base reasoning (CBR) is proposed to perform supervisory tasks in industrial processes by re-using the stored data. The goal is to take advantage of experiences, registered in a suitable structure as cam, avoiding the tedious task of knowledge acquisition and representation needed by other reasoning techniques as expert systems. An outlook of CBR terminology and basic concepts are presented. The adaptation of CBR in performing expert supervisory tasks, taking into account the particularities and difficulties derived from dynamic systems, is discussed. A special interest is focused in proposing a general case definition suitable for supervisory tasks. Finally, this structure and the whole methodology is tested in a application example for monitoring a real drier chamber

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Els mètodes de detecció, diagnosi i aïllament de fallades (Fault Detection and Isolation - FDI) basats en la redundància analítica (és a dir, la comparació del comportament actual del procés amb l’esperat, obtingut mitjançant un model matemàtic del mateix), són àmpliament utilitzats per al diagnòstic de sistemes quan el model matemàtic està disponible. S’ha implementat un algoritme per implementar aquesta redundància analítica a partir del model de la plana conegut com a Anàlisi Estructural

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La idea básica de detección de defectos basada en vibraciones en Monitorización de la Salud Estructural (SHM), es que el defecto altera las propiedades de rigidez, masa o disipación de energía de un sistema, el cual, altera la respuesta dinámica del mismo. Dentro del contexto de reconocimiento de patrones, esta tesis presenta una metodología híbrida de razonamiento para evaluar los defectos en las estructuras, combinando el uso de un modelo de la estructura y/o experimentos previos con el esquema de razonamiento basado en el conocimiento para evaluar si el defecto está presente, su gravedad y su localización. La metodología involucra algunos elementos relacionados con análisis de vibraciones, matemáticas (wavelets, control de procesos estadístico), análisis y procesamiento de señales y/o patrones (razonamiento basado en casos, redes auto-organizativas), estructuras inteligentes y detección de defectos. Las técnicas son validadas numérica y experimentalmente considerando corrosión, pérdida de masa, acumulación de masa e impactos. Las estructuras usadas durante este trabajo son: una estructura tipo cercha voladiza, una viga de aluminio, dos secciones de tubería y una parte del ala de un avión comercial.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L'objectiu general d'aquest treball és trobar i mostrar una eina que permeti obtenir una representació dels senyals procedents de sistemes dinàmics adequada a les necessitats dels sistemes de Supervisió Experta de processos. Aquest objectiu general es pot subdividir en diverses parts, que són tractades en els diferents capítols que composen el treball i que es poden resumir en els següents punts: En primer lloc, cal conèixer les necessitats dels sistemes de Supervisió: La gran quantitat de dades que provenen dels processos fa necessari el tractament d'aquestes dades per obtenir-ne d'altres, més elaborades, amb un nivell més elevat de representació. La utilització de raonament qualitatiu, pròpia dels éssers humans, comporta la necessitat de representar simbòlicament els senyals, de traduir les dades numèriques en símbols. La Supervisió de sistemes dinàmics comporta que el temps sigui una variable fonamental, la asincronia dels esdeveniments significatius per a la Supervisió fa que les representacions més adequades i útils dels senyals siguin asíncrones. Finalment,l'ús dels coneixements experimentals en la Supervisió dels processos comporta que les representacions més naturals siguin les més útils. Aquestes necessitats fan de la representació dels senyals mitjançant episodis l'eina amb més possibilitats per assolir els objectius que es volen assolir. Per això, es presenta un formalisme que permet descriure i incloure-hi la formalització i les diferents aproximacions a aquest tipus de representació ja existents i, al mateix temps, augmentar-ne la significació a través de característiques dels senyals que no es tenen en compte en les aproximacions ja existents. El següent pas és aprofitar el nou formalisme per obtenir una nova representació amb un grau més gran de significació, cosa que s'aconsegueix representant explícitament les discontinuïtats i els períodes estacionaris o d'estabilitat, molt significatius en Supervisió de processos. Un problema sempre present en el tractament de senyals és el soroll que els afecta. Per aquest motiu es presenta un mètode que permet filtrar el soroll de manera que les representacions resultants quedin afectades el mínim possible per aquest tractament. Finalment, es presenta l'aplicació en línia de les eines descrites. La representació en línia dels senyals comporta el tractament de la incertesa inherent al coneixement parcial del senyal (un episodi no pot ser determinat i caracteritzat completament fins que no s'acaba). L'obtenció de resultats amb determinats graus de certesa és perfectament coherent amb la seva utilització posterior mitjançant Sistemes Experts o altres eines de la IA. Totes les aportacions del treball vénen acompanyades d'exemples i/o aplicacions que permeten observar-ne la utilitat i les limitacions.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Neste artigo propomos uma adaptação de um algoritmo baseado na evolução biológica para a obtenção do controle ótimo do problema do custo médio a longo prazo para sistemas lineares com saltos markovianos. Não há na literatura um método que forneça, comprovadamente, o controle ótimo do problema, nem estudos comparativos de diferentes métodos. O algoritmo empregado diferencia-se dos algoritmos genéticos básicos por substituir os operadores evolutivos por um sorteio de acordo com uma distribuição probabilística. Comparamos o algoritmo proposto com um método bastante utilizado para esta classe de problema, levando em consideração a relação entre os custos obtidos, o tempo de CPU e a quantidade de problemas em que o critério de parada estabelecido foi atingido.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Examina a aplicação da Lei nº 12.527, de 18 de novembro de 2011 – a Lei de Acesso à Informação (LAI) – tendo como locus a Câmara dos Deputados e o seu órgão de gestão da informação, de relacionamento e de atendimento ao público usuário, o Centro de Documentação e Informação (Cedi) e, em particular, a Coordenação de Relacionamento, Pesquisa e Informação (Corpi). Analisa-se, à luz da Ciência da Informação, o impacto causado pela LAI no processo de provimento de informação e na disponibilidade da informação institucional para a sociedade, no contexto do amplo acesso às informações públicas, desejável na Câmara. A pesquisa, de caráter documental, firma-se em documentos e na legislação produzidos na esfera da Câmara dos Deputados. Para o estudo do caso, utilizou-se entrevista com servidores da Corpi, onde se colheram impressões sobre o impacto da LAI na dinâmica do trabalho de atendimento e pesquisa, identificaram-se os principais problemas percebidos e as suas sugestões de melhoria. Discorre-se, também, subsidiariamente, sobre a gestão da informação como parte do ciclo informacional e condição para o acesso à informação, tópico central desta pesquisa. Aborda-se a questão da cidadania e do controle social, bem o direito à informação e transparência governamental que subjazem à proposta de amplo acesso à informação pública preconizada pela LAI, em razão da mudança de paradigma e do regime de informação a que a LAI conduz. O estudo dos efeitos da LAI no âmbito da Câmara teve como marco temporal o período de maio a dezembro de 2012. Estima-se que os indicadores desta pesquisa possam contribuir com estudos futuros relacionados com a governança da informação na Câmara.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This work describes an information quality assessment on the processes of the Chamber of Deputies of Brazil, which allow a new deputy to integrate the House, maintain his records and control Deputies absences, using a qualitative approach. The motivation was to find out if there were some information quality issues and to identify its impacts in order to prioritize which information could be analyzed later in a quantitative way. The author did a literature review about information quality. Also, a questionnaire and an interview were applied with the main actors of those processes. The results have shown the existence of information quality issues and were suggested some actions that should be done by the Chamber of Deputies of Brazil. At last it was suggested a long-life Information Quality Program and some future work in order to continue this research.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A avaliação da Educação Básica tem sido alvo de discussões em diversas esferas da sociedade e centra-se em dois aspectos principais: os quantitativos de controle e os organizacionais dos processos de ensino, ou seja, a avaliação pedagógica. O objetivo desta dissertação é refletir sobre a metodologia utilizada na Prova Brasil e as contribuições que esta avaliação pode oferecer a formação de alunos leitores. Há alguns trabalhos na área já que se trata de uma avaliação relativamente recente. Nossa pesquisa se diferencia das demais ao apresentar uma análise detalhada dos tópicos, descritores e itens que compõem a avaliação. O processo de pesquisa empreendido neste estudo perpassa quatro fases: na primeira etapa analisamos os aspectos particulares do sistema avaliativo nacional, na segunda fase refletimos sobre a construção da proposta avaliativa e sua apresentação, na terceira fase relacionamos os elementos presentes na proposta, analisando de que maneira estes elementos afetam positivamente ou negativamente a avaliação e na última fase apresentamos nossas considerações à luz das teorias linguísticas e pedagógicas. Utilizamos como corpus os itens de Língua Portuguesa referentes ao 5 ano de escolaridade liberados pelo INEP. Nossa pesquisa evidenciou que apesar de cada item ter como objetivo verificar a habilidade expressa por um único descritor, boa parte das questões apresenta problemas de seleção textual ou de elaboração fazendo com que determinadas habilidades não sejam efetivamente contempladas na avaliação, fato este que compromete diretamente a confiabilidade dos resultados apresentados. A contribuição social desta pesquisa reside na orientação para o trabalho com a multiplicidade de gêneros que circulam na sociedade, ressaltando a importância da formação plena do educando, não para que ele demonstre bom desempenho em avaliações, mas para que ele possa atuar em favor de sua própria vida e em benefício da sociedade em que está inserido, transformando-a

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A descarga desenfreada de águas residuais no meio ambiente, ao longo dos últimos anos, vem acelerando o processo de contaminação e degradação dos corpos hídricos no mundo. Tais rejeitos apresentam elevada carga de contaminantes e de concentração de matéria orgânica o que leva a mortandade das espécies pela concorrência ao oxigênio e, em casos extremos, a aceleração dos processos de eutrofização. Pensando nisso, o presente trabalho estudou um sistema híbrido, em batelada, de tratamento de águas oleosas simuladas em laboratório pela adição de um determinado óleo lubrificante em uma solução aquosa de agentes emulsificantes e eletrólito suporte. O sistema de tratamento foi composto de duas etapas, onde na primeira avaliou-se o uso da técnica da eletrofloculação, responsável por quebrar a estabilidade das emulsões óleo/água e de uma segunda que avaliou o uso de processos de separação com membranas visando à remoção do metal adicionado ao efluente na etapa anterior. O sistema de eletrofloculação foi avaliado em relação ao uso de eletrodos de alumínio e ferro com correntes elétricas de 1A, 2A e 3A, nos modos contínuo e alternado. Os resultados apontaram um maior consumo evidente de massa de eletrodos quando do uso da corrente contínua, 4,0337g 0,0132 para o alumínio e 3,8260g 0,0181 para o ferro ao passo que o consumo foi de 2,1400g 0,0099 para o alumínio e 2,4121g 0,0127 para o ferro quando do o uso da corrente alternada. Foram alcançadas remoções máximas de 98 % 0 da DQO, 99,77 % 0,27 de remoção da cor e 100 % 0 de remoção da turbidez para o uso de corrente alternada e eletrodos de alumínio enquanto se alcançaram remoções máximas 96 % 1 da DQO, 99,46 % 0,82 de remoção da cor e também 100 % 0 de remoção da turbidez no uso de eletrodos de ferro. Na segunda etapa do estudo, a osmose inversa, o sistema utilizado atingiu rejeições de 99,53 % 0,12; 99,56 % 0,13 e de 98,87 % 0,36, para pressões respectivas de 10, 20 e 30 bar. Além disso, foram obtidos fluxos crescentes de permeado 10,87 L/h.m2 0,25; 15,67 L/h.m2 0,53; 18,49 L/h.m2 0,74 com o também aumento da pressão. Ao final do estudo alcançou-se um efluente final com baixa carga orgânica e de metais, estando o mesmo apto ao lançamento nos corpos receptores. Entretanto, mecanismos de controle, sobretudo de pH devem ser incluídos no projeto desses sistemas uma vez que esse parâmetro sofre alterações ao longo do processo

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O Leito Móvel Simulado (LMS) é um processo de separação de compostos por adsorção muito eficiente, por trabalhar em um regime contínuo e também possuir fluxo contracorrente da fase sólida. Dentre as diversas aplicações, este processo tem se destacado na resolução de petroquímicos e principalmente na atualidade na separação de misturas racêmicas que são separações de um grau elevado de dificuldade. Neste trabalho foram propostas duas novas abordagens na modelagem do LMS, a abordagem Stepwise e a abordagem Front Velocity. Na modelagem Stepwise as colunas cromatográficas do LMS foram modeladas com uma abordagem discreta, onde cada uma delas teve seu domínio dividido em N células de mistura interligadas em série, e as concentrações dos compostos nas fases líquida e sólida foram simuladas usando duas cinéticas de transferência de massa distintas. Essa abordagem pressupõe que as interações decorrentes da transferência de massa entre as moléculas do composto nas suas fases líquida e sólida ocorram somente na superfície, de forma que com essa suposição pode-se admitir que o volume ocupado por cada molécula nas fases sólida e líquida é o mesmo, o que implica que o fator de residência pode ser considerado igual a constante de equilíbrio. Para descrever a transferência de massa que ocorre no processo cromatográfico a abordagem Front Velocity estabelece que a convecção é a fase dominante no transporte de soluto ao longo da coluna cromatográfica. O Front Velocity é um modelo discreto (etapas) em que a vazão determina o avanço da fase líquida ao longo da coluna. As etapas são: avanço da fase líquida e posterior transporte de massa entre as fases líquida e sólida, este último no mesmo intervalo de tempo. Desta forma, o fluxo volumétrico experimental é utilizado para a discretização dos volumes de controle que se deslocam ao longo da coluna porosa com a mesma velocidade da fase líquida. A transferência de massa foi representada por dois mecanismos cinéticos distintos, sem (tipo linear) e com capacidade máxima de adsorção (tipo Langmuir). Ambas as abordagens propostas foram estudadas e avaliadas mediante a comparação com dados experimentais de separação em LMS do anestésico cetamina e, posteriormente, com o fármaco Verapamil. Também foram comparados com as simulações do modelo de equilíbrio dispersivo para o caso da Cetamina, usado por Santos (2004), e para o caso do Verapamil (Perna 2013). Na etapa de caracterização da coluna cromatográfica as novas abordagens foram associadas à ferramenta inversa R2W de forma a determinar os parâmetros globais de transferência de massa apenas usando os tempos experimentais de residência de cada enantiômero na coluna de cromatografia líquida de alta eficiência (CLAE). Na segunda etapa os modelos cinéticos desenvolvidos nas abordagens foram aplicados nas colunas do LMS com os valores determinados na caracterização da coluna cromatográfica, para a simulação do processo de separação contínua. Os resultados das simulações mostram boa concordância entre as duas abordagens propostas e os experimentos de pulso para a caracterização da coluna na separação enantiomérica da cetamina ao longo do tempo. As simulações da separação em LMS, tanto do Verapamil quando da Cetamina apresentam uma discrepância com os dados experimentais nos primeiros ciclos, entretanto após esses ciclos iniciais a correlação entre os dados experimentais e as simulações. Para o caso da separação da cetamina (Santos, 2004), a qual a concentração da alimentação era relativamente baixa, os modelos foram capazes de predizer o processo de separação com as cinéticas Linear e Langmuir. No caso da separação do Verapamil (Perna, 2013), onde a concentração da alimentação é relativamente alta, somente a cinética de Langmuir representou o processo, devido a cinética Linear não representar a saturação das colunas cromatográficas. De acordo como o estudo conduzido ambas as abordagens propostas mostraram-se ferramentas com potencial na predição do comportamento cromatográfico de uma amostra em um experimento de pulso, assim como na simulação da separação de um composto no LMS, apesar das pequenas discrepâncias apresentadas nos primeiros ciclos de trabalho do LMS. Além disso, podem ser facilmente implementadas e aplicadas na análise do processo, pois requer um baixo número de parâmetros e são constituídas de equações diferenciais ordinárias.