936 resultados para Process control -- Data processing
Resumo:
A promising technique for the large-scale manufacture of micro-fluidic devices and photonic devices is hot embossing of polymers such as PMMA. Micro-embossing is a deformation process where the workpiece material is heated to permit easier material flow and then forced over a planar patterned tool. While there has been considerable, attention paid to process feasibility very little effort has been put into production issues such as process capability and eventual process control. In this paper, we present initial studies aimed at identifying the origins and magnitude of variability for embossing features at the micron scale in PMMA. Test parts with features ranging from 3.5- 630 µm wide and 0.9 µm deep were formed. Measurements at this scale proved very difficult, and only atomic force microscopy was able to provide resolution sufficient to identify process variations. It was found that standard deviations of widths at the 3-4 µm scale were on the order of 0.5 µm leading to a coefficient of variation as high as 13%. Clearly, the transition from test to manufacturing for this process will require understanding the causes of this variation and devising control methods to minimize its magnitude over all types of parts.
Resumo:
El projecte tracte d' implementar una solució de Business Intelligence sota la plataforma Microsoft.Aquest projecte va destinat al Departament de Comptabilitat de l' Ajuntament de Cambrils, i està relacionat amb la funció del control de les despeses i els ingressos
Resumo:
One of the techniques used to detect faults in dynamic systems is analytical redundancy. An important difficulty in applying this technique to real systems is dealing with the uncertainties associated with the system itself and with the measurements. In this paper, this uncertainty is taken into account by the use of intervals for the parameters of the model and for the measurements. The method that is proposed in this paper checks the consistency between the system's behavior, obtained from the measurements, and the model's behavior; if they are inconsistent, then there is a fault. The problem of detecting faults is stated as a quantified real constraint satisfaction problem, which can be solved using the modal interval analysis (MIA). MIA is used because it provides powerful tools to extend the calculations over real functions to intervals. To improve the results of the detection of the faults, the simultaneous use of several sliding time windows is proposed. The result of implementing this method is semiqualitative tracking (SQualTrack), a fault-detection tool that is robust in the sense that it does not generate false alarms, i.e., if there are false alarms, they indicate either that the interval model does not represent the system adequately or that the interval measurements do not represent the true values of the variables adequately. SQualTrack is currently being used to detect faults in real processes. Some of these applications using real data have been developed within the European project advanced decision support system for chemical/petrochemical manufacturing processes and are also described in this paper
Resumo:
Expert supervision systems are software applications specially designed to automate process monitoring. The goal is to reduce the dependency on human operators to assure the correct operation of a process including faulty situations. Construction of this kind of application involves an important task of design and development in order to represent and to manipulate process data and behaviour at different degrees of abstraction for interfacing with data acquisition systems connected to the process. This is an open problem that becomes more complex with the number of variables, parameters and relations to account for the complexity of the process. Multiple specialised modules tuned to solve simpler tasks that operate under a co-ordination provide a solution. A modular architecture based on concepts of software agents, taking advantage of the integration of diverse knowledge-based techniques, is proposed for this purpose. The components (software agents, communication mechanisms and perception/action mechanisms) are based on ICa (Intelligent Control architecture), software middleware supporting the build-up of applications with software agent features
Resumo:
The paper focuses on taking advantage of large amounts of data that are systematically stored in plants (by means of SCADA systems), but not exploited enough in order to achieve supervisory goals (fault detection, diagnosis and reconfiguration). The methodology of case base reasoning (CBR) is proposed to perform supervisory tasks in industrial processes by re-using the stored data. The goal is to take advantage of experiences, registered in a suitable structure as cam, avoiding the tedious task of knowledge acquisition and representation needed by other reasoning techniques as expert systems. An outlook of CBR terminology and basic concepts are presented. The adaptation of CBR in performing expert supervisory tasks, taking into account the particularities and difficulties derived from dynamic systems, is discussed. A special interest is focused in proposing a general case definition suitable for supervisory tasks. Finally, this structure and the whole methodology is tested in a application example for monitoring a real drier chamber
Resumo:
La información y los datos genéticos que emanan hoy de las investigaciones del genoma humano demandan el desarrollo de herramientas informáticas capaces de procesar la gran cantidad de información disponible. La mayor cantidad de datos genéticos es el resultado de equipos que realizan el análisis simultáneo de cientos o miles de polimorfismos o variaciones genéticas, de nuevas técnicas de laboratorio de mayor rendimiento que, en conjunto, ofrecen una mayor disponibilidad de información en un corto espacio de tiempo. Esta problemática conduce a la necesidad de desarrollar nuevas herramientas informáticas capaces de lidiar con este mayor volumen de datos genéticos. En el caso de la genética de poblaciones, a pesar de que existen herramientas informáticas que permiten procesar y facilitar el análisis de los datos, estas tienen limitaciones como la falta de conocimiento de los usuarios de algunos lenguajes de programación para alimentar la información y otras herramientas informáticas no realizan todas las estimaciones que se requieren y otros presentan limitaciones en cuanto al número de datos que pueden incorporar o manejar. En algunos casos hay redundancia al tener que usarse dos o más herramientas para poder procesar un conjunto de datos de información genética. El presente trabajo tiene por objetivo el desarrollo de una herramienta informática basada en aplicaciones de computador comunes, en este caso Microsoft Excel® y que resuelva todos los problemas y las limitaciones descritas antes. El desarrollo del conjunto de subprogramas que constituyen a Lustro; permiten superar lo anterior, presentar los resultados en un ambiente sencillo, conocido y fácil de operar, simplificando de esta forma el proceso de adaptación del usuario del programa, sin entrenamiento previo, obteniéndose en corto tiempo el procesamiento de la información genética de interés.
Resumo:
El avance tecnológico está gestando un nuevo concepto de unidades de información que supone la desaparición progresiva de los actuales modelos caracterizados por grandes plantas físicas destinadas a atender a un significativo número de visitantes y custodiar importantes cantidades de valiosos materiales impresos. Los nuevos centros de información, investigación y documentación están llamados a satisfacer de una manera más eficiente a sus usuarios y permitirles acceder a la información de una manera más expedita y confiable. Dentro de este contexto, se ubicó el siguiente trabajo que tuvo como objetivo diseñar un software para la digitalización, ordenamiento y creación de la base de datos del Centro de Documentación del Pedagógico José Manuel Siso Martínez con el fin de optimizar la búsqueda de información, la elaboración de estadísticas y el control de procesos del mismo.
Resumo:
La exposición a polvo de cemento y sílice ha sido estudiada por años en países como Estados Unidos y Canadá, cuando el polvo de cemento se inhala durante diferentes actividades, se puede ocasionar afectación del tracto respiratorio de las personas expuestas. El estudio “Perfil de exposición ocupacional a polvo de cemento y sílice cristalina en procesos de cementación y Fracturamiento hidráulico en el sector Oil & Gas en Colombia: un estudio retrospectivo (2009 – 2013).” Permitió identificar las actividades funcionales que representan un riesgo potencial por la presencia de partículas aerosuspendidas, analizar una base de datos que reúne cerca de 18298 registros de evaluaciones higiénicas en el sector Oil & Gas, realizar posteriormente el cálculo de material particulado en la fracción respirable y sílice cristalina aplicables para cada proceso y el procesamiento de los datos estadísticamente, confrontar estos estimadores estadísticos con los valores límites permisibles definidos por el gobierno nacional, los resultados incluyeron la caracterización de un perfil de exposición ocupacional por actividad funcional para el proceso de cementación, la identificación de los trabajadores más expuestos según las condiciones de exposición y cuáles de estos perfiles superan los límites máximos permisibles para un turno de trabajo de 12 horas, esta información permitirá a los profesionales de la salud e higiene laboral orientar actividades de seguimiento, vigilancia y control en los grupos de exposición similar específicos. Para el proceso de fracturamiento hidráulico los datos encontrados no fueron estadísticamente significativos.
Resumo:
Las organizaciones en la actualidad deben encontrar diferentes maneras de sobrevivir en un tiempo de rápida transformación. Uno de los mecanismos usados por las empresas para adaptarse a los cambios organizacionales son los sistemas de control de gestión, que a su vez permiten a las organizaciones hacer un seguimiento a sus procesos, para que la adaptabilidad sea efectiva. Otra variable importante para la adaptación es el aprendizaje organizacional siendo el proceso mediante el cual las organizaciones se adaptan a los cambios del entorno, tanto interno como externo de la compañía. Dado lo anterior, este proyecto se basa en la extracción de documentación soporte valido, que permita explorar las interacciones entre estos dos campos, los sistemas de control de gestión y el aprendizaje organizacional, además, analizar el impacto de estas interacciones en la perdurabilidad organizacional.
Resumo:
Resumen: Introducción: El ausentismo laboral por causa médica es un problema por la afectación que genera en el trabajador y en la empresa. Objetivo: Caracterizar el ausentismo laboral por causas médicas de una empresa de alimentos de Bogotá. Materiales y métodos: Estudio de corte transversal con datos secundarios de registros de incapacidades de los años 2013 y 2014. El procesamiento de la información se realizó con el programa SPSS, se obtuvieron medidas de tendencia central y de dispersión. Se determinó el número y la duración de incapacidades, la duración media de estas, el sistema afectado, se realizó el análisis de frecuencia por centro de costo y género. Resultados: Se registraron un total de 575 incapacidades, 387 fueron por enfermedad de origen común y 188 por accidentes de trabajo. Se perdieron 3.326 días por ausentismo, de los cuales en 45,09% se presentó en 2013 y el 54,91% restante en 2014, de estos 1985 se generaron en eventos de origen común y 1341 por accidentes de trabajo. La principal causa de incapacidades por enfermedades de origen común fueron patologías asociadas al sistema músculo esquelético, y para las originadas en accidentes de trabajo fueron las lesiones en manos. Conclusiones: para el año 2014 los accidentes de trabajo disminuyeron con respecto al año 2013 y el sistema más afectado respecto a enfermedad común fue el osteomuscular. Es conveniente que se implemente un sistema o programa de vigilancia y análisis en puestos de trabajo para identificar los factores de riesgo asociados y minimizar los riesgos.
Resumo:
Es va instal.lar un analitzador CM4000 a la Facultat de Ciències per tal de poder enregistrar en temps real les incidències en la xarxa elèctrica que s'estaven produint (caigudes de tensió i problemes amb els harmònics). El projecte vol monotoritzar la qualitat dels registres d'aquest analitzador que queden enregistrats a la base de dades Power Server. A partir d'aquestes dades es realitza un estudi sobre la freqüència de les incidències, buscant el patró dels dies i hores en què les incidències són màximes
Resumo:
La idea básica de detección de defectos basada en vibraciones en Monitorización de la Salud Estructural (SHM), es que el defecto altera las propiedades de rigidez, masa o disipación de energía de un sistema, el cual, altera la respuesta dinámica del mismo. Dentro del contexto de reconocimiento de patrones, esta tesis presenta una metodología híbrida de razonamiento para evaluar los defectos en las estructuras, combinando el uso de un modelo de la estructura y/o experimentos previos con el esquema de razonamiento basado en el conocimiento para evaluar si el defecto está presente, su gravedad y su localización. La metodología involucra algunos elementos relacionados con análisis de vibraciones, matemáticas (wavelets, control de procesos estadístico), análisis y procesamiento de señales y/o patrones (razonamiento basado en casos, redes auto-organizativas), estructuras inteligentes y detección de defectos. Las técnicas son validadas numérica y experimentalmente considerando corrosión, pérdida de masa, acumulación de masa e impactos. Las estructuras usadas durante este trabajo son: una estructura tipo cercha voladiza, una viga de aluminio, dos secciones de tubería y una parte del ala de un avión comercial.
Resumo:
The Gauss–Newton algorithm is an iterative method regularly used for solving nonlinear least squares problems. It is particularly well suited to the treatment of very large scale variational data assimilation problems that arise in atmosphere and ocean forecasting. The procedure consists of a sequence of linear least squares approximations to the nonlinear problem, each of which is solved by an “inner” direct or iterative process. In comparison with Newton’s method and its variants, the algorithm is attractive because it does not require the evaluation of second-order derivatives in the Hessian of the objective function. In practice the exact Gauss–Newton method is too expensive to apply operationally in meteorological forecasting, and various approximations are made in order to reduce computational costs and to solve the problems in real time. Here we investigate the effects on the convergence of the Gauss–Newton method of two types of approximation used commonly in data assimilation. First, we examine “truncated” Gauss–Newton methods where the inner linear least squares problem is not solved exactly, and second, we examine “perturbed” Gauss–Newton methods where the true linearized inner problem is approximated by a simplified, or perturbed, linear least squares problem. We give conditions ensuring that the truncated and perturbed Gauss–Newton methods converge and also derive rates of convergence for the iterations. The results are illustrated by a simple numerical example. A practical application to the problem of data assimilation in a typical meteorological system is presented.
Resumo:
At its most fundamental, cognition as displayed by biological agents (such as humans) may be said to consist of the manipulation and utilisation of memory. Recent discussions in the field of cognitive robotics have emphasised the role of embodiment and the necessity of a value or motivation for autonomous behaviour. This work proposes a computational architecture – the Memory-Based Cognitive (MBC) architecture – based upon these considerations for the autonomous development of control of a simple mobile robot. This novel architecture will permit the exploration of theoretical issues in cognitive robotics and animal cognition. Furthermore, the biological inspiration of the architecture is anticipated to result in a mobile robot controller which displays adaptive behaviour in unknown environments.
Resumo:
A new control paradigm for Brain Computer Interfaces (BCIs) is proposed. BCIs provide a means of communication direct from the brain to a computer that allows individuals with motor disabilities an additional channel of communication and control of their external environment. Traditional BCI control paradigms use motor imagery, frequency rhythm modification or the Event Related Potential (ERP) as a means of extracting a control signal. A new control paradigm for BCIs based on speech imagery is initially proposed. Further to this a unique system for identifying correlations between components of the EEG and target events is proposed and introduced.