942 resultados para monitoring control system


Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente Trabajo de Fin de Grado se enmarca dentro de un sistema de control y desarrollo de sistemas inteligentes de transporte (ITS). Este Trabajo consta de varias líneas de desarrollo, que se engloban dentro de dicho marco y surgen de la necesidad de aumentar la seguridad, flujo, estructura y mantenimiento de las carreteras incorporando las tecnologías más recientes. En primer lugar, el presente Trabajo se centra en el desarrollo de un nuevo sistema de procesamiento de datos de tráfico en tiempo real que aprovecha las tecnologías de Big Data, Cloud Computing y Map-Reduce que han surgido estos últimos años. Para ello se realiza un estudio previo de los datos de tráfico vial que originan los vehículos que viajan por carreteras. Centrándose en el sistema empleado por la Dirección General de Tráfico de España y comparándolos con el de las Empresas basadas en servicios de localización (LBS). Se expone el modelo Hadoop utilizado así como el proceso Map-Reduce implementado en este sistema analizador. Por último los datos de salida son preparados y enviados a un módulo web básico que actúa como Sistema de Información Geográfica (GIS).---ABSTRACT---This Final Degree Project is part of a control system and development of intelligent transport systems (ITS). This work is part of a several lines of development, which are included within this framework and arise from the need to increase security, flow, structure and maintenance of roads incorporating the latest technologies. First, this paper focuses on the development of a new data processing system of real-time traffic that takes advantage of Big Data, Cloud Computing and Map-Reduce technologies emerged in our recent years. It is made a preliminary study of road traffic data originated by vehicles traveling by road. Focusing on the system used by the Dirección General de Tráfico of Spain and compared with that of the companies offering location based services (LBS). It is exposed the used Hadoop model and the Map-Reduce process implemented on this analyzer system. Finally, the output data is prepared and sent to a basic web module that acts as Geographic Information System (GIS).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los sistemas empotrados son cada día más comunes y complejos, de modo que encontrar procesos seguros, eficaces y baratos de desarrollo software dirigidos específicamente a esta clase de sistemas es más necesario que nunca. A diferencia de lo que ocurría hasta hace poco, en la actualidad los avances tecnológicos en el campo de los microprocesadores de los últimos tiempos permiten el desarrollo de equipos con prestaciones más que suficientes para ejecutar varios sistemas software en una única máquina. Además, hay sistemas empotrados con requisitos de seguridad (safety) de cuyo correcto funcionamiento depende la vida de muchas personas y/o grandes inversiones económicas. Estos sistemas software se diseñan e implementan de acuerdo con unos estándares de desarrollo software muy estrictos y exigentes. En algunos casos puede ser necesaria también la certificación del software. Para estos casos, los sistemas con criticidades mixtas pueden ser una alternativa muy valiosa. En esta clase de sistemas, aplicaciones con diferentes niveles de criticidad se ejecutan en el mismo computador. Sin embargo, a menudo es necesario certificar el sistema entero con el nivel de criticidad de la aplicación más crítica, lo que hace que los costes se disparen. La virtualización se ha postulado como una tecnología muy interesante para contener esos costes. Esta tecnología permite que un conjunto de máquinas virtuales o particiones ejecuten las aplicaciones con unos niveles de aislamiento tanto temporal como espacial muy altos. Esto, a su vez, permite que cada partición pueda ser certificada independientemente. Para el desarrollo de sistemas particionados con criticidades mixtas se necesita actualizar los modelos de desarrollo software tradicionales, pues estos no cubren ni las nuevas actividades ni los nuevos roles que se requieren en el desarrollo de estos sistemas. Por ejemplo, el integrador del sistema debe definir las particiones o el desarrollador de aplicaciones debe tener en cuenta las características de la partición donde su aplicación va a ejecutar. Tradicionalmente, en el desarrollo de sistemas empotrados, el modelo en V ha tenido una especial relevancia. Por ello, este modelo ha sido adaptado para tener en cuenta escenarios tales como el desarrollo en paralelo de aplicaciones o la incorporación de una nueva partición a un sistema ya existente. El objetivo de esta tesis doctoral es mejorar la tecnología actual de desarrollo de sistemas particionados con criticidades mixtas. Para ello, se ha diseñado e implementado un entorno dirigido específicamente a facilitar y mejorar los procesos de desarrollo de esta clase de sistemas. En concreto, se ha creado un algoritmo que genera el particionado del sistema automáticamente. En el entorno de desarrollo propuesto, se han integrado todas las actividades necesarias para desarrollo de un sistema particionado, incluidos los nuevos roles y actividades mencionados anteriormente. Además, el diseño del entorno de desarrollo se ha basado en la ingeniería guiada por modelos (Model-Driven Engineering), la cual promueve el uso de los modelos como elementos fundamentales en el proceso de desarrollo. Así pues, se proporcionan las herramientas necesarias para modelar y particionar el sistema, así como para validar los resultados y generar los artefactos necesarios para el compilado, construcción y despliegue del mismo. Además, en el diseño del entorno de desarrollo, la extensión e integración del mismo con herramientas de validación ha sido un factor clave. En concreto, se pueden incorporar al entorno de desarrollo nuevos requisitos no-funcionales, la generación de nuevos artefactos tales como documentación o diferentes lenguajes de programación, etc. Una parte clave del entorno de desarrollo es el algoritmo de particionado. Este algoritmo se ha diseñado para ser independiente de los requisitos de las aplicaciones así como para permitir al integrador del sistema implementar nuevos requisitos del sistema. Para lograr esta independencia, se han definido las restricciones al particionado. El algoritmo garantiza que dichas restricciones se cumplirán en el sistema particionado que resulte de su ejecución. Las restricciones al particionado se han diseñado con una capacidad expresiva suficiente para que, con un pequeño grupo de ellas, se puedan expresar la mayor parte de los requisitos no-funcionales más comunes. Las restricciones pueden ser definidas manualmente por el integrador del sistema o bien pueden ser generadas automáticamente por una herramienta a partir de los requisitos funcionales y no-funcionales de una aplicación. El algoritmo de particionado toma como entradas los modelos y las restricciones al particionado del sistema. Tras la ejecución y como resultado, se genera un modelo de despliegue en el que se definen las particiones que son necesarias para el particionado del sistema. A su vez, cada partición define qué aplicaciones deben ejecutar en ella así como los recursos que necesita la partición para ejecutar correctamente. El problema del particionado y las restricciones al particionado se modelan matemáticamente a través de grafos coloreados. En dichos grafos, un coloreado propio de los vértices representa un particionado del sistema correcto. El algoritmo se ha diseñado también para que, si es necesario, sea posible obtener particionados alternativos al inicialmente propuesto. El entorno de desarrollo, incluyendo el algoritmo de particionado, se ha probado con éxito en dos casos de uso industriales: el satélite UPMSat-2 y un demostrador del sistema de control de una turbina eólica. Además, el algoritmo se ha validado mediante la ejecución de numerosos escenarios sintéticos, incluyendo algunos muy complejos, de más de 500 aplicaciones. ABSTRACT The importance of embedded software is growing as it is required for a large number of systems. Devising cheap, efficient and reliable development processes for embedded systems is thus a notable challenge nowadays. Computer processing power is continuously increasing, and as a result, it is currently possible to integrate complex systems in a single processor, which was not feasible a few years ago.Embedded systems may have safety critical requirements. Its failure may result in personal or substantial economical loss. The development of these systems requires stringent development processes that are usually defined by suitable standards. In some cases their certification is also necessary. This scenario fosters the use of mixed-criticality systems in which applications of different criticality levels must coexist in a single system. In these cases, it is usually necessary to certify the whole system, including non-critical applications, which is costly. Virtualization emerges as an enabling technology used for dealing with this problem. The system is structured as a set of partitions, or virtual machines, that can be executed with temporal and spatial isolation. In this way, applications can be developed and certified independently. The development of MCPS (Mixed-Criticality Partitioned Systems) requires additional roles and activities that traditional systems do not require. The system integrator has to define system partitions. Application development has to consider the characteristics of the partition to which it is allocated. In addition, traditional software process models have to be adapted to this scenario. The V-model is commonly used in embedded systems development. It can be adapted to the development of MCPS by enabling the parallel development of applications or adding an additional partition to an existing system. The objective of this PhD is to improve the available technology for MCPS development by providing a framework tailored to the development of this type of system and by defining a flexible and efficient algorithm for automatically generating system partitionings. The goal of the framework is to integrate all the activities required for developing MCPS and to support the different roles involved in this process. The framework is based on MDE (Model-Driven Engineering), which emphasizes the use of models in the development process. The framework provides basic means for modeling the system, generating system partitions, validating the system and generating final artifacts. The framework has been designed to facilitate its extension and the integration of external validation tools. In particular, it can be extended by adding support for additional non-functional requirements and support for final artifacts, such as new programming languages or additional documentation. The framework includes a novel partitioning algorithm. It has been designed to be independent of the types of applications requirements and also to enable the system integrator to tailor the partitioning to the specific requirements of a system. This independence is achieved by defining partitioning constraints that must be met by the resulting partitioning. They have sufficient expressive capacity to state the most common constraints and can be defined manually by the system integrator or generated automatically based on functional and non-functional requirements of the applications. The partitioning algorithm uses system models and partitioning constraints as its inputs. It generates a deployment model that is composed by a set of partitions. Each partition is in turn composed of a set of allocated applications and assigned resources. The partitioning problem, including applications and constraints, is modeled as a colored graph. A valid partitioning is a proper vertex coloring. A specially designed algorithm generates this coloring and is able to provide alternative partitions if required. The framework, including the partitioning algorithm, has been successfully used in the development of two industrial use cases: the UPMSat-2 satellite and the control system of a wind-power turbine. The partitioning algorithm has been successfully validated by using a large number of synthetic loads, including complex scenarios with more that 500 applications.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo definitivo de esta investigación es contribuir con la profundización del conocimiento en las tecnologías de remediación, específicamente las térmicas, debido a que la contaminación de suelos es motivo de preocupación por ser uno de los graves impactos ambientales que origina el hombre con sus actividades, especialmente las industriales, afectando a la salud de los seres humanos, y el medio ambiente, representando elevados costes de saneamiento y en ocasiones problemas graves de salud de las comunidades aledañas. Se establecen tres fases de investigación. En la primera se diseña el sistema de termodesorción a escala piloto, se desarrolla las corridas experimentales, la segunda con corridas en laboratorio para investigar sobre los parámetros que intervienen en el proyecto. Se hacen las corridas respectivas para determinar la eficacia del sistema, y la tercera fase que consiste en comparar los modelos teóricos de Hartley, con los de Hartley Graham –Bryce y el de Hamaker para determinar su aproximación con los resultados reales. Apoyado en investigaciones anteriores, se diseñó y construyó un sistema de desorción térmica, el cual consiste en un horno tipo caja con 4 calentadores (resistencias), y una campana con un filtro para evitar la contaminación atmosférica, así mismo, se diseñó un sistema de control que permitió hacer las corridas con 1/3 de la potencia, con una relación de encendido apagado 3:1 respectivamente. Para validar los resultados obtenidos en el estudio matemático, se compararon dos modelos con la finalidad cuál de ellos se aproxima más a la realidad, se tomaron los ensayos con sus tiempos de operación a las temperaturas y se trabajó a distintas bandas de temperaturas para verificar la fiabilidad del proceso matemático. La temperatura es un variable importante en los procesos de desorción, como los son también la humedad del suelo, pues esta va influir directamente en el tiempo de remediación, por lo que es importante tomarla en cuenta. De igual forma el tipo de suelo va influir en los resultados, siendo las arenas más aptas para este tipo de remediación. Los resultados de la modelización son presentados para temperaturas constantes, el cual difiere de la realidad, pues el proceso de calentamiento es lento y va en accenso dependiendo del contenido de humedad y de las propiedades del suelo. La experimentación realizada concluye con buenos resultados de la aplicación de sistemas de desorción de acuerdo a las variables de Panamá. Con relación al grado de cumplimiento respecto a las normativas actuales relacionadas a los límites máximos permitidos. Los resultados garantizan las posibilidades del proceso de remediación térmica de suelos contaminados con combustibles en rango de diésel, garantizando niveles aceptables de limpieza en un tiempo menor a otras metodologías no destructivas pudieran tomar. ABSTRACT The ultimate goal of this investigation is to enhance the pool of knowledge related to remediation technologies, specifically thermal desorption. The motivation for this study is based on concerns due to pollution of land as one of the most serious environmental impacts caused by anthropogenic effects, specially industrial activities, affecting human health and the environment in general, which represents high reclamation costs, and in some cases, serious health issues in nearby communities. Three phases have been established for this study. The first phase involves the design of a thermal desorption system as a pilot experiment, and associated tests. The second phase consists of laboratory testing to investigate the parameters that affect the investigation, as well as to determine the efficacy of the system. The third phase covers the comparison of theorical models as proposed by Hartley, Hartley Graham – Bryce, and Hamaker, as well as the evaluation of these models versus the laboratory results. Supported by previous researches, the thermal desorption system was designed and installed as a “box” type oven with four heaters (resistances) and one absorption hood with a filter to avoid atmospheric contamination. In the same way, a control system was designed allowing testing with 1/3 of the power, with an on/off rate of 3:1 respectively. In order to validate the results, two mathematical models were compared to identify which model is closer to the experimental results; test results were documented with respective durations and temperatures; and experiments were executed using different ranges of temperature to validate the consistency of the mathematical process. Temperature is an important variable that should be considered for the desorption processes, as well as the humidity content within the soil, that has direct influence over the required duration to achieve remediation. In the same manner, the type of soil also influences the results, where sands are more efficient for this type of remediation process. The results from this experiment are according to constant temperatures, which is not a complete representation of the reality, as the heating process is slow and the temperature gradually increases according to the humidity content and other properties of the soil. The experiment shows good results for the application of thermal desorption systems according to the variables in Panama, as well as the level of compliance required to fulfill current regulations and mandatory maximum limits. The results guarantee the possibility of soil thermo-remediation as a resource to clean sites that have been polluted with diesel-like combustibles, allowing acceptable levels in a period of time that is lower than with other non-destructive remediation technics.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El control, o cancelación activa de ruido, consiste en la atenuación del ruido presente en un entorno acústico mediante la emisión de una señal igual y en oposición de fase al ruido que se desea atenuar. La suma de ambas señales en el medio acústico produce una cancelación mutua, de forma que el nivel de ruido resultante es mucho menor al inicial. El funcionamiento de estos sistemas se basa en los principios de comportamiento de los fenómenos ondulatorios descubiertos por Augustin-Jean Fresnel, Christiaan Huygens y Thomas Young entre otros. Desde la década de 1930, se han desarrollado prototipos de sistemas de control activo de ruido, aunque estas primeras ideas eran irrealizables en la práctica o requerían de ajustes manuales cada poco tiempo que hacían inviable su uso. En la década de 1970, el investigador estadounidense Bernard Widrow desarrolla la teoría de procesado adaptativo de señales y el algoritmo de mínimos cuadrados LMS. De este modo, es posible implementar filtros digitales cuya respuesta se adapte de forma dinámica a las condiciones variables del entorno. Con la aparición de los procesadores digitales de señal en la década de 1980 y su evolución posterior, se abre la puerta para el desarrollo de sistemas de cancelación activa de ruido basados en procesado de señal digital adaptativo. Hoy en día, existen sistemas de control activo de ruido implementados en automóviles, aviones, auriculares o racks de equipamiento profesional. El control activo de ruido se basa en el algoritmo fxlms, una versión modificada del algoritmo LMS de filtrado adaptativo que permite compensar la respuesta acústica del entorno. De este modo, se puede filtrar una señal de referencia de ruido de forma dinámica para emitir la señal adecuada que produzca la cancelación. Como el espacio de cancelación acústica está limitado a unas dimensiones de la décima parte de la longitud de onda, sólo es viable la reducción de ruido en baja frecuencia. Generalmente se acepta que el límite está en torno a 500 Hz. En frecuencias medias y altas deben emplearse métodos pasivos de acondicionamiento y aislamiento, que ofrecen muy buenos resultados. Este proyecto tiene como objetivo el desarrollo de un sistema de cancelación activa de ruidos de carácter periódico, empleando para ello electrónica de consumo y un kit de desarrollo DSP basado en un procesador de muy bajo coste. Se han desarrollado una serie de módulos de código para el DSP escritos en lenguaje C, que realizan el procesado de señal adecuado a la referencia de ruido. Esta señal procesada, una vez emitida, produce la cancelación acústica. Empleando el código implementado, se han realizado pruebas que generan la señal de ruido que se desea eliminar dentro del propio DSP. Esta señal se emite mediante un altavoz que simula la fuente de ruido a cancelar, y mediante otro altavoz se emite una versión filtrada de la misma empleando el algoritmo fxlms. Se han realizado pruebas con distintas versiones del algoritmo, y se han obtenido atenuaciones de entre 20 y 35 dB medidas en márgenes de frecuencia estrechos alrededor de la frecuencia del generador, y de entre 8 y 15 dB medidas en banda ancha. ABSTRACT. Active noise control consists on attenuating the noise in an acoustic environment by emitting a signal equal but phase opposed to the undesired noise. The sum of both signals results in mutual cancellation, so that the residual noise is much lower than the original. The operation of these systems is based on the behavior principles of wave phenomena discovered by Augustin-Jean Fresnel, Christiaan Huygens and Thomas Young. Since the 1930’s, active noise control system prototypes have been developed, though these first ideas were practically unrealizable or required manual adjustments very often, therefore they were unusable. In the 1970’s, American researcher Bernard Widrow develops the adaptive signal processing theory and the Least Mean Squares algorithm (LMS). Thereby, implementing digital filters whose response adapts dynamically to the variable environment conditions, becomes possible. With the emergence of digital signal processors in the 1980’s and their later evolution, active noise cancellation systems based on adaptive signal processing are attained. Nowadays active noise control systems have been successfully implemented on automobiles, planes, headphones or racks for professional equipment. Active noise control is based on the fxlms algorithm, which is actually a modified version of the LMS adaptive filtering algorithm that allows compensation for the acoustic response of the environment. Therefore it is possible to dynamically filter a noise reference signal to obtain the appropriate cancelling signal. As the noise cancellation space is limited to approximately one tenth of the wavelength, noise attenuation is only viable for low frequencies. It is commonly accepted the limit of 500 Hz. For mid and high frequencies, conditioning and isolating passive techniques must be used, as they produce very good results. The objective of this project is to develop a noise cancellation system for periodic noise, by using consumer electronics and a DSP development kit based on a very-low-cost processor. Several C coded modules have been developed for the DSP, implementing the appropriate signal processing to the noise reference. This processed signal, once emitted, results in noise cancellation. The developed code has been tested by generating the undesired noise signal in the DSP. This signal is emitted through a speaker simulating the noise source to be removed, and another speaker emits an fxlms filtered version of the same signal. Several versions of the algorithm have been tested, obtaining attenuation levels around 20 – 35 dB measured in a tight bandwidth around the generator frequency, or around 8 – 15 dB measured in broadband.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En los hospitales y residencias geriátricas de hoy en día es necesario que tengan un sistema asistencial paciente-enfermera. Este sistema debe ser capaz de controlar y gestionar cada una de las alarmas que se puedan generar en el menor tiempo posible y con la mayor eficacia. Para ello se ha diseñado una solución completa llamada ConnectCare. La arquitectura modular del sistema y la utilización de comunicación IP permiten adaptar el sistema a cada situación proporcionando soluciones específicas a medida. Este sistema se compone de un software llamado Buslogic que gestiona las alarmas en un servidor y de unos dispositivos llamados Fonet Control TCP/IP que posee una doble función: por una parte, sirve como dispositivo intercomunicador telefónico y por otra parte, sirve como dispositivo de gestión de alarmas y control de otros dispositivos externos. Como dispositivo intercomunicador telefónico, se integra en la red telefónica como un terminal de extensión analógica permitiendo la intercomunicación entre el paciente y el personal sanitario. Se hará una breve descripción de la parte intercomunicadora pero no es el objeto de este proyecto. En cambio, en la parte de control se hará más hincapié del diseño y su funcionamiento ya que sí es el objeto de este proyecto. La placa de control permite la recepción de señales provenientes de dispositivos de llamadas cableados, como son pulsadores asistenciales tipo “pera” o tiradores de baño. También es posible recibir señales de alerta de dispositivos no estrictamente asistenciales como detectores de humo o detectores de presencia. Además, permite controlar las luces de las habitaciones de los residentes y actuar sobre otros dispositivos externos. A continuación se mostrará un presupuesto para tener una idea del coste que supone. El presupuesto se divide en dos partes, la primera corresponde en el diseño de la placa de control y la segunda corresponde a la fabricación en serie de la misma. Después hablaremos sobre las conclusiones que hemos sacado tras la realización de este proyecto y sobre las posibles mejoras, terminando con una demostración del funcionamiento del equipo en la vida real. ABSTRACT. Nowadays, in hospitals and nursing homes it is required to have a patient-nurse care system. This system must be able to control and manage each one of the alarms, in the shortest possible time and with maximum efficiency. For this, we have designed a complete solution called ConnectCare. The system architecture is modular and the communication is by IP protocol. This allows the system to adapt to each situation and providing specific solutions. This system is composed by a software, called Buslogic, which it manages the alarms in the PC server and a hardware, called Fonet Control TCP / IP, which it has a dual role: the first role, it is a telephone intercom device and second role, it is a system alarm manager and it can control some external devices. As telephone intercom device, it is integrated into the telephone network and also it is an analog extension terminal allowing intercommunication between the patient and the health personnel. A short description of this intercommunication system will be made, because it is not the subject of this project. Otherwise, the control system will be described with more emphasis on the design and operation point of view, because this is the subject of this project. The control board allows the reception of signals from wired devices, such as pushbutton handset or bathroom pullcord. It is also possible to receive warning signals of non nurse call devices such as smoke detectors or motion detectors. Moreover, it allows to control the lights of the patients’ rooms and to act on other external devices. Then, a budget will be showed. The budget is divided into two parts, the first one is related with the design of the control board and the second one corresponds to the serial production of it. Then, it is discussed the conclusions of this project and the possible improvements, ending with a demonstration of the equipment in real life.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The purpose of this Project is, first and foremost, to disclose the topic of nonlinear vibrations and oscillations in mechanical systems and, namely, nonlinear normal modes NNMs to a greater audience of researchers and technicians. To do so, first of all, the dynamical behavior and properties of nonlinear mechanical systems is outlined from the analysis of a pair of exemplary models with the harmonic balanced method. The conclusions drawn are contrasted with the Linear Vibration Theory. Then, it is argued how the nonlinear normal modes could, in spite of their limitations, predict the frequency response of a mechanical system. After discussing those introductory concepts, I present a Matlab package called 'NNMcont' developed by a group of researchers from the University of Liege. This package allows the analysis of nonlinear normal modes of vibration in a range of mechanical systems as extensions of the linear modes. This package relies on numerical methods and a 'continuation algorithm' for the computation of the nonlinear normal modes of a conservative mechanical system. In order to prove its functionality, a two degrees of freedom mechanical system with elastic nonlinearities is analized. This model comprises a mass suspended on a foundation by means of a spring-viscous damper mechanism -analogous to a very simplified model of most suspended structures and machines- that has attached a mass damper as a passive vibration control system. The results of the computation are displayed on frequency energy plots showing the NNMs branches along with modal curves and time-series plots for each normal mode. Finally, a critical analysis of the results obtained is carried out with an eye on devising what they can tell the researcher about the dynamical properties of the system.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Buildings Indoor Air Quality requires a control in the Relative Humidity parameter. In passive architecture in humid climates relative humidity is even more important for human comfort and difficult to control. Therefore, nowadays, there is a research on dehumidifying systems. The present article shows an innovative dehumidifying panel composed of a plaster and Calcium Chloride salt. Laboratory tests are carried out to establish its viability as an indoor air moister regulator integrated in common plaster building interior coatings. There are two types of tests that have been carried out in two consecutive empirical phases: in the first phase, the tests of characterization of the Calcium Chloride as a desiccant are carried out; in a second phase, the dehumidifying panel as a whole is tested. Finally, both types of empirical tests show the efficiency and viability as an air moisture passive control system.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this thesis, we designed and implemented an online tool (named "OnToology") to automatically generate documentation and perform evaluation for ontologies. It is also integrated with GitHub version control system to support collaborative environments.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta dissertação trata da importância da Governança Corporativa e da Gestão de Risco para as empresas brasileiras que tem suas ações negociadas nas Bolsas de Valores de Nova York e de São Paulo. Tem como principais objetivos: a avaliação do atual estágio de adequação dessas empresas brasileiras às normas da Lei Sarbanes & Oxley, a confirmação da importância do gerenciamento de risco para a Governança Corporativa, buscando fazer uma associação da ocorrência de perdas patrimoniais com as ferramentas da gestão de risco e das fraudes com a fragilidade de normas de controle interno e com as normas emanadas dos órgãos externos regulatórios. O trabalho acadêmico, um estudo exploratório, teve como ponto de partida uma pesquisa bibliográfica de livros e artigos técnicos versando sobre Governança Corporativa com foco na gestão de riscos. A pesquisa foi feita através da leitura dos relatórios de administração das empresas selecionadas e a aplicabilidade das normas da Lei Sarbanes Oxley. Como conclusão foi possível confirmar com razoável certeza que as grandes perdas, que levaram empresas internacionais a quebra, ocorreram pela falta de uma eficaz gestão de risco ou por um deficiente sistema de controle interno associada a falta de ações preventivas. Por outro lado, apesar dos esforços das empresas brasileiras em se adequar às novas exigências para poder atuar no mercado financeiro do Brasil e dos Estados Unidos da América, parte das empresas pesquisadas ainda se encontra em fase de implementação dos Comitês de Auditoria, de Normas e Procedimentos de Controle Interno e das demais práticas de Gestão Corporativa. Novas pesquisas sobre o tema central deste estudo poderão ensejar no aprofundamento da questão da relação custo x benefício da implantação das práticas de Governança Corporativa e na questão da eficácia dos sistemas corporativos de gerenciamento e controle considerando os custos incorridos em sua implantação e manutenção e os benefícios obtidos. Propõe-se ainda um estudo que busque a revisão das responsabilidades das autoridades reguladoras no que tange ao controle ante e pós-fato. Um dilema a ser resolvido e que deve instigar futuros pesquisadores.(AU)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta dissertação trata da importância da Governança Corporativa e da Gestão de Risco para as empresas brasileiras que tem suas ações negociadas nas Bolsas de Valores de Nova York e de São Paulo. Tem como principais objetivos: a avaliação do atual estágio de adequação dessas empresas brasileiras às normas da Lei Sarbanes & Oxley, a confirmação da importância do gerenciamento de risco para a Governança Corporativa, buscando fazer uma associação da ocorrência de perdas patrimoniais com as ferramentas da gestão de risco e das fraudes com a fragilidade de normas de controle interno e com as normas emanadas dos órgãos externos regulatórios. O trabalho acadêmico, um estudo exploratório, teve como ponto de partida uma pesquisa bibliográfica de livros e artigos técnicos versando sobre Governança Corporativa com foco na gestão de riscos. A pesquisa foi feita através da leitura dos relatórios de administração das empresas selecionadas e a aplicabilidade das normas da Lei Sarbanes Oxley. Como conclusão foi possível confirmar com razoável certeza que as grandes perdas, que levaram empresas internacionais a quebra, ocorreram pela falta de uma eficaz gestão de risco ou por um deficiente sistema de controle interno associada a falta de ações preventivas. Por outro lado, apesar dos esforços das empresas brasileiras em se adequar às novas exigências para poder atuar no mercado financeiro do Brasil e dos Estados Unidos da América, parte das empresas pesquisadas ainda se encontra em fase de implementação dos Comitês de Auditoria, de Normas e Procedimentos de Controle Interno e das demais práticas de Gestão Corporativa. Novas pesquisas sobre o tema central deste estudo poderão ensejar no aprofundamento da questão da relação custo x benefício da implantação das práticas de Governança Corporativa e na questão da eficácia dos sistemas corporativos de gerenciamento e controle considerando os custos incorridos em sua implantação e manutenção e os benefícios obtidos. Propõe-se ainda um estudo que busque a revisão das responsabilidades das autoridades reguladoras no que tange ao controle ante e pós-fato. Um dilema a ser resolvido e que deve instigar futuros pesquisadores.(AU)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The role of the abundant stress protein Hsp90 in protecting cells against stress-induced damage is not well understood. The recent discovery that a class of ansamycin antibiotics bind specifically to Hsp90 allowed us to address this problem from a new angle. We find that mammalian Hsp90, in cooperation with Hsp70, p60, and other factors, mediates the ATP-dependent refolding of heat-denatured proteins, such as firefly luciferase. Failure to refold results in proteolysis. The ansamycins inhibit refolding, both in vivo and in a cell extract, by preventing normal dissociation of Hsp90 from luciferase, causing its enhanced degradation. This mechanism also explains the ansamycin-induced proteolysis of several protooncogenic protein kinases, such as Raf-1, which interact with Hsp90. We propose that Hsp90 is part of a quality control system that facilitates protein refolding or degradation during recovery from stress. This function is used by a limited set of signal transduction molecules for their folding and regulation under nonstress conditions. The ansamycins shift the mode of Hsp90 from refolding to degradation, and this effect is probably amplified for specific Hsp90 substrates.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Most mammalian cells exhibit transient delays in the G1 and G2 phases of the cell cycle after treatment with radiation or radiomimetic compounds. p53 is required for the arrest in G1, which provides time for DNA repair. Recently, a role of p53 in the G2/M transition has also been suggested. However, it has been reported that the presence of functional p53 does not always correlate with the induction of these checkpoints. To precisely assess the role of p53 in activating cell cycle checkpoints and in cell survival after radiation, we studied the response of two isogenic human fibrosarcoma cell lines differing in their p53 status (wild type or mutant). We found that when irradiated cells undergo a wild-type p53-dependent G1 arrest, they do not subsequently arrest in G2. Moreover, wild-type p53 cells irradiated past the G1 checkpoint arrest in G2 but do not delay in the subsequent G1 phase. Furthermore, in these cell lines, which do not undergo radiation-induced apoptosis, the wild-type p53 cell line exhibited a greater radioresistance in terms of clonogenic survival. These results suggest that the two checkpoints may be interrelated, perhaps through a control system that determines, depending on the extent of the damage, whether the cell needs to arrest cell cycle progression at the subsequent checkpoint for further repair. p53 could be a crucial component of this control system.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nel sesso maschile il carcinoma della prostata (CaP) è la neoplasia più frequente ed è tra le prime cause di morte per tumore. Ad oggi, sono disponibili diverse strategie terapeutiche per il trattamento del CaP, ma, come comprovato dall’ancora alta mortalità, spesso queste sono inefficaci, a causa soprattutto dello sviluppo di fenomeni di resistenza da parte delle cellule tumorali. La ricerca si sta quindi focalizzando sulla caratterizzazione di tali meccanismi di resistenza e, allo stesso tempo, sull’individuazione di combinazioni terapeutiche che siano più efficaci e capaci di superare queste resistenze. Le cellule tumorali sono fortemente dipendenti dai meccanismi connessi con l’omeostasi proteica (proteostasi), in quanto sono sottoposte a numerosi stress ambientali (ipossia, carenza di nutrienti, esposizione a chemioterapici, ecc.) e ad un’aumentata attività trascrizionale, entrambi fattori che causano un accumulo intracellulare di proteine anomale e/o mal ripiegate, le quali possono risultare dannose per la cellula e vanno quindi riparate o eliminate efficientemente. La cellula ha sviluppato diversi sistemi di controllo di qualità delle proteine, tra cui gli chaperon molecolari, il sistema di degradazione associato al reticolo endoplasmatico (ERAD), il sistema di risposta alle proteine non ripiegate (UPR) e i sistemi di degradazione come il proteasoma e l’autofagia. Uno dei possibili bersagli in cellule tumorali secretorie, come quelle del CaP, è rappresentato dal reticolo endoplasmatico (RE), organello intracellulare deputato alla sintesi, al ripiegamento e alle modificazioni post-traduzionali delle proteine di membrana e secrete. Alterazioni della protestasi a livello del RE inducono l’UPR, che svolge una duplice funzione nella cellula: primariamente funge da meccanismo omeostatico e di sopravvivenza, ma, quando l’omeostasi non è più ripristinabile e lo stimolo di attivazione dell’UPR cronicizza, può attivare vie di segnalazione che conducono alla morte cellulare programmata. La bivalenza, tipica dell’UPR, lo rende un bersaglio particolarmente interessante per promuovere la morte delle cellule tumorali: si può, infatti, sfruttare da una parte l’inibizione di componenti dell’UPR per abrogare i meccanismi adattativi e di sopravvivenza e dall’altra si può favorire il sovraccarico dell’UPR con conseguente induzione della via pro-apoptotica. Le catechine del tè verde sono composti polifenolici estratti dalle foglie di Camellia sinesis che possiedono comprovati effetti antitumorali: inibiscono la proliferazione, inducono la morte di cellule neoplastiche e riducono l’angiogenesi, l’invasione e la metastatizzazione di diversi tipi tumorali, tra cui il CaP. Diversi studi hanno osservato come il RE sia uno dei bersagli molecolari delle catechine del tè verde. In particolare, recenti studi del nostro gruppo di ricerca hanno messo in evidenza come il Polyphenon E (estratto standardizzato di catechine del tè verde) sia in grado, in modelli animali di CaP, di causare un’alterazione strutturale del RE e del Golgi, un deficit del processamento delle proteine secretorie e la conseguente induzione di uno stato di stress del RE, il quale causa a sua volta l’attivazione delle vie di segnalazione dell’UPR. Nel presente studio su due diverse linee cellulari di CaP (LNCaP e DU145) e in un nostro precedente studio su altre due linee cellulari (PNT1a e PC3) è stato confermato che il Polyphenon E è capace di indurre lo stress del RE e di determinare l’attivazione delle vie di segnalazione dell’UPR, le quali possono fungere da meccanismo di sopravvivenza, ma anche contribuire a favorire la morte cellulare indotta dalle catechine del tè verde (come nel caso delle PC3). Considerati questi effetti delle catechine del tè verde in qualità di induttori dell’UPR, abbiamo ipotizzato che la combinazione di questi polifenoli bioattivi e degli inibitori del proteasoma, anch’essi noti attivatori dell’UPR, potesse comportare un aggravamento dell’UPR stesso tale da innescare meccanismi molecolari di morte cellulare programmata. Abbiamo quindi studiato l’effetto di tale combinazione in cellule PC3 trattate con epigallocatechina-3-gallato (EGCG, la principale tra le catechine del tè verde) e due diversi inibitori del proteasoma, il bortezomib (BZM) e l’MG132. I risultati hanno dimostrato, diversamente da quanto ipotizzato, che l’EGCG quando associato agli inibitori del proteasoma non produce effetti sinergici, ma che anzi, quando viene addizionato al BZM, causa una risposta simil-antagonistica: si osserva infatti una riduzione della citotossicità e dell’effetto inibitorio sul proteasoma (accumulo di proteine poliubiquitinate) indotti dal BZM, inoltre anche l’induzione dell’UPR (aumento di GRP78, p-eIF2α, CHOP) risulta ridotta nelle cellule trattate con la combinazione di EGCG e BZM rispetto alle cellule trattate col solo BZM. Gli stessi effetti non si osservano invece nelle cellule PC3 trattate con l’EGCG in associazione con l’MG132, dove non si registra alcuna variazione dei parametri di vitalità cellulare e dei marcatori di inibizione del proteasoma e di UPR (rispetto a quelli osservati nel singolo trattamento con MG132). Essendo l’autofagia un meccanismo compensativo che si attiva in seguito all’inibizione del proteasoma o allo stress del RE, abbiamo valutato che ruolo potesse avere tale meccanismo nella risposta simil-antagonistica osservata in seguito al co-trattamento con EGCG e BZM. I nostri risultati hanno evidenziato, in cellule trattate con BZM, l’attivazione di un flusso autofagico che si intensifica quando viene addizionato l’EGCG. Tramite l’inibizione dell’autofagia mediante co-somministrazione di clorochina, è stato possibile stabilire che l’autofagia indotta dall’EGCG favorisce la sopravvivenza delle cellule sottoposte al trattamento combinato tramite la riduzione dell’UPR. Queste evidenze ci portano a concludere che per il trattamento del CaP è sconsigliabile associare le catechine del tè verde con il BZM e che in futuri studi di combinazione di questi polifenoli con composti antitumorali sarà importante valutare il ruolo dell’autofagia come possibile meccanismo di resistenza.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Os controladores eletrônicos de pulverização visam minimizar a variação das taxas de insumos aplicadas no campo. Eles fazem parte de um sistema de controle, e permitem a compensação da variação de velocidade de deslocamento do pulverizador durante a operação. Há vários tipos de controladores eletrônicos de pulverização disponíveis no mercado e uma das formas de selecionar qual o mais eficiente nas mesmas condições, ou seja, em um mesmo sistema de controle, é quantificar o tempo de resposta do sistema para cada controlador específico. O objetivo desse trabalho foi estimar os tempos de resposta para mudanças de velocidade de um sistema eletrônico de pulverização via modelos de regressão não lineares, estes, resultantes da soma de regressões lineares ponderadas por funções distribuição acumulada. Os dados foram obtidos no Laboratório de Tecnologia de Aplicação, localizado no Departamento de Engenharia de Biossistemas da Escola Superior de Agricultura \"Luiz de Queiroz\", Universidade de São Paulo, no município de Piracicaba, São Paulo, Brasil. Os modelos utilizados foram o logístico e de Gompertz, que resultam de uma soma ponderada de duas regressões lineares constantes com peso dado pela função distribuição acumulada logística e Gumbell, respectivamente. Reparametrizações foram propostas para inclusão do tempo de resposta do sistema de controle nos modelos, com o objetivo de melhorar a interpretação e inferência estatística dos mesmos. Foi proposto também um modelo de regressão não linear difásico que resulta da soma ponderada de regressões lineares constantes com peso dado pela função distribuição acumulada Cauchy seno hiperbólico exponencial. Um estudo de simulação foi feito, utilizando a metodologia de Monte Carlo, para avaliar as estimativas de máxima verossimilhança dos parâmetros do modelo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nas últimas décadas, a indústria automobilística mundial vem investindo no desenvolvimento tecnológico dos motores, com o objetivo de alcançar melhor eficiência energética e atender às legislações que limitam a quantidade de resíduos tóxicos nos gases de exaustão e menor consumo de combustível. Isso resultou na implantação dos sistemas de gerenciamento eletrônico do motor, que possibilitam funcionalidades para se controlar diversas variáveis do motor, aumentando consideravelmente o rendimento do motor. Este trabalho tem como objetivos explorar a dinâmica de um motor de combustão interna ciclo Otto, os sinais elétricos associados, e os componentes de seu gerenciamento eletrônico. A partir dessas informações, o trabalho apresenta o processo de analise dos sinais elétricos e as estratégias de controle utilizadas em um sistema de gerenciamento real. Assim, são desenvolvidos o hardware e o firmware de uma unidade microcontroladora para gerenciamento eletrônico do motor. O hardware foi elaborado com uma concepção centralizada, ou seja, foi usado apenas um microcontrolador de 32-bit para gerenciar todas as funções. O firmware de controle foi desenvolvido de forma modular baseado em modelos de malha fechada. O modelo matemático do motor foi identificado utilizando técnicas de controle em um veículo real, e a avalidação do modelo foi obtida através de testes em um dinamômetro inercial.