943 resultados para manufacturing control system
Resumo:
El objetivo definitivo de esta investigación es contribuir con la profundización del conocimiento en las tecnologías de remediación, específicamente las térmicas, debido a que la contaminación de suelos es motivo de preocupación por ser uno de los graves impactos ambientales que origina el hombre con sus actividades, especialmente las industriales, afectando a la salud de los seres humanos, y el medio ambiente, representando elevados costes de saneamiento y en ocasiones problemas graves de salud de las comunidades aledañas. Se establecen tres fases de investigación. En la primera se diseña el sistema de termodesorción a escala piloto, se desarrolla las corridas experimentales, la segunda con corridas en laboratorio para investigar sobre los parámetros que intervienen en el proyecto. Se hacen las corridas respectivas para determinar la eficacia del sistema, y la tercera fase que consiste en comparar los modelos teóricos de Hartley, con los de Hartley Graham –Bryce y el de Hamaker para determinar su aproximación con los resultados reales. Apoyado en investigaciones anteriores, se diseñó y construyó un sistema de desorción térmica, el cual consiste en un horno tipo caja con 4 calentadores (resistencias), y una campana con un filtro para evitar la contaminación atmosférica, así mismo, se diseñó un sistema de control que permitió hacer las corridas con 1/3 de la potencia, con una relación de encendido apagado 3:1 respectivamente. Para validar los resultados obtenidos en el estudio matemático, se compararon dos modelos con la finalidad cuál de ellos se aproxima más a la realidad, se tomaron los ensayos con sus tiempos de operación a las temperaturas y se trabajó a distintas bandas de temperaturas para verificar la fiabilidad del proceso matemático. La temperatura es un variable importante en los procesos de desorción, como los son también la humedad del suelo, pues esta va influir directamente en el tiempo de remediación, por lo que es importante tomarla en cuenta. De igual forma el tipo de suelo va influir en los resultados, siendo las arenas más aptas para este tipo de remediación. Los resultados de la modelización son presentados para temperaturas constantes, el cual difiere de la realidad, pues el proceso de calentamiento es lento y va en accenso dependiendo del contenido de humedad y de las propiedades del suelo. La experimentación realizada concluye con buenos resultados de la aplicación de sistemas de desorción de acuerdo a las variables de Panamá. Con relación al grado de cumplimiento respecto a las normativas actuales relacionadas a los límites máximos permitidos. Los resultados garantizan las posibilidades del proceso de remediación térmica de suelos contaminados con combustibles en rango de diésel, garantizando niveles aceptables de limpieza en un tiempo menor a otras metodologías no destructivas pudieran tomar. ABSTRACT The ultimate goal of this investigation is to enhance the pool of knowledge related to remediation technologies, specifically thermal desorption. The motivation for this study is based on concerns due to pollution of land as one of the most serious environmental impacts caused by anthropogenic effects, specially industrial activities, affecting human health and the environment in general, which represents high reclamation costs, and in some cases, serious health issues in nearby communities. Three phases have been established for this study. The first phase involves the design of a thermal desorption system as a pilot experiment, and associated tests. The second phase consists of laboratory testing to investigate the parameters that affect the investigation, as well as to determine the efficacy of the system. The third phase covers the comparison of theorical models as proposed by Hartley, Hartley Graham – Bryce, and Hamaker, as well as the evaluation of these models versus the laboratory results. Supported by previous researches, the thermal desorption system was designed and installed as a “box” type oven with four heaters (resistances) and one absorption hood with a filter to avoid atmospheric contamination. In the same way, a control system was designed allowing testing with 1/3 of the power, with an on/off rate of 3:1 respectively. In order to validate the results, two mathematical models were compared to identify which model is closer to the experimental results; test results were documented with respective durations and temperatures; and experiments were executed using different ranges of temperature to validate the consistency of the mathematical process. Temperature is an important variable that should be considered for the desorption processes, as well as the humidity content within the soil, that has direct influence over the required duration to achieve remediation. In the same manner, the type of soil also influences the results, where sands are more efficient for this type of remediation process. The results from this experiment are according to constant temperatures, which is not a complete representation of the reality, as the heating process is slow and the temperature gradually increases according to the humidity content and other properties of the soil. The experiment shows good results for the application of thermal desorption systems according to the variables in Panama, as well as the level of compliance required to fulfill current regulations and mandatory maximum limits. The results guarantee the possibility of soil thermo-remediation as a resource to clean sites that have been polluted with diesel-like combustibles, allowing acceptable levels in a period of time that is lower than with other non-destructive remediation technics.
Resumo:
El control, o cancelación activa de ruido, consiste en la atenuación del ruido presente en un entorno acústico mediante la emisión de una señal igual y en oposición de fase al ruido que se desea atenuar. La suma de ambas señales en el medio acústico produce una cancelación mutua, de forma que el nivel de ruido resultante es mucho menor al inicial. El funcionamiento de estos sistemas se basa en los principios de comportamiento de los fenómenos ondulatorios descubiertos por Augustin-Jean Fresnel, Christiaan Huygens y Thomas Young entre otros. Desde la década de 1930, se han desarrollado prototipos de sistemas de control activo de ruido, aunque estas primeras ideas eran irrealizables en la práctica o requerían de ajustes manuales cada poco tiempo que hacían inviable su uso. En la década de 1970, el investigador estadounidense Bernard Widrow desarrolla la teoría de procesado adaptativo de señales y el algoritmo de mínimos cuadrados LMS. De este modo, es posible implementar filtros digitales cuya respuesta se adapte de forma dinámica a las condiciones variables del entorno. Con la aparición de los procesadores digitales de señal en la década de 1980 y su evolución posterior, se abre la puerta para el desarrollo de sistemas de cancelación activa de ruido basados en procesado de señal digital adaptativo. Hoy en día, existen sistemas de control activo de ruido implementados en automóviles, aviones, auriculares o racks de equipamiento profesional. El control activo de ruido se basa en el algoritmo fxlms, una versión modificada del algoritmo LMS de filtrado adaptativo que permite compensar la respuesta acústica del entorno. De este modo, se puede filtrar una señal de referencia de ruido de forma dinámica para emitir la señal adecuada que produzca la cancelación. Como el espacio de cancelación acústica está limitado a unas dimensiones de la décima parte de la longitud de onda, sólo es viable la reducción de ruido en baja frecuencia. Generalmente se acepta que el límite está en torno a 500 Hz. En frecuencias medias y altas deben emplearse métodos pasivos de acondicionamiento y aislamiento, que ofrecen muy buenos resultados. Este proyecto tiene como objetivo el desarrollo de un sistema de cancelación activa de ruidos de carácter periódico, empleando para ello electrónica de consumo y un kit de desarrollo DSP basado en un procesador de muy bajo coste. Se han desarrollado una serie de módulos de código para el DSP escritos en lenguaje C, que realizan el procesado de señal adecuado a la referencia de ruido. Esta señal procesada, una vez emitida, produce la cancelación acústica. Empleando el código implementado, se han realizado pruebas que generan la señal de ruido que se desea eliminar dentro del propio DSP. Esta señal se emite mediante un altavoz que simula la fuente de ruido a cancelar, y mediante otro altavoz se emite una versión filtrada de la misma empleando el algoritmo fxlms. Se han realizado pruebas con distintas versiones del algoritmo, y se han obtenido atenuaciones de entre 20 y 35 dB medidas en márgenes de frecuencia estrechos alrededor de la frecuencia del generador, y de entre 8 y 15 dB medidas en banda ancha. ABSTRACT. Active noise control consists on attenuating the noise in an acoustic environment by emitting a signal equal but phase opposed to the undesired noise. The sum of both signals results in mutual cancellation, so that the residual noise is much lower than the original. The operation of these systems is based on the behavior principles of wave phenomena discovered by Augustin-Jean Fresnel, Christiaan Huygens and Thomas Young. Since the 1930’s, active noise control system prototypes have been developed, though these first ideas were practically unrealizable or required manual adjustments very often, therefore they were unusable. In the 1970’s, American researcher Bernard Widrow develops the adaptive signal processing theory and the Least Mean Squares algorithm (LMS). Thereby, implementing digital filters whose response adapts dynamically to the variable environment conditions, becomes possible. With the emergence of digital signal processors in the 1980’s and their later evolution, active noise cancellation systems based on adaptive signal processing are attained. Nowadays active noise control systems have been successfully implemented on automobiles, planes, headphones or racks for professional equipment. Active noise control is based on the fxlms algorithm, which is actually a modified version of the LMS adaptive filtering algorithm that allows compensation for the acoustic response of the environment. Therefore it is possible to dynamically filter a noise reference signal to obtain the appropriate cancelling signal. As the noise cancellation space is limited to approximately one tenth of the wavelength, noise attenuation is only viable for low frequencies. It is commonly accepted the limit of 500 Hz. For mid and high frequencies, conditioning and isolating passive techniques must be used, as they produce very good results. The objective of this project is to develop a noise cancellation system for periodic noise, by using consumer electronics and a DSP development kit based on a very-low-cost processor. Several C coded modules have been developed for the DSP, implementing the appropriate signal processing to the noise reference. This processed signal, once emitted, results in noise cancellation. The developed code has been tested by generating the undesired noise signal in the DSP. This signal is emitted through a speaker simulating the noise source to be removed, and another speaker emits an fxlms filtered version of the same signal. Several versions of the algorithm have been tested, obtaining attenuation levels around 20 – 35 dB measured in a tight bandwidth around the generator frequency, or around 8 – 15 dB measured in broadband.
Resumo:
En los hospitales y residencias geriátricas de hoy en día es necesario que tengan un sistema asistencial paciente-enfermera. Este sistema debe ser capaz de controlar y gestionar cada una de las alarmas que se puedan generar en el menor tiempo posible y con la mayor eficacia. Para ello se ha diseñado una solución completa llamada ConnectCare. La arquitectura modular del sistema y la utilización de comunicación IP permiten adaptar el sistema a cada situación proporcionando soluciones específicas a medida. Este sistema se compone de un software llamado Buslogic que gestiona las alarmas en un servidor y de unos dispositivos llamados Fonet Control TCP/IP que posee una doble función: por una parte, sirve como dispositivo intercomunicador telefónico y por otra parte, sirve como dispositivo de gestión de alarmas y control de otros dispositivos externos. Como dispositivo intercomunicador telefónico, se integra en la red telefónica como un terminal de extensión analógica permitiendo la intercomunicación entre el paciente y el personal sanitario. Se hará una breve descripción de la parte intercomunicadora pero no es el objeto de este proyecto. En cambio, en la parte de control se hará más hincapié del diseño y su funcionamiento ya que sí es el objeto de este proyecto. La placa de control permite la recepción de señales provenientes de dispositivos de llamadas cableados, como son pulsadores asistenciales tipo “pera” o tiradores de baño. También es posible recibir señales de alerta de dispositivos no estrictamente asistenciales como detectores de humo o detectores de presencia. Además, permite controlar las luces de las habitaciones de los residentes y actuar sobre otros dispositivos externos. A continuación se mostrará un presupuesto para tener una idea del coste que supone. El presupuesto se divide en dos partes, la primera corresponde en el diseño de la placa de control y la segunda corresponde a la fabricación en serie de la misma. Después hablaremos sobre las conclusiones que hemos sacado tras la realización de este proyecto y sobre las posibles mejoras, terminando con una demostración del funcionamiento del equipo en la vida real. ABSTRACT. Nowadays, in hospitals and nursing homes it is required to have a patient-nurse care system. This system must be able to control and manage each one of the alarms, in the shortest possible time and with maximum efficiency. For this, we have designed a complete solution called ConnectCare. The system architecture is modular and the communication is by IP protocol. This allows the system to adapt to each situation and providing specific solutions. This system is composed by a software, called Buslogic, which it manages the alarms in the PC server and a hardware, called Fonet Control TCP / IP, which it has a dual role: the first role, it is a telephone intercom device and second role, it is a system alarm manager and it can control some external devices. As telephone intercom device, it is integrated into the telephone network and also it is an analog extension terminal allowing intercommunication between the patient and the health personnel. A short description of this intercommunication system will be made, because it is not the subject of this project. Otherwise, the control system will be described with more emphasis on the design and operation point of view, because this is the subject of this project. The control board allows the reception of signals from wired devices, such as pushbutton handset or bathroom pullcord. It is also possible to receive warning signals of non nurse call devices such as smoke detectors or motion detectors. Moreover, it allows to control the lights of the patients’ rooms and to act on other external devices. Then, a budget will be showed. The budget is divided into two parts, the first one is related with the design of the control board and the second one corresponds to the serial production of it. Then, it is discussed the conclusions of this project and the possible improvements, ending with a demonstration of the equipment in real life.
Resumo:
The purpose of this Project is, first and foremost, to disclose the topic of nonlinear vibrations and oscillations in mechanical systems and, namely, nonlinear normal modes NNMs to a greater audience of researchers and technicians. To do so, first of all, the dynamical behavior and properties of nonlinear mechanical systems is outlined from the analysis of a pair of exemplary models with the harmonic balanced method. The conclusions drawn are contrasted with the Linear Vibration Theory. Then, it is argued how the nonlinear normal modes could, in spite of their limitations, predict the frequency response of a mechanical system. After discussing those introductory concepts, I present a Matlab package called 'NNMcont' developed by a group of researchers from the University of Liege. This package allows the analysis of nonlinear normal modes of vibration in a range of mechanical systems as extensions of the linear modes. This package relies on numerical methods and a 'continuation algorithm' for the computation of the nonlinear normal modes of a conservative mechanical system. In order to prove its functionality, a two degrees of freedom mechanical system with elastic nonlinearities is analized. This model comprises a mass suspended on a foundation by means of a spring-viscous damper mechanism -analogous to a very simplified model of most suspended structures and machines- that has attached a mass damper as a passive vibration control system. The results of the computation are displayed on frequency energy plots showing the NNMs branches along with modal curves and time-series plots for each normal mode. Finally, a critical analysis of the results obtained is carried out with an eye on devising what they can tell the researcher about the dynamical properties of the system.
Resumo:
Buildings Indoor Air Quality requires a control in the Relative Humidity parameter. In passive architecture in humid climates relative humidity is even more important for human comfort and difficult to control. Therefore, nowadays, there is a research on dehumidifying systems. The present article shows an innovative dehumidifying panel composed of a plaster and Calcium Chloride salt. Laboratory tests are carried out to establish its viability as an indoor air moister regulator integrated in common plaster building interior coatings. There are two types of tests that have been carried out in two consecutive empirical phases: in the first phase, the tests of characterization of the Calcium Chloride as a desiccant are carried out; in a second phase, the dehumidifying panel as a whole is tested. Finally, both types of empirical tests show the efficiency and viability as an air moisture passive control system.
Resumo:
In this thesis, we designed and implemented an online tool (named "OnToology") to automatically generate documentation and perform evaluation for ontologies. It is also integrated with GitHub version control system to support collaborative environments.
Resumo:
Esta dissertação trata da importância da Governança Corporativa e da Gestão de Risco para as empresas brasileiras que tem suas ações negociadas nas Bolsas de Valores de Nova York e de São Paulo. Tem como principais objetivos: a avaliação do atual estágio de adequação dessas empresas brasileiras às normas da Lei Sarbanes & Oxley, a confirmação da importância do gerenciamento de risco para a Governança Corporativa, buscando fazer uma associação da ocorrência de perdas patrimoniais com as ferramentas da gestão de risco e das fraudes com a fragilidade de normas de controle interno e com as normas emanadas dos órgãos externos regulatórios. O trabalho acadêmico, um estudo exploratório, teve como ponto de partida uma pesquisa bibliográfica de livros e artigos técnicos versando sobre Governança Corporativa com foco na gestão de riscos. A pesquisa foi feita através da leitura dos relatórios de administração das empresas selecionadas e a aplicabilidade das normas da Lei Sarbanes Oxley. Como conclusão foi possível confirmar com razoável certeza que as grandes perdas, que levaram empresas internacionais a quebra, ocorreram pela falta de uma eficaz gestão de risco ou por um deficiente sistema de controle interno associada a falta de ações preventivas. Por outro lado, apesar dos esforços das empresas brasileiras em se adequar às novas exigências para poder atuar no mercado financeiro do Brasil e dos Estados Unidos da América, parte das empresas pesquisadas ainda se encontra em fase de implementação dos Comitês de Auditoria, de Normas e Procedimentos de Controle Interno e das demais práticas de Gestão Corporativa. Novas pesquisas sobre o tema central deste estudo poderão ensejar no aprofundamento da questão da relação custo x benefício da implantação das práticas de Governança Corporativa e na questão da eficácia dos sistemas corporativos de gerenciamento e controle considerando os custos incorridos em sua implantação e manutenção e os benefícios obtidos. Propõe-se ainda um estudo que busque a revisão das responsabilidades das autoridades reguladoras no que tange ao controle ante e pós-fato. Um dilema a ser resolvido e que deve instigar futuros pesquisadores.(AU)
Resumo:
Esta dissertação trata da importância da Governança Corporativa e da Gestão de Risco para as empresas brasileiras que tem suas ações negociadas nas Bolsas de Valores de Nova York e de São Paulo. Tem como principais objetivos: a avaliação do atual estágio de adequação dessas empresas brasileiras às normas da Lei Sarbanes & Oxley, a confirmação da importância do gerenciamento de risco para a Governança Corporativa, buscando fazer uma associação da ocorrência de perdas patrimoniais com as ferramentas da gestão de risco e das fraudes com a fragilidade de normas de controle interno e com as normas emanadas dos órgãos externos regulatórios. O trabalho acadêmico, um estudo exploratório, teve como ponto de partida uma pesquisa bibliográfica de livros e artigos técnicos versando sobre Governança Corporativa com foco na gestão de riscos. A pesquisa foi feita através da leitura dos relatórios de administração das empresas selecionadas e a aplicabilidade das normas da Lei Sarbanes Oxley. Como conclusão foi possível confirmar com razoável certeza que as grandes perdas, que levaram empresas internacionais a quebra, ocorreram pela falta de uma eficaz gestão de risco ou por um deficiente sistema de controle interno associada a falta de ações preventivas. Por outro lado, apesar dos esforços das empresas brasileiras em se adequar às novas exigências para poder atuar no mercado financeiro do Brasil e dos Estados Unidos da América, parte das empresas pesquisadas ainda se encontra em fase de implementação dos Comitês de Auditoria, de Normas e Procedimentos de Controle Interno e das demais práticas de Gestão Corporativa. Novas pesquisas sobre o tema central deste estudo poderão ensejar no aprofundamento da questão da relação custo x benefício da implantação das práticas de Governança Corporativa e na questão da eficácia dos sistemas corporativos de gerenciamento e controle considerando os custos incorridos em sua implantação e manutenção e os benefícios obtidos. Propõe-se ainda um estudo que busque a revisão das responsabilidades das autoridades reguladoras no que tange ao controle ante e pós-fato. Um dilema a ser resolvido e que deve instigar futuros pesquisadores.(AU)
Resumo:
The role of the abundant stress protein Hsp90 in protecting cells against stress-induced damage is not well understood. The recent discovery that a class of ansamycin antibiotics bind specifically to Hsp90 allowed us to address this problem from a new angle. We find that mammalian Hsp90, in cooperation with Hsp70, p60, and other factors, mediates the ATP-dependent refolding of heat-denatured proteins, such as firefly luciferase. Failure to refold results in proteolysis. The ansamycins inhibit refolding, both in vivo and in a cell extract, by preventing normal dissociation of Hsp90 from luciferase, causing its enhanced degradation. This mechanism also explains the ansamycin-induced proteolysis of several protooncogenic protein kinases, such as Raf-1, which interact with Hsp90. We propose that Hsp90 is part of a quality control system that facilitates protein refolding or degradation during recovery from stress. This function is used by a limited set of signal transduction molecules for their folding and regulation under nonstress conditions. The ansamycins shift the mode of Hsp90 from refolding to degradation, and this effect is probably amplified for specific Hsp90 substrates.
Resumo:
Most mammalian cells exhibit transient delays in the G1 and G2 phases of the cell cycle after treatment with radiation or radiomimetic compounds. p53 is required for the arrest in G1, which provides time for DNA repair. Recently, a role of p53 in the G2/M transition has also been suggested. However, it has been reported that the presence of functional p53 does not always correlate with the induction of these checkpoints. To precisely assess the role of p53 in activating cell cycle checkpoints and in cell survival after radiation, we studied the response of two isogenic human fibrosarcoma cell lines differing in their p53 status (wild type or mutant). We found that when irradiated cells undergo a wild-type p53-dependent G1 arrest, they do not subsequently arrest in G2. Moreover, wild-type p53 cells irradiated past the G1 checkpoint arrest in G2 but do not delay in the subsequent G1 phase. Furthermore, in these cell lines, which do not undergo radiation-induced apoptosis, the wild-type p53 cell line exhibited a greater radioresistance in terms of clonogenic survival. These results suggest that the two checkpoints may be interrelated, perhaps through a control system that determines, depending on the extent of the damage, whether the cell needs to arrest cell cycle progression at the subsequent checkpoint for further repair. p53 could be a crucial component of this control system.
Resumo:
Nel sesso maschile il carcinoma della prostata (CaP) è la neoplasia più frequente ed è tra le prime cause di morte per tumore. Ad oggi, sono disponibili diverse strategie terapeutiche per il trattamento del CaP, ma, come comprovato dall’ancora alta mortalità, spesso queste sono inefficaci, a causa soprattutto dello sviluppo di fenomeni di resistenza da parte delle cellule tumorali. La ricerca si sta quindi focalizzando sulla caratterizzazione di tali meccanismi di resistenza e, allo stesso tempo, sull’individuazione di combinazioni terapeutiche che siano più efficaci e capaci di superare queste resistenze. Le cellule tumorali sono fortemente dipendenti dai meccanismi connessi con l’omeostasi proteica (proteostasi), in quanto sono sottoposte a numerosi stress ambientali (ipossia, carenza di nutrienti, esposizione a chemioterapici, ecc.) e ad un’aumentata attività trascrizionale, entrambi fattori che causano un accumulo intracellulare di proteine anomale e/o mal ripiegate, le quali possono risultare dannose per la cellula e vanno quindi riparate o eliminate efficientemente. La cellula ha sviluppato diversi sistemi di controllo di qualità delle proteine, tra cui gli chaperon molecolari, il sistema di degradazione associato al reticolo endoplasmatico (ERAD), il sistema di risposta alle proteine non ripiegate (UPR) e i sistemi di degradazione come il proteasoma e l’autofagia. Uno dei possibili bersagli in cellule tumorali secretorie, come quelle del CaP, è rappresentato dal reticolo endoplasmatico (RE), organello intracellulare deputato alla sintesi, al ripiegamento e alle modificazioni post-traduzionali delle proteine di membrana e secrete. Alterazioni della protestasi a livello del RE inducono l’UPR, che svolge una duplice funzione nella cellula: primariamente funge da meccanismo omeostatico e di sopravvivenza, ma, quando l’omeostasi non è più ripristinabile e lo stimolo di attivazione dell’UPR cronicizza, può attivare vie di segnalazione che conducono alla morte cellulare programmata. La bivalenza, tipica dell’UPR, lo rende un bersaglio particolarmente interessante per promuovere la morte delle cellule tumorali: si può, infatti, sfruttare da una parte l’inibizione di componenti dell’UPR per abrogare i meccanismi adattativi e di sopravvivenza e dall’altra si può favorire il sovraccarico dell’UPR con conseguente induzione della via pro-apoptotica. Le catechine del tè verde sono composti polifenolici estratti dalle foglie di Camellia sinesis che possiedono comprovati effetti antitumorali: inibiscono la proliferazione, inducono la morte di cellule neoplastiche e riducono l’angiogenesi, l’invasione e la metastatizzazione di diversi tipi tumorali, tra cui il CaP. Diversi studi hanno osservato come il RE sia uno dei bersagli molecolari delle catechine del tè verde. In particolare, recenti studi del nostro gruppo di ricerca hanno messo in evidenza come il Polyphenon E (estratto standardizzato di catechine del tè verde) sia in grado, in modelli animali di CaP, di causare un’alterazione strutturale del RE e del Golgi, un deficit del processamento delle proteine secretorie e la conseguente induzione di uno stato di stress del RE, il quale causa a sua volta l’attivazione delle vie di segnalazione dell’UPR. Nel presente studio su due diverse linee cellulari di CaP (LNCaP e DU145) e in un nostro precedente studio su altre due linee cellulari (PNT1a e PC3) è stato confermato che il Polyphenon E è capace di indurre lo stress del RE e di determinare l’attivazione delle vie di segnalazione dell’UPR, le quali possono fungere da meccanismo di sopravvivenza, ma anche contribuire a favorire la morte cellulare indotta dalle catechine del tè verde (come nel caso delle PC3). Considerati questi effetti delle catechine del tè verde in qualità di induttori dell’UPR, abbiamo ipotizzato che la combinazione di questi polifenoli bioattivi e degli inibitori del proteasoma, anch’essi noti attivatori dell’UPR, potesse comportare un aggravamento dell’UPR stesso tale da innescare meccanismi molecolari di morte cellulare programmata. Abbiamo quindi studiato l’effetto di tale combinazione in cellule PC3 trattate con epigallocatechina-3-gallato (EGCG, la principale tra le catechine del tè verde) e due diversi inibitori del proteasoma, il bortezomib (BZM) e l’MG132. I risultati hanno dimostrato, diversamente da quanto ipotizzato, che l’EGCG quando associato agli inibitori del proteasoma non produce effetti sinergici, ma che anzi, quando viene addizionato al BZM, causa una risposta simil-antagonistica: si osserva infatti una riduzione della citotossicità e dell’effetto inibitorio sul proteasoma (accumulo di proteine poliubiquitinate) indotti dal BZM, inoltre anche l’induzione dell’UPR (aumento di GRP78, p-eIF2α, CHOP) risulta ridotta nelle cellule trattate con la combinazione di EGCG e BZM rispetto alle cellule trattate col solo BZM. Gli stessi effetti non si osservano invece nelle cellule PC3 trattate con l’EGCG in associazione con l’MG132, dove non si registra alcuna variazione dei parametri di vitalità cellulare e dei marcatori di inibizione del proteasoma e di UPR (rispetto a quelli osservati nel singolo trattamento con MG132). Essendo l’autofagia un meccanismo compensativo che si attiva in seguito all’inibizione del proteasoma o allo stress del RE, abbiamo valutato che ruolo potesse avere tale meccanismo nella risposta simil-antagonistica osservata in seguito al co-trattamento con EGCG e BZM. I nostri risultati hanno evidenziato, in cellule trattate con BZM, l’attivazione di un flusso autofagico che si intensifica quando viene addizionato l’EGCG. Tramite l’inibizione dell’autofagia mediante co-somministrazione di clorochina, è stato possibile stabilire che l’autofagia indotta dall’EGCG favorisce la sopravvivenza delle cellule sottoposte al trattamento combinato tramite la riduzione dell’UPR. Queste evidenze ci portano a concludere che per il trattamento del CaP è sconsigliabile associare le catechine del tè verde con il BZM e che in futuri studi di combinazione di questi polifenoli con composti antitumorali sarà importante valutare il ruolo dell’autofagia come possibile meccanismo di resistenza.
Resumo:
Os controladores eletrônicos de pulverização visam minimizar a variação das taxas de insumos aplicadas no campo. Eles fazem parte de um sistema de controle, e permitem a compensação da variação de velocidade de deslocamento do pulverizador durante a operação. Há vários tipos de controladores eletrônicos de pulverização disponíveis no mercado e uma das formas de selecionar qual o mais eficiente nas mesmas condições, ou seja, em um mesmo sistema de controle, é quantificar o tempo de resposta do sistema para cada controlador específico. O objetivo desse trabalho foi estimar os tempos de resposta para mudanças de velocidade de um sistema eletrônico de pulverização via modelos de regressão não lineares, estes, resultantes da soma de regressões lineares ponderadas por funções distribuição acumulada. Os dados foram obtidos no Laboratório de Tecnologia de Aplicação, localizado no Departamento de Engenharia de Biossistemas da Escola Superior de Agricultura \"Luiz de Queiroz\", Universidade de São Paulo, no município de Piracicaba, São Paulo, Brasil. Os modelos utilizados foram o logístico e de Gompertz, que resultam de uma soma ponderada de duas regressões lineares constantes com peso dado pela função distribuição acumulada logística e Gumbell, respectivamente. Reparametrizações foram propostas para inclusão do tempo de resposta do sistema de controle nos modelos, com o objetivo de melhorar a interpretação e inferência estatística dos mesmos. Foi proposto também um modelo de regressão não linear difásico que resulta da soma ponderada de regressões lineares constantes com peso dado pela função distribuição acumulada Cauchy seno hiperbólico exponencial. Um estudo de simulação foi feito, utilizando a metodologia de Monte Carlo, para avaliar as estimativas de máxima verossimilhança dos parâmetros do modelo.
Resumo:
Os smart grids representam a nova geração dos sistemas elétricos de potência, combinando avanços em computação, sistemas de comunicação, processos distribuídos e inteligência artificial para prover novas funcionalidades quanto ao acompanhamento em tempo real da demanda e do consumo de energia elétrica, gerenciamento em larga escala de geradores distribuídos, entre outras, a partir de um sistema de controle distribuído sobre a rede elétrica. Esta estrutura modifica profundamente a maneira como se realiza o planejamento e a operação de sistemas elétricos nos dias de hoje, em especial os de distribuição, e há interessantes possibilidades de pesquisa e desenvolvimento possibilitada pela busca da implementação destas funcionalidades. Com esse cenário em vista, o presente trabalho utiliza uma abordagem baseada no uso de sistemas multiagentes para simular esse tipo de sistema de distribuição de energia elétrica, considerando opções de controle distintas. A utilização da tecnologia de sistemas multiagentes para a simulação é baseada na conceituação de smart grids como um sistema distribuído, algo também realizado nesse trabalho. Para validar a proposta, foram simuladas três funcionalidades esperadas dessas redes elétricas: classificação de cargas não-lineares; gerenciamento de perfil de tensão; e reconfiguração topológica com a finalidade de reduzir as perdas elétricas. Todas as modelagens e desenvolvimentos destes estudos estão aqui relatados. Por fim, o trabalho se propõe a identificar os sistemas multiagentes como uma tecnologia a ser empregada tanto para a pesquisa, quanto para implementação dessas redes elétricas.
Unidade microcontroladora para gerenciamento eletrônico de um motor de combustão interna ciclo Otto.
Resumo:
Nas últimas décadas, a indústria automobilística mundial vem investindo no desenvolvimento tecnológico dos motores, com o objetivo de alcançar melhor eficiência energética e atender às legislações que limitam a quantidade de resíduos tóxicos nos gases de exaustão e menor consumo de combustível. Isso resultou na implantação dos sistemas de gerenciamento eletrônico do motor, que possibilitam funcionalidades para se controlar diversas variáveis do motor, aumentando consideravelmente o rendimento do motor. Este trabalho tem como objetivos explorar a dinâmica de um motor de combustão interna ciclo Otto, os sinais elétricos associados, e os componentes de seu gerenciamento eletrônico. A partir dessas informações, o trabalho apresenta o processo de analise dos sinais elétricos e as estratégias de controle utilizadas em um sistema de gerenciamento real. Assim, são desenvolvidos o hardware e o firmware de uma unidade microcontroladora para gerenciamento eletrônico do motor. O hardware foi elaborado com uma concepção centralizada, ou seja, foi usado apenas um microcontrolador de 32-bit para gerenciar todas as funções. O firmware de controle foi desenvolvido de forma modular baseado em modelos de malha fechada. O modelo matemático do motor foi identificado utilizando técnicas de controle em um veículo real, e a avalidação do modelo foi obtida através de testes em um dinamômetro inercial.
Resumo:
Considerando que o petróleo quando extraído dos poços em águas profundas chega a ter teor de água superior a 50% e que antes de ser enviado à refinaria deve ter uma quantidade de água inferior a 1%, torna-se necessário o uso de técnicas de redução da quantidade de água. Durante a extração do petróleo formam-se emulsões de água em óleo que são muito estáveis devido a um filme interfacial contendo asfaltenos e/ou resinas ao redor das gotas de água. Nesse trabalho é apresentada a utilização de ondas estacionárias de ultrassom para realizar a quebra dessas emulsões. Quando gotículas de água com dimensões da ordem de 10m, muito menores que o comprimento de onda, são submetidas a um campo acústico estacionário em óleo, a força de radiação acústica empurra as gotículas para os nós de pressão da onda. Uma célula de coalescência com frequência central ao redor de 1 MHz, constituída por quatro camadas sendo uma piezelétrica, uma de acoplamento sólido, uma com o líquido e outra refletora, foi modelada empregando o método da matriz de transferência, que permite calcular a impedância elétrica em função da frequência. Para minimizar o efeito do gradiente de temperatura entre a entrada e a saída da cavidade da célula, quando está em operação, foram utilizados dois transdutores piezelétricos posicionados transversalmente ao fluxo que são excitados e controlados independentemente. Foi implementado um controlador digital para ajustar a frequência e a potência de cada transdutor. O controlador tem como entrada o módulo e a fase da corrente elétrica no transdutor e como saída a amplitude da tensão elétrica e a frequência. Para as células desenvolvidas, o algoritmo de controle segue um determinado pico de ressonância no interior da cavidade da célula no intervalo de frequência de 1,09 a 1,15 MHz. A separação acústica de emulsões de água em óleo foi realizada em uma planta de laboratório de processamento de petróleo no CENPES/PETROBRAS. Foram testados a variação da quantidade de desemulsificante, o teor inicial de água na emulsão e a influência da vazão do sistema, com uma potência de 80 W. O teor final de água na emulsão mostrou que a aplicação de ultrassom aumentou a coalescência de água da emulsão, em todas as condições testadas, quando comparada a um teste sem aplicação de ultrassom. Identificou-se o tempo de residência no interior da célula de separação como um fator importante no processo de coalescência de emulsões de água e óleo. O uso de desemulsificante químico é necessário para realizar a separação, porém, em quantidades elevadas implicaria no uso de processos adicionais antes do repasse final do petróleo à refinaria. Os teores iniciais de água na emulsão de 30 e 50% indicam que o uso da onda estacionária na coalescência de emulsões não tem limitação quanto a esse parâmetro. De acordo com os resultados obtidos em laboratório, essa técnica seria indicada como uma alternativa para integrar um sistema de processamento primário em conjunto com um separador eletrostático.