943 resultados para diagnostica energetica, diagnostica strutturale, prove non distruttive, edifici storici
Resumo:
La aplicación de las estrategias que promuevan la eficiencia energética y la sostenibilidad en el sector de la construcción es una tarea de fundamental importancia que estamos llamados a llevar a cabo como ciudadanos, profesionales e investigadores. Esta tesis doctoral se enmarca dentro de los trabajos de investigación llevados a cabo en los últimos años que, en la línea más general de analizar sistemas a la vez energéticamente eficientes y beneficiosos para la mejora del confort de los usuarios, se han centrado en la caracterización de los efectos sobre edificios y medioambiente derivados de la aplicación de fachadas vegetales en el ámbito arquitectónico. La investigación parte del análisis del papel que las envolventes vegetales han tenido en relación a la arquitectura a lo largo de la Historia, para luego examinar su papel actual que, más allá de su reconocido valor estético, cada vez más cobra una función arquitectónica propia. Prueba de ello es la creciente integración de las superficies vegetales experimentada en los últimos años tanto en entornos arquitectónicos como urbanos; reflejo, a su vez, del desarrollo gradual de nuevas investigaciones sobre fachadas vegetales y de la difusión de diferentes sistemas en el mercado. Tras realizar un análisis detallado de los resultados obtenidos hasta el momento en el campo de la investigación y una vez detectadas sus carencias, se procede a plantear el objetivo general de esta tesis: analizar el comportamiento térmico de una solución constructiva que incorpore un elemento vegetal, a través de la monitorización de un prototipo experimental a escala real, así como, generar una herramienta flexible que permita predecir el comportamiento térmico de determinados tipos de fachadas vegetales, posibilitando su utilización en contextos diferentes al de estudio. Con el fin de elegir el sistema de fachada vegetal más adecuado para el estudio experimental, se realizan un análisis y una catalogación de los sistemas de fachadas vegetales existentes en el mercado. Para cada sistema, se destacan las principales características, las ventajas y los inconvenientes. Para evaluar la aplicabilidad del sistema a gran escala, se fijan unos criterios de selección basados en el grado de industrialización, la eficiencia energética y la sostenibilidad. Finalmente, se elige el sistema más adecuado para el estudio experimental: sistema con elementos modulares industrializados prevegetados compuestos por cajas contenedoras de sustrato y vegetación perenne. Como siguiente paso, se procede al diseño del experimento y se da comienzo a la fase experimental que comprende más de tres años, distinguiéndose dos etapas. En ambas, la experimentación se basa en la comparación de dos cerramientos idénticos cuya única diferencia está constituida por una capa de vegetación existente en uno de ellos. En una primera etapa, a través de un tratamiento estadístico de los datos, se analiza el comportamiento energético de un cerramiento sin aislante con el objetivo de caracterizar térmicamente el elemento vegetal (sustrato más vegetación), eliminado las variables relativas a la composición del cerramiento. En una segunda etapa, se monitoriza un cerramiento con aislante con el fin de verificar la efectividad energética del sistema vegetal en cerramientos aislados. Tras corroborar la eficacia energética de dicho sistema, incluso en cerramientos aislados, se concluye el trabajo con el desarrollo de un modelo de predicción del comportamiento térmico de determinados tipos de fachadas vegetales. El modelo, de rápida y sencilla utilización, permite estimar el comportamiento térmico de una fachada vegetal en función de la temperatura exterior, la humedad relativa del aire en el exterior y la irradiancia global. Dicho modelo, desarrollado a partir de los datos tomados durante la monitorización, ha sido validado experimentalmente mostrando un elevado grado de fiabilidad. ABSTRACT Mettere in atto strategie di promozione dell'e_cienza energetica e della sostenibilità nel settore delle costruzioni è un compito di fondamentale importanza che siamo chiamati a svolgere, come cittadini, professionisti e ricercatori. Questa tesi si colloca all'interno delle ricerche che, nella linea generale di sviluppo di sistemi che siano sia effcienti dal punto di vista energetico sia vantaggiosi dal punto di vista del miglioramento del comfort degli utenti, negli ultimi anni si sono occupate di indagare gli effetti sulle costruzioni e sull'ambiente derivati dall'applicazione di facciate verdi negli edifici. La ricerca si sviluppa partendo dall'analisi del ruolo che coperture e facciate verdi hanno avuto nel corso della storia dell'Architettura per poi giungere ad esaminare il loro ruolo nell'attualit_a: oltre a un roconosciuto valore estetico in maniera crescente queste tecnologie sono chiamate a svolgere una funzione architettonica propria. Ciò è dimostrato dalla crescente integrazione di superfici verdi sia a livello architettonico sia a livello urbano registrata negli ultimi anni, che è a sua volta conseguenza del graduale sviluppo di nuove ricerche sulle facciate verdi e della diffusione nel mercato di differenti sistemi. Dopo aver realizzato un'analisi dettagliata dei risultati ottenuti finora nel campo della ricerca e una volta individuate le loro carenze, si procede a fissare l'obiettivo generale di questa tesi: analizzare il comportamento termico di una soluzione costruttiva che incorpora un elemento di vegetale attraverso il monitoraggio di un prototipo sperimentale in scala reale, così come generare uno strumento essibile che consenta di prevedere il comportamento termico di alcuni tipi di facciate verdi, possibilitando il suo uso in contesti diversi da quello studiato. Al fine di scegliere il sistema di facciata verde pi_u adatto allo studio sperimentale, si effettua un'analisi e una catalogazione dei sistemi attualmente esistenti nel mercato. Per ogni sistema si mettono in evidenza le sue principali caratteristiche, i vantaggi e gli svantaggi, e si fissano criteri di selezione basati sul livello di industrializzazione del sistema, sulla sua efficienza energetica e sulla sostenibilità, con il fine ultimo di promuovere l'applicabilità del sistema a larga scala. Infine, si sceglie il sistema più adeguato per lo studio sperimentale: il sistema industrializzato modulare composto da pannelli prevegetati con substrato e vegetazione perenne. Come passo successivo, si procede allo sviluppo dell'esperimento e si dà inizio alla sperimentazione, composta da due fasi, che si sviluppa durante più di tre anni. In entrambe le fasi, la sperimentazione si basa sul confronto di due serramenti identici la cui unica differenza è costituita dallo strato di vegetazione presente in uno di essi. Nella prima fase, attraverso un trattamento statistico dei dati, si analizza il comportamento energetico di un involucro non isolato per caratterizzare termicamente l'elemento vegetale (vegetazione più substrato), eliminando le variabili relative alla composizione del serramento. Nella seconda fase, si studia un involucro isolato con il fine di verificare l'efficacia energetica del sistema verde in serramenti isolati. Dopo aver dimostrato che il sistema è effciente anche quando applicato in involucri isolati, il lavoro si conclude con lo sviluppo di un modello predittivo del comportamento termico di alcuni tipi di facciate verdi. Il modello, veloce e di semplice utilizzo, permette la stima del comportamento termico di una facciata verde conoscendo la temperatura esterna, l'umidità relativa esterna e l'irradianza globale. Questo modello, sviluppato a partire da dati di monitoraggio, è stato validato sperimentalmente mostrando un elevato grado di precisione.
Resumo:
In this paper, we investigate effect algebras and base normed spaces from the categorical point of view. We prove that the category of effect algebras is complete and cocomplete as well as the category of base normed spaces is complete, and discuss the contravariant functor from the category of effect algebras to the category of base normed spaces.
Resumo:
El estudio sísmico en los últimos 50 años y el análisis del comportamiento dinámico del suelo revelan que el comportamiento del suelo es altamente no lineal e histéretico incluso para pequeñas deformaciones. El comportamiento no lineal del suelo durante un evento sísmico tiene un papel predominante en el análisis de la respuesta de sitio. Los análisis unidimensionales de la respuesta sísmica del suelo son a menudo realizados utilizando procedimientos lineales equivalentes, que requieren generalmente pocos parámetros conocidos. Los análisis de respuesta de sitio no lineal tienen el potencial para simular con mayor precisión el comportamiento del suelo, pero su aplicación en la práctica se ha visto limitada debido a la selección de parámetros poco documentadas y poco claras, así como una inadecuada documentación de los beneficios del modelado no lineal en relación al modelado lineal equivalente. En el análisis del suelo, el comportamiento del suelo es aproximado como un sólido Kelvin-Voigt con un módulo de corte elástico y amortiguamiento viscoso. En el análisis lineal y no lineal del suelo se están considerando geometrías y modelos reológicos más complejos. El primero está siendo dirigido por considerar parametrizaciones más ricas del comportamiento linealizado y el segundo mediante el uso de multi-modo de los elementos de resorte-amortiguador con un eventual amortiguador fraccional. El uso del cálculo fraccional está motivado en gran parte por el hecho de que se requieren menos parámetros para lograr la aproximación exacta a los datos experimentales. Basándose en el modelo de Kelvin-Voigt, la viscoelasticidad es revisada desde su formulación más estándar a algunas descripciones más avanzada que implica la amortiguación dependiente de la frecuencia (o viscosidad), analizando los efectos de considerar derivados fraccionarios para representar esas contribuciones viscosas. Vamos a demostrar que tal elección se traduce en modelos más ricos que pueden adaptarse a diferentes limitaciones relacionadas con la potencia disipada, amplitud de la respuesta y el ángulo de fase. Por otra parte, el uso de derivados fraccionarios permite acomodar en paralelo, dentro de un análogo de Kelvin-Voigt generalizado, muchos amortiguadores que contribuyen a aumentar la flexibilidad del modelado para la descripción de los resultados experimentales. Obviamente estos modelos ricos implican muchos parámetros, los asociados con el comportamiento y los relacionados con los derivados fraccionarios. El análisis paramétrico de estos modelos requiere técnicas numéricas eficientemente capaces de simular comportamientos complejos. El método de la Descomposición Propia Generalizada (PGD) es el candidato perfecto para la construcción de este tipo de soluciones paramétricas. Podemos calcular off-line la solución paramétrica para el depósito de suelo, para todos los parámetros del modelo, tan pronto como tales soluciones paramétricas están disponibles, el problema puede ser resuelto en tiempo real, porque no se necesita ningún nuevo cálculo, el solucionador sólo necesita particularizar on-line la solución paramétrica calculada off-line, que aliviará significativamente el procedimiento de solución. En el marco de la PGD, parámetros de los materiales y los diferentes poderes de derivación podrían introducirse como extra-coordenadas en el procedimiento de solución. El cálculo fraccional y el nuevo método de reducción modelo llamado Descomposición Propia Generalizada han sido aplicado en esta tesis tanto al análisis lineal como al análisis no lineal de la respuesta del suelo utilizando un método lineal equivalente. ABSTRACT Studies of earthquakes over the last 50 years and the examination of dynamic soil behavior reveal that soil behavior is highly nonlinear and hysteretic even at small strains. Nonlinear behavior of soils during a seismic event has a predominant role in current site response analysis. One-dimensional seismic ground response analysis are often performed using equivalent-linear procedures, which require few, generally well-known parameters. Nonlinear analyses have the potential to more accurately simulate soil behavior, but their implementation in practice has been limited because of poorly documented and unclear parameter selection, as well as inadequate documentation of the benefits of nonlinear modeling relative to equivalent linear modeling. In soil analysis, soil behaviour is approximated as a Kelvin-Voigt solid with a elastic shear modulus and viscous damping. In linear and nonlinear analysis more complex geometries and more complex rheological models are being considered. The first is being addressed by considering richer parametrizations of the linearized behavior and the second by using multi-mode spring-dashpot elements with eventual fractional damping. The use of fractional calculus is motivated in large part by the fact that fewer parameters are required to achieve accurate approximation of experimental data. Based in Kelvin-Voigt model the viscoelastodynamics is revisited from its most standard formulation to some more advanced description involving frequency-dependent damping (or viscosity), analyzing the effects of considering fractional derivatives for representing such viscous contributions. We will prove that such a choice results in richer models that can accommodate different constraints related to the dissipated power, response amplitude and phase angle. Moreover, the use of fractional derivatives allows to accommodate in parallel, within a generalized Kelvin-Voigt analog, many dashpots that contribute to increase the modeling flexibility for describing experimental findings. Obviously these rich models involve many parameters, the ones associated with the behavior and the ones related to the fractional derivatives. The parametric analysis of all these models require efficient numerical techniques able to simulate complex behaviors. The Proper Generalized Decomposition (PGD) is the perfect candidate for producing such kind of parametric solutions. We can compute off-line the parametric solution for the soil deposit, for all parameter of the model, as soon as such parametric solutions are available, the problem can be solved in real time because no new calculation is needed, the solver only needs particularize on-line the parametric solution calculated off-line, which will alleviate significantly the solution procedure. Within the PGD framework material parameters and the different derivation powers could be introduced as extra-coordinates in the solution procedure. Fractional calculus and the new model reduction method called Proper Generalized Decomposition has been applied in this thesis to the linear analysis and nonlinear soil response analysis using a equivalent linear method.
Resumo:
El objetivo de esta tesis es poner de relieve cómo el desarrollo del cálculo de estructuras ha influido en la manera de concebir la forma arquitectónica y qué relaciones se establecen entre estructura (formal) y estructura resistente. Este modo de explicar el hecho arquitectónico, desde la relación arte-estructura, no es el más generalizado. Por lo que profundizar en él podría llegar a enriquecer la manera en la que se comprende la arquitectura. Por tanto, se parte de la base de que la técnica no es sólo un instrumento, un medio del que disponer, sino que es un proceso mediante el cual la abstracción se hace tangible. Con lo que se produce una retroalimentación entre lo universal, es decir, lo abstracto, y lo concreto, o sea, lo real. Además, esta investigación se centra en la estructura resistente, en tanto que se trata del único principio sine qua non de la tríada vitruviana. Sin embargo, no se incurre en el error de pensar que la arquitectura depende únicamente de la tecnología para su desarrollo; hay muchos más condicionantes que intervienen en ella, que van desde la expresión, hasta cuestiones sociológicas. La manera en la que los proyectistas diseñan se desarrolla en paralelo a la evolución de la técnica. Ahora bien, la meta de esta investigación consiste en dilucidar hasta qué punto la voluntad de los arquitectos e ingenieros es independiente de la tecnología. Para ello, se lleva a cabo un análisis desde dos puntos de vista. El primero plantea un desarrollo histórico de la evolución de la teoría del cálculo de estructuras en el que, a través del tiempo, se analizan las repercusiones formales que se han ido derivando de él, tanto en ingeniería, como en arquitectura. Se pretende, así, llevar a cabo una lectura de la historia para entender el presente y proyectar el futuro. La segunda visión que se plantea estudia el modo en el que los historiadores de la arquitectura moderna han entendido la noción de estructura resistente. Dado que se entiende que los críticos de arquitectura inf uyen en la manera de pensar y entender dicha disciplina. Para desarrollarla se tomó como referencia a Panayotis Tournikiotis y su libro La historiografía de la arquitectura moderna. Finalmente, se elabora una lectura transversal de ambos puntos de vista, con la intención de discernir la influencia de la técnica en la génesis de la arquitectura en el siglo XX. En ella se estudian algunos de los ejemplos más importantes de la arquitectura moderna, así como se intentan esclarecer las distintas maneras de proyectar en relación a la estructura resistente. A partir de todo lo anterior se pretende responder a la siguiente pregunta: ¿la manera en que los proyectistas plantean la relación entre estructura (formal) y estructura resistente ha sido la misma a lo largo de la Historia? Podría decirse que no. Dicha relación ha evolucionado desde el empirismo a la invención, pasando por la ciencia. En cada una de esas etapas el entendimiento, no sólo del comportamiento estructural de las construcciones, sino también del Imago Mundi, ha ido variando; lo que se ha plasmado en la relación entre estructura (formal) y estructura resistente en los edificios. RECENSIONE L’obiettivo della presente tesi è mettere in evidenza come lo sviluppo del calcolo strutturale ha inf uenzato il modo di concepire la forma architettonica e, che relazioni si stabiliscono tra struttura (formale) e struttura resistente. Questo modo di spiegare la questione architettonica, partendo dalla relazione arte-struttura, non è il più comune. Quindi, approfondire la ricerca su questo aspetto potrebbe arrivare ad arricchire la maniera in cui si capisce l’architettura. Per tanto, si parte da un principio di base ovvero che la tecnica non è soltanto uno strumento, un medio di cui disporre, ma che è un processo mediante il quale l’astrazione si fa tangibile. Con cui si produce una retroalimentazione tra l’universale, cioè, l’astratto e il concreto, ossia, il reale. Inoltre, questa ricerca si centra nella struttura resistente, in quanto si tratta dell’unico principio sine qua non della triade vitruviana. Eppure, non s’incorre nell’errore di pensare che l’architettura dipenda unicamente della tecnologia per il suo sviluppo; ci sono molti altri condizionanti che intervengono in essa, che vanno dalla espressione f no a questioni sociologiche. La maniera in cui i progettisti disegnano si sviluppa in parallelo alla evoluzione della tecnica. Tuttavia, l’obbiettivo della ricerca consiste nel cercare di chiarire f no che punto la volontà progettuale e ideativa degli architetti e degli ingegneri è indipendente della tecnologia. Per questo, si realizza un’analisi da due punti di vista. Il primo ipotizza uno sviluppo storico dell’evoluzione della teoria del calcolo strutturale in cui, attraverso del tempo, si analizzano le ripercussioni formali che si sono derivate da questo, sia in ingegneria sia in architettura. Si pretende così, realizzare una lettura della storia per capire il presente e progettare il futuro. La seconda visione che s’ ipotizza, studia il modo in cui gli storici dell’architettura moderna hanno capito la nozione di struttura resistente. Poiché si capisce che i critici di architettura inf uiscono nella maniera di pensare e capire questa disciplina. Per svilupparla si prese come riferimento Panayotis Tournikiotis e il suo libro La storiograf a dell’architettura moderna. Finalmente, si elabora una lettura trasversale di ambedue punti di vista, con l’intenzione di discernere l’inf uenza della tecnica nella genesi dell’architettura nel XX secolo. In questa si studiano alcuni degli esempi più importanti dell’architettura moderna, così come si tentano chiarif care le diverse maniere di progettare in relazione alla struttura resistente. Oltretutto quello precedente, si pretende rispondere alla seguente domanda: La maniera in cui i progettisti ipotizzano la relazione tra struttura (formale) e struttura resistente è stata la stessa lungo la storia? Potrebbe dirsi di no. Essa relazione si è evoluta dall’empirismo all’invenzione, passando per la scienza. In ogni una di queste tappe si cerca di comprendere, non soltanto il comportamento strutturale delle costruzioni, ma anche l’aspetto del Imago Mundi. Ció che é cambiato è la coesistenza tra struttura (formale) e struttura resistente negli edifici. ABSTRACT T e objective of this thesis is to highlight how the development of structural analysis has influenced the way of conceiving architectural form and what relationship exists between (formal) structure and resistant structure. T is way of explaining architecture, from the relationship between art and structure, is not the most generalized, which is why increasing our understanding of it can enrich the way in which architecture is understood. Therefore, the basis is that technique is not only an instrument, a medium to have, but rather a process through which abstraction becomes tangible. Because of this, a type of feedback is produced between what is universal, in other words, abstract, and concrete, real. Additionally, this research focuses on resistant structure in that it refers to the unique principal sine qua non of the Vitruvian triad. However, it does not err by accepting the idea that architecture depends only on technology for its development; there are many conditioners which intervene which include everything from expression to sociological issues. T e way in which builders design is developed parallel to the evolution of technique. T e goal of this investigation consists of explaining to what point the will of architects and engineers is independent from technology. For this, an analysis of two points of view is helpful. T e f rst proposes a historical development of the theory of structures in which, through time, formal repercussions that have derived from it, in engineering as well as in architecture, are analyzed. In this way, a historical reading is attempted in order to understand the present and predict the future. T e second vision that is proposed studies the manner in which historians of modern architecture have understood the notion of resistant structure, given that it is understood that the critics of architecture inf uence the way of thinking about and understanding this discipline. In order to develop it, Panayotis Tournikiotis and his book La historiografía de la arquitectura moderna was used as a reference. Finally, a transversal reading of both points of view is done with the intention of discerning the influence of technique in the genesis of architecture in the 20th century. In this reading, several of the most important examples of modern architecture are studied and an attempt is made at shedding light on the different ways of designing in relation to resistant structure. Using the previous discussion, one can attempt to respond to the following question: Has the way in which designers conceive the relationship between (formal) structure and resistant structure been the same throughout history? In fact, the answer is no, this relationship has evolved from empiricism into invention, while incorporating scientific elements. At each of the stages of understanding, structural behavior of constructions as well as that of the Imago Mundi has continually changed, which has been captured in the relationship between (formal) structure and resistant structure in buildings.
Resumo:
Nel sesso maschile il carcinoma della prostata (CaP) è la neoplasia più frequente ed è tra le prime cause di morte per tumore. Ad oggi, sono disponibili diverse strategie terapeutiche per il trattamento del CaP, ma, come comprovato dall’ancora alta mortalità, spesso queste sono inefficaci, a causa soprattutto dello sviluppo di fenomeni di resistenza da parte delle cellule tumorali. La ricerca si sta quindi focalizzando sulla caratterizzazione di tali meccanismi di resistenza e, allo stesso tempo, sull’individuazione di combinazioni terapeutiche che siano più efficaci e capaci di superare queste resistenze. Le cellule tumorali sono fortemente dipendenti dai meccanismi connessi con l’omeostasi proteica (proteostasi), in quanto sono sottoposte a numerosi stress ambientali (ipossia, carenza di nutrienti, esposizione a chemioterapici, ecc.) e ad un’aumentata attività trascrizionale, entrambi fattori che causano un accumulo intracellulare di proteine anomale e/o mal ripiegate, le quali possono risultare dannose per la cellula e vanno quindi riparate o eliminate efficientemente. La cellula ha sviluppato diversi sistemi di controllo di qualità delle proteine, tra cui gli chaperon molecolari, il sistema di degradazione associato al reticolo endoplasmatico (ERAD), il sistema di risposta alle proteine non ripiegate (UPR) e i sistemi di degradazione come il proteasoma e l’autofagia. Uno dei possibili bersagli in cellule tumorali secretorie, come quelle del CaP, è rappresentato dal reticolo endoplasmatico (RE), organello intracellulare deputato alla sintesi, al ripiegamento e alle modificazioni post-traduzionali delle proteine di membrana e secrete. Alterazioni della protestasi a livello del RE inducono l’UPR, che svolge una duplice funzione nella cellula: primariamente funge da meccanismo omeostatico e di sopravvivenza, ma, quando l’omeostasi non è più ripristinabile e lo stimolo di attivazione dell’UPR cronicizza, può attivare vie di segnalazione che conducono alla morte cellulare programmata. La bivalenza, tipica dell’UPR, lo rende un bersaglio particolarmente interessante per promuovere la morte delle cellule tumorali: si può, infatti, sfruttare da una parte l’inibizione di componenti dell’UPR per abrogare i meccanismi adattativi e di sopravvivenza e dall’altra si può favorire il sovraccarico dell’UPR con conseguente induzione della via pro-apoptotica. Le catechine del tè verde sono composti polifenolici estratti dalle foglie di Camellia sinesis che possiedono comprovati effetti antitumorali: inibiscono la proliferazione, inducono la morte di cellule neoplastiche e riducono l’angiogenesi, l’invasione e la metastatizzazione di diversi tipi tumorali, tra cui il CaP. Diversi studi hanno osservato come il RE sia uno dei bersagli molecolari delle catechine del tè verde. In particolare, recenti studi del nostro gruppo di ricerca hanno messo in evidenza come il Polyphenon E (estratto standardizzato di catechine del tè verde) sia in grado, in modelli animali di CaP, di causare un’alterazione strutturale del RE e del Golgi, un deficit del processamento delle proteine secretorie e la conseguente induzione di uno stato di stress del RE, il quale causa a sua volta l’attivazione delle vie di segnalazione dell’UPR. Nel presente studio su due diverse linee cellulari di CaP (LNCaP e DU145) e in un nostro precedente studio su altre due linee cellulari (PNT1a e PC3) è stato confermato che il Polyphenon E è capace di indurre lo stress del RE e di determinare l’attivazione delle vie di segnalazione dell’UPR, le quali possono fungere da meccanismo di sopravvivenza, ma anche contribuire a favorire la morte cellulare indotta dalle catechine del tè verde (come nel caso delle PC3). Considerati questi effetti delle catechine del tè verde in qualità di induttori dell’UPR, abbiamo ipotizzato che la combinazione di questi polifenoli bioattivi e degli inibitori del proteasoma, anch’essi noti attivatori dell’UPR, potesse comportare un aggravamento dell’UPR stesso tale da innescare meccanismi molecolari di morte cellulare programmata. Abbiamo quindi studiato l’effetto di tale combinazione in cellule PC3 trattate con epigallocatechina-3-gallato (EGCG, la principale tra le catechine del tè verde) e due diversi inibitori del proteasoma, il bortezomib (BZM) e l’MG132. I risultati hanno dimostrato, diversamente da quanto ipotizzato, che l’EGCG quando associato agli inibitori del proteasoma non produce effetti sinergici, ma che anzi, quando viene addizionato al BZM, causa una risposta simil-antagonistica: si osserva infatti una riduzione della citotossicità e dell’effetto inibitorio sul proteasoma (accumulo di proteine poliubiquitinate) indotti dal BZM, inoltre anche l’induzione dell’UPR (aumento di GRP78, p-eIF2α, CHOP) risulta ridotta nelle cellule trattate con la combinazione di EGCG e BZM rispetto alle cellule trattate col solo BZM. Gli stessi effetti non si osservano invece nelle cellule PC3 trattate con l’EGCG in associazione con l’MG132, dove non si registra alcuna variazione dei parametri di vitalità cellulare e dei marcatori di inibizione del proteasoma e di UPR (rispetto a quelli osservati nel singolo trattamento con MG132). Essendo l’autofagia un meccanismo compensativo che si attiva in seguito all’inibizione del proteasoma o allo stress del RE, abbiamo valutato che ruolo potesse avere tale meccanismo nella risposta simil-antagonistica osservata in seguito al co-trattamento con EGCG e BZM. I nostri risultati hanno evidenziato, in cellule trattate con BZM, l’attivazione di un flusso autofagico che si intensifica quando viene addizionato l’EGCG. Tramite l’inibizione dell’autofagia mediante co-somministrazione di clorochina, è stato possibile stabilire che l’autofagia indotta dall’EGCG favorisce la sopravvivenza delle cellule sottoposte al trattamento combinato tramite la riduzione dell’UPR. Queste evidenze ci portano a concludere che per il trattamento del CaP è sconsigliabile associare le catechine del tè verde con il BZM e che in futuri studi di combinazione di questi polifenoli con composti antitumorali sarà importante valutare il ruolo dell’autofagia come possibile meccanismo di resistenza.
Resumo:
L’utilizzo di nanomateriali, ovvero una nuova classe di sostanze composte da particelle ultrafini con dimensioni comprese fra 1 e 100 nm (American Society for Testing Materials - ASTM), è in costante aumento a livello globale. La particolarità di tali sostanze è rappresentata da un alto rapporto tra la superficie e il volume delle particelle, che determina caratteristiche chimico-fisiche completamente differenti rispetto alle omologhe macrosostanze di riferimento. Tali caratteristiche sono tali da imporre una loro classificazione come nuovi agenti chimici (Royal Society & Royal Academy of Engineering report 2004). Gli impieghi attuali dei nanomateriali risultano in continua evoluzione, spaziando in diversi ambiti, dall’industria farmaceutica e cosmetica, all’industria tessile, elettronica, aerospaziale ed informatica. Diversi sono anche gli impieghi in campo biomedico; tra questi la diagnostica e la farmacoterapia. È quindi prevedibile che in futuro una quota sempre maggiore di lavoratori e consumatori risulteranno esposti a tali sostanze. Allo stato attuale non vi è una completa conoscenza degli effetti tossicologici ed ambientali di queste sostanze, pertanto, al fine di un loro utilizzo in totale sicurezza, risulta necessario capirne meglio l’impatto sulla salute, le vie di penetrazione nel corpo umano e il rischio per i lavoratori conseguente al loro utilizzo o lavorazione. La cute rappresenta la prima barriera nei confronti delle sostanze tossiche che possono entrare in contatto con l’organismo umano. Successivamente agli anni ‘60, quando si riteneva che la cute rappresentasse una barriera totalmente impermeabile, è stato dimostrato come essa presenti differenti gradi di permeabilità nei confronti di alcuni xenobiotici, dipendente dalle caratteristiche delle sostanze in esame, dal sito anatomico di penetrazione, dal grado di integrità della barriera stessa e dall’eventuale presenza di patologie della cute. La mucosa del cavo orale funge da primo filtro nei confronti delle sostanze che entrano in contatto con il tratto digestivo e può venir coinvolta in contaminazioni di superficie determinate da esposizioni occupazionali e/o ambientali. È noto che, rispetto alla cute, presenti una permeabilità all’acqua quattro volte maggiore, e, per tale motivo, è stata studiata come via di somministrazione di farmaci, ma, ad oggi, pochi sono gli studi che ne hanno valutato le caratteristiche di permeazione nei confronti delle nanoparticelle (NPs). Una terza importante barriera biologica è quella che ricopre il sistema nervoso centrale, essa è rappresentata da tre foglietti di tessuto connettivo, che assieme costituiscono le meningi. Questi tre foglietti rivestono completamente l’encefalo permettendone un isolamento, tradizionalmente ritenuto completo, nei confronti degli xenobiotici. L’unica via di assorbimento diretto, in questo contesto, è rappresentata dalla via intranasale. Essa permette un passaggio diretto di sostanze dall’epitelio olfattivo all’encefalo, eludendo la selettiva barriera emato-encefalica. Negli ultimi anni la letteratura scientifica si è arricchita di studi che hanno indagato le caratteristiche di assorbimento di farmaci attraverso questa via, ma pochissimi sono gli studi che hanno indagato la possibile penetrazione di nanoparticelle attraverso questa via, e nessuno, in particolar modo, ha indagato le caratteristiche di permeazione delle meningi. L’attività di ricerca svolta nell’ambito del presente dottorato ha avuto per finalità l’indagine delle caratteristiche di permeabilità e di assorbimento della cute, della mucosa del cavo orale e delle meningi nei confronti di alcune nanoparticelle, scelte fra quelle più rappresentative in relazione alla diffusione d’utilizzo a livello globale. I risultati degli esperimenti condotti hanno dimostrato, in vitro, che l’esposizione cutanea a Pt, Rh, Co3O4 e Ni NPs determinano permeazione in tracce dei medesimi metalli attraverso la cute, mentre per le TiO2 NPs tale permeazione non è stata dimostrata. È stato riscontrato, inoltre, che la mucosa del cavo orale e le meningi sono permeabili nei confronti dell’Ag in forma nanoparticellare.
Resumo:
This article studies generated scales having exactly three different step sizes within the language of algebraic combinatorics on words. These scales and their corresponding step-patterns are called non well formed. We prove that they can be naturally inserted in the Christoffel tree of well-formed words. Our primary focus in this study is on the left- and right-Lyndon factorization of these words. We will characterize the non-well-formed words for which both factorizations coincide. We say that these words satisfy the LR property and show that the LR property is satisfied exactly for half of the non-well-formed words. These are symmetrically distributed in the extended Christoffel tree. Moreover, we find a surprising connection between the LR property and the Christoffel duality. Finally, we prove that there are infinitely many Christoffel–Lyndon words among the set of non-well-formed words and thus there are infinitely many generated scales having as step-pattern a Christoffel–Lyndon word.
Resumo:
The situation of the third sector in Russia, i.e. the civil society structures independent from the state, is worsening on a regular basis. The Kremlin’s actions aimed at paralysing and destroying the independent non-governmental sector seen over the past four years have been presented as part of a struggle for the country’s sovereignty. This is above all a consequence of the Russian government’s efforts to take full control of the socio-political situation in the country while it also needs to deal with the geopolitical confrontation with the West and the worsening economic crisis. The policy aimed against non-governmental organisations is depriving the public of structures for self-organisation, protection of civil rights and the means of controlling the ever more authoritarian government. At the same time, the Kremlin has been depriving itself of channels of co-operation and communication with the public and antagonising the most active citizens. The restrictive measures the Kremlin has taken over the past few years with regard to NGOs prove that Russian decision-makers believe that any social initiative independent of the government may give rise to unrest, which is dangerous for the regime, and – given the economic slump – any unrest brings unnecessary political risk.
Resumo:
Gli obiettivi di questa tesi sono: - Approfondire gli aspetti normativi contenuti nella normativa UNI TS 11300; - Redigere gli attestati di qualificazione energetica di due edifici universitari in costruzione in zona Navile (Facoltà di chimica ed astronomia) utilizzando il software MC4; - Analizzare i dati della centrale di trigenerazione del comprensorio fieristico-direzionale di Bologna; - Approfondire gli aspetti della Bioedilizia e del risparmio energetico.
Resumo:
La presente attività di tesi è stata svolta presso la Divisione di Sicurezza Nucleare dell’ENEA di Bologna ed è stata finalizzata ad analizzare, mediante il codice MELCOR 2.1, le conseguenze di tre incidenti severi non mitigati di tipo LBLOCA in un generico reattore nucleare ad acqua leggera pressurizzata (PWR) da 900 MWe. In particolare sono stati confrontati gli scenari incidentali relativi a tre distinti eventi iniziatori nel circuito di refrigerazione primario: la rottura a ghigliottina della gamba fredda (CL) del loop 1, della gamba calda (HL) del loop 1 e della surge line di connessione con il pressurizzatore. Le analisi MELCOR hanno indagato la progressione incidentale in-vessel, con particolare riferimento alle fenomenologie termoidrauliche e di degradazione del core. MELCOR infatti è un codice integrato che simula le principali fenomenologie riguardanti sequenze incidentali di tipo severo in reattori ad acqua leggera. Durante la prima fase dei tre transitori incidentali risultano predominanti fenomenologie di carattere termoidraulico. In particolare MELCOR predice la rapida depressurizzazione e il conseguente svuotamento del sistema di refrigerazione primario. I tre transitori sono poi caratterizzati dallo scoprimento completo del core a causa dell’indisponibilità del sistema di refrigerazione di emergenza. Il conseguente riscaldamento del core per il calore di decadimento e per ossidazione delle strutture metalliche conduce inevitabilmente alla sua degradazione e quindi al fallimento della lower head del recipiente in pressione del reattore nei tre scenari incidentali in tempi diversi. Durante la prima fase incidentale, di carattere prevalentemente termoidraulico, sono state rilevate le principali differenze fenomenologiche causate dalle differenti posizioni e dimensioni delle rotture. Il transitorio causato dalla rottura della CL si è confermato come il più gravoso, con fallimento anticipato della lower head rispetto agli altri due transitori considerati.
Resumo:
Gli interventi di riqualificazione energetica di un edificio risultano necessari per rispondere alle leggi europee e nazionali che impongono misure sempre più stringenti per limitare le dispersioni termiche degli edifici e per ridurre i consumi energetici. L’utilizzo del software Edilclima ha permesso lo studio e l’analisi delle condizioni pre e post-interventi dell’edificio scolastico G. Marconi sito in Castelfranco Emilia (MO). Per mezzo del modello creato nel software, sono state determinate le dispersioni termiche dell’edificio, sulla base delle quali è stato possibile definire alcuni interventi di efficientamento energetico. Gli interventi considerati sono stati: isolamento delle pareti perimetrali verso l’esterno e verso il terreno, isolamento del sottotetto, sostituzione degli infissi. Gli interventi sono necessari per ottenere un edificio che presenti caratteristiche conformi alle leggi; hanno lo scopo di ridurre l’indice di Prestazione Energetica e i costi per il riscaldamento dell’edificio. Gli indici su cui si è valutata la convenienza degli interventi sono stati: il risparmio in termini di costo annuo per il riscaldamento e il tempo di ritorno dell’investimento (payback time). Sono stati presi in considerazione i casi di interventi singoli e di interventi combinati, il confronto tra essi, in questo caso, definisce gli interventi combinati come maggiormente convenienti rispetto ai parametri presi in considerazione per la valutazione della convenienza. Le valutazioni, inoltre, sono state effettuate in due diversi condizioni: impianto con accensione continua (sul modello delle valutazioni per la Certificazione Energetica) e impianto con accensione intermittente (sul modello delle valutazioni per la Diagnosi energetica). Le due condizioni di prova hanno messo in luce l’importanza della valutazione con impianto intermittente poiché questa rappresenta una condizione più realistica e fornisce una stima più attendibile della convenienza degli interventi.
Resumo:
Nel corso degli anni le fonti rinnovabili e in particolare il fotovoltaico hanno assunto un ruolo sempre più importante nel panorama energetico italiano. Si è effettuata un’analisi della tecnologia fotovoltaica illustrandone il funzionamento, le tipologie di pannelli, il calcolo dell’energia elettrica producibile e le curve caratteristiche. Dal momento che la maggior parte delle rinnovabili presenta il problema della non programmabilità dovuta alla produzione intermittente, è necessario adottare dei sistemi di accumulo. Tali sistemi vengono mostrati, con particolare riguardo per le batterie al piombo acido e per l’idrogeno immagazzinato in idruri metallici, spiegando nel dettaglio l’elettrolisi e gli elettrolizzatori PEM. Dopo questa panoramica iniziale, si è illustrato l’impianto oggetto di questa tesi, composto principalmente da due pannelli fotovoltaici, un simulatore solare, due batterie al Piombo, un elettrolizzatore, un carico e un alimentatore. In seguito viene spiegata l’attività sperimentale, svolta sulle prove di laboratorio ai fini di ottenere le curve di funzionamento dei vari componenti, tramite due approcci diversi: per il sistema atto all’elettrolisi e per tutti i suoi componenti si è usato un modello black-box, per i pannelli fotovoltaici si è usato un approccio fisico-matematico partendo dalle equazioni del simulatore solare applicandovi i dati dei pannelli del laboratorio. Una volta ottenute queste curve, si è creato un modello completo del laboratorio per simularne il funzionamento al variare dell’irraggiamento. Si è testato prima il modello su un’utenza da 3 kW, poi, dopo aver confrontato gli andamenti reali con quelli ottenuti, si sono simulate varie configurazioni per trovare quella che permette al sistema di produrre idrogeno alla potenza nominale di 250 W in una giornata senza supplemento della rete elettrica.
Resumo:
Background: Indigenous Australians are at high risk for cardiovascular disease and type 2 diabetes. Carotid artery intimal medial thickness (CIMT) and brachial artery flow-mediated vasodilation (FMD) are ultrasound imaging based surrogate markers of cardiovascular risk. This study examines the relative contributions of traditional cardiovascular risk factors on CIMT and FMD in adult Indigenous Australians with and without type 2 diabetes mellitus. Method: One hundred and nineteen Indigenous Australians were recruited. Physical and biochemical markers of cardiovascular risk, together with CIMT and FMD were meausred for all subjects. Results: Fifty-three Indigenous Australians subjects (45%) had type 2 diabetes mellitus. There was a significantly greater mean CIMT in diabetic versus non-diabetic subjects (p = 0.049). In the non-diabetic group with non-parametric analyses, there were significant correlations between CIMT and: age (r = 0.64, p < 0.001), systolic blood pressure (r = 0.47, p < 0.001) and non-smokers (r = -0.30, p = 0.018). In the diabetic group, non-parametric analysis showed correlations between CIMT, age (r = 0.36, p = 0.009) and duration of diabetes (r = 0.30, p = 0.035) only. Adjusting forage, sex, smoking and history of cardiovascular disease, Hb(A1c) became the sole significant correlate of CIMT (r = 0.35,p = 0.01) in the diabetic group. In non-parametric analysis, age was the sole significant correlate of FMD (r = -0.31,p = 0.013), and only in non-diabetic subjects. Linear regression analysis showed significant associations between CIMT and age (t = 4.6,p < 0.001), systolic blood pressure (t = 2.6, p = 0.010) and Hb(A1c) (t = 2.6, p = 0.012), smoking (t = 2.1, p = 0.04) and fasting LDL-cholesterol (t = 2.1, p = 0.04). There were no significant associations between FMD and examined cardiovascular risk factors with linear regression analysis Conclusions: CIMT appears to be a useful surrogate marker of cardiovascular risk in this sample of Indigenous Australian subjects, correlating better than FMD with established cardiovascular risk factors. A lifestyle intervention programme may alleviate the burden of cardiovascular disease in Indigenous Australians by reducing central obesity, lowering blood pressure, correcting dyslipidaemia and improving glycaemic control. CIMT may prove to be a useful tool to assess efficacy of such an intervention programme. (c) 2004 Elsevier Ireland Ltd. All rights reserved.
Resumo:
A non-blocking program is one that uses non-blocking primitives, such as load-linked/store-conditional and compare-and-swap, for synchronisation instead of locks so that no process is ever blocked. According to their progress properties, non-blocking programs may be classified as wait-free, lock-free or obstruction-free. However, a precise description of these properties does not exist and it is not unusual to find a definition that is ambiguous or even incorrect. We present a formal definition of the progress properties so that any confusion is removed. The formalisation also allows one to prove the widely believed presumption that wait-freedom is a special case of lock-freedom, which in turn is a special case of obstruction-freedom.
Resumo:
There is a growing interest in “medical gasses” for their antibacterial and anti-inflammatory properties. Hydrogen sulfide (H2S), a member of the family of gasotransmitters, is in fact increasingly being recognized as an important signaling molecule, but its precise role in the regulation of the inflammatory response is still not clear. For this reason, the aim of the first part of this thesis was to investigate the effects of H2S on the expression of pro-inflammatory cytokines, such as MCP-1, by using an in vitro model composed by both primary monocytes-derived macrophages cultures and the human monocytic cell line U937 infected with Mycoplasma fermentans, a well-known pro-inflammatory agent. In our experiments, we observed a marked increase in the production of pro-inflammatory cytokines in infected cells. In particular, MCP-1 was induced both at the RNA and at the protein level. To test the effects of H2S on infected cells, we treated the cells with two different H2S donors (NaHS and GYY4137), showing that both H2S treatments had anti-inflammatory effects in Mycoplasma-infected cells: the levels of MCP-1, both mRNA expression and protein production, were reduced. Our subsequent studies aimed at understanding the molecular mechanisms responsible for these effects, focused on two specific molecular pathways, both involved in inflammation: the NF-κB and the Nrf2 pathway. After treatment with pharmacological inhibitors, we demonstrated that Mycoplasma fermentans induces MCP-1 expression through the TLR-NF-κB pathway with the nuclear translocation of its subunits, while treatment with H2S completely blocked the nuclear translocation of NF-κB heterodimer p65/p50. Then, once infected cells were treated with H2S donors, we observed an increased protective effect of Nrf2 and also a decrease in ROS production. These results highlight the importance of H2S in reducing the inflammatory process caused by Mycoplasma fermentans. To this regard, it should be noted that several projects are currently ongoing to develop H2S-releasing compounds as candidate drugs capable of alleviating cell deterioration and to reduce the rate of decline in organ function. In the second part of this study, we investigated the role of Mycoplasma infection in cellular transformation. Infectious agents are involved in the etiology of many different cancers and a number of studies are still investigating the role of microbiota in tumor development. Mycoplasma has been associated with some human cancers, such as prostate cancer and non-Hodgkin’s lymphoma in HIV-seropositive people, and its potential causative role and molecular mechanisms involved are being actively investigated. To this regard, in vitro studies demonstrated that, upon infection, Mycoplasma suppresses the transcriptional activity of p53, key protein in the cancer suppression. As a consequence, infected cells were less susceptible to apoptosis and proliferated more than the uninfected cells. The mechanism(s) responsible for the Mycoplasma-induced inhibitory effect on p53 were not determined. Aim of the second part of this thesis was to better understand the tumorigenic role of the microorganism, by investigating more in details the effect(s) of Mycoplasma on p53 activity in an adenocarcinoma HCT116 cell line. Treatment of Mycoplasma-infected cells with 5FU or with Nutlin, two molecules that induce p53 activity, resulted in cellular proliferation comparable to untreated controls. These results suggested that Mycoplasma infection inhibited p53 activity. Immunoprecipitation of p53 with specific antibodies, and subsequent Gas Chromatography and Mass Spectroscopy (GC-MS) assays, allowed us to identify several Mycoplasma-specific proteins interacting with p53, such as DnaK, a prokaryotic heat shock protein and stress inducible chaperones. In cells transfected with DnaK we observed i) reduced p53 protein levels; ii) reduced activity and expression of p21, Bax and PUMA, iii) a marked increase in cells leaving G1 phase. Taken together, these data show an interaction between the human p53 and the Mycoplasma protein DnaK, with the consequent decreased p53 activity and decreased capability to respond to DNA damage and prevent cell proliferation. Our data indicate that Mycoplasma could be involved in cancer formation and the mechanism(s) has the potential to be a target for cancer diagnosis and treatment(s).