17 resultados para Automotive, Design, Automobile, Linee di carattere
Resumo:
La diagnosi di neoplasia epiteliale maligna polmonare è legata tradizionalmente alla distinzione tra carcinoma a piccole cellule (small-cell lung cancer, SCLC) e carcinoma non-a piccole cellule del polmone (non-small-cell lung cancer, NSCLC). Nell’ambito del NSCLC attualmente è importante di-stinguere l’esatto istotipo (adenocarcinoma, carcinoma squamocellulare e carcinoma neuroendocrino) perchè l’approccio terapeutico cambia a seconda dell’istotipo del tumore e la chemioterapia si dimostra molto spesso inefficace. Attualmente alcuni nuovi farmaci a bersaglio molecolare per il gene EGFR, come Erlotinib e Gefitinib, sono utilizzati per i pazienti refrattari al trattamento chemioterapico tradizionale, che non hanno risposto a uno o più cicli di chemioterapia o che siano progrediti dopo questa. I test per la rilevazione di specifiche mutazioni nel gene EGFR permettono di utilizzare al meglio questi nuovi farmaci, applicandoli anche nella prima linea di trattamento sui pazienti che hanno una maggiore probabilità di risposta alla terapia. Sfortunatamente, non tutti i pazienti rispondono allo stesso modo quando trattati con farmaci anti-EGFR. Di conseguenza, l'individuazione di biomarcatori predittivi di risposta alla terapia sarebbe di notevole importanza per aumentare l'efficacia dei questi farmaci a target molecolare e trattare con farmaci diversi i pazienti che con elevata probabilità non risponderebbero ad essi. I miRNAs sono piccole molecole di RNA endogene, a singolo filamento di 20-22 nucleotidi che svolgono diverse funzioni, una delle più importanti è la regolazione dell’espressione genica. I miRNAs possono determinare una repressione dell'espressione genica in due modi: 1-legandosi a sequenze target di mRNA, causando così un silenziamento del gene (mancata traduzione in proteina), 2- causando la degradazione dello specifico mRNA. Lo scopo della ricerca era di individuare biomarcatori capaci di identificare precocemente i soggetti in grado di rispondere alla terapia con Erlotinib, aumentando così l'efficacia del farmaco ed evitan-do/riducendo possibili fenomeni di tossicità e il trattamento di pazienti che probabilmente non ri-sponderebbero alla terapia offrendo loro altre opzioni prima possibile. In particolare, il lavoro si è fo-calizzato sul determinare se esistesse una correlazione tra la risposta all'Erlotinib ed i livelli di espressione di miRNAs coinvolti nella via di segnalazione di EGFR in campioni di NSCLC prima dell’inizio della terapia. Sono stati identificati 7 microRNA coinvolti nel pathway di EGFR: miR-7, -21, 128b, 133a, -133b, 146a, 146b. Sono stati analizzati i livelli di espressione dei miRNA mediante Real-Time q-PCR in campioni di NSCLC in una coorte di pazienti con NSCLC metastatico trattati con Erlotinib dal 1° gennaio 2009 al 31 dicembre 2014 in 2°-3° linea dopo fallimento di almeno un ciclo di chemioterapia. I pazienti sottoposti a trattamento con erlotinib per almeno 6 mesi senza presentare progressione alla malattia sono stati definiti “responders” (n=8), gli altri “non-responders” (n=25). I risultati hanno mostrato che miR-7, -133b e -146a potrebbero essere coinvolti nella risposta al trat-tamento con Erlotinib. Le indagini funzionali sono state quindi concentrate su miR-133b, che ha mo-strato la maggiore espressione differenziale tra i due gruppi di pazienti. E 'stata quindi studiata la capacità di miR-133b di regolare l'espressione di EGFR in due linee di cellule del cancro del polmone (A549 e H1299). Sono stati determinati gli effetti di miR-133b sulla crescita cellulare. E’ stato anche analizzato il rapporto tra miR-133b e sensibilità a Erlotinib nelle cellule NSCLC. L'aumento di espressione di miR-133b ha portato ad una down-regolazione del recettore di EGF e del pathway di EGFR relativo alla linea cellulare A549. La linea cellulare H1299 era meno sensibili al miR-133b up-regulation, probabilmente a causa dell'esistenza di possibili meccanismi di resistenza e/o di com-pensazione. La combinazione di miR-133b ed Erlotinib ha aumentato l'efficacia del trattamento solo nella linea cellulare A549. Nel complesso, questi risultati indicano che miR-133b potrebbe aumentare / ripristinare la sensibilità di Erlotinib in una frazione di pazienti.
Resumo:
La ricerca ricostruisce alcuni aspetti della vita politica, sociale e culturale di Reggio Emilia a partire dagli anni Quaranta dell’Ottocento. La campagna militare del 1848-49 e le vicende sociali e politiche che l’accompagnarono costituiscono il punto focale di questo lavoro che mette in evidenza come il complesso di quegli avvenimenti operò un mutamento irreversibile nella realtà cittadina, alimentando aspettative e ideali che non poterono più rimanere confinati nel sistema di governo ducale, divenuto asfittico e superato. Dopo una ricognizione generale della storiografia esistente si è evidenziata la necessità di una nuova lettura della storia cittadina che tenesse conto degli approcci metodologici più recenti e di aspetti fino ad oggi trascurati o completamente ignorati, ripartendo dai documenti ed ampliando la quantità e la tipologia delle fonti. E’ stato perciò condotto un incrocio sistematico tra la documentazione d’archivio pubblica (atti di governo, polizia, decreti, chirografi ducali) e le fonti di carattere privato, spesso assolutamente inedite (cronache, diari, epistolari), cercando di mantenere un approccio il più possibile aperto, mostrando una molteplicità di punti di vista e cogliendo il riflesso dei diversi orientamenti politici e personali attraverso la lettura degli avvenimenti cittadini da parte dei diversi testimoni dell’epoca. Coerentemente con i più recenti apporti della storiografia si è voluto sottolineare l’impatto decisivo che le Istituzioni scolastiche ducali, caratterizzate da notevole conformismo e oscurantismo, hanno avuto nella maturazione politica della generazione che ha guidato il Movimento del 1848. Per portare alla luce questi aspetti è stata proposta una rilettura del sistema educativo reggiano dal punto di vista funzionale e culturale, partendo dai ricordi degli ex studenti e dalla verifica della disciplina vigente all’interno di queste istituzioni. Non poteva essere tralasciata anche una profonda revisione della storia della Chiesa di Reggio Emilia durante il Risorgimento, pertanto si è proceduto ad uno spoglio su larga scala della documentazione conservata nell’archivio della Curia vescovile di Reggio Emilia che ha permesso di giungere ad una complessiva rivalutazione del ruolo del vescovo Cattani durante le vicende del 1848, portando alla luce un aspetto fino ad oggi assolutamente sottovalutato. Nella ricostruzione delle condizioni della Provincia sono stati sottolineati soprattutto gli aspetti sociali, ampliando il quadro in cui si sono svolte le vicende attraverso nuove fonti che hanno aiutato a non focalizzare la ricerca soltanto sui ceti dirigenti e sulle personalità di rilievo. Allo stesso modo si sono descritti i luoghi e le persone della città, cercando di tracciare un ritratto il più fedele possibile della realtà urbana attraverso testimonianze di tenore e mentalità differenti da quelle ‘ufficiali’. Per gli eventi del 1848 (e per quelli del 1859-60) è stato consultato un numero cospicuo di fondi conservati presso l’Archivio di Stato di Reggio, a questi si sono aggiunti gli apporti di molte fonti di carattere privato e di documenti inediti conservati presso l’Archivio di Stato di Torino. Il lavoro propone un’analisi approfondita delle vicende cittadine tra il marzo e l’agosto 1848 e apre a nuove considerazioni sia sul municipalismo, come chiave di lettura del movimento unitario, sia sulla creazione del consenso attorno all’unione dei ducati emiliani con il Regno dell’Alta Italia guidato da Carlo Alberto. Fondamentali sono risultati i fondi della Polizia Estense conservati presso l’Archivio di Stato di Reggio Emilia. Per la loro natura e per le caratteristiche del Ducato (in cui lo stesso duca interviene di persona nei provvedimenti di polizia) hanno permesso di tracciare un quadro assolutamente inedito della vita politica e sociale della Provincia, contribuendo ad arricchire ogni aspetto del lavoro di ricerca. Nell’ultima parte del lavoro sono state messe a confronto le informazioni raccolte sui volontari attraverso lo spoglio di tutte le fonti consultate. La ricerca si era precedentemente basata sugli elenchi dei militi compilati dopo l’unificazione nazionale, elenchi nei quali molte delle informazioni relative ai partecipanti delle campagne del 1848-49 erano andate perdute. Procedendo all’incrocio dei dati raccolti dalla polizia estense al momento del ritorno degli volontari in patria con quelli reperiti nei fondi privati, nelle cronache, nella memorialistica e negli epistolari è stato possibile ricostruire un panorama più completo delle diverse tipologie di combattenti e tracciare un quadro che alla fine risulta assai coerente con la situazione politica e sociale descritta nella prima parte della tesi. Per la prima volta vengono documentate le vicende di coloro che non appartenendo alle classi dirigenti cittadine si sono trovati a combattere per una sorta di azzardo personale nutrito di idealismo patriottico oppure perché inquadrati nei battaglioni dell’ex esercito estense passato al servizio del Governo provvisorio. Emergono l’estrema eterogeneità delle motivazioni e dei destini personali dei combattenti e sono portate alla luce alcune interessanti vicende personali e familiari. I dati sono stati raccolti in modalità digitale per la loro futura fruizione on-line che andrà ad aggiornare il database degli “Albi della memoria” curati da ISTORECO. (http://www.albimemoria-istoreco.re.it/).
Resumo:
Il tatto assume un'importanza fondamentale nella vita quotidiana, in quanto ci permette di discriminare le caratteristiche fisiche di un oggetto specifico, di identificarlo e di eventualmente integrare le suddette informazioni tattili con informazioni provenienti da altri canali sensoriali. Questa è la componente sensoriale-discriminativa del tatto. Tuttavia quotidianamente il tatto assume un ruolo fondamentale durante le diverse interazioni sociali, positive, come quando abbracciamo o accarezziamo una persona con cui abbiamo un rapporto affettivo e negative, per esempio quando allontaniamo una persona estranea dal nostro spazio peri-personale. Questa componente è la cosiddetta dimensione affettiva-motivazionale, la quale determina la codifica della valenza emotiva che l'interazione assume. Questa componente ci permette di creare, mantenere o distruggere i legami sociali in relazione al significato che il tocco assume durante l'interazione. Se per esempio riceviamo una carezza da un familiare, questa verrà percepita come piacevole e assumerà un significato affiliativo. Questo tipo di tocco è comunente definito come Tocco Sociale (Social Touch). Gli aspetti discriminativi del tatto sono stati ben caratterizzati, in quanto storicamente, il ruolo del tatto è stato considerato quello di discriminare le caratteristiche di ciò che viene toccato, mentre gli aspetti affettivi sono stati solo recentemente indagati considerando la loro importanza nelle interazioni sociali. Il tocco statico responsabile dell'aspetto discriminante attiva a livello della pelle le grandi fibre mieliniche (Aβ), modulando a livello del sistema nervoso centrale le cortecce sensoriali, sia primarie che secondarie. Questo permette la codifica a livello del sistema nervoso centrale delle caratteristiche fisiche oggettive degli oggetti toccati. Studi riguardanti le caratteristiche del tocco affiliativo sociale hanno messo in evidenza che suddetta stimolazione tattile 1) è un particolare tocco dinamico che avviene sul lato peloso delle pelle con una velocità di 1-10 cm/sec; 2) attiva le fibre amieliniche (fibre CT o C-LTMRs); 3) induce positivi effetti autonomici, ad esempio la diminuzione della frequenza cardiaca e l'aumento della variabilità della frequenza cardiaca; e 4) determina la modulazione di regioni cerebrali coinvolte nella codifica del significato affiliativo dello stimolo sensoriale periferico, in particolare la corteccia insulare. Il senso del tatto, con le sue due dimensioni discriminativa e affiliativa, è quotidianamente usato non solo negli esseri umani, ma anche tra i primati non umani. Infatti, tutti i primati non umani utilizzano la componente discriminativa del tatto per identificare gli oggetti e il cibo e l'aspetto emotivo durante le interazioni sociali, sia negative come durante un combattimento, che positive, come durante i comportamenti affiliativi tra cui il grooming. I meccanismi di codifica della componente discriminativa dei primati non umani sono simili a quelli umani. Tuttavia, si conosce ben poco dei meccanismi alla base della codifica del tocco piacevole affiliativo. Pur essendo ben noto che i meccanorecettori amilienici C-LTMRs sono presenti anche sul lato peloso della pelle dei primati non umani, attualmente non ci sono studi riguardanti la correlazione tra il tocco piacevole e la loro modulazione, come invece è stato ampiamente dimostrato nell'uomo. Recentemente è stato ipotizzato (Dunbar, 2010) il ruolo delle fibre C-LTMRs durante il grooming, in particolare durante il cosiddetto swepping. Il grooming è costituito da due azioni motorie, lo sweeping e il picking che vengono eseguite in modo ritmico. Durante lo sweeping la scimmia agente muove il pelo della scimmia ricevente con un movimento a mano aperta, per poter vedere il preciso punto della pelle dove eseguire il picking, ovvero dove prendere la pelle a livello della radice del pelo con le unghie dell'indice e del pollice e tirare per rimuovere parassiti o uova di parassiti e ciò che è rimasto incastrato nel pelo. Oltre il noto ruolo igenico, il grooming sembra avere anche una importante funzione sociale affiliativa. Come la carezza nella società umana, cosi il grooming tra i primati non umani è considerato un comportamento. Secondo l'ipotesi di Dunbar l'attivazione delle C-LTMRs avverrebbe durante lo sweeping e questo porta a supporre che lo sweeping, come la carezza umana, costituisca una componente affiliativa del grooming, determinando quindi a contribuire alla sua codifica come comportamento sociale. Fino ad ora non vi è però alcuna prova diretta a sostegno di questa ipotesi. In particolare, 1) la velocità cui viene eseguito lo sweeping è compatibile con la velocità di attivazione delle fibre CT nell'uomo e quindi con la velocità tipica della carezza piacevole di carattere sociale affiliativo (1-10 cm/sec)?; 2) lo sweeping induce la stessa modulazione del sistema nervoso autonomo in direzione della modulazione del sistema vagale, come il tocco piacevole nell'uomo, attraverso l'attivazione delle fibre CT?; 3) lo sweeping modula la corteccia insulare, cosi come il tocco piacevole viene codificato come affiliativo nell'uomo mediante le proiezioni delle fibre CT a livello dell'insula posteriore? Lo scopo del presente lavoro è quella di testare l'ipotesi di Dunbar sopra citata, cercando quindi di rispondere alle suddette domande. Le risposte potrebbero consentire di ipotizzare la somiglianza tra lo sweeping, caratteristico del comportamento affiliativo di grooming tra i primati non umani e la carezza. In particolare, abbiamo eseguito 4 studi pilota. Nello Studio 1 abbiamo valutato la velocità con cui viene eseguito lo sweeping tra scimmie Rhesus, mediante una analisi cinematica di video registrati tra un gruppo di scimmie Rhesus. Negli Studi 2 e 3 abbiamo valutato gli effetti sul sistema nervoso autonomo dello sweeping eseguito dallo sperimentatore su una scimmia Rhesus di sesso maschile in una tipica situazione sperimentale. La stimolazione tattile è stata eseguita a diverse velocità, in accordo con i risultati dello Studio 1 e degli studi umani che hanno dimostrato la velocità ottimale e non ottimale per l'attivazione delle C-LTMRs. In particolare, nello Studio 2 abbiamo misurato la frequenza cardiaca e la variabilità di questa, come indice della modulatione vagale, mentre nello Studio 3 abbiamo valutato gli effetti dello sweeping sul sistema nervoso autonomo in termini di variazioni di temperatura del corpo, nello specifico a livello del muso della scimmia. Infine, nello Studio 4 abbiamo studiato il ruolo della corteccia somatosensoriale secondaria e insulare nella codifica dello sweeping. A questo scopo abbiamo eseguito registrazioni di singoli neuroni mentre la medesima scimmia soggetto sperimentale dello Studio 2 e 3, riceveva lo sweeping a due velocità, una ottimale per l'attivazione delle C-LTMRs secondo gli studi umani e i risultati dei tre studi sopra citati, ed una non ottimale. I dati preliminari ottenuti, dimostrano che 1) (Studio 1) lo sweeping tra scimmie Rhesus viene eseguito con una velocità media di 9.31 cm/sec, all'interno dell'intervallo di attivazione delle fibre CT nell'uomo; 2) (Studio 2) lo sweeping eseguito dallo sperimentatore sulla schiena di una scimmia Rhesus di sesso maschile in una situazione sperimentale determina una diminuzione della frequenza cardiaca e l'aumento della variabilità della frequenza cardiaca se eseguito alla velocità di 5 e 10 cm/sec. Al contrario, lo sweeping eseguito ad una velocità minore di 1 cm/sec o maggiore di 10 cm/sec, determina l'aumento della frequenza cardiaca e la diminuzione della variabilità di questa, quindi il decremento dell'attivazione del sistema nervoso parasimpatico; 3) (Studio 3) lo sweeping eseguito dallo sperimentatore sulla schiena di una scimmia Rhesus di sesso maschile in una situazione sperimentale determina l'aumento della temperatura corporea a livello del muso della scimmia se eseguito alla velocità di 5-10 cm/sec. Al contrario, lo sweeping eseguito ad una velocità minore di 5 cm/sec o maggiore di 10 cm/sec, determina la diminuzione della temperatura del muso; 4) (Studio 4) la corteccia somatosensoriale secondaria e la corteccia insulare posteriore presentano neuroni selettivamente modulati durante lo sweeping eseguito ad una velocità di 5-13 cm/sec ma non neuroni selettivi per la codifica della velocità dello sweeping minore di 5 cm/sec. Questi risultati supportano l'ipotesi di Dunbar relativa al coinvolgimento delle fibre CT durante lo sweeping. Infatti i dati mettono in luce che lo sweeping viene eseguito con una velocità (9.31 cm/sec), simile a quella di attivazione delle fibre CT nell'uomo (1-10 cm/sec), determina gli stessi effetti fisiologici positivi in termini di frequenza cardiaca (diminuzione) e variabilità della frequenza cardiaca (incremento) e la modulazione delle medesime aree a livello del sistema nervoso centrale (in particolare la corteccia insulare). Inoltre, abbiamo dimostrato per la prima volta che suddetta stimolazione tattile determina l'aumento della temperatura del muso della scimmia. Il presente studio rappresenta la prima prova indiretta dell'ipotesi relativa alla modulazione del sistema delle fibre C-LTMRs durante lo sweeping e quindi della codifica della stimolazione tattile piacevole affiliativa a livello del sistema nervoso centrale ed autonomo, nei primati non umani. I dati preliminari qui presentati evidenziano la somiglianza tra il sistema delle fibre CT dell'uomo e del sistema C-LTMRs nei primati non umano, riguardanti il Social Touch. Nonostante ciò abbiamo riscontrato alcune discrepanze tra i risultati da noi ottenuti e quelli invece ottenuti dagli studi umani. La velocità media dello sweeping è di 9.31 cm / sec, rasente il limite superiore dell’intervallo di velocità che attiva le fibre CT nell'uomo. Inoltre, gli effetti autonomici positivi, in termini di battito cardiaco, variabilità della frequenza cardiaca e temperatura a livello del muso, sono stati evidenziati durante lo sweeping eseguito con una velocità di 5 e 10 cm/sec, quindi al limite superiore dell’intervallo ottimale che attiva le fibre CT nell’uomo. Al contrario, lo sweeping eseguito con una velocità inferiore a 5 cm/sec e superiore a 10 cm/sec determina effetti fisiologici negativo. Infine, la corteccia insula sembra essere selettivamente modulata dallo stimolazione eseguita alla velocità di 5-13 cm/sec, ma non 1-5 cm/sec. Quindi, gli studi sul sistema delle fibre CT nell’uomo hanno dimostrato che la velocità ottimale è 1-10 cm/sec, mentre dai nostri risultati la velocità ottimale sembra essere 5-13 cm / sec. Quindi, nonostante l'omologia tra il sistema delle fibre CT nell'umano deputato alla codifica del tocco piacevole affiliativo ed il sistema delle fibre C-LTMRs nei primati non umani, ulteriori studi saranno necessari per definire con maggiore precisione la velocità ottimale di attivazione delle fibre C-LTMR e per dimostrare direttamente la loro attivazione durante lo sweeping, mediante la misurazione diretta della loro modulazione. Studi in questa direzione potranno confermare l'omologia tra lo sweeping in qualità di tocco affiliativo piacevole tra i primati non umani e la carezza tra gli uomini. Infine, il presente studio potrebbe essere un importante punto di partenza per esplorare il meccanismo evolutivo dietro la trasformazione dello sweeping tra primati non umani, azione utilitaria eseguita durante il grooming, a carezza, gesto puramente affiliativo tra gli uomini.
Resumo:
Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.
Resumo:
Le nanotecnologie sono un settore emergente in rapida crescita, come dimostra l'esplosione del mercato dei prodotti ad esso collegati. I quantum dot di cadmio solfuro (CdS QD) sono ampiamente utilizzati per la produzione di materiali semiconduttori e dispositivi optoelettronici; tuttavia, non sono ancora completamente chiari gli effetti di questi nanomateriali sulla salute umana. Questo lavoro di dottorato si pone l'obbiettivo di definire il potenziale citotossico e genotossico dei CdS QD in linee cellulari umane e definirne il meccanismo implicato. A questo scopo, essendo il fegato uno dei principali organi di accumulo del cadmio e dei nanomateriali a base di cadmio, è stata utilizzata la linea cellulare HepG2 derivante da un epatocarcinoma umano. È stato evidenziato, in seguito all'assorbimento, da parte delle cellule, dei CdS QD, un effetto citotossico, con conseguente modulazione dell'espressione genica di una serie di geni coinvolti sia nei processi di rescue (autofagia, risposta allo stress) sia in quelli di morte cellulare programmata. È stato, inoltre, dimostrata l'assenza di un rilevante effetto genotossico dipendente da questi nanomateriali. Infine, è stato osservato che cellule esposte ai CdS QD presentano mitocondri con un potenziale di membrana alterato, con conseguente alterazione della funzionalità di tale organello, pur conservando l'integrità del DNA mitocondriale.
Resumo:
Clusterina (CLU) è una proteina ubiquitaria, presente nella maggior parte dei fluidi corporei e implicata in svariati processi fisiologici. Dalla sua scoperta fino ad oggi, CLU è risultata essere una proteina enigmatica, la cui funzione non è ancora stata compresa appieno. Il gene codifica per 3 varianti trascrizionali identificate nel database NCBI con i codici: NM_001831 (CLU 1 in questo lavoro di tesi), NR_038335 (CLU 2 in questo lavoro di tesi) e NR_045494 (CLU 3 in questo lavoro di tesi). Tutte le varianti sono trascritte come pre-mRNA contenenti 9 esoni e 8 introni e si differenziano per l’esone 1, la cui sequenza è unica e caratteristica di ogni variante. Sebbene in NCBI sia annotato che le varianti CLU 2 e CLU 3 non sono codificanti, tramite analisi bioinformatica è stato predetto che da tutti e tre i trascritti possono generarsi proteine di differente lunghezza e localizzazione cellulare. Tra tutte le forme proteiche ipotizzate, l’unica a essere stata isolata e sequenziata è quella tradotta dall’AUG presente sull’esone 2 che dà origine a una proteina di 449 aminoacidi. Il processo di maturazione prevede la formazione di un precursore citoplasmatico (psCLU) che subisce modificazioni post-traduzionali tra cui formazione di ponti disolfuro, glicosilazioni, taglio in due catene denominate β e α prima di essere secreta come eterodimero βα (sCLU) nell’ambiente extracellulare, dove esercita la sua funzione di chaperone ATP-indipendente. Oltre alla forma extracellulare, è possibile osservare una forma intracellulare con localizzazione citosolica la cui funzione non è stata ancora completamente chiarita. Questo lavoro di tesi si è prefissato lo scopo di incrementare le conoscenze in merito ai trascritti CLU 1 e CLU 2 e alla loro regolazione, oltre ad approfondire il ruolo della forma citosolica della proteina in relazione al signaling di NF-kB che svolge un ruolo importante nel processo di sviluppo e metastatizzazione del tumore. Nella prima parte, uno screening di differenti linee cellulari, quali cellule epiteliali di prostata e di mammella, sia normali sia tumorali, fibroblasti di origine polmonare e linfociti di tumore non-Hodgkin, ha permesso di caratterizzare i trascritti CLU 1 e CLU 2. Dall’analisi è emerso che la sequenza di CLU 1 è più corta al 5’ rispetto a quella depositata in NCBI con l’identificativo NM_001831 e il primo AUG disponibile per l’inizio della traduzione è localizzato sull’esone 2. È stato dimostrato che CLU 2, al contrario di quanto riportato in NCBI, è tradotto in proteina a partire dall’AUG presente sull’esone 2, allo stesso modo in cui viene tradotto CLU 1. Inoltre, è stato osservato che i livelli d’espressione dei trascritti variano notevolmente tra le diverse linee cellulari e nelle cellule epiteliali CLU 2 è espressa sempre a bassi livelli. In queste cellule, l’espressione di CLU 2 è silenziata per via epigenetica e la somministrazione di farmaci capaci di rendere la cromatina più accessibile, quali tricostatina A e 5-aza-2’-deossicitidina, è in grado di incrementarne l’espressione. Nella seconda parte, un’analisi bioinformatica seguita da saggi di attività in vitro in cellule epiteliali prostatiche trattate con farmaci epigenetici, hanno permesso di identificare, per la prima volta in uomo, una seconda regione regolatrice denominata P2, capace di controllare l’espressione di CLU 2. Rispetto a P1, il classico promotore di CLU già ampiamente studiato da altri gruppi di ricerca, P2 è un promotore debole, privo di TATA box, che nelle cellule epiteliali prostatiche è silente in condizioni basali e la cui attività incrementa in seguito alla somministrazione di farmaci epigenetici capaci di alterare le modificazioni post-traduzionali delle code istoniche nell’intorno di P2. Ne consegue un rilassamento della cromatina e un successivo aumento di trascrizione di CLU 2. La presenza di un’isola CpG differentemente metilata nell’intorno di P1 spiegherebbe, almeno in parte, i differenti livelli di espressione di CLU che si osservano tra le diverse linee cellulari. Nella terza parte, l’analisi del pathway di NF-kB in un modello sperimentale di tumore prostatico in cui CLU è stata silenziata o sovraespressa, ha permesso di capire come la forma citosolica di CLU abbia un ruolo inibitorio nei confronti dell’attività del fattore trascrizionale NF-kB. CLU inibisce la fosforilazione e l’attivazione di p65, il membro più rappresentativo della famiglia NF-kB, con conseguente riduzione della trascrizione di alcuni geni da esso regolati e coinvolti nel rimodellamento della matrice extracellulare, quali l’urochinasi attivatrice del plasminogeno, la catepsina B e la metallo proteinasi 9. È stato dimostrato che tale inibizione non è dovuta a un’interazione fisica diretta tra CLU e p65, per cui si suppone che CLU interagisca con uno dei componenti più a monte della via di segnalazione responsabile della fosforilazione ed attivazione di p65.
Resumo:
Gli acidi peptido nucleici sono potenti strumenti utilizzati in ambito biotecnologico per colpire DNA o RNA. PNA contenenti basi o backbone modificati sono attualmente studiati per migliorarne le proprietà in ambito biologico. Bersagliare i micro RNA (anti-miR) è particolarmente interessante nell’ottica di future applicazioni terapeutiche, ma strumenti computazionali che aiutino nel design di nuovi PNA anti-miR non sono stati ancora completamente sviluppati. Le proprietà conformazionali del singolo filamento di PNA (non modificato o recante modificazioni in γ) e dei duplex PNA:RNA e i processi di re-annealing e melting sono stati studiati tramite Dinamica Molecolare e Metadinamica. L’approccio computazionale consolidato, assieme a un programma modificato per la generazione delle strutture dei duplex contenenti PNA, è stato utilizzato per il virtual screening di PNA contenenti basi modificate. Sono state inoltre sintetizzate le unità per l’ottenimento del composto più promettente e una funzione idrolitica da legare al monomero finale.
Resumo:
Riassunto I biomarcatori o “marcatori biologici” svolgono un ruolo fondamentale nel monitoraggio biologico. In questo lavoro ci siamo soffermati sullo studio di biomarcatori di effetto e di esposizione a xenobiotici ambientali. Nel primo caso abbiamo valutato i micro RNA (miRNA) da utilizzare per la diagnosi precoce del tumore al polmone in matrici di facile accesso, quale il CAE e il plasma, utilizzando il miRNA-21, oncogeno, e il miRNA-486, oncosoppressore. I risultati evidenziano una loro capacità di distinguere correttamente i soggetti con tumore polmonare dai soggetti sani, ipotizzando un loro utilizzo a scopo diagnostico. Nella seconda parte del lavoro di tesi sono stati studiati i biomarcatori di esposizione a benzene per valutare gli effetti dell’esposizione a concentrazioni ambientali su bambini residenti in città e a diverso livello di urbanizzazione. Lo studio ha evidenziato una correlazione dose-effetto fra le concentrazioni di benzene e dei suoi metaboliti urinari e un danno ossidativo a livello degli acidi nucleici. Tuttavia, le concentrazioni di benzene urinario non sono influenzate dal grado di industrializzazione, a differenza dell’S-PMA e degli indicatori di stress ossidativo (8-oxodGuo e 8-oxoGuo) che sembrano risentire sia della residenza che del momento del campionamento. Infine abbiamo ricercato possibili biomarcatori di esposizione a vinilcicloesene (VCH), sottoprodotto industriale nella polimerizzazione del 1,3-butadiene, poiché non sono ancora stati proposti BEI di riferimento nonostante i bassi valori di TLV-TWA (0.1 ppm) proposti dall’ACGIH. Nella prima fase del lavoro abbiamo studiato i meccanismi di tossicità del VCH tramite modelli in vitro, testando varie linee cellulari. I risultati evidenziano come la dose reale di VCH sia di molto inferiore a quella nominale per effetto dell’evaporazione. Inoltre, nelle linee cellulari più sensibili si sono evidenziati effetti citostatici, con alterazioni del ciclo cellulare, a differenza dell’esposizione agli epossidi del VCH, il VCD e l’1,2-VCHME, che determinano lisi cellulare con IC50 di 3 ordini di grandezza inferiori a quelli del VCH. La quantificazione dei metaboliti di I fase e di II fase del VCH nelle linee cellulari epatiche ha evidenziato concentrazioni di circa 1000 volte inferiori a quelle del VCH confermando come la sua tossicità sia principalmente dovuta alla produzione degli intermedi epossidici. La trasformazione nei metaboliti di II fase conferma inoltre l’effetto detossificante del metabolismo. La trasferibilità dei risultati ottenuti in vitro su sistemi in vivo fornirà le basi per poter identificare possibili metaboliti da proporre per il monitoraggio biologico di lavoratori esposti a VCH. PAROLE CHIAVE: biomarcatori di effetto e di esposizione, tumore al polmone, miRNA, benzene, vinilcicloesene.
Resumo:
Elemento centrale della presente tesi dottorale è il costrutto di perspective taking, definibile come l’abilità, emergente nei bambini intorno a 4-5 anni, di assumere la prospettiva altrui secondo tre differenti dimensioni: emotiva, cognitiva e percettiva (Bonino, Lo Coco, Tani, 1998; Moll e Meltzoff, 2011). Dalla letteratura emerge come il perspective taking, in quanto abilità di comprensione sociale, rivesta un ruolo adattivo e sia fondamentale per lo sviluppo, non solo intellettivo, ma anche per la formazione di adeguate capacità relazionali e sociali (Jenkins e Astington, 2000; Weil et al., 2011). Sulla base di tali considerazioni, alcuni ricercatori si sono interrogati sulla possibilità di insegnare questa abilità, elaborando specifiche e differenti procedure di intervento finalizzate ad incrementare l’abilità di perspective taking sia in bambini a sviluppo normativo (Cigala e Mori, 2015), sia in gruppi di bambini a sviluppo atipico (Fisher e Happé, 2005; Heagle e Rehfeldt, 2006; Paynter e Peterson, 2012). A partire da una prospettiva teorica socio-costruzionista, secondo cui l’acquisizione del perspective taking si configura come un’impresa di co-costruzione continua, all’interno di interazioni quotidiane con figure significative per il bambino, si è deciso di analizzare il perspective taking non solo in relazione a variabili individuali (genere, età del bambino, regolazione emotiva, abilità sociali) ma anche e soprattutto a variabili contestuali quali le caratteristiche del contesto familiare (caratteristiche disposizionali e stili genitoriali di socializzazione emotiva, presenza di fratelli). Sono stati in particolare indagati un contesto familiare normativo ed uno caratterizzato da maltrattamento psicologico, contrassegnato dalla reiterazione di comportamenti inadeguati (critiche svalutanti, denigrazione, umiliazione, minacce verbali, indifferenza) nei confronti del minore, che convogliano sul bambino l’idea di non essere amato e di avere poco valore. Con i termini “a sviluppo tipico” si intendono i bambini per i quali non sussista una diagnosi clinica e con quelli di “famiglie normative” ci si riferisce a nuclei per i quali non ci siano state segnalazioni da parte dei Servizi Educativi e Sociali di riferimento, indipendentemente dalle caratteristiche della composizione del nucleo familiare (nucleare, estesa, multipla, ricostituita o ricomposta). Tale studio rientra in un ampio progetto di ricerca e formazione che ha coinvolto più di 250 prescolari frequentanti 8 scuole dell’infanzia e 15 comunità terapeutiche e di accoglienza mamma-bambino, situate in differenti province del Nord Italia. Il gruppo dei partecipanti alla ricerca si è composto di 256 bambini in età prescolare, compresa quindi tra 3 e 5 anni (M=54,39; DS=5,705): 128 maschi (M=54,08; DS=5,551) e 128 femmine (M=54,70; DS=5,860). In particolare, 213 bambini appartenevano a famiglie normative e 43 a nuclei familiari caratterizzati dalla presenza di maltrattamento psicologico. Oltre ai bambini, la ricerca ha previsto il coinvolgimento di 155 coppie di genitori, 43 madri ospitate in comunità, 18 insegnanti e 30 operatori. Obiettivo centrale è stato l’indagine della possibilità di poter promuovere il perspective taking in bambini di età prescolare a sviluppo tipico appartenenti a due differenti tipologie di contesto familiare (normativo e psicologicamente maltrattante), attraverso l’applicazione di uno specifico percorso di training di natura “ecologica” all’interno della scuola dell’infanzia e della comunità, assimilabile a quelli di tipo evidence based. In particolare è stata prevista una procedura quasi sperimentale di tipo pre-test, training, post-test e follow-up. Dopo una preliminare valutazione dello sviluppo del perspective taking nelle sue tre componenti, in bambini appartenenti ad entrambi i contesti, si è voluto verificare l’esistenza di eventuali relazioni tra questa abilità ed alcune capacità socio-emotive dei bambini, con particolare riferimento alla disposizione prosociale, rilevate nel contesto scolastico attraverso differenti metodologie (osservazioni dirette non partecipanti, questionari self report compilati dalle insegnanti). Inoltre, data l’importanza del contesto familiare per lo sviluppo di tale abilità, la ricerca ha avuto lo scopo di verificare l’esistenza di eventuali relazioni tra le abilità di perspective taking mostrate dai bambini e gli stili di socializzazione emotiva delle figure familiari, caratteristiche di entrambi i contesti (maltrattante e non maltrattante). È stato inoltre previsto uno studio di confronto tra i due campioni rispetto alle dimensioni indagate. I risultati ottenuti sono stati particolarmente interessanti. Innanzitutto, le esperienze di training hanno determinato, in entrambi i contesti, miglioramenti nell’abilità dei prescolari di mettersi nei panni altrui. Tale training ha inoltre dimostrato effetti positivi sulla competenza sociale dei bambini, che, a seguito del percorso, hanno manifestato un incremento dei comportamenti prosociali ed una diminuzione di quelli aggressivi. Per lo studio in contesto normativo, è stato inoltre dimostrato un mantenimento delle abilità acquisite a seguito del training attraverso un follow-up a distanza di 4 mesi dal termine dell’intervento. Il positivo esito di tale percorso sembra quindi rappresentare un’importante risorsa per i prescolari, soprattutto in caso di situazioni in cui l’abilità di perspective taking risulti deficitaria. Il confronto dei due gruppi a seguito del training ha evidenziato come non siano emerse differenze significative, rispetto al perspective taking, ad eccezione della dimensione emotiva, in cui le prestazioni dei prescolari maltrattati sono risultate inferiori, come già evidenziato prima del training. Tali risultati non giungono però inaspettati, poiché, sebbene il percorso abbia agito significativamente sull’abilità di comprensione delle emozioni altrui di questi bambini, non si configura come sufficiente a ristrutturare così profondamente le problematiche presentate. Interessanti sono stati altresì i risultati ottenuti dall’analisi degli stili di socializzazione emotiva, dei genitori (madri e padri) dei prescolari non maltrattati e delle mamme dei bambini residenti in comunità. In particolare è emerso come, stili accettanti e di tipo coaching nei confronti delle emozioni negative dei bambini, siano positivamente correlati con il perspective taking dei figli, e come all’opposto, stili rifiutanti rispetto alle espressioni emotive negative dei propri bambini, mostrino correlazioni negative con le abilità di perspective taking dei figli. Oltre ad interessi di ordine teorico e metodologico, è possibile quindi affermare come, il presente lavoro di tesi, sia stato guidato da fini applicativi, affinché la ricerca scientifica possa tradursi in pratiche educative quotidiane da applicare ai contesti di vita significativi per i bambini.
Resumo:
Attraverso una combinazione di virtual screening/virtual library generation abbiamo identificato una nuova serie di inibitori della replicazione del virus Dengue, attivi sia su un target virale (NS5) sia su uno cellulare (Src chinasi)
Resumo:
Oggi, i dispositivi portatili sono diventati la forza trainante del mercato consumer e nuove sfide stanno emergendo per aumentarne le prestazioni, pur mantenendo un ragionevole tempo di vita della batteria. Il dominio digitale è la miglior soluzione per realizzare funzioni di elaborazione del segnale, grazie alla scalabilità della tecnologia CMOS, che spinge verso l'integrazione a livello sub-micrometrico. Infatti, la riduzione della tensione di alimentazione introduce limitazioni severe per raggiungere un range dinamico accettabile nel dominio analogico. Minori costi, minore consumo di potenza, maggiore resa e una maggiore riconfigurabilità sono i principali vantaggi dell'elaborazione dei segnali nel dominio digitale. Da più di un decennio, diverse funzioni puramente analogiche sono state spostate nel dominio digitale. Ciò significa che i convertitori analogico-digitali (ADC) stanno diventando i componenti chiave in molti sistemi elettronici. Essi sono, infatti, il ponte tra il mondo digitale e analogico e, di conseguenza, la loro efficienza e la precisione spesso determinano le prestazioni globali del sistema. I convertitori Sigma-Delta sono il blocco chiave come interfaccia in circuiti a segnale-misto ad elevata risoluzione e basso consumo di potenza. I tools di modellazione e simulazione sono strumenti efficaci ed essenziali nel flusso di progettazione. Sebbene le simulazioni a livello transistor danno risultati più precisi ed accurati, questo metodo è estremamente lungo a causa della natura a sovracampionamento di questo tipo di convertitore. Per questo motivo i modelli comportamentali di alto livello del modulatore sono essenziali per il progettista per realizzare simulazioni veloci che consentono di identificare le specifiche necessarie al convertitore per ottenere le prestazioni richieste. Obiettivo di questa tesi è la modellazione del comportamento del modulatore Sigma-Delta, tenendo conto di diverse non idealità come le dinamiche dell'integratore e il suo rumore termico. Risultati di simulazioni a livello transistor e dati sperimentali dimostrano che il modello proposto è preciso ed accurato rispetto alle simulazioni comportamentali.
Resumo:
La riduzione dei consumi di combustibili fossili e lo sviluppo di tecnologie per il risparmio energetico sono una questione di centrale importanza sia per l’industria che per la ricerca, a causa dei drastici effetti che le emissioni di inquinanti antropogenici stanno avendo sull’ambiente. Mentre un crescente numero di normative e regolamenti vengono emessi per far fronte a questi problemi, la necessità di sviluppare tecnologie a basse emissioni sta guidando la ricerca in numerosi settori industriali. Nonostante la realizzazione di fonti energetiche rinnovabili sia vista come la soluzione più promettente nel lungo periodo, un’efficace e completa integrazione di tali tecnologie risulta ad oggi impraticabile, a causa sia di vincoli tecnici che della vastità della quota di energia prodotta, attualmente soddisfatta da fonti fossili, che le tecnologie alternative dovrebbero andare a coprire. L’ottimizzazione della produzione e della gestione energetica d’altra parte, associata allo sviluppo di tecnologie per la riduzione dei consumi energetici, rappresenta una soluzione adeguata al problema, che può al contempo essere integrata all’interno di orizzonti temporali più brevi. L’obiettivo della presente tesi è quello di investigare, sviluppare ed applicare un insieme di strumenti numerici per ottimizzare la progettazione e la gestione di processi energetici che possa essere usato per ottenere una riduzione dei consumi di combustibile ed un’ottimizzazione dell’efficienza energetica. La metodologia sviluppata si appoggia su un approccio basato sulla modellazione numerica dei sistemi, che sfrutta le capacità predittive, derivanti da una rappresentazione matematica dei processi, per sviluppare delle strategie di ottimizzazione degli stessi, a fronte di condizioni di impiego realistiche. Nello sviluppo di queste procedure, particolare enfasi viene data alla necessità di derivare delle corrette strategie di gestione, che tengano conto delle dinamiche degli impianti analizzati, per poter ottenere le migliori prestazioni durante l’effettiva fase operativa. Durante lo sviluppo della tesi il problema dell’ottimizzazione energetica è stato affrontato in riferimento a tre diverse applicazioni tecnologiche. Nella prima di queste è stato considerato un impianto multi-fonte per la soddisfazione della domanda energetica di un edificio ad uso commerciale. Poiché tale sistema utilizza una serie di molteplici tecnologie per la produzione dell’energia termica ed elettrica richiesta dalle utenze, è necessario identificare la corretta strategia di ripartizione dei carichi, in grado di garantire la massima efficienza energetica dell’impianto. Basandosi su un modello semplificato dell’impianto, il problema è stato risolto applicando un algoritmo di Programmazione Dinamica deterministico, e i risultati ottenuti sono stati comparati con quelli derivanti dall’adozione di una più semplice strategia a regole, provando in tal modo i vantaggi connessi all’adozione di una strategia di controllo ottimale. Nella seconda applicazione è stata investigata la progettazione di una soluzione ibrida per il recupero energetico da uno scavatore idraulico. Poiché diversi layout tecnologici per implementare questa soluzione possono essere concepiti e l’introduzione di componenti aggiuntivi necessita di un corretto dimensionamento, è necessario lo sviluppo di una metodologia che permetta di valutare le massime prestazioni ottenibili da ognuna di tali soluzioni alternative. Il confronto fra i diversi layout è stato perciò condotto sulla base delle prestazioni energetiche del macchinario durante un ciclo di scavo standardizzato, stimate grazie all’ausilio di un dettagliato modello dell’impianto. Poiché l’aggiunta di dispositivi per il recupero energetico introduce gradi di libertà addizionali nel sistema, è stato inoltre necessario determinare la strategia di controllo ottimale dei medesimi, al fine di poter valutare le massime prestazioni ottenibili da ciascun layout. Tale problema è stato di nuovo risolto grazie all’ausilio di un algoritmo di Programmazione Dinamica, che sfrutta un modello semplificato del sistema, ideato per lo scopo. Una volta che le prestazioni ottimali per ogni soluzione progettuale sono state determinate, è stato possibile effettuare un equo confronto fra le diverse alternative. Nella terza ed ultima applicazione è stato analizzato un impianto a ciclo Rankine organico (ORC) per il recupero di cascami termici dai gas di scarico di autovetture. Nonostante gli impianti ORC siano potenzialmente in grado di produrre rilevanti incrementi nel risparmio di combustibile di un veicolo, è necessario per il loro corretto funzionamento lo sviluppo di complesse strategie di controllo, che siano in grado di far fronte alla variabilità della fonte di calore per il processo; inoltre, contemporaneamente alla massimizzazione dei risparmi di combustibile, il sistema deve essere mantenuto in condizioni di funzionamento sicure. Per far fronte al problema, un robusto ed efficace modello dell’impianto è stato realizzato, basandosi sulla Moving Boundary Methodology, per la simulazione delle dinamiche di cambio di fase del fluido organico e la stima delle prestazioni dell’impianto. Tale modello è stato in seguito utilizzato per progettare un controllore predittivo (MPC) in grado di stimare i parametri di controllo ottimali per la gestione del sistema durante il funzionamento transitorio. Per la soluzione del corrispondente problema di ottimizzazione dinamica non lineare, un algoritmo basato sulla Particle Swarm Optimization è stato sviluppato. I risultati ottenuti con l’adozione di tale controllore sono stati confrontati con quelli ottenibili da un classico controllore proporzionale integrale (PI), mostrando nuovamente i vantaggi, da un punto di vista energetico, derivanti dall’adozione di una strategia di controllo ottima.
Resumo:
Le pitture intumescenti sono utilizzate come protettivi passivi antincendio nel settore delle costruzioni. In particolare sono utilizzate per aumentare la resistenza al fuoco di elementi in acciaio. Le proprietà termiche di questi rivestimenti sono spesso sconosciute o difficili da stimare per via del fatto che variano notevolmente durante il processo di espansione che subisce l’intumescente quando esposto al calore di un incendio. Per questa ragione la validazione della resistenza al fuoco di un rivestimento presente in commercio si basa su metodi costosi economicamente e come tempi di esecuzione nel quale ciascuna trave e colonna rivestita di protettivo deve essere testata una alla volta attraverso il test di resistenza al fuoco della curva cellulosica. In questo lavoro di tesi adottando invece un approccio basato sulla modellazione termica del rivestimento intumescente si ottiene un aiuto nella semplificazione della procedura di test ed un supporto nella progettazione della resistenza al fuoco delle strutture. Il tratto di unione nei vari passaggi della presente tesi è stata la metodologia di stima del comportamento termico sconosciuto, tale metodologia di stima è la “Inverse Parameter Estimation”. Nella prima fase vi è stata la caratterizzazione chimico fisica della vernice per mezzo di differenti apparecchiature come la DSC, la TGA e l’FT-IR che ci hanno permesso di ottenere la composizione qualitativa e le temperature a cui avvengono i principali processi chimici e fisici che subisce la pittura come anche le entalpie legate a questi eventi. Nella seconda fase si è proceduto alla caratterizzazione termica delle pitture al fine di ottenerne il valore di conduttività termica equivalente. A tale scopo si sono prima utilizzate le temperature dell’acciaio di prove termiche alla fornace con riscaldamento secondo lo standard ISO-834 e successivamente per meglio definire le condizioni al contorno si è presa come fonte di calore un cono calorimetrico in cui la misura della temperatura avveniva direttamente nello spessore del’intumescente. I valori di conduttività ottenuti sono risultati congruenti con la letteratura scientifica e hanno mostrato la dipendenza della stessa dalla temperatura, mentre si è mostrata poco variante rispetto allo spessore di vernice deposto ed alla geometria di campione utilizzato.
Resumo:
New photonic crystal fiber designs are presented and numerically investigated in order to improve the state of art of high power fiber lasers. The focus of this work is targeted on the region of 2 μm laser emission, which is of high interest due to its eye-safe nature and due to the large amount of applications permitted. Thulium doped fiber amplifiers are suitable for emitting in this region. Different fiber designs have been proposed, both flexible and rod-type, with the aim to enlarge mode area while maintaining robust single mode operation. The analysis of thermal effects, caused by the high thulium quantum defect, have been taken in consideration. Solutions to counteract issues derived by detrimental thermal effects have been implemented.
Resumo:
La presente Tesi ha per oggetto lo sviluppo e la validazione di nuovi criteri per la verifica a fatica multiassiale di componenti strutturali metallici . In particolare, i nuovi criteri formulati risultano applicabili a componenti metallici, soggetti ad un’ampia gamma di configurazioni di carico: carichi multiassiali variabili nel tempo, in modo ciclico e random, per alto e basso/medio numero di cicli di carico. Tali criteri costituiscono un utile strumento nell’ambito della valutazione della resistenza/vita a fatica di elementi strutturali metallici, essendo di semplice implementazione, e richiedendo tempi di calcolo piuttosto modesti. Nel primo Capitolo vengono presentate le problematiche relative alla fatica multiassiale, introducendo alcuni aspetti teorici utili a descrivere il meccanismo di danneggiamento a fatica (propagazione della fessura e frattura finale) di componenti strutturali metallici soggetti a carichi variabili nel tempo. Vengono poi presentati i diversi approcci disponibili in letteratura per la verifica a fatica multiassiale di tali componenti, con particolare attenzione all'approccio del piano critico. Infine, vengono definite le grandezze ingegneristiche correlate al piano critico, utilizzate nella progettazione a fatica in presenza di carichi multiassiali ciclici per alto e basso/medio numero di cicli di carico. Il secondo Capitolo è dedicato allo sviluppo di un nuovo criterio per la valutazione della resistenza a fatica di elementi strutturali metallici soggetti a carichi multiassiali ciclici e alto numero di cicli. Il criterio risulta basato sull'approccio del piano critico ed è formulato in termini di tensioni. Lo sviluppo del criterio viene affrontato intervenendo in modo significativo su una precedente formulazione proposta da Carpinteri e collaboratori nel 2011. In particolare, il primo intervento riguarda la determinazione della giacitura del piano critico: nuove espressioni dell'angolo che lega la giacitura del piano critico a quella del piano di frattura vengono implementate nell'algoritmo del criterio. Il secondo intervento è relativo alla definizione dell'ampiezza della tensione tangenziale e un nuovo metodo, noto come Prismatic Hull (PH) method (di Araújo e collaboratori), viene implementato nell'algoritmo. L'affidabilità del criterio viene poi verificata impiegando numerosi dati di prove sperimentali disponibili in letteratura. Nel terzo Capitolo viene proposto un criterio di nuova formulazione per la valutazione della vita a fatica di elementi strutturali metallici soggetti a carichi multiassiali ciclici e basso/medio numero di cicli. Il criterio risulta basato sull'approccio del piano critico, ed è formulato in termini di deformazioni. In particolare, la formulazione proposta trae spunto, come impostazione generale, dal criterio di fatica multiassiale in regime di alto numero di cicli discusso nel secondo Capitolo. Poiché in presenza di deformazioni plastiche significative (come quelle caratterizzanti la fatica per basso/medio numero di cicli di carico) è necessario conoscere il valore del coefficiente efficace di Poisson del materiale, vengono impiegate tre differenti strategie. In particolare, tale coefficiente viene calcolato sia per via analitica, che per via numerica, che impiegando un valore costante frequentemente adottato in letteratura. Successivamente, per validarne l'affidabilità vengono impiegati numerosi dati di prove sperimentali disponibili in letteratura; i risultati numerici sono ottenuti al variare del valore del coefficiente efficace di Poisson. Inoltre, al fine di considerare i significativi gradienti tensionali che si verificano in presenza di discontinuità geometriche, come gli intagli, il criterio viene anche esteso al caso dei componenti strutturali intagliati. Il criterio, riformulato implementando il concetto del volume di controllo proposto da Lazzarin e collaboratori, viene utilizzato per stimare la vita a fatica di provini con un severo intaglio a V, realizzati in lega di titanio grado 5. Il quarto Capitolo è rivolto allo sviluppo di un nuovo criterio per la valutazione del danno a fatica di elementi strutturali metallici soggetti a carichi multiassiali random e alto numero di cicli. Il criterio risulta basato sull'approccio del piano critico ed è formulato nel dominio della frequenza. Lo sviluppo del criterio viene affrontato intervenendo in modo significativo su una precedente formulazione proposta da Carpinteri e collaboratori nel 2014. In particolare, l’intervento riguarda la determinazione della giacitura del piano critico, e nuove espressioni dell'angolo che lega la giacitura del piano critico con quella del piano di frattura vengono implementate nell'algoritmo del criterio. Infine, l’affidabilità del criterio viene verificata impiegando numerosi dati di prove sperimentali disponibili in letteratura.