990 resultados para valore atteso prezzo equo momenti utilità
Resumo:
La crisi del “teatro come servizio pubblico” degli Stabili, Piccolo Teatro in testa, si manifesta allo stadio di insoddisfazione interna già alla fine degli anni Cinquanta. Se dal punto di vista della pratica scenica, la prima faglia di rottura è pressoché unanimemente ricondotta alla comparsa delle primissime messe in scena –discusse, irritanti e provocatorie- di Carmelo Bene e Quartucci (1959-60) più difficile è individuare il corrispettivo di un critico-intellettuale apportatore di una altrettanto deflagrante rottura. I nomi di Arbasino e di Flaiano sono, in questo caso, i primi che vengono alla mente, ma, seppure portatori di una critica sensibile al “teatro ufficiale”, così come viene ribattezzato dopo il Convegno di Ivrea (1967) il modello attuato dagli Stabili, essi non possono, a ben vedere, essere considerati i veri promotori di una modalità differente di fare critica che, a partire da quel Convegno, si accompagnerà stabilmente alla ricerca scenica del Nuovo Teatro. Ma in cosa consiste, allora, questa nuova “operatività” critica? Si tratta principalmente di una modalità capace di operare alle soglie della scrittura, abbracciando una progressiva, ma costante fuoriuscita dalla redazione di cronache teatrali, per ripensare radicalmente la propria attività in nuovi spazi operativi quali le riviste e l’editoria di settore, un rapporto sempre più stretto con i mass-media quali radio e televisione e la pratica organizzativa di momenti spettacolari e teorici al contempo -festival, convegni, rassegne e premi- per una forma di partecipazione poi identificata come “sporcarsi le mani”. La seconda parte della tesi è una raccolta documentaria sull’oggi. A partire dal Manifesto dei Critici Impuri redatto nel 2003 a Prato da un gruppo di critici dell'ultima generazione, la tesi utilizza quella dichiarazione come punto di partenza per creare un piccolo archivio sull’oggi raccogliendo le elaborazioni di alcune delle esperienze più significative di questi dieci anni. Ricca appendice di materiali.
Resumo:
Scopo. Lo scopo di questo studio è esaminare il problema degli sprechi nelle moderne food supply chain, così da consentire una piena comprensione delle principali cause di inefficienza sistemica nell’industria alimentare e individuare potenziali opportunità di miglioramento. Approccio e Metodologia. Per raggiungere gli obiettivi prefissati la presente trattazione si propone di implementare una ricerca empirica basata sull’analisi di due realtà industriali operanti nel settore alimentare. Nello specifico verranno studiate due aziende integrate rispettivamente nel contesto economico italiano e in quello inglese e operanti a due stadi diversi e complementari della filiera alimentare, quello della produzione e quello della distribuzione. Questo studio incrociato consentirà, auspicabilmente, di portare alla luce quegli elementi chiave necessari per una lettura chiara ed esaustiva delle maggiori sfide che le moderne supply chain si trovano a dover affrontare, in una prospettiva di minimizzazione degli sprechi e di accrescimento del valore per il consumatore. Risultati. I risultati che si prevede di ottenere dall’implementazione di questo studio sono fondamentalmente quattro: 1.Piena comprensione del concetto di spreco nell’industria alimentare. 2.Identificazione dei principali fattori chiave che dovrebbero essere attentamente monitorati con lo scopo di conseguire un’efficace riduzione degli sprechi lungo la filiera alimentare. 3.Analisi critica di quelle che sono le più utilizzate pratiche manageriali e operative nelle moderne aziende alimentari. 4.Individuazione dei potenziali sviluppi che potrebbero essere implementati attraverso l’utilizzo delle più recenti ICT in termini di efficienza della supply chain. Valore della Ricerca. Seppure mediante un’analisi prevalentemente di tipo qualitativo, questa trattazione si prefigge di fornire un contributo nell’ambito del food supply chain management che, data la rilevanza del problema relativo agli sprechi, risulta oggi più attuale che mai. L’originalità di questo studio risiede principalmente nelle fonti dei dati che ne hanno costituito le fondamenta: da un lato la ricerca teorica sviluppata nel Regno Unito, dove lo studio della supply chain è ormai da decenni approfondito nelle più importanti Università; dall’altro la ricerca empirica sviluppata sia presso una delle più importanti e moderne aziende alimentari italiane, che presso uno dei più famosi logistics service provider a livello mondiale.
Resumo:
Nella prima parte viene ricostruito il concetto di vincolo espropriativo alla luce dell’elaborazione della giurisprudenza della Corte costituzionale e della Corte EDU, giungendo alla conclusione che rientrano in tale concetto le limitazioni al diritto di proprietà che: - derivano da scelte discrezionali dell’Amministrazione non correlate alle caratteristiche oggettive del bene; - superano la normale tollerabilità nel senso che impediscono al proprietario la prosecuzione dell’uso in essere o incidono sul valore di mercato del bene in modo sproporzionato rispetto alle oggettive caratteristiche del bene e all’interesse pubblico perseguito. Ragione di fondo della teoria dei vincoli è censurare l’eccessiva discrezionalità del potere urbanistico, imponendo una maggiore obiettività e controllabilità delle scelte urbanistiche. Dalla teoria dei vincoli consegue altresì che nell’esercizio del potere urbanistico l’Amministrazione, pur potendo differenziare il territorio, deve perseguire l’obiettivo del riequilibrio economico degli interessi incisi dalle sue determinazioni. L’obbligo della corresponsione dell’indennizzo costituisce la prima forma di perequazione urbanistica. Nel terzo e nel quarto capitolo viene analizzata la giurisprudenza civile e amministrativa in tema di vincoli urbanistici, rilevandone la non corrispondenza rispetto all’elaborazione della Corte costituzionale e l’incongruità dei risultati applicativi. Si evidenzia in particolare la necessità del superamento del criterio basato sulla distinzione zonizzazioni-localizzazioni e di considerare conformative unicamente quelle destinazioni realizzabili ad iniziativa privata che in concreto consentano al proprietario di conseguire un’utilità economica proporzionata al valore di mercato del bene. Nel quinto capitolo viene analizzato il rapporto tra teoria dei vincoli e perequazione urbanistica, individuandosi il discrimine tra i due diversi istituti non solo nel consenso, ma anche nella proporzionalità delle reciproche prestazioni negoziali. Attraverso la perequazione non può essere attribuito al proprietario un’utilità inferiore a quella che gli deriverebbe dall’indennità di esproprio.
Resumo:
La tesi di ricerca si propone di esaminare due tipologie della canzone sociale nel XIX secolo, ed in particolare attorno al 1848. Lo studio del canto nei contesti presi in esame (l’Italia e la Francia) viene analizzato attraverso due piste di ricerca parallele tra loro. Da una parte si è utilizzato il concetto di sociabilité per conoscere i luoghi di produzione e di diffusione del canto (l’importanza della strada, dell’osteria, delle goguette parigine, degli chansonniers des rues e dei cantastorie) e le circostanze di utilizzazione della canzone (la canzone in quanto forma d’espressione orale ma anche come scrittura murale, foglio volante e volantino). Dall’altra l’analisi si è focalizzata sui contenuti dei testi musicali per mette in luce le differenti tematiche, le immagini linguistiche e le figure retoriche cantate dall’artigiano-operaio per far emergere le differenze dell’idea di nazione tra i due contesti presi in esame. L’attenzione posta alla comparazione condurrà all’evidenziazione di punti di contatto tra le due nazioni. Il canto, infatti, costituisce un terreno privilegiato per comprendere l’immagine dell’“altro”: quale immagine possedevano i lavoratori francesi dell’Italia risorgimentale? E gli artigiani italiani come percepivano la nazione francese? Il canto viene analizzato non solamente come un “testo” ma anche come una “pratica sociale”. Queste operazioni permetteranno di sondare più in profondità la funzione sociale svolta dalla canzone all’interno della cultura popolare e la sua importanza in quanto forma d’espressione e vettore di politicizzazione. La duplice utilizzazione del canto, in quanto “testo” e “pratica”, consente di inserire la ricerca all’interno di un filone storiografico che dalla storia sociale si muove a quella culturale. La canzone sociale rappresenta un fertile terreno di ricerca, non solamente all’interno di un singolo territorio nazionale, ma possiede un prezioso valore euristico in funzione comparativa.
Resumo:
Nell'ambito di un'indagine sull'identità del rivoluzionario nel XIX secolo, calata tra gli attivisti coinvolti nella Comune di Parigi, si è trattato di selezionare quelle autobiografie scritte e pubblicate da comunardi come parte integrante della loro attività politica, e così porre il problema del rapporto tra pratica autobiografica e rivoluzione, ovvero chiarire le condizioni del passage au récit, la scelta autobiografica e insieme la mise en intrigue tra esperienze individuali e rivoluzione. Questa ricerca si presenta dunque come un lavoro sulle pratiche autobiografiche all'interno delle pratiche di attivismo politico, ovvero più specificamente sulla relazione tra autobiografia e rivoluzione. In altri termini si analizza il modo in cui i rivoluzionari narravano la loro identità in pubblico, perché lo avessero fatto e cosa veicolavo in termini di stili di vita e convinzioni particolari. In quanto rivoluzionari, l'autobiografia diviene fonte e parte di ciò che essi reputavano in quel momento la propria traiettoria rivoluzionaria, la narrazione di quella che in quel momento ritenevano comunicare al pubblico come propria identità narrativa. La ricerca si articola in tre momenti. Nel primo capitolo analizzo le biografie, o meglio un piccolo gruppo tra la massa di biografie di comunardi edite all'indomani della Comune da parte della pubblicistica tanto ostile quanto partigiana della Comune. Queste narrazioni biografiche diffuse nei mesi successivi alla repressione della rivoluzione comunalista consentono di affrontare una delle condizioni fondamentali del passage au récit autobiografico che si manifesterà solo posteriormente. Il secondo e il terzo capitolo sono dedicati a due progetti autobiografici di diversa natura: la trilogia autobiografica di Jules Vallès (1879, 1881, 1886) e le Mémoires di Louise Michel (1886).
Resumo:
L'obiettivo principale della tesi è lo sviluppo di un modello empirico previsivo di breve periodo che sia in grado di offrire previsioni precise ed affidabili dei consumi di energia elettrica su base oraria del mercato italiano. Questo modello riassume le conoscenze acquisite e l'esperienza fatta durante la mia attuale attività lavorativa presso il Romagna Energia S.C.p.A., uno dei maggiori player italiani del mercato energetico. Durante l'ultimo ventennio vi sono stati drastici cambiamenti alla struttura del mercato elettrico in tutto il mondo. Nella maggior parte dei paesi industrializzati il settore dell'energia elettrica ha modificato la sua originale conformazione di monopolio in mercato competitivo liberalizzato, dove i consumatori hanno la libertà di scegliere il proprio fornitore. La modellazione e la previsione della serie storica dei consumi di energia elettrica hanno quindi assunto un ruolo molto importante nel mercato, sia per i policy makers che per gli operatori. Basandosi sulla letteratura già esistente, sfruttando le conoscenze acquisite 'sul campo' ed alcune intuizioni, si è analizzata e sviluppata una struttura modellistica di tipo triangolare, del tutto innovativa in questo ambito di ricerca, suggerita proprio dal meccanismo fisico attraverso il quale l'energia elettrica viene prodotta e consumata nell'arco delle 24 ore. Questo schema triangolare può essere visto come un particolare modello VARMA e possiede una duplice utilità, dal punto di vista interpretativo del fenomeno da una parte, e previsivo dall'altra. Vengono inoltre introdotti nuovi leading indicators legati a fattori meteorologici, con l'intento di migliorare le performance previsive dello stesso. Utilizzando quindi la serie storica dei consumi di energia elettrica italiana, dall'1 Marzo 2010 al 30 Marzo 2012, sono stati stimati i parametri del modello dello schema previsivo proposto e valutati i risultati previsivi per il periodo dall'1 Aprile 2012 al 30 Aprile 2012, confrontandoli con quelli forniti da fonti ufficiali.
Resumo:
L’acido adipico (AA) è un importante intermedio chimico prodotto in quantità pari a circa tre milioni di tonnellate annue, i cui usi riguardano principalmente la produzione di Nylon-6,6. Tutti i processi industriali odierni per la produzione dell’AA hanno in comune lo stadio finale di ossidazione con acido nitrico dell’ultimo intermedio di sintesi, che in genere è una miscela di cicloesanolo e cicloesanone (KA Oil). Esistono diversi problemi riguardanti questo processo, come la pericolosità che deriva dall’uso di acido nitrico concentrato. Dal punto di vista ambientale, il problema principale riguarda la produzione di protossido di azoto e di altri ossidi di azoto durante l’ultima fase di ossidazione con HNO3, per questo motivo, tutte le aziende che producono AA devono essere munite per legge di sistemi di abbattimento quantitativi o di recupero degli ossidi di azoto, che però risultano essere molto incisivi sul costo del processo. A livello industriale, quindi, il problema riguarda principalmente la sostenibilità economica, ma poiché queste procedure hanno un prezzo in termini di materiali ed energia, si ha anche un forte legame con la sostenibilità ambientale. Gli studi riguardanti nuovi processi per la produzione di AA sono numerosi; alcuni hanno portato a vie più “green”, ma solo pochi esempi sono veramente sostenibili dal punto di vista sia ambientale che economico. Il presente lavoro di tesi è diviso in due parti, entrambe riguardanti vie di sintesi alternative per la produzione di AA. La prima parte riguarda lo studio del secondo passaggio di una via di sintesi in due step che parte da cicloesene e che ha come intermedio l’1,2-cicloesandiolo.Sono stati provati catalizzatori eterogenei a base di nanoparticelle di Au supportate su MgO per il cleavage ossidativo in fase liquida del diolo con O2 in ambiente basico. La seconda parte invece riguarda il processo di sintesi dell’AA a partire da cicloesanone mediante l’ossidazione con perossido di idrogeno a e- caprolattone e la successiva ossidazione ad AA. Nello specifico, è stato studiato il meccanismo di reazione del primo passaggio in quanto evidenze sperimentali ottenute nel corso di lavori precedenti avevano dimostrato la presenza di un cammino di reazione differente da quello tipico per un’ossidazione di Baeyer-Villiger. In questa parte, si è studiato l’effetto di alcuni catalizzatori eterogenei a base di acidi di Lewis sui prodotti ottenuti nel primo stadio ossidativo.
Resumo:
Conformemente ai trattati, l'UE sviluppa una politica comune in materia di asilo, immigrazione e controllo delle frontiere esterne, fondata sulla solidarietà e sul rispetto dei diritti fondamentali e, a tal fine, avvia relazioni strategiche con i Paesi terzi e le Organizzazioni internazionali. Un fenomeno “senza frontiere”, quale quello migratorio, esige del resto un'azione coerente e coordinata sia sul piano interno sia su quello esterno. La messa in atto di quest'ultima, tuttavia, si scontra con difficoltà di rilievo. Innanzitutto, l'UE e i suoi Stati membri devono creare i presupposti per l'avvio della collaborazione internazionale, vale a dire stimolare la fiducia reciproca con i Paesi terzi, rafforzando la propria credibilità internazionale. A tal fine, le istituzioni, gli organi e gli organismi dell'UE e gli Stati membri devono impegnarsi a fornire un modello coerente di promozione dei valori fondanti, quali la solidarietà e il rispetto dei diritti fondamentali, nonché a coordinare le proprie iniziative, per individuare, insieme ai Paesi terzi e alle Organizzazioni internazionali, una strategia d'azione comune. In secondo luogo, l'UE e gli Stati membri devono adottare soluzioni volte a promuovere l'efficacia della collaborazione internazionale e, più precisamente, assicurare che la competenza esterna sia esercitata dal livello di governo in grado di apportare il valore aggiunto e utilizzare la forma collaborativa di volta in volta più adeguata alla realizzazione degli obiettivi previsti. In definitiva, l'azione esterna dell'UE in materia di politica migratoria necessita di una strategia coerente e flessibile. Se oggi la coerenza è garantita dalla giustiziabilità dei principi di solidarietà, di rispetto dei diritti fondamentali e, giustappunto, di coerenza, la flessibilità si traduce nel criterio del valore aggiunto che, letto in combinato disposto con il principio di leale cooperazione, si pone al centro del nuovo modello partenariale proposto dall'approccio globale, potenzialmente idoneo a garantire la gestione efficace del fenomeno migratorio.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
This Ph.D. thesis focuses on the investigation of some chemical and sensorial analytical parameters linked to the quality and purity of different categories of oils obtained by olives: extra virgin olive oils, both those that are sold in the large retail trade (supermarkets and discounts) and those directly collected at some Italian mills, and lower-quality oils (refined, lampante and “repaso”). Concurrently with the adoption of traditional and well-known analytical procedures such as gas chromatography and high-performance liquid chromatography, I carried out a set-up of innovative, fast and environmentally-friend methods. For example, I developed some analytical approaches based on Fourier transform medium infrared spectroscopy (FT-MIR) and time domain reflectometry (TDR), coupled with a robust chemometric elaboration of the results. I investigated some other freshness and quality markers that are not included in official parameters (in Italian and European regulations): the adoption of such a full chemical and sensorial analytical plan allowed me to obtain interesting information about the degree of quality of the EVOOs, mostly within the Italian market. Here the range of quality of EVOOs resulted very wide, in terms of sensory attributes, price classes and chemical parameters. Thanks to the collaboration with other Italian and foreign research groups, I carried out several applicative studies, especially focusing on the shelf-life of oils obtained by olives and on the effects of thermal stresses on the quality of the products. I also studied some innovative technological treatments, such as the clarification by using inert gases, as an alternative to the traditional filtration. Moreover, during a three-and-a-half months research stay at the University of Applied Sciences in Zurich, I also carried out a study related to the application of statistical methods for the elaboration of sensory results, obtained thanks to the official Swiss Panel and to some consumer tests.
Resumo:
Lo scopo di questo studio è di valutare il significato prognostico dell'elettrocardiogramma standard in un'ampia casistica di pazienti affetti da cardiomiopatia ipertrofica. In questo studio multicentrico sono stati considerati 841 pazienti con cardiomiopatia ipertrofica (66% uomini, età media 48±17 anni) per un follow-up di 7.1±7.1 anni, per ognuno è stato analizzato il primo elettrocardiogramma disponibile. I risultati hanno dimostrato come fattori indipendentemente correlati a morte cardiaca improvvisa la sincope inspiegata (p 0.004), il sopraslivellamento del tratto ST e/o la presenza di onde T positive giganti (p 0.048), la durata del QRS >= 120 ms (p 0.017). Sono stati costruiti due modelli per predire il rischio di morte improvvisa: il primo basato sui fattori di rischio universalmente riconosciuti (spessore parietale >= 30 mm, tachicardie ventricolari non sostenute all'ECG Holter 24 ore, sincope e storia familiare di morte improvvisa) e il secondo con l'aggiunta delle variabili sopraslivellamento del tratto ST/onde T positive giganti e durata del QRS >= 120 ms. Entrambi i modelli stratificano i pazienti in base al numero dei fattori di rischio, ma il secondo modello risulta avere un valore predittivo maggiore (chi-square da 12 a 22, p 0.002). In conclusione nella cardiomiopatia ipertrofica l'elettrocardiogramma standard risulta avere un valore prognostico e migliora l'attuale modello di stratificazione per il rischio di morte improvvisa.
Resumo:
La presente tesi di dottorato ha come argomento la produzione d’idrogeno per via fermentativa sfruttando il metabolismo anaerobico di particolari batteri estremofili del genere Thermotoga. In questo lavoro, svolto in seno al progetto Bio-Hydro, sfruttando reattori batch da 116 mL, è stato selezionato il ceppo migliore di Thermotoga fra i quatto ceppi testati: T. neapolitana. Una volta individuato il candidato batterico migliore è stato individuato il valore ottimale di pH (8.5 a t.amb) per la produzione d’idrogeno. Un intenso lavoro è stato svolto sul medium di coltura permettendone la minimizzazione e rendendolo così economicamente sostenibile per il suo utilizzo nel reattore da 19L; in questo caso il glucosio è stato completamente sostituito con due sottoprodotti agroindustriali individuati in precedenza, il melasso di barbabietola e il siero di latte. Sono stati poi eliminati i gravosi micronutrienti e le vitamine. È stata sfruttata la capacità di T. neapolitana di produrre biofilm e sono stati testati 4 diversi supporti in vetro sinterizzato e ceramici, tali test hanno permesso di individuare Biomax come supporto migliore. Sono stati svolti studi sul metabolismo di T. neapolitana volti ad individuare le concentrazioni inibenti di ogni substrato testato, l’inibizione da prodotto (idrogeno) e l’inibizione da ossigeno. Tutte queste prove hanno dato le conoscenze di base per la conduzione di esperienze su reattore da 19L. L’innovativo reattore di tipo SPCSTR è stato interamente studiato, progettato e costruito presso il DICMA. dell’Università di Bologna. La conduzione di esperienze batch su SPCSTR ha dato la possibilità di verificare il funzionamento del nuovo tipo d’impianto. Presso il Wageningen UR (NL), è stata svolta la selezione del miglior ceppo di Caldicellulosisruptor fra 3 testati e del miglior supporto per la produzione d’idrogeno; è stato poi costruito testato e condotto in continuo l’innovativo reattore CMTB.
Resumo:
Il siero di latte e la scotta sono effluenti provenienti rispettivamente dal processo di trasformazione del latte in formaggio e ricotta. Il siero di latte contiene minerali, lipidi, lattosio e proteine; la scotta contiene principalmente lattosio. Il siero può essere riutilizzato in diversi modi, come l'estrazione di proteine o per l’alimentazione animale, mentre la scotta è considerata solamente un rifiuto. Inoltre, a causa degli ingenti volumi di siero prodotti nel mondo, vengono a crearsi seri problemi ambientali e di smaltimento. Destinazioni alternative di questi effluenti, come le trasformazioni biotecnologiche, possono essere un modo per raggiungere il duplice obiettivo di migliorare il valore aggiunto dei processi agroindustriali e di ridurre il loro impatto ambientale. In questo lavoro sono state studiate le condizioni migliori per produrre bioetanolo dal lattosio del siero e della scotta. Kluyveromyces marxianus è stato scelto come lievito lattosio-fermentante. Sono state effettuate fermentazioni su scala di laboratorio aerobiche e anaerobiche in batch, fermentazioni semicontinue in fase dispersa e con cellule immobilizzate in alginato di calcio,. Diverse temperature sono state testate per migliorare la produzione di etanolo. Le migliori prestazioni, per entrambe le matrici, sono state raggiunte a basse temperature (28°C). Anche le alte temperature sono compatibili con buone rese di etanolo nelle fermentazioni con siero. Ottimi risultati si sono ottenuti anche con la scotta a 37°C e a 28°C. Le fermentazioni semicontinue in fase dispersa danno le migliori produzioni di etanolo, in particolare con la scotta. Invece, l'uso di cellule di lievito intrappolate in alginato di calcio non ha migliorato i risultati di processo. In conclusione, entrambi gli effluenti possono essere considerati adatti per la produzione di etanolo. Le buone rese ottenute dalla scotta permettono di trasformare questo rifiuto in una risorsa.
Resumo:
L’obiettivo di questa tesi di laurea è stato la valutazione delle sovratensioni generate da una scarica atmosferica in linee miste di tipo aerea-cavo affluenti a stazioni di trasformazione. Lo studio si è incentrato sul caso della fulminazione diretta su una fase della linea aerea, il cosiddetto shielding failure, nella situazione peggiore ovvero senza innesco degli spinterometri posti a protezione della catena di isolatori. Applicando la teoria dei diagrammi a graticcio, è stata studiata la propagazione di un’onda di tensione (gradino, triangolo rettangolo e triangolo scaleno), generata da una scarica atmosferica, lungo tre particolari configurazioni di una linea mista AT 132 kV. In particolare, è stato implementato un codice di calcolo in Matlab, con il quale sono state determinate le componenti riflesse, che si formano quando l’onda di tensione incidente va ad impattare nei punti di discontinuità d’impedenza d’onda della linea mista. Tale calcolo ha consentito sia la rappresentazione temporale del transitorio, sia la determinazione del valore di cresta raggiunto dalla sovratensione, in particolari punti sensibili della linea, quali le estremità della linea in cavo ed il collegamento con il trasformatore. Il calcolo analitico è stato poi confrontato con i risultati delle simulazioni relative alla fulminazione diretta su una fase della linea aerea, eseguite con il software EMTPWorks. Il lavoro si è incentrato in particolar modo, sulla determinazione del modello che va a simulare la linea mista presa in considerazione, anche mediante il confronto con un noto caso di studio riportato sulle pubblicazioni.
Resumo:
Questa tesi è una panoramica di alcuni concetti base su cui si fonda la dinamica delle galassie. Nel primo capitolo vengono messi in evidenza i concetti più generali dal punto di vista morfologico- strutturale attraverso la classificazione di Hubble. Nel secondo capitolo si mette in evidenza come un sistema possa essere definito non collisionale (attraverso la stima del tempo di rilassamento ai due corpi) e le conseguenze che ne derivano come, per esempio, l' anisotropia dello stesso sistema che conferisce alla galassia la sua classica forma “schiacciata”. Vengono poi descritti la collisional Boltzmann equation (CBE) e il teorema del viriale in forma tensoriale . Integrando la CBE nello spazio delle velocità otteniamo tre equazioni note come equazioni di Jeans: queste hanno una struttura del tutto identica a quelle della fluidodinamica ma con alcune eccezioni significative che non permettono di descrivere completamente la dinamica delle galassie attraverso la fluidodinamica. Il terzo capitolo è un excursus generale sulle galassie ellittiche: dalla loro struttura alla loro dinamica. Dall' applicazione del teorema del viriale ad un sistema ellittico si può notare come la forma “schiacciata” delle galassie sia una conseguenza dell' anisotropia del sistema e sia dovuta solo in minima parte alla rotazione. Successivamente viene presentato un modello galattico (quello di Jeans), che ci permette di calcolare una distribuzione di massa del sistema attraverso un' equazione che purtroppo non ha soluzione unica e quindi ci rende impossibile calcolare il rapporto massa- luminosità. Infine viene descritto il fundamental plane che è una relazione empirica tale per cui ad ogni galassia viene associato un determinato valore di raggio effettivo, dispersione di velocità e luminosità. Nel quarto ed ultimo capitolo viene trattata la dinamica delle parti più esterne di una galassia: disco e bracci. La dinamica del disco è descritta attraverso la curva di rotazione che, come vedremo, ha delle caratteristiche abbastanza diverse da una curva di rotazione di tipo kepleriano (quella che ad esempio descrive l' andamento della velocità in funzione della distanza nel nostro sistema solare). Infine viene descritta la dinamica dei bracci e la teoria delle onde di densità di Lin e Shu, due astronomi americani, che riesce a descrivere compiutamente la nascita e l' evoluzione dei bracci a spirale.