972 resultados para sistemi catalitici organici, aminocatalisi
Resumo:
In questa tesi abbiamo presentato il calcolo dell’Entropia di Entanglement di un sistema quantistico unidimensionale integrabile la cui rappresentazione statistica é data dal modello RSOS, il cui punto critico é una realizzazione su reticolo di tutti i modelli conformi minimali. Sfruttando l’integrabilitá di questi modelli, abbiamo svolto il calcolo utilizzando la tecnica delle Corner Transfer Matrices (CTM). Il risultato ottenuto si discosta leggermente dalla previsione di J. Cardy e P. Calabrese ricavata utilizzando la teoria dei campi conformi descriventi il punto critico. Questa differenza é stata imputata alla non-unitarietá del modello studiato, in quanto la tecnica CTM studia il ground state, mentre la previsione di Cardy e Calabrese si focalizza sul vuoto conforme del modello: nel caso dei sistemi non-unitari questi due stati non coincidono, ma possono essere visti come eccitazioni l’uno dell’altro. Dato che l’Entanglement é un fenomeno genuinamente quantistico e il modello RSOS descrive un sistema statistico classico bidimensionale, abbiamo proposto una Hamiltoniana quantistica unidimensionale integrabile la cui rappresentazione statistica é data dal modello RSOS.
Resumo:
In questo lavoro abbiamo studiato la presenza di correzioni, dette unusuali, agli stati eccitati delle teorie conformi. Inizialmente abbiamo brevemente descritto l'approccio di Calabrese e Cardy all'entropia di entanglement nei sistemi unidimensionali al punto critico. Questo approccio permette di ottenere la famosa ed universale divergenza logaritmica di questa quantità. Oltre a questo andamento logaritmico son presenti correzioni, che dipendono dalla geometria su cui si basa l'approccio di Calabrese e Cardy, il cui particolare scaling è noto ed è stato osservato in moltissimi lavori in letteratura. Questo scaling è dovuto alla rottura locale della simmetria conforme, che è una conseguenza della criticità del sistema, intorno a particolari punti detti branch points usati nell'approccio di Calabrese e Cardy. In questo lavoro abbiamo dimostrato che le correzioni all'entropia di entanglement degli stati eccitati della teoria conforme, che può anch'essa essere calcolata tramite l'approccio di Calabrese e Cardy, hanno lo stesso scaling di quelle osservate negli stati fondamentali. I nostri risultati teorici sono stati poi perfettamente confermati dei calcoli numerici che abbiamo eseguito sugli stati eccitati del modello XX. Sono stati inoltre usati risultati già noti per lo stato fondamentale del medesimo modello per poter studiare la forma delle correzioni dei suoi stati eccitati. Questo studio ha portato alla conclusione che la forma delle correzioni nei due differenti casi è la medesima a meno di una funzione universale.
Resumo:
Il dibattito sullo sviluppo delle culture dell’età del Bronzo nel territorio dell’Emilia-Romagna sta portando una rinnovata attenzione sull’area romagnola. Le indagini si sono concentrate sull’area compresa tra il fiume Panaro e il Mare Adriatico, riconoscibile nell’odierna Romagna ed in parte della bassa pianura emiliana. Si trattava un territorio strategico, un vero e proprio crocevia socio-economico fra la cultura terramaricola e quelle centro italiche di Grotta Nuova. La presente ricerca di dottorato ha portato alla ricostruzione dei sistemi di gestione e di sfruttamento delle risorse animali in Emilia-Romagna durante l’Età del Bronzo, con particolare attenzione alla definizione della capacità portante ambientale dei diversi territori indagati e delle loro modalità di sfruttamento in relazione alla razionalizzazione della pratiche di allevamento. Sono state studiate in dettaglio le filiere di trasformazione dei prodotti animali primari e secondari definendo, quindi, i caratteri delle paleoeconomie locali nel processo di evoluzione della Romagna durante l’età del Bronzo. La ricerca si è basata sullo studio archeozoologico completo su 13 siti recentemente indagati, distribuiti nelle provincie di: Bologna, Ferrara, Ravenna, Forlì/Cesena e Rimini, e su una revisione completa delle evidenze archeozoologiche prodotte da studi pregressi. Le analisi non si sono limitate al riconoscimento delle specie, ma hanno teso all’individuazione ed alla valutazione di parametri complessi per ricostruire le strategie di abbattimento e le tecniche di sfruttamento e macellazione dei diversi gruppi animali. E’ stato possibile, quindi, valutare il peso ecologico di mandrie e greggi sul territorio e l’impatto economico ed ecologico di un allevamento sempre più sistematico e razionale, sia dal punto di vista dell’organizzazione territoriale degli insediamenti, sia per quanto riguarda le ripercussioni sulla gestione delle risorse agricole ed ambientali in generale.
Resumo:
Il progetto di ricerca si situa nell’ambito dell’informatica giudiziaria settore che studia i sistemi informativi implementati negli uffici giudiziari allo scopo di migliorare l’efficienza del servizio, fornire una leva per la riduzione dei lunghi tempi processuali, al fine ultimo di garantire al meglio i diritti riconosciuti ai cittadini e accrescere la competitività del Paese. Oggetto di studio specifico del progetto di ricerca è l’utilizzo delle ICT nel processo penale. Si tratta di una realtà meno studiata rispetto al processo civile, eppure la crisi di efficienza del processo non è meno sentita in tale area: l’arretrato da smaltire al 30 giugno del 2011 è stato quantificato in 3,4 milioni di processi penali, e il tempo medio di definizione degli stessi è di quattro anni e nove mesi. Guardare al processo penale con gli occhi della progettazione dei sistemi informativi è vedere un fluire ininterrotto di informazioni che include realtà collocate a monte e a valle del processo stesso: dalla trasmissione della notizia di reato alla esecuzione della pena. In questa prospettiva diventa evidente l’importanza di una corretta gestione delle informazioni: la quantità, l’accuratezza, la rapidità di accesso alle stesse sono fattori così cruciali per il processo penale che l’efficienza del sistema informativo e la qualità della giustizia erogata sono fortemente interrelate. Il progetto di ricerca è orientato a individuare quali siano le condizioni in cui l’efficienza può essere effettivamente raggiunta e, soprattutto, a verificare quali siano le scelte tecnologiche che possono preservare, o anche potenziare, i principi e le garanzie del processo penale. Nel processo penale, infatti, sono coinvolti diritti fondamentali dell’individuo quali la libertà personale, la dignità, la riservatezza, diritti fondamentali che vengono tutelati attraverso un ampia gamma di diritti processuali quali la presunzione di innocenza, il diritto di difesa, il diritto al contraddittorio, la finalità di rieducazione della pena.
Resumo:
I sistemi di versionamento moderni quali "git" o "svn" sono ad oggi basati su svariati algoritmi di analisi delle differenze (detti algoritmi di diffing) tra documenti (detti versioni). Uno degli algoritmi impiegati con maggior successo a tal proposito è il celebre "diff" di Unix. Tale programma è in grado di rilevare le modifiche necessarie da apportare ad un documento al fine di ottenerne un altro in termini di aggiunta o rimozione di linee di testo. L'insieme di tali modifiche prende nome di "delta". La crescente richiesta e applicazione dei documenti semi-strutturati (ed in particolar modo dei documenti XML) da parte della comunità informatica soprattutto in ambito web ha motivato la ricerca di algoritmi di diffing più raffinati che operino al meglio su tale tipologia di documenti. Svariate soluzioni di successo sono state discusse; algoritmi ad alte prestazioni capaci di individuare differenze più sottili della mera aggiunta o rimozione di testo quali il movimento di interi nodi, il loro riordinamento finanche il loro incapsulamento e così via. Tuttavia tali algoritmi mancano di versatilità. L'incapsulamento di un nodo potrebbe essere considerata una differenza troppo (o troppo poco) generale o granulare in taluni contesti. Nella realtà quotidiana ogni settore, pubblico o commerciale, interessato a rilevare differenze tra documenti ha interesse nell'individuarne sempre e soltanto un sottoinsieme molto specifico. Si pensi al parlamento italiano interessato all'analisi comparativa di documenti legislativi piuttosto che ad un ospedale interessato alla diagnostica relativa alla storia clinica di un paziente. Il presente elaborato di tesi dimostra come sia possibile sviluppare un algoritmo in grado di rilevare le differenze tra due documenti semi-strutturati (in termini del più breve numero di modifiche necessarie per trasformare l'uno nell'altro) che sia parametrizzato relativamente alle funzioni di trasformazione operanti su tali documenti. Vengono discusse le definizioni essenziali ed i principali risultati alla base della teoria delle differenze e viene dimostrato come assunzioni più blande inducano la non calcolabilità dell'algoritmo di diffing in questione.
Resumo:
Come si evince dal titolo della tesi, la ricerca effettuata dal presente candidato nel corso del dottorato di ricerca ha avuto ad oggetto lo studio della materia relativa ai trasporti nell’ambito di diversi sistemi giuridici europei, con particolare attenzione ai risvolti di carattere pratico che l’interpretazione delle normative uniformi poteva produrre nell’ambito delle diverse giurisdizioni nonché alle diverse impostazioni e alla variegata gamma di soluzioni interpretative che nell’ambito di problemi simili possono essere adottate a seconda che una stessa questione venga discussa in un ordinamento piuttosto che in un altro. Dall’avvento del trasporto marittimo di containers alla necessità di disciplinare l’intera materia attraverso una normativa multimodale il passo è estremamente breve, posto che, proprio in considerazione delle caratteristiche proprie del trasporto containerizzato, gli aventi diritto al carico sono principalmente interessati al completamente del trasferimento door-to-door inteso nella sua globalità, piuttosto che al buon esito del trasporto sulla singola tratta marittima. Il progetto di revisione delle Regole dell’Aja-Visby adottato dall’United Nations Commission on International Trade Law (Uncitral) e il Comité Maritime International (CMI) costituisce per definizione un progetto limitato ad un trasporto multimodale comprendente necessariamente una tratta marittima, ma rappresenta comunque un interessante banco di prova per valutare la funzionalità di strumenti di recente impiego, come ad esempio i cosiddetti e-documents, concetto peraltro già inserito nel progetto UNCITRAL, anche se con scarsi elementi di reale novità rispetto alla tradizionale disciplina relativa ai documenti cartacei. Proprio la parte relativa ai documenti e titoli di viaggio merita particolare attenzione soprattutto in riferimento alle problematiche connesse al traffico containerizzato, con particolare riferimento al concetto di transhipment, e alla conseguente necessità che la polizza garantisca al legittimo portatore una copertura completa sull’intero viaggio della merce, oltre a dargli la possibilità di individuare agevolmente la propria controparte contrattuale, e cioè il vettore.
Resumo:
Nuovi sviluppi nella comunicazione wireless e nell'elettronica hanno permesso lo sviluppo di dispositivi poco costosi, poco energivori e multifunzione, piccoli in dimensione e in grado di comunicare a breve distanza. Collegati con tecnologie senza fili e disponibili in gran numero, questi sensori hanno offerto opportunità senza precedenti nel monitorare e controllare case, città, e l'ambiente. In aggiunta, i sensori wireless hanno anche una vasta gamma di applicazioni nella sicurezza, generando nuove capacità di riconoscimento e sorveglianza, unite ad altre finalità tattiche. La capacità di localizzazione di questi congegni poi è altamente studiata e ricercata, per applicazioni che vanno dal monitoraggio di incendi,della qualità dell'acqua e dell'agricoltura di precisione alla gestione di inventari, di sistemi anti intrusione, monitoraggio del traffico e di parametri medici. Da questo esteso panorama di utilizzi, è scaturita l'idea di un impiego di queste reti in un contesto particolare. L'esperienza maturata in ambito fieristico mi ha portato a considerare una problematica da sempre sentita, ma che non ha mai trovato soluzioni soddisfacenti o definitive, che è quella della protezione dei beni dai rapinatori. In questo ultimo periodo, dove si assiste ad un progressivo ma repentino calo degli affari dovuto ad una congiuntura economica mondiale sfavorevole, il problema è più avvertito da chi, in vari settori, vede un sempre più basso margine di compensazione ai furti.
Resumo:
In the last few years, a new generation of Business Intelligence (BI) tools called BI 2.0 has emerged to meet the new and ambitious requirements of business users. BI 2.0 not only introduces brand new topics, but in some cases it re-examines past challenges according to new perspectives depending on the market changes and needs. In this context, the term pervasive BI has gained increasing interest as an innovative and forward-looking perspective. This thesis investigates three different aspects of pervasive BI: personalization, timeliness, and integration. Personalization refers to the capacity of BI tools to customize the query result according to the user who takes advantage of it, facilitating the fruition of BI information by different type of users (e.g., front-line employees, suppliers, customers, or business partners). In this direction, the thesis proposes a model for On-Line Analytical Process (OLAP) query personalization to reduce the query result to the most relevant information for the specific user. Timeliness refers to the timely provision of business information for decision-making. In this direction, this thesis defines a new Data Warehuose (DW) methodology, Four-Wheel-Drive (4WD), that combines traditional development approaches with agile methods; the aim is to accelerate the project development and reduce the software costs, so as to decrease the number of DW project failures and favour the BI tool penetration even in small and medium companies. Integration refers to the ability of BI tools to allow users to access information anywhere it can be found, by using the device they prefer. To this end, this thesis proposes Business Intelligence Network (BIN), a peer-to-peer data warehousing architecture, where a user can formulate an OLAP query on its own system and retrieve relevant information from both its local system and the DWs of the net, preserving its autonomy and independency.
Resumo:
Alla luce delle improrogabili necessità ambientali, le prospettive di crescita del mercato dei bio-combustibili e quindi del biodiesel, sono molto ampie; si rende quindi necessario lo sviluppo di nuovi processi chimici in grado di valorizzare il co-prodotto della sintesi del biodiesel, ovvero il glicerolo. Tra le varie opzioni proposte dalla recente letteratura scientifica e brevettuale, la trasformazione one-pot del glicerolo ad acido acrilico può rappresentare una soluzione. All’interno di questa tematica, durante il periodo di tesi ho eseguito uno studio di catalizzatori a base di ossidi misti contenenti tungsteno, molibdeno e/o vanadio. Tali ossidi presentano sia funzionalità acida, necessaria per il primo stadio di disidratazione del glicerolo ad acroleina, sia funzionalità redox, necessaria all’ossidazione dell’acroleina ad acido acrilico. I sistemi tri-componente W-V-Mo si sono rivelati catalizzatori attivi e selettivi per la sintesi diretta di glicerolo ad acido acrilico. La miglior performance catalitica di questa classe di catalizzatori ha consentito di ottenere selettività in acido acrilico del 31%, con selettività totale ad acido acrilico ed acroleina superiore al 38% (valori tra i più elevati rispetto a quelli riportati in letteratura). Infine, si è dimostrato che i catalizzatori a base di W-V-Mo sono sistemi potenzialmente sfruttabili anche in impianti a doppio stadio per la produzione di acido acrilico con alimentazioni miste propilene/glicerolo. Ulteriori studi sono attualmente in corso per approfondire le capacità catalitiche degli ossidi misti studiati.
Resumo:
Nell’ottica di uno sviluppo ecosostenibile, la progettazione e la realizzazione di imballaggi alimentari devono necessariamente tener conto del destino del materiale al termine della sua vita utile. Negli ultimi anni, infatti, il considerevole incremento dei volumi dei rifiuti plastici e le difficoltà legate al loro smaltimento e riciclo hanno rappresentato le forze motrici per l’individuazione di soluzioni concrete ai problemi connessi alla gestione di tali scarti. Lo sviluppo di nuovi polimeri che soddisfino requisiti di degradabilità, compatibilità con l’ambiente di smaltimento e rilascio di prodotti di degradazione con un basso livello di tossicità, oltre che possedere proprietà fisico-meccaniche adatte per l’applicazione richiesta, offre una possibile soluzione a tali questioni ad oggi irrisolte. Tra i polimeri biodegradabili, il poli(butilene 1,4-cicloesandicarbossilato) (PBCE) è un materiale di grande interesse, in quanto la presenza dell’anello alifatico nell’unità monomerica conferisce al materiale un’elevata cristallinità, una notevole stabilità termica e interessanti proprietà meccaniche. Per contro, l’eccessiva rigidità e fragilità del materiale e la sua lenta cinetica di biodegradazione lo rendono poco versatile e ne limitano notevolmente la gamma di possibili applicazioni. Per tali ragioni, si è scelto di incentrare il presente lavoro sullo sviluppo di copolimeri a base di PBCE, dotati sia di migliori proprietà meccaniche che di una maggiore velocità di degradazione. Lo scopo previsto è stato raggiunto mediante sintesi di due sistemi di copolimeri a blocchi contenenti eteroatomi lungo la catena principale.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
Il continuo sviluppo dei sistemi di iniezione, rispondente ad aumento di performance unito alla riduzione delle emissioni inquinanti, evidenzia sempre più la necessità di studiare i fenomeni cavitanti che si instaurano all’interno degli iniettori. La cavitazione, infatti, se particolarmente intensa e prolungata nel tempo porta all’erosione del materiale con la conseguente rottura dell’organo elettromeccanico. Attraverso un confronto tra le diverse tipologie di fori iniettore, si è messa a punto una metodologia di analisi per prevedere quali siano le zone dell’iniettore a maggior rischio di danneggiamento per erosione da cavitazione e quale sia l’influenza della geometria su queste. Lo studio è stato effettuato con il software commerciale FLUENT, codice di simulazione fluidodinamica di ANSYS.
Resumo:
By pulling and releasing the tension on protein homomers with the Atomic Force Miscroscope (AFM) at different pulling speeds, dwell times and dwell distances, the observed force-response of the protein can be fitted with suitable theoretical models. In this respect we developed mathematical procedures and open-source computer codes for driving such experiments and fitting Bell’s model to experimental protein unfolding forces and protein folding frequencies. We applied the above techniques to the study of proteins GB1 (the B1 IgG-binding domain of protein G from Streptococcus) and I27 (a module of human cardiac titin) in aqueous solutions of protecting osmolytes such as dimethyl sulfoxide (DMSO), glycerol and trimethylamine N-oxide (TMAO). In order to get a molecular understanding of the experimental results we developed an Ising-like model for proteins that incorporates the osmophobic nature of their backbone. The model benefits from analytical thermodynamics and kinetics amenable to Monte-Carlo simulation. The prevailing view used to be that small protecting osmolytes bridge the separating beta-strands of proteins with mechanical resistance, presumably shifting the transition state to significantly higher distances that correlate with the molecular size of the osmolyte molecules. Our experiments showed instead that protecting osmolytes slow down protein unfolding and speed-up protein folding at physiological pH without shifting the protein transition state on the mechanical reaction coordinate. Together with the theoretical results of the Ising-model, our results lend support to the osmophobic theory according to which osmolyte stabilisation is a result of the preferential exclusion of the osmolyte molecules from the protein backbone. The results obtained during this thesis work have markedly improved our understanding of the strategy selected by Nature to strengthen protein stability in hostile environments, shifting the focus from hypothetical protein-osmolyte interactions to the more general mechanism based on the osmophobicity of the protein backbone.