170 resultados para Squacquerone di Romagna DOP, shelf-life, sicurezza, qualità delle materie prime
Resumo:
All’ascolto dell’incompiuto Matrimonio di Musorgskij, Borodin aveva sentenziato lapidariamente: «une chose manquée». Uguale commento viene riservato tuttora alla produzione operistica di Sergej Rachmaninov. In questo caso però non ci troviamo di fronte a un teatro rivoluzionario che si trova costretto a fare un passo indietro rispetto ai principi programmatici di cui si vuol far portatore, bensì a un potenziale inespresso, a un profilo drammaturgico mai giunto a piena maturazione. L’evidente eterogeneità della produzione operistica lasciataci in eredità dal compositore non permette infatti di determinarne con chiarezza le ‘linee guida’ e ne rende problematica la collocazione nel contesto musicale a lui coevo. Scopo della presente dissertazione è indagare l’apprendistato e il debutto operistico del compositore russo attraverso l’analisi di materiale documentario, testi letterari, partiture nonché delle fonti critiche in lingua russa, difficilmente accessibili per lo studioso italiano. Il cuore dell’elaborato è un’analisi dettagliata di Aleko, un atto unico presentato nel 1892 dal compositore come prova finale al corso di ‘Libera composizione’ del Conservatorio di Mosca. L’opera viene considerata nel suo complesso come organismo drammatico-musicale autonomo (rapporto fonte/libretto, articolazione interna, sistema delle forme, costellazione dei personaggi, distribuzione delle voci, ecc.), ma inquadrata al contempo nel più ampio contesto del teatro musicale coevo (recezione critica sia da parte della pubblicistica coeva sia da parte della storiografia musicale). Viene fornita in appendice un’edizione del libretto con traduzione a fronte. Incorniciano l’analisi dell’opera un capitolo in cui si offre una rilettura estetica del ‘caso Rachmaninov’ e un aperçu sulla produzione operistica matura del compositore, alla luce delle riflessioni proposte nel corso della dissertazione.
Resumo:
“Il Presidente del Consiglio dei Ministri nell'ordinamento vigente e nelle proposte di riforma”. La tesi si propone di ricostruire i caratteri propri della figura giuridica del Presidente del Consiglio nell’ordinamento vigente, sino alla analisi delle più recenti proposte di riforma costituzionale in tema. La dimensione analitico-sistematica proposta è stata sviluppata in riferimento alle concrete dinamiche economiche, politiche ed istituzionali, in relazione alle quali si è inteso verificare il tipo di rapporto tra esigenze di stabilizzazione del ciclo economico ed esigenze di stabilizzazione degli esecutivi, dando il dovuto rilievo al processo di integrazione della Unione Europea, come “motore” delle istanze di riforma del sistema economico ed istituzionale. Nel primo capitolo, si sono esplicitate le chiavi metodologiche secondo le quali si è inteso sviluppare il percorso di ricerca. Nel secondo capitolo si è operata una ricostruzione del quadro ordinamentale a base statutaria, come termine iniziale per poter cogliere al meglio la configurazione del ruolo poi assunta nell’ordinamento repubblicano; ciò come premessa necessaria ad una corretta ricostruzione diacronica, di tutti gli elementi rilevanti per poter comprendere la portata delle proposte attuali. Nel terzo capitolo, si è cercato di ricostruire il ruolo del presidente del consiglio, collocandolo nel quadro della dinamica attuazione/inattuazione dell’ordinamento repubblicano e alla luce dei caratteri del sistema politico, in modo da poter coniugare i tratti evolutivi imposti all’inquadramento della figura dalle dinamiche del sistema politico; così da poter conseguentemente cogliere gli elementi genetici di un dibattito politico istituzionale, che genera proposte di riforma organica, mediante l’analisi degli atti delle commissioni Parlamentari per le riforme. Nel quarto capitolo, a partire dalla apertura di una fase di c.d. “transizione”, si ricostruiscono le proposte specificamente finalizzate al riassetto del Presidente del Consiglio prodotte dalle commissioni parlamentari per le riforme, segnando le tappe di un percorso ancora aperto e dall’esito incerto.
Resumo:
OBIETTIVO : Quantificare le CECs/ml nei pazienti affetti da ischemia critica (IC) degli arti inferiori, eventuali correlazioni tra i fattori di rischio, lo stadio clinico con l’ aumento delle CECs. Valutare i cambiamenti strutturali (calcificazione ed infiltratto infiammatorio) e l’ angiogenesi (numero di capillari /sezione) della parete arteriosa. MATERIALI E METODI: Da Maggio 2006 ad Aprile 2008 in modo prospettico abbiamo arruolato paziente affetti da IC da sottoporre ad intervento chirurgico. In un data base abbiamo raccolto : caratteristiche demografiche, fattori di rischio, stadiazione dell'IC secondo Leriche-Fontaine (L-F), il tipo di intervento chirurgico. Per ogni paziente abbiamo effettuato un prelievo ematico di 2 ml per la quantificazione immunomagnetica delle CECs e prelievo di parete arteriosa. RISULTATI: In modo consecutivo abbiamo arruolato 33 pazienti (75.8% maschi) con età media di 71 aa (range 34-91aa), affetti da arteriopatia ostruttiva cronica periferica al IV stadio di L-F nel 84.8%, da cardiopatia ischemica cronica nel 60.6%, da ipertensione arteriosa nel 72.7% e da diabete mellito di II tipo nel 66.6%. Il valore medio di CECs/ml è risultato significativamente più elevato (p= 0.001) nei soggetti affetti da IC (CECs/ml =531.24 range 107- 3330) rispetto ai casi controllo (CECs/ml = 125.8 range 19-346 ). Le CECs/ml nei pazienti diabetici sono maggiori rispetto alle CECs/ml nei pazienti non diabetici ( 726.7 /ml vs 325.5/ml ), p< 0.05 I pazienti diabetici hanno presentato maggior incidenza di lesioni arteriose complesse rispetto ai non diabetici (66% vs 47%) e minor densità capillare (65% vs 87%). Conclusioni : Le CECs sono un marker sierologico attendibile di danno vascolare parietale, la loro quantità è maggiore nei pazienti diabetici e ipertesi. La minor capacità angiogenetica della parete arteriosa in presenza di maggior calcificazioni ed infiltrato infiammatorio nei diabetici, dimostra un danno istopatologico di parete maggiore .
Resumo:
Il progresso tecnologico nel campo della biologia molecolare, pone la comunità scientifica di fronte all’esigenza di dare un’interpretazione all’enormità di sequenze biologiche che a mano a mano vanno a costituire le banche dati, siano esse proteine o acidi nucleici. In questo contesto la bioinformatica gioca un ruolo di primaria importanza. Un nuovo livello di possibilità conoscitive è stato introdotto con le tecnologie di Next Generation Sequencing (NGS), per mezzo delle quali è possibile ottenere interi genomi o trascrittomi in poco tempo e con bassi costi. Tra le applicazioni del NGS più rilevanti ci sono senza dubbio quelle oncologiche che prevedono la caratterizzazione genomica di tessuti tumorali e lo sviluppo di nuovi approcci diagnostici e terapeutici per il trattamento del cancro. Con l’analisi NGS è possibile individuare il set completo di variazioni che esistono nel genoma tumorale come varianti a singolo nucleotide, riarrangiamenti cromosomici, inserzioni e delezioni. Va però sottolineato che le variazioni trovate nei geni vanno in ultima battuta osservate dal punto di vista degli effetti a livello delle proteine in quanto esse sono le responsabili più dirette dei fenotipi alterati riscontrabili nella cellula tumorale. L’expertise bioinformatica va quindi collocata sia a livello dell’analisi del dato prodotto per mezzo di NGS ma anche nelle fasi successive ove è necessario effettuare l’annotazione dei geni contenuti nel genoma sequenziato e delle relative strutture proteiche che da esso sono espresse, o, come nel caso dello studio mutazionale, la valutazione dell’effetto della variazione genomica. È in questo contesto che si colloca il lavoro presentato: da un lato lo sviluppo di metodologie computazionali per l’annotazione di sequenze proteiche e dall’altro la messa a punto di una pipeline di analisi di dati prodotti con tecnologie NGS in applicazioni oncologiche avente come scopo finale quello della individuazione e caratterizzazione delle mutazioni genetiche tumorali a livello proteico.
Resumo:
Tradizionalmente, l'obiettivo della calibrazione di un modello afflussi-deflussi è sempre stato quello di ottenere un set di parametri (o una distribuzione di probabilità dei parametri) che massimizzasse l'adattamento dei dati simulati alla realtà osservata, trattando parzialmente le finalità applicative del modello. Nel lavoro di tesi viene proposta una metodologia di calibrazione che trae spunto dell'evidenza che non sempre la corrispondenza tra dati osservati e simulati rappresenti il criterio più appropriato per calibrare un modello idrologico. Ai fini applicativi infatti, può risultare maggiormente utile una miglior rappresentazione di un determinato aspetto dell'idrogramma piuttosto che un altro. Il metodo di calibrazione che viene proposto mira a valutare le prestazioni del modello stimandone l'utilità nell'applicazione prevista. Tramite l'utilizzo di opportune funzioni, ad ogni passo temporale viene valutata l'utilità della simulazione ottenuta. La calibrazione viene quindi eseguita attraverso la massimizzazione di una funzione obiettivo costituita dalla somma delle utilità stimate nei singoli passi temporali. Le analisi mostrano come attraverso l'impiego di tali funzioni obiettivo sia possibile migliorare le prestazioni del modello laddove ritenute di maggior interesse per per le finalità applicative previste.
Resumo:
L’elaborato ha ad oggetto lo studio della conciliazione e dell’arbitrato con riferimento alle controversie individuali di lavoro privato e pubblico. Vengono trattati i diversi profili che caratterizzano gli strumenti di risoluzione delle liti alternativi al processo, al fine di comprenderne la disciplina e l’effettiva portata, e di evidenziarne le criticità. L’elaborato si occupa, in primo luogo, di ricostruire il percorso di sviluppo della disciplina legislativa dei due istituti, partendo dalla configurazione del quadro della sua evoluzione storica e affrontando, poi, approfonditamente le più recenti tappe di tale evoluzione. Nella ricostruzione della disciplina della conciliazione e dell’arbitrato viene dato conto dell’assetto delle fonti, legislativa e contrattuale, definendone i rispettivi ruoli e competenze in materia: la tesi si sofferma quindi sul ruolo che il legislatore attribuisce all’autonomia collettiva e sulle modalità con le quali questo ruolo viene concretamente esercitato in sede di contrattazione. Successivamente, viene compiuta una valutazione delle conciliazioni e dell’arbitrato diretta a comprenderne l’efficacia e l’effettività. L’analisi pone in rilievo taluni elementi che sono ritenuti indispensabili per lo sviluppo delle predette caratteristiche e, quindi, per l’opzione e per la fiducia delle parti verso gli strumenti di composizione stragiudiziale delle liti. L’attenzione viene poi focalizzata sui regimi di impugnazione dei provvedimenti con cui si concludono le procedure stragiudiziali, sulla base della riflessione per la quale la diffusione di uno strumento di composizione delle controversie postula necessariamente un certo grado di stabilità degli atti che esso genera. L’ultima parte dell’elaborato è dedicata alla disamina delle ipotesi applicative di successo nell’esperienza italiana di Alternative Dispute Resolution, ossia il tentativo obbligatorio di conciliazione nei licenziamenti economici introdotto dalla Riforma Fornero, la conciliazione monocratica e l’arbitrato per l’impugnazione delle sanzioni disciplinari, anche con l’intento di comprendere quali caratteristiche ne abbiano favorito la diffusione, in rapporto alle altre tipologie di conciliazione e arbitrato di lavoro.
Resumo:
Il lavoro di ricerca che si presenta è suddiviso in tre capitoli nei quali, da altrettanti punti di osservazione, è analizzato il tema della instabilità del lavoro. Nel primo capitolo, il candidato evidenzia le cause che hanno determinato il vorticoso aumento di utilizzo dei contratti di lavoro flessibili e, a tal proposito, da un prospettiva extra-nazionale, analizza le direttive europee e, i principi comuni e le guidelines che, nel percorso di sviluppo della strategia europea per l’occupazione, hanno posto la flexicurity come modello di mercato europeo tipico; dalla medesima prospettiva, prendendo spunto dai cambiamenti del mercato globale, si pone attenzione all’analisi economica del diritto del lavoro e, in particolare, alle conseguenze che le trasformazioni economiche generano sulla capacità di questa materia di tenere elevato il grado di sicurezza occupazionale connesso alla stipula dei contratti di lavoro. Il secondo capitolo è dedicato al ruolo svolto in Italia dai sindacati sul tema della flessibilità. In tal senso, l’autore evidenzia come la funzione “istituzionale” cui sono chiamate anche le organizzazioni dei lavoratori abbia caratterizzato le scelte di politica sindacale in materia di lavori temporanei; è così preso in esame il concetto di flessibilità “contrattata”, come già emerso in dottrina, e si teorizza la differenza tra rinvii “aperti” e rinvii “chiusi”, quali differenti forme di delega di potere normativo alle parti sociali in materia di flessibilità. Nel terzo ed ultimo capitolo l’autore tenta di evidenziare i vantaggi e le funzioni che derivano dall’utilizzo del contratto a termine, quale principale forma di impiego flessibile del nostro mercato del lavoro. Premessi tali benefici viene formulato un giudizio critico rispetto al grado di liberalizzazione che, con le ultime riforme, è stato ammesso per questo istituto sempre più strumento di arbitrio del datore di lavoro nella scelta della durata e delle condizioni di svolgimento della prestazione di lavoro.
Resumo:
Lo scopo della dissertazione “Formazione e pratica del pensiero orchestrale di Hector Berlioz. Caratteri poetici e strategie del suono” è quello di indagare i tratti essenziali del pensiero di Berlioz in merito all’orchestra riprendendo in considerazione gli elementi della sua educazione giovanile. In particolare, le nozioni ricavate dai suoi insegnanti di composizione Le Sueur e Reicha e dai corsi di medicina brevemente frequentati a Parigi sono indagate con approccio rinnovato, alla luce di nuovi filoni di studio indagati dalla musicologia negli anni più recenti. Sono analizzate anche le recensioni di Berlioz, alla ricerca di elementi che aiutino a comprendere la sua musica con le argomentazioni destinate a quella altrui. È analizzato anche il percorso della trattatistica che da un iniziale approccio di tipo pratico tipico del XVIII secolo, giunge con il trattato di Berlioz a una forte connotazione poetica delle risorse strumentali e orchestrali. Nella seconda parte della dissertazione sono analizzate invece alcune opere di Berlioz e alcune questioni generali concernenti il suo modo di scrivere per l’orchestra, specialmente in relazione ad altri parametri musicali. Nella dissertazione notevole attenzione è data al rapporto fra questioni tecniche e poetiche, proponendo un approccio leggermente rinnovato.
Resumo:
Lo stretch film è una diffusa applicazione per imballaggio dei film in polietilene (PE), utilizzato per proteggere diversi prodotti di vari dimensioni e pesi. Una caratteristica fondamentale del film è la sua proprietà adesiva in virtù della quale il film può essere facilmente chiuso su se stesso. Tipicamente vengono scelti gradi lineari a bassa densità (LLDPE) con valori relativamente bassi di densità a causa delle loro buone prestazioni. Il mercato basa la scelta del materiale adesivo per tentativi piuttosto che in base alla conoscenza delle caratteristiche strutturali ottimali per l’applicazione. Come per i pressure sensitive adhesives, le proprietà adesive di film stretch in PE possono essere misurati mediante "peel testing". Esistono molti metodi standard internazionali ma i risultati di tali prove sono fortemente dipendenti dalla geometria di prova, sulla possibile deformazione plastica che si verificano nel peel arm(s), e la velocità e temperatura. Lo scopo del presente lavoro è quello di misurare l'energia di adesione Gc di film stretch di PE, su se stessi e su substrati diversi, sfruttando l'interpretazione della meccanica della frattura per tener conto dell'elevata flessibilità e deformabilità di tali film. Quindi, la dipendenza velocità/temperatura di Gc sarà studiata con riferimento diretto al comportamento viscoelastico lineare dei materiali utilizzati negli strati adesivi, per esplorare le relazioni struttura-proprietà che possono mettere in luce i meccanismi molecolari coinvolti nei processi di adesione e distacco. Nella presente caso, l’adesivo non è direttamente disponibile come materiale separato che può essere messo tra due superfici di prova e misurato per la determinazione delle sue proprietà. Il presupposto principale è che una parte, o fase, della complessa struttura semi-cristallina del PE possa funzionare come adesivo, e un importante risultato di questo studio può essere una migliore identificazione e caratterizzazione di questo "fase adesiva".
Resumo:
During the last few decades an unprecedented technological growth has been at the center of the embedded systems design paramount, with Moore’s Law being the leading factor of this trend. Today in fact an ever increasing number of cores can be integrated on the same die, marking the transition from state-of-the-art multi-core chips to the new many-core design paradigm. Despite the extraordinarily high computing power, the complexity of many-core chips opens the door to several challenges. As a result of the increased silicon density of modern Systems-on-a-Chip (SoC), the design space exploration needed to find the best design has exploded and hardware designers are in fact facing the problem of a huge design space. Virtual Platforms have always been used to enable hardware-software co-design, but today they are facing with the huge complexity of both hardware and software systems. In this thesis two different research works on Virtual Platforms are presented: the first one is intended for the hardware developer, to easily allow complex cycle accurate simulations of many-core SoCs. The second work exploits the parallel computing power of off-the-shelf General Purpose Graphics Processing Units (GPGPUs), with the goal of an increased simulation speed. The term Virtualization can be used in the context of many-core systems not only to refer to the aforementioned hardware emulation tools (Virtual Platforms), but also for two other main purposes: 1) to help the programmer to achieve the maximum possible performance of an application, by hiding the complexity of the underlying hardware. 2) to efficiently exploit the high parallel hardware of many-core chips in environments with multiple active Virtual Machines. This thesis is focused on virtualization techniques with the goal to mitigate, and overtake when possible, some of the challenges introduced by the many-core design paradigm.
Resumo:
Introduzione: Le catene N-linked associate al principale sito di N-glicosilazione (Asn297) delle IgG sono di tipo bi-antennario e presentano una grande microeterogeneità in quanto una o entrambe le antenne possono terminare con uno o due residui di acido sialico, galattosio o N-acetilglucosammina ed essere core-fucosilate. Nell’invecchiamento e in malattie infiammatorie aumenta la percentuale di glicani associati alle catene pesanti delle IgG privi del galattosio terminale (IgG-G0). La glicosilazione enzimatica delle proteine è classicamente un processo intracellulare, sebbene recenti studi abbiano messo in evidenza la possibilità di una glicosilazione ecto-cellulare in quanto le piastrine sono ottimi donatori di nucleotidi-zuccheri. Scopo: Misurare le attività delle glicosiltrasferasi ST6Gal1 e B4GalT plasmatiche (potenzialmente responsabili della glicosilazione di proteine plasmatiche) in soggetti di entrambi i sessi e di età compresa tra 5 e 105 anni e correlarle con lo stato di glicosilazione di IgG circolanti (analizzato mediante lectin-blot) e il GlycoAge test, un noto marcatore di invecchiamento, espresso come il logaritmo del rapporto tra gli N-glicani agalattosilati e di-galattosilati associati a glicoproteine plasmatiche. Risultati e conclusioni: I dati ottenuti indicano che: 1) l’attività B4GalT si propone come nuovo marcatore di invecchiamento perché aumenta linearmente con l’età; 2) la ST6Gal1 è maggiormente espressa solo nei bambini e negli over 80; 3) le attività delle due glicosilatransferasi non risultano correlate in modo significativo né tra loro né con il GlycoAge test, indicando che questi tre marcatori siano espressioni di diversi quadri fisio-patologici legati all’invecchiamento; 4) con l’età si ha una predominanza di glicoforme di IgG pro-infiammatorie, ovvero prive dell’acido sialico, del galattosio terminali e del core fucose; 5) l’attività della ST6Gal1 e B4GalT risultano in controtendenza con il grado di sialilazione e galattosilazione delle IgG, indicando quindi che la loro glicosilazione non avviene a livello extracellulare.
Resumo:
Because of the potentially irreversible impact of groundwater quality deterioration in the Ferrara coastal aquifer, answers concerning the assessment of the extent of the salinization problem, the understanding of the mechanisms governing salinization processes, and the sustainability of the current water resources management are urgent. In this light, the present thesis aims to achieve the following objectives: Characterization of the lowland coastal aquifer of Ferrara: hydrology, hydrochemistry and evolution of the system The importance of data acquisition techniques in saltwater intrusion monitoring Predicting salinization trends in the lowland coastal aquifer Ammonium occurrence in a salinized lowland coastal aquifer Trace elements mobility in a saline coastal aquifer
Resumo:
L'intervento di connessione cavo-polmonare totale (TCPC) nei pazienti portatori di cuore univentricolare, a causa della particolare condizione emodinamica, determina un risentimento a carico di numerosi parenchimi. Scopo della ricerca è di valutare l'entità di questo danno ad un follow-up medio-lungo. Sono stati arruolati 115 pazienti, sottoposti ad intervento presso i centri di Cardiochirurgia Pediatrica di Bologna (52 pz) e Torino (63 pz). Il follow-up medio è stato di 125±2 mesi. I pazienti sono stati sottoposti ad indagine emodinamica (88 pz), test cardiopolmonare (75 pz) e Fibroscan ed ecografia epatica (47 pz). La pressione polmonare media è stata di 11.5±2.6mmHg, ed in 12 pazienti i valori di pressione polmonare erano superiori a 15mmHg. La pressione atriale media era di 6.7±2.3mmHg ed il calcolo delle resistenze vascolari polmonari indicizzate (RVP) era in media di 2±0.99 UW/m2. In 29 pazienti le RVP erano superiori a 2 UW/m2. La VO2 max in media era pari a 28±31 ml/Kg/min, 58±15 % del valore teorico. La frequenza cardiaca massima all'apice dello sforzo era di 151±22 bpm, pari al 74±17% del valore teorico. Il Fibroscan ha fornito un valore medio di 17.01 kPa (8-34.3kPa). Cinque pazienti erano in classe F2, 9 pazienti in classe F3 e 33 pazienti risultavano in classe F4. Nei pazienti con follow-up maggiore di 10 anni il valore di stiffness epatica (19.6±5.2kPa) è risultato significativamente maggiore a quello dei pazienti con follow-up minore di 10 anni (15.1±5.8kPa, p<0.01). La frequenza cardiaca massima raggiunta durante lo sforzo del test cardiopolmonare è risultata significativamente correlata alla morfologia del ventricolo unico, risultando del 67.8±14.4% del valore teorico nei pazienti portatori di ventricolo destro contro il 79.6±8.7% dei portatori di ventricolo sinistro (p=0.006). L'intervento di TCPC determina un risentimento a carico di numerosi parenchimi proporzionale alla lunghezza del follow-up, e necessita pertanto un costante monitoraggio clinico-strumentale multidisciplinare.
Resumo:
Obiettivo del lavoro è stato lo sviluppo e la validazione di nuovi bioassay e biomarker quali strumenti da utilizzare in un approccio ecotossicologico integrato per il biomonitoraggio di ambienti marino-costieri interessati da impatto antropico negli organismi che vivono in tali ambienti. L’ambiente reale impiegato per l’applicazione in campo è la Rada di Augusta (Siracusa, Italia). Una batteria di bioassay in vivo e in vitro è stata indagata quale strumento di screening per la misura della tossicità dei sedimenti. La batteria selezionata ha dimostrato di possedere i requisiti necessari ad un applicazione di routine nel monitoraggio di ambienti marino costieri. L’approccio multimarker basato sull’impiego dell’organismo bioindicatore Mytilus galloprovincialis in esperimenti di traslocazione ha consentito di valutare il potenziale applicativo di nuovi biomarker citologici e molecolari di stress chimico parallelamente a biomarker standardizzati di danno genotossico ed esposizione a metalli pesanti. I mitili sono stati traslocati per 45 giorni nei siti di Brucoli (SR) e Rada di Augusta, rispettivamente sito di controllo e sito impattato. I risultati ottenuti supportano l’applicabilità delle alterazioni morfometriche dei granulociti quale biomarker di effetto, direttamente correlato allo stato di salute degli organismi che vivono in un dato ambiente. Il significativo incremento dell’area dei lisosomi osservato contestualmente potrebbe riflettere un incremento dei processi degradativi e dei processi autofagici. I dati sulla sensibilità in campo suggeriscono una valida applicazione della misura dell’attività di anidrasi carbonica in ghiandola digestiva come biomarker di stress in ambiente marino costiero. L’utilizzo delle due metodologie d’indagine (bioassay e biomarker) in un approccio ecotossicologico integrato al biomonitoraggio di ambienti marino-costieri offre uno strumento sensibile e specifico per la valutazione dell’esposizione ad inquinanti e del danno potenziale esercitato dagli inquinanti sugli organismi che vivono in un dato ambiente, permettendo interventi a breve termine e la messa a punto di adeguati programmi di gestione sostenibile dell’ambiente.
Resumo:
L’oggetto principale delle attività di tesi è la caratterizzazione numerico-sperimentale di processi di colata in sabbia di ghisa sferoidale. Inizialmente è stata effettuata un’approfondita indagine bibliografica per comprendere appieno le problematiche relative all’influenza dei parametri del processo fusorio (composizione chimica, trattamento del bagno, velocità di raffreddamento) sulle proprietà microstrutturali e meccaniche di getti ottenuti e per valutare lo stato dell’arte degli strumenti numerici di simulazione delle dinamiche di solidificazione e di previsione delle microstrutture. Sono state definite, realizzate ed impiegate attrezzature sperimentali di colata per la caratterizzazione di leghe rivolte alla misura ed alla differenziazione delle condizioni di processo, in particolare le velocità di raffreddamento, ed atte a validare strumenti di simulazione numerica e modelli previsionali. Inoltre sono stati progettati ed impiegati diversi sistemi per l’acquisizione ed analisi delle temperature all’interno di getti anche di grandi dimensioni. Lo studio, mediante analisi metallografica, di campioni di materiale ottenuto in condizioni differenziate ha confermato l’effetto dei parametri di processo considerati sulle proprietà microstrutturali quali dimensioni dei noduli di grafite e contenuto di ferrite e perlite. In getti di grandi dimensioni si è riscontrata anche una forte influenza dei fenomeni di macrosegregazione e convezione della lega su microstrutture e difettologie dei getti. Le attività si sono concentrate principalmente nella simulazione numerica FEM dei processi fusori studiati e nell’impiego di modelli empirico-analitici per la previsione delle microstrutture. I dati misurati di temperature di processo e di microstrutture sono stati impiegati per la validazione ed ottimizzazione degli strumenti numerici previsionali impiegati su un ampio intervallo di condizioni di processo. L’impiego di strumenti affidabili di simulazione del processo fusorio, attraverso l’implementazione di correlazioni sperimentali microstrutture-proprietà meccaniche, permette la valutazione di proprietà e difettologie dei getti, fornendo un valido aiuto nell’ottimizzazione del prodotto finito e del relativo processo produttivo.