911 resultados para Motori a combustione interna, Simulazione, Metodo delle caratteristiche, Sovralimentazione
Resumo:
Si mostrano i passi seguiti nello sviluppo di un modello matematico e simulativo che mira a ricostruire il campo di flusso veicolare della rete stradale della regione Emilia Romagna. Si descrivono le fonti di dati utilizzate per la ricostruzione: dispositivi GPS a bassa capillarità e spire induttive su strada; si discute delle caratteristiche dei dati e dei problemi intrinseci e contingenti da cui sono affetti, nonché delle metodologie adottate nel tentativo di risolvere questi problemi. Si illustra l’idea centrale alla base delle ricostruzioni, e si descrive un criterio di validazione del modello. Si mostrano i risultati dei vari algoritmi ideati, ognuno affiancato dal parametro di validità, evidenziando quale metodo produca risultati migliori. Si conclude discutendo delle potenzialità del modello in termini di applicabilità in altre regioni o zone geografiche.
Resumo:
La ricerca sulle cellule staminali apre nuove prospettive per approcci di terapia cellulare. Molta attenzione è concentrata sulle cellule staminali isolate da membrane fetali, per la facilità di recupero del materiale di partenza, le limitate implicazioni etiche e le caratteristiche delle popolazioni di cellule staminali residenti. In particolare a livello dell’epitelio amniotico si concentra una popolazione di cellule (hAECs) con interessanti caratteristiche di staminalità, pluripotenza e immunomodulazione. Restano però una serie di limiti prima di arrivare ad un’applicazione clinica: l’uso di siero di origine animale nei terreni di coltura e le limitate conoscenze legate alla reazione immunitaria in vivo. La prima parte di questo lavoro è focalizzata sulle caratteristiche delle hAECs coltivate in un terreno privo di siero, in confronto a un terreno di coltura classico. Lo studio è concentrato sull’analisi delle caratteristiche biologiche, immunomodulatorie e differenziative delle hAECs. L’interesse verso le caratteristiche immunomodulatorie è legato alla possibilità che l’uso di un terreno serum free riduca il rischio di rigetto dopo trapianto in vivo. La maggior parte degli studi in vivo con cellule isolate da membrane fetali sono stati realizzati con cellule di derivazione umana in trapianti xenogenici, ma poco si sa circa la sopravvivenza di queste cellule in trapianti allogenici, come nel caso di trapianti di cellule di derivazione murina in modelli di topo. La seconda parte dello studio è focalizzata sulla caratterizzazione delle cellule derivate da membrane fetali di topo (mFMSC). Le caratteristiche biologiche, differenziative e immunomodulatorie in vitro e in vivo delle mFMSC sono state confrontate con i fibroblasti embrionali di topo. In particolare è stata analizzata la risposta immunitaria a trapianti di mFMSC nel sistema nervoso centrale (CNS) in modelli murini immunocompetenti.
Resumo:
In questa tesi si cercherà di passare in rassegna le caratteristiche fondamentali dei principali tipi galattici. Dopo un breve ex-cursus storico, si passerà al primo capitolo, nel quale si osserverà come le prime catalogazioni si siano basate sulla morfologia di questi oggetti. Si cercherà quindi di mostrare come molte grandezze fisiche siano strettamente legate all’aspetto che questi oggetti celesti mostrano. Nel secondo capitolo verranno trattate le principali caratteristiche fotometriche: si mostreranno isofote di galassie ellittiche, si accennerà al fenomeno dell’isophotal twist, si introdurranno diversi profili di brillanza, sia per galassie ellittiche che per galassie a spirale. Nel terzo ed ultimo capitolo si tratteranno le caratteristiche cinematiche dei due principali tipi galattici. Riusciremo, a questo punto, a trovare una relazione tra l’isophotal twist e le caratteristiche cinematiche delle galassie ellittiche. Dopo aver introdotto il concetto di dispersione di velocità, sarà possibile introdurre brevemente il piano fondamentale, importante relazione tra le caratteristiche principali delle galassie ellittiche. Si discuterà infine della particolare curva di rotazione delle galassie a spirale, la cui velocità si mantiene costante ben oltre i limiti di quanto si possa stimare osservando la materia visibile; questa peculiarità delle galassie a spirale ha portato direttamente all’idea che possa esserci della materia oscura in grado di esercitare una attrazione gravitazionale sulla materia ordinaria.
Resumo:
Lo scopo di questo elaborato di tesi è quello di trattare la progettazione di un cambio automatico per un trattore agricolo. L’idea alla base è quella di realizzare un meccanismo in grado di fornire una variazione continua del rapporto di trasmissione. Scelto come modello di trattore il Goldoni Energy 80, è stata adottata come soluzione quella di un rotismo epicicloidale, per la cui variazione del rapporto di trasmissione sarà utilizzato un motore elettrico. Il motore controllerà la velocità di una delle ruote permettendo di modificare quella dell’albero in uscita. Per il dimensionamento degli organi meccanici sono state considerate le seguenti caratteristiche del trattore: -velocità minima di marcia; -velocità massima di marcia; -dimensioni degli pneumatici delle ruote motrici primarie; -coppia e velocità del motore a combustione interna in condizioni nominali; -coppia e velocità del motore a combustione interna in regime di funzionamento massimo. Saranno affrontate le problematiche relative: -al dimensionamento cinematico e dinamico delle ruote dentate; -alla scelta di un motore elettrico adatto al caso; -alla scelta e al proporzionamento dei cuscinetti; -al dimensionamento e alle verifiche a fatica degli alberi meccanici; -al montaggio dei vari componenti e del relativo carter.
Resumo:
Scopo della tesi è la descrizione di un metodo per il calcolo di minimi di funzionali, basato sulla steepest descent. L'idea principale è quella di considerare un flusso nella direzione opposta al gradiente come soluzione di un problema di Cauchy in spazi di Banach, che sotto l'ipotesi di Palais-Smale permette di determinare minimi. Il metodo viene applicato al problema di denoising e segmentazione in elaborazione di immagini: vengono presentati metodi classici basati sull'equazione del calore, il total variation ed il Perona Malik. Nell'ultimo capitolo il grafico di un'immagine viene considerato come varietà, che induce una metrica sul suo dominio, e viene nuovamente utilizzato il metodo di steepest descent per costruire algoritmi che tengano conto delle caratteristiche geometriche dell'immagine.
Resumo:
Il presente lavoro di tesi è stato svolto a seguito delle indagini geognostiche previste per un progetto ingegneristico volto alla riqualificazione con caratteristiche autostradali della SP46 Rho-Monza e del preesistente sistema autostradale A8/A52, la cui area interessata dai lavori è ubicata nella parte Nord del comune di Milano. Lo studio è stato finalizzato alla valutazione, attraverso metodologie e tecnologie specifiche, delle caratteristiche idrodinamiche delle acque sotterranee presenti nella zona oggetto dei lavori. A seguito di misure sul livello piezometrico della falda, compiute dopo la realizzazione di 8 piezometri, è stata realizzata (con l’ausilio del software Surfer 8.0® – Golden Software Inc.) una mappa relativa all’andamento delle isopieze e dei gradienti di flusso, attraverso interpolazione spaziale con metodo Kriging delle misure. La ricostruzione dell’assetto della falda così ottenuto ha permesso di fornire utili indicazioni riguardo le successive scelte progettuali.
Resumo:
Gli argomenti trattati in questa tesi sono le catene di Markov reversibili e alcune applicazioni al metodo Montecarlo basato sulle catene di Markov. Inizialmente vengono descritte alcune delle proprietà fondamentali delle catene di Markov e in particolare delle catene di Markov reversibili. In seguito viene descritto il metodo Montecarlo basato sulle catene di Markov, il quale attraverso la simulazione di catene di Markov cerca di stimare la distribuzione di una variabile casuale o di un vettore di variabili casuali con una certa distribuzione di probabilità. La parte finale è dedicata ad un esempio in cui utilizzando Matlab sono evidenziati alcuni aspetti studiati nel corso della tesi.
Resumo:
Effettuare la calibrazione di un motore a combustione interna richiede precisione e al contempo tempi ridotti per poter essere eseguita in modo rapido e sicuro sui banchi prova. In questo elaborato viene trattata in particolare la calibrazione dell’anticipo di accensione, parametro fondamentale per massimizzare la PMI e quindi le prestazioni di un motore da corsa, ma altrettanto delicato per quanto riguarda il fenomeno della detonazione in cui si può incorrere attuando combustioni troppo anticipate durante la ricerca della fase ottimale. Con l’esigenza di dover calibrare il singolo motore in maniera non distruttiva, utilizzando una procedura di calibrazione automatica, è quindi necessario ricorrere a un sistema che sia in grado di prevedere il valore di anticipo che genererà un livello di detonazione ritenuto pericoloso per l’integrità del motore. Tale operazione deve essere effettuata con la miglior precisione possibile, in modo tale che venga esplorato tutto il campo dei valori di anticipo attuabili dato che la condizione di massima prestazione si trova a ridosso delle condizioni detonanti, quindi nella ricerca dell’ottimo ci si può imbattere in situazioni dannose. In questo elaborato è stata analizzata e rivista una procedura in ambiente MATLAB al fine di ridurne i tempi di calcolo fra una rampa di calibrazione e l’altra senza rinunciare all’accuratezza della previsione dell’anticipo limite ponendo l’attenzione sui parametri più importanti che regolano l’algoritmo di previsione. Inoltre per il calcolo dell’anticipo limite è stato implementato un approccio alternativo di tipo probabilistico basato sui dati sperimentali ciclo per ciclo, valutando anche modelli alternativi da applicare per il calcolo del MAPO statistico.
Resumo:
Questa tesi di laurea si occupa di valutare degli interventi di miglioramento dell’efficienza energetica per un’industria ceramica. In coerenza con gli impegni assunti nel pacchetto Clima Energia, il Decreto legislativo n° 102 del 4 luglio 2014, stabilisce l’obiettivo nazionale di risparmio energetico che consiste nella riduzione, entro il 2020, di 20 milioni di tonnellate equivalenti di petrolio dei consumi di energia primaria, conteggiati a partire dal 2010. Inoltre tale decreto stabilisce un regime obbligatorio di efficienza energetica costituito dal meccanismo dei certificati bianchi, il quale dovrebbe contribuire al raggiungimento del 60% dell’obiettivo. Sulla base di queste direttive è stato effettuato presso uno stabilimento ceramico uno studio di fattibilità che si articola nelle seguenti fasi: 1.Analisi energetica del sistema attuale finalizzata all’identificazione delle richieste energetiche in termini di produzione e consumi. 2.Analisi impiantistica finalizzata alla scelta delle macchine e delle soluzioni tecniche di dettaglio. 3.Analisi economica finalizzata alla valutazione del costo di generazione di energia elettrica e termica relativamente ai sistemi oggetto di studio. 4.Valutazione della sostenibilità dell’investimento per ogni opzione considerata, mediante l’applicazione del metodo economico del valore attuale netto (VAN), per ottimizzare il tempo di rientro dall’investimento. Le tipologie di intervento proposte sono: 1)Recupero dell’aria di raffreddamento del forno, che scaldandosi a contatto con la piastrella, ha un contenuto entalpico elevato e quindi può essere utilizzata nel reparto di essiccazione. 2)Sostituzione dei bruciatori esistenti ed obsoleti del forno di cottura bicanale con 192 nuovi kit di bruciatori "autorecuperativi". 3)Implementazione di un impianto di cogenerazione costituito da un motore a combustione interna, recuperando i gas esausti e parte dell’acqua del circuito di raffreddamento ad alta temperatura.
Resumo:
O presente trabalho trata da análise teórica da plurifuncionalidade da Segurança Alimentar e Nutricional (SAN) no meio ambiente, que se sustenta como um dever de solidariedade agroambiental. O trabalho foi dividido em três partes, cada uma com dois capítulos, que foram desenvolvidos inicialmente com o estabelecimento do contexto em que se encontram os assuntos abordados, e finalizados com observações acerca das principais ideias estudadas, até a elaboração de considerações finais, que demonstram os resultados alcançados pelo trabalho. Utiliza-se a metodologia teórica e o raciocínio indutivo-crítico, pois se parte do estudo de um fenômeno individualizado, a SAN, para se prejetarem hipóteses que considerem seus efeitos e interações com o meio ambiente natural, para ao final buscar generalizar as soluções encontradas, notadamente a solidariedade em sua dimensão de dever jurídico. Procura-se sustentar a argumentação com obras de referência bibliográficas e outras produções científicas de entidades nacionais e estrangeiras. Discute-se introdutoriamente alguns motivos que levaram à realização da tese, quais sejam os graves problemas que envolvem a alimentação humana na contemporaneidade, destaca sua aproximação com os direitos humanos, especialmente com o princípio da solidariedade e suas características de transdisciplinaridade metodológica, que gera necessariamente efeitos em vários outros campos do conhecimento. São revisados criticamente conceitos firmados pela Organização das Nações Unidas para Agricultura e Alimentação (FAO), especialmente os referentes ao direito à alimentação, direito a estar alimentado, soberania alimentar, Segurança Alimentar e Nutricional (SAN), desnutrição, subnutrição e má nutrição. Considera-se a SAN em sua dimensão plurifuncional porque implica necessariamente em repercussões éticas e jurídicas no âmbito dos direitos humanos, a partir da ideia teórica da solidariedade, que é estudada desde a sua formação antiga, quando associada à virtude, até à modernidade e a aproximação com a política e o direito, entendida no presente como princípio que sustenta o dever jurídico ligado à gestão racional de bens ambientais voltados à alimentação, delimitados em especial no direito agroambiental, percebendo-se a solidariedade então como fundamento de direitos, valor superior qualificada pela fraternidade, e ao mesmo tempo prevista em documentos internacionais de direitos humanos e em diversas constituições. Os interesses difusos são necessariamente examinados, pois a SAN é um interesse geral da sociedade humana, e implica na preservação dos bens ambientais alimentares, considerados indivisíveis na visão solidária, que deve ser integrada aos valores liberdade e igualdade, tornando-os princípios com interpretação mais humana, limitando seu exercício absoluto e ainda justificando-os. A ideia de solidariedade faz com que seja possível chegar aos direitos partindo do dever agroambiental e, diante das várias correntes teóricas que tratam do dever jurídico, considera-se que seja autônomo em relação ao direito subjetivo, mas traduzindo deveres ligados a finalidades sociais, de interesse público, que se manifestam em ambiente democrático, podendo o dever agroambiental ser considerado fenômeno com raízes de ética pública, com elevados valores ambientais, decisivos em sua dimensão jurídica de obrigações e responsabilidades, de todos em relação a todos, inclusive com normas objetivas nacionais e internacionais de proteção de bens agroambientais. Sustenta-se que nesse sentido a ética pública ligada à ética ambiental pode ser decisiva na observância ao direito, para além do convencimento meramente externo, mas enquanto manifestação também interna, ética, que carrega de sentido o dever jurídico solidário ligado à plurifuncionalidade da SAN. Também são elaboradas críticas à tradicional argumentação acerca dos direitos das gerações futuras, pela imprecisão e incerteza científica que os cinge, afastando-os da possibilidade de figurarem como objeto do direito, para assentar que os direitos de que se falam são precisamente traduzidos como deveres das gerações presentes, sendo estes deveres o vínculo jurídico entre gerações sucessivas. Nesse sentido, a solidariedade intergeracional passa a ter um liame jurídico contínuo, estudado através da teoria dos direitos fundamentais, o que lhe confere como característica a fluidez entre as gerações, e que por isso exige o aproveitamento racional dos recursos ambientais naturais, amparado nos princípios da precaução e informação, na ética da responsabilidade dirigida a todas as gerações, que demanda a incorporação de longo tempo nas ações humanas, que possibilite a ampla educação ambiental, e o desenvolvimento do pensamento altruísta, transtemporal, que considere problemas ambientais transfonteiriços e os bens ambientais naturais finitos, sendo indispensável conscientização da geração presente e de sua classe política para a afirmação da solidariedade. Estuda-se ainda que o dever de gestão racional dos bens ambientais naturais alimentares é dever de solidariedade, pois se considera que cada indivíduo usa uma parcela imaterial e indivisa desse bem coletivo, que pode ser público ou privado, mas que se sujeita à solidariedade. Nesse contexto só prevalece o direito de propriedade, em relação aos seus atributos tradicionais, se o objetivo comum de preservação dos bens ambientais alimentares não fornecer uma justificativa suficiente para impor readequação da atividade, abstenção de conduta, ou mesmo medidas sancionadoras decorrentes de responsabilização objetiva. Finalmente, enquanto contribuição científica, o trabalho apresenta um ensaio para a construção das características do dever de solidariedade agroambiental, quais sejam, o seu objeto e os sujeitos, a sua estrutura, que abrange a natureza das obrigações dele decorrente, e o regime principiológico. A conclusão geral apresentada é que o dever de solidariedade agroambiental, demonstrado sua ocorrência pela plurifuncionalidade da SAN, corresponde à ideia de justiça e moralidade política, fenômeno no qual é percebida intensa conexão entre o direito e a ética ambiental, compreensão relevante para resolução de conflitos que envolvam alimentação humana e a utilização de bens ambientais naturais.
Resumo:
L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.
Resumo:
Questo lavoro di tesi è stato suddiviso in tre parti. L’argomento principale è stato lo “Studio della componente antiossidante di oli ottenuti da olive mediante l’utilizzo di diversi sistemi e parametri tecnologici”. E’ ben noto come la qualità ossidativa di un olio di oliva dipenda oltre che dalla sua composizione in acidi grassi, dalla presenza di composti caratterizzati da un elevata attività antiossidante, ovvero le sostanze fenoliche. I composti fenolici contribuiscono quindi in maniera preponderante alla shelf life dell’olio extravergine di oliva. Inoltre sono state riscontrate delle forti correlazione tra alcune di queste sostanze e gli attributi sensoriali positivi di amaro e piccante. E’ poi da sottolineare come il potere antiossidante dei composti fenolici degli oli vergini di oliva, sia stato negli ultimi anni oggetto di considerevole interesse, poiché correlato alla protezione da alcune patologie come ad esempio quelle vascolari, degenerative e tumorali. Il contenuto delle sostanze fenoliche negli oli di oliva dipende da diversi fattori: cultivar, metodo di coltivazione, grado di maturazione delle olive e ovviamente dalle operazioni tecnologiche poiché possono variare il quantitativo di questi composti estratto. Alla luce di quanto appena detto abbiamo valutato l’influenza dei fattori agronomici (metodi di agricoltura biologica, integrata e convenzionale) e tecnologici (riduzione della temperatura della materia prima, aggiunta di coadiuvanti in fase di frangitura e di gramolatura, confronto tra tre oli extravergini di oliva ottenuti mediante diversi sistemi tecnologici) sul contenuto in composti fenolici di oli edibili ottenuti da olive (paper 1-3-4). Oltre alle sostanze fenoliche, negli oli di oliva sono presenti altri composti caratterizzati da proprietà chimiche e nutrizionali, tra questi vi sono i fitosteroli, ovvero gli steroli tipici del mondo vegetale, che rappresentano la frazione dell’insaponificabile quantitativamente più importante dopo gli idrocarburi. La composizione quali-quantitativa degli steroli di un olio di oliva è una delle caratteristiche analitiche più importanti nella valutazione della sua genuinità; infatti la frazione sterolica è significativamente diversa in funzione dell’origine botanica e perciò viene utilizzata per distinguere tra di loro gli oli e le loro miscele. Il principale sterolo nell’olio di oliva è il β- sitosterolo, la presenza di questo composto in quantità inferiore al 90% è un indice approssimativo dell’aggiunta di un qualsiasi altro olio. Il β-sitosterolo è una sostanza importante dal punto di vista della salute, poiché si oppone all’assorbimento del colesterolo. Mentre in letteratura si trovano numerosi lavori relativi al potere antiossidante di una serie di composti presenti nell’olio vergine di oliva (i già citati polifenoli, ma anche carotenoidi e tocoferoli) e ricerche che dimostrano invece come altri composti possano promuovere l’ossidazione dei lipidi, per quanto riguarda il potere antiossidante degli steroli e dei 4- metilsteroli, vi sono ancora poche informazioni. Per questo è stata da noi valutata la composizione sterolica in oli extravergini di oliva ottenuti con diverse tecnologie di estrazione e l’influenza di questa sostanza sulla loro stabilità ossidativa (paper 2). E’ stato recentemente riportato in letteratura come lipidi cellulari evidenziati attraverso la spettroscopia di risonanza nucleare magnetica (NMR) rivestano una importanza strategica da un punto di vista funzionale e metabolico. Questi lipidi, da un lato un lato sono stati associati allo sviluppo di cellule neoplastiche maligne e alla morte cellulare, dall’altro sono risultati anche messaggeri di processi benigni quali l’attivazione e la proliferazione di un normale processo di crescita cellulare. Nell’ambito di questa ricerca è nata una collaborazione tra il Dipartimento di Biochimica “G. Moruzzi” ed il Dipartimento di Scienze degli Alimenti dell’Università di Bologna. Infatti, il gruppo di lipochimica del Dipartimento di Scienze degli Alimenti, a cui fa capo il Prof. Giovanni Lercker, da sempre si occupa dello studio delle frazioni lipidiche, mediante le principali tecniche cromatografiche. L’obiettivo di questa collaborazione è stato quello di caratterizzare la componente lipidica totale estratta dai tessuti renali umani sani e neoplastici, mediante l’utilizzo combinato di diverse tecniche analitiche: la risonanza magnetica nucleare (1H e 13C RMN), la cromatografia su strato sottile (TLC), la cromatografia liquida ad alta prestazione (HPLC) e la gas cromatografia (GC) (paper 5-6-7)
Resumo:
L’utilizzo di materiali compositi come i calcestruzzi fibrorinforzati sta diventando sempre più frequente e diffuso. Tuttavia la scelta di nuovi materiali richiede una approfondita analisi delle loro caratteristiche e dei loro comportamenti. I vantaggi forniti dall’aggiunta di fibre d’acciaio ad un materiale fragile, quale il calcestruzzo, sono legati al miglioramento della duttilità e all'aumento di assorbimento di energia. L’aggiunta di fibre permette quindi di migliorare il comportamento strutturale del composito, dando vita ad un nuovo materiale capace di lavorare non solo a compressione ma anche in piccola parte a trazione, ma soprattutto caratterizzato da una discreta duttilità ed una buona capacità plastica. Questa tesi ha avuto come fine l’analisi delle caratteristiche di questi compositi cementizi fibrorinforzati. Partendo da prove sperimentali classiche quali prove di trazione e compressione, si è arrivati alla caratterizzazione di questi materiali avvalendosi di una campagna sperimentale basata sull’applicazione della norma UNI 11039/2003. L’obiettivo principale di questo lavoro consiste nell’analizzare e nel confrontare calcestruzzi rinforzati con fibre di due diverse lunghezze e in diversi dosaggi. Studiando questi calcestruzzi si è cercato di comprendere meglio questi materiali e trovare un riscontro pratico ai comportamenti descritti in teorie ormai diffuse e consolidate. La comparazione dei risultati dei test condotti ha permesso di mettere in luce differenze tra i materiali rinforzati con l’aggiunta di fibre corte rispetto a quelli con fibre lunghe, ma ha anche permesso di mostrare e sottolineare le analogie che caratterizzano questi materiali fibrorinforzati. Sono stati affrontati inoltre gli aspetti legati alle fasi della costituzione di questi materiali sia da un punto di vista teorico sia da un punto di vista pratico. Infine è stato sviluppato un modello analitico basato sulla definizione di specifici diagrammi tensione-deformazione; i risultati di questo modello sono quindi stati confrontati con i dati sperimentali ottenuti in laboratorio.
Resumo:
In questi ultimi anni il tema della sicurezza sismica degli edifici storici in muratura ha assunto particolare rilievo in quanto a partire soprattutto dall’ordinanza 3274 del 2003, emanata in seguito al sisma che colpì il Molise nel 2002, la normativa ha imposto un monitoraggio ed una classificazione degli edifici storici sotto tutela per quanto riguarda la vulnerabilità sismica (nel 2008, quest’anno, scade il termine per attuare quest’opera di classificazione). Si è posto per questo in modo più urgente il problema dello studio del comportamento degli edifici storici (non solo quelli che costituiscono monumento, ma anche e soprattutto quelli minori) e della loro sicurezza. Le Linee Guida di applicazione dell’Ordinanza 3274 nascono con l’intento di fornire strumenti e metodologie semplici ed efficaci per affrontare questo studio nei tempi previsti. Il problema si pone in modo particolare per le chiese, presenti in grande quantità sul territorio italiano e di cui costituiscono gran parte del patrimonio culturale; questi edifici, composti di solito da grandi elementi murari, non presentano comportamento scatolare, mancando orizzontamenti, elementi di collegamento efficace e muri di spina interni e sono particolarmente vulnerabili ad azioni sismiche; presentano inoltre un comportamento strutturale a sollecitazioni orizzontali che non può essere colto con un approccio globale basato, ad esempio, su un’analisi modale lineare: non ci sono modi di vibrare che coinvolgano una sufficiente parte di massa della struttura; si hanno valori dei coefficienti di partecipazione dei varii modi di vibrare minori del 10% (in generale molto più bassi). Per questo motivo l’esperienza e l’osservazione di casi reali suggeriscono un approccio di studio degli edifici storici sacri in muratura attraverso l’analisi della sicurezza sismica dei cosiddetti “macroelementi” in cui si può suddividere un edificio murario, i quali sono elementi che presentano un comportamento strutturale autonomo. Questo lavoro si inserisce in uno studio più ampio iniziato con una tesi di laurea dal titolo “Analisi Limite di Strutture in Muratura. Teoria e Applicazione all'Arco Trionfale” (M. Temprati), che ha studiato il comportamento dell’arco trionfale della chiesa collegiata di Santa Maria del Borgo a San Nicandro Garganico (FG). Suddividere un edificio in muratura in più elementi è il metodo proposto nelle Linee Guida, di cui si parla nel primo capitolo del presente lavoro: la vulnerabilità delle strutture può essere studiata tramite il moltiplicatore di collasso quale parametro in grado di esprimere il livello di sicurezza sismica. Nel secondo capitolo si illustra il calcolo degli indici di vulnerabilità e delle accelerazioni di danno per la chiesa di Santa Maria del Borgo, attraverso la compilazione delle schede dette “di II livello”, secondo quanto indicato nelle Linee Guida. Nel terzo capitolo viene riportato il calcolo del moltiplicatore di collasso a ribaltamento della facciata della chiesa. Su questo elemento si è incentrata l’attenzione nel presente lavoro. A causa della complessità dello schema strutturale della facciata connessa ad altri elementi dell’edificio, si è fatto uso del codice di calcolo agli elementi finiti ABAQUS. Della modellazione del materiale e del settaggio dei parametri del software si è discusso nel quarto capitolo. Nel quinto capitolo si illustra l’analisi condotta tramite ABAQUS sullo stesso schema della facciata utilizzato per il calcolo manuale nel capitolo tre: l’utilizzo combinato dell’analisi cinematica e del metodo agli elementi finiti permette per esempi semplici di convalidare i risultati ottenibili con un’analisi non-lineare agli elementi finiti e di estenderne la validità a schemi più completi e più complessi. Nel sesto capitolo infatti si riportano i risultati delle analisi condotte con ABAQUS su schemi strutturali in cui si considerano anche gli elementi connessi alla facciata. Si riesce in questo modo ad individuare con chiarezza il meccanismo di collasso di più facile attivazione per la facciata e a trarre importanti informazioni sul comportamento strutturale delle varie parti, anche in vista di un intervento di ristrutturazione e miglioramento sismico.
Resumo:
ABSTRACT Il presente lavoro vuole introdurre la problematica del rigonfiamento del terreno a seguito di grandi scavi in argilla. Il sollevamento del terreno dopo lo scavo può passare inosservato ma sono numerosi i casi in cui il rigonfiamento dura per molti anni e addirittura decenni, Shell Centre, London, Lion Yard, Cambridge, Bell Common, London, ecc. Questo rigonfiamento il più delle volte è impedito dalla presenza di fondazioni, si genera quindi una pressione distribuita che se non considerata in fase di progetto può portare alla fessurazione della fondazione stessa. L’anima del progetto è la modellazione e l’analisi del rigonfiamento di grandi scavi in argilla, confrontando poi i risultati con i dati reali disponibili in letteratura. L’idea del progetto nasce dalla difficoltà di ottenere stime e previsioni attendibili del rigonfiamento a seguito di grandi scavi in argilla sovraconsolidata. Inizialmente ho esaminato la teoria e i fattori che influenzano il grado e la velocità del rigonfiamento, quali la rigidezza, permeabilità, fessurazione, struttura del suolo, etc. In seguito ho affrontato lo studio del comportamento rigonfiante di argille sovraconsolidate a seguito di scarico tensionale (scavi), si è evidenziata l’importanza di differenziare il rigonfiamento primario e il rigonfiamento secondario dovuto al fenomeno del creep. Il tema centrale del progetto è l’analisi numerica tramite Flac di due grandi scavi in argilla, Lion Yard, Cambridge, e, Bell Common, London. Attraverso una dettagliata analisi parametrica sono riuscito a trovare i migliori parametri che modellano il comportamento reale nei due casi in esame, in questo modo è possibile arrivare a stime e previsioni attendibili del fenomeno rigonfiante del terreno a seguito di grandi scavi. Gli scavi modellati Lion Yard e Bell Common sono rispettivamente in Gault Clay e London Clay, grazie a famosi recenti articoli scientifici sono riuscito a evidenziare la principali propietà che diversificano i due terreni in esame, tali propietà sono estremamente differenti dalle normali caratteristiche considerate per la progettazione in presenza di terreno argilloso; sono così riuscito a implementare i migliori parametri per descrivere il comportamento dei due terreni nei diversi modelli. Ho inoltre studiato l’interazione terreno-struttura, la pressione esercitata dal rigonfiamento del terreno è strettamente funzione delle caratteristiche di connesione tra fondazione superficiale e muro di sostegno, tale pressione non deve essere ignorata in fase progettuale poichè può raggiungere importanti valori. Nello scavo di Lion Yard, considerando la presenza delle fondazioni profonde ho evidenziato il fatto che il rigonfiamento crea una forza distribuita di taglio tra i pali di fondazione ed il terreno, anche tale sollecitazione dovrebbe essere considerata ai fini della progettazione. La problematica non si ferma solo sull’interazione terreno-fondazioni, infatti durante gli scavi di importanti fondazioni londinesi lo scarico tensionale ha creato uno spostamento significativo positivo verso la superfice di tratti di tunnel della metropolita, questo fenomeno può creare seri problemi di sicurezza nella rete dei trasporti pubblici. Infine sono stati messi a confronto i risultati del programma Flac con quelli di metodi semplificati, ho trovato che utilizzando il metodo iterativo di O’Brien i risultati sono simili alla realtà e il tempo di calcolo è molto inferiore di quello richiesto utilizzando Flac, 2-3 giorni. In conclusione posso affermare che grazie ad una dettagliata analisi parametrica è stato possibile stimare il rigonfiamento del terreno, argilla sovraconsolidata, nei due casi analizzati.