927 resultados para riduzione selettiva della furfurale sintesi di alcol furfurilico catalizzatori a base di MgO CaO SrO metanolo come fonte di idrogeno catalisi basica eterogenea


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Trasparenze presentate a lezione. Si consiglia agli studenti di stamparne una copia prima della lezione e di portarla con sé onde riportare su di essa ulteriori annotazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro di tesi è stato suddiviso in tre parti. L’argomento principale è stato lo “Studio della componente antiossidante di oli ottenuti da olive mediante l’utilizzo di diversi sistemi e parametri tecnologici”. E’ ben noto come la qualità ossidativa di un olio di oliva dipenda oltre che dalla sua composizione in acidi grassi, dalla presenza di composti caratterizzati da un elevata attività antiossidante, ovvero le sostanze fenoliche. I composti fenolici contribuiscono quindi in maniera preponderante alla shelf life dell’olio extravergine di oliva. Inoltre sono state riscontrate delle forti correlazione tra alcune di queste sostanze e gli attributi sensoriali positivi di amaro e piccante. E’ poi da sottolineare come il potere antiossidante dei composti fenolici degli oli vergini di oliva, sia stato negli ultimi anni oggetto di considerevole interesse, poiché correlato alla protezione da alcune patologie come ad esempio quelle vascolari, degenerative e tumorali. Il contenuto delle sostanze fenoliche negli oli di oliva dipende da diversi fattori: cultivar, metodo di coltivazione, grado di maturazione delle olive e ovviamente dalle operazioni tecnologiche poiché possono variare il quantitativo di questi composti estratto. Alla luce di quanto appena detto abbiamo valutato l’influenza dei fattori agronomici (metodi di agricoltura biologica, integrata e convenzionale) e tecnologici (riduzione della temperatura della materia prima, aggiunta di coadiuvanti in fase di frangitura e di gramolatura, confronto tra tre oli extravergini di oliva ottenuti mediante diversi sistemi tecnologici) sul contenuto in composti fenolici di oli edibili ottenuti da olive (paper 1-3-4). Oltre alle sostanze fenoliche, negli oli di oliva sono presenti altri composti caratterizzati da proprietà chimiche e nutrizionali, tra questi vi sono i fitosteroli, ovvero gli steroli tipici del mondo vegetale, che rappresentano la frazione dell’insaponificabile quantitativamente più importante dopo gli idrocarburi. La composizione quali-quantitativa degli steroli di un olio di oliva è una delle caratteristiche analitiche più importanti nella valutazione della sua genuinità; infatti la frazione sterolica è significativamente diversa in funzione dell’origine botanica e perciò viene utilizzata per distinguere tra di loro gli oli e le loro miscele. Il principale sterolo nell’olio di oliva è il β- sitosterolo, la presenza di questo composto in quantità inferiore al 90% è un indice approssimativo dell’aggiunta di un qualsiasi altro olio. Il β-sitosterolo è una sostanza importante dal punto di vista della salute, poiché si oppone all’assorbimento del colesterolo. Mentre in letteratura si trovano numerosi lavori relativi al potere antiossidante di una serie di composti presenti nell’olio vergine di oliva (i già citati polifenoli, ma anche carotenoidi e tocoferoli) e ricerche che dimostrano invece come altri composti possano promuovere l’ossidazione dei lipidi, per quanto riguarda il potere antiossidante degli steroli e dei 4- metilsteroli, vi sono ancora poche informazioni. Per questo è stata da noi valutata la composizione sterolica in oli extravergini di oliva ottenuti con diverse tecnologie di estrazione e l’influenza di questa sostanza sulla loro stabilità ossidativa (paper 2). E’ stato recentemente riportato in letteratura come lipidi cellulari evidenziati attraverso la spettroscopia di risonanza nucleare magnetica (NMR) rivestano una importanza strategica da un punto di vista funzionale e metabolico. Questi lipidi, da un lato un lato sono stati associati allo sviluppo di cellule neoplastiche maligne e alla morte cellulare, dall’altro sono risultati anche messaggeri di processi benigni quali l’attivazione e la proliferazione di un normale processo di crescita cellulare. Nell’ambito di questa ricerca è nata una collaborazione tra il Dipartimento di Biochimica “G. Moruzzi” ed il Dipartimento di Scienze degli Alimenti dell’Università di Bologna. Infatti, il gruppo di lipochimica del Dipartimento di Scienze degli Alimenti, a cui fa capo il Prof. Giovanni Lercker, da sempre si occupa dello studio delle frazioni lipidiche, mediante le principali tecniche cromatografiche. L’obiettivo di questa collaborazione è stato quello di caratterizzare la componente lipidica totale estratta dai tessuti renali umani sani e neoplastici, mediante l’utilizzo combinato di diverse tecniche analitiche: la risonanza magnetica nucleare (1H e 13C RMN), la cromatografia su strato sottile (TLC), la cromatografia liquida ad alta prestazione (HPLC) e la gas cromatografia (GC) (paper 5-6-7)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Una breve introduzione sulla storia del mosaico: dalle origine alle sue evoluzione tipologiche e tecnologiche nel tempo, di come si organizzavano le antiche botteghe del mosaico e le suddivisione dei compiti tra il pictor imaginarius, pictor parietarius e il musivarius (la gerarchia) all’interno di essi; la tecniche esecutiva per la messa in opera dei mosaici pavimentali romani. Visto che i mosaici si trovano a Suasa, quindi è stata riassunta la storia della città romana di Suasa con le sua varie fase edilizie, con maggior approfondimenti per gli edifici che presentano pavimentazione a mosaico: in primo luogo è la domus dei Coiedii contenente più di diciotto pavimenti in opus tessellatum. Il secondo è quello del così detto Edificio 4 (ancora inedito e di incerta natura e destinazione) portato in luce solo parzialmente con due settore a mosaico. Successivamente è stato effettuato in maniera dettagliata lo studio dello stato di conservazione dei vani musivi che sono state oggetto in senso stretto dei varie interventi conservativi, sia nella domus dei Coiedii (vano AU, oecus G e vano BB) che in Edificio 4 (vano A e vano D), evidenziando così le diverse morfologie di degrado in base “Normativa UNI 11176/2006 con l’aiuto della documentazione grafica ed fotografica. Un ampio e complessivo studio archeometrico-tecnologico dei materiali impiegati per la realizzazione dei musaici a Suasa (tessere e malte) presso i laboratori del CNR di Faenza.. Sono stati prelevati complessivamente 90 campione da tredici vani musivi di Suasa, di cui 28 campione di malte, comprese tra allettamento e di sottofondo,42 tessere lapidee e 20 tessere vitree; questi ultimi appartengono a sette vani della domus. Durante l’operazione del prelevo, è stato presso in considerazione le varie tipologie dei materiali musivi, la cromia ed le morfologie di degrado che erano presente. Tale studio ha lo scopo di individuare la composizione chimico-mineropetrografico, le caratteristiche tessiturali dei materiali e fornire precisa informazione sia per fine archeometrici in senso stretto (tecnologie di produzione, provenienza, datazione ecc.), che come supporto ai interventi di conservazione e restauro. Infine si è potuto costruire una vasta banca dati analitici per i materiali musivi di Suasa, che può essere consultata, aggiornata e confrontata in futuro con altri materiali proveniente dalla stessa province e/o regione. Applicazione dei interventi conservativi: di manutenzione, pronto intervento e di restauro eseguiti sui vani mosaicati di Suasa che presentavano un pessimo stato di conservazione e necessitavano l’intervento conservativo, con la documentazione grafica e fotografica dei varie fase dell’intervento. In particolare lo studio dei pregiatissimi materiali marmorei impiegati per la realizzazione dell’opus sectile centrale (sala G) nella domus dei Coiedii, ha portato alla classificazione e alla schedatura di sedici tipi di marmi impiegati; studio esteso poi al tessellato che lo circonda: studio del andamento, tipologie dei materiali, dei colore, dimensione delle tessere, interstizio ecc., ha permesso con l’utilizzo delle tavole tematiche di ottenere una chiara lettura per l’intero tessellato, di evidenziare così, tutti gli interventi antiche e moderni di risarciture, eseguiti dal II sec. d.C. fio ad oggi. L’aspetto didattico (teorico e pratico) ha accompagnato tutto il lavoro di ricerca Il lavoro si qualifica in conclusione come un esempio assai significativo di ricerca storicoiconografiche e archeometriche, con risultati rilevanti sulle tecnologie antiche e sui criteri di conservazione più idonei.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Per garantire la sicurezza di tutte le operazioni in volo (avvicinamento, decollo, holding, ecc..) il decreto legge del 15 marzo del 2006 n. 151 ha imposto la redazione di opportune cartografie basate sul Regolamento ENAC per la Costruzione e l’Esercizio degli Aeroporti e sulla normativa internazionale ICAO così da poterle annettere agli Strumenti Urbanistici del territorio e governare lo sviluppo delle costruzioni. La sicurezza delle operazioni in volo è garantita attraverso delle Superfici di Delimitazione Ostacoli che impongono dei vincoli plano-altimetrici nelle aree limitrofe agli Aeroporti, quindi costruzioni, alberi e lo stesso terreno non devono forare queste superfici altrimenti diventerebbero “Ostacoli” alla navigazione aerea. Per gli ostacoli già presenti sono definiti dei provvedimenti da adottarsi in funzione della superficie che questi forano: potranno essere abbattuti se ricadenti in aree critiche come in prossimità delle piste oppure essere segnalati in mappe in uso ai piloti e anche con segnali visivi posizionati sugli stessi. Per quanto riguarda le future costruzioni, queste non potranno mai diventare Ostacolo in quanto sarà obbligatorio rispettare i vincoli plano-altimetrici. La tesi di laurea in questione vuole illustrare come si è arrivati alla redazione delle sopraccitate mappe nel caso specifico dell'Aeroporto Guglielmo Marconi di Bologna; sono analizzate nel primo capitolo le caratteristiche fisiche degli Aeroporti per acquisire una certa padronanza su termini tecnici che compaiono nei capitoli successivi (è inoltre presente un glossario). Nel secondo capitolo è individuato il percorso normativo che ha portato alla redazione dell’ultima revisione al Codice della Navigazione. Il capitolo 3 introduce le superfici di delimitazione ostacoli secondo quanto esposto nel Regolamento per la Costruzione e l’Esercizio degli Aeroporti di ENAC; il capitolo 4 è dedicato al lay-out dell’Aeroporto Guglielmo Marconi di Bologna. Infine la tesi si conclude con il capitoli 5 nel quale sono esposte le fasi e le metodologie usate per la realizzazione delle planimetrie e con il capitolo 6 in cui si discute delle problematiche sorte a causa dell’orografia del territorio che deve tenersi nella giusta considerazione per la definizione dei suddetti vincoli aeronautici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questi ultimi anni il tema della sicurezza sismica degli edifici storici in muratura ha assunto particolare rilievo in quanto a partire soprattutto dall’ordinanza 3274 del 2003, emanata in seguito al sisma che colpì il Molise nel 2002, la normativa ha imposto un monitoraggio ed una classificazione degli edifici storici sotto tutela per quanto riguarda la vulnerabilità sismica (nel 2008, quest’anno, scade il termine per attuare quest’opera di classificazione). Si è posto per questo in modo più urgente il problema dello studio del comportamento degli edifici storici (non solo quelli che costituiscono monumento, ma anche e soprattutto quelli minori) e della loro sicurezza. Le Linee Guida di applicazione dell’Ordinanza 3274 nascono con l’intento di fornire strumenti e metodologie semplici ed efficaci per affrontare questo studio nei tempi previsti. Il problema si pone in modo particolare per le chiese, presenti in grande quantità sul territorio italiano e di cui costituiscono gran parte del patrimonio culturale; questi edifici, composti di solito da grandi elementi murari, non presentano comportamento scatolare, mancando orizzontamenti, elementi di collegamento efficace e muri di spina interni e sono particolarmente vulnerabili ad azioni sismiche; presentano inoltre un comportamento strutturale a sollecitazioni orizzontali che non può essere colto con un approccio globale basato, ad esempio, su un’analisi modale lineare: non ci sono modi di vibrare che coinvolgano una sufficiente parte di massa della struttura; si hanno valori dei coefficienti di partecipazione dei varii modi di vibrare minori del 10% (in generale molto più bassi). Per questo motivo l’esperienza e l’osservazione di casi reali suggeriscono un approccio di studio degli edifici storici sacri in muratura attraverso l’analisi della sicurezza sismica dei cosiddetti “macroelementi” in cui si può suddividere un edificio murario, i quali sono elementi che presentano un comportamento strutturale autonomo. Questo lavoro si inserisce in uno studio più ampio iniziato con una tesi di laurea dal titolo “Analisi Limite di Strutture in Muratura. Teoria e Applicazione all'Arco Trionfale” (M. Temprati), che ha studiato il comportamento dell’arco trionfale della chiesa collegiata di Santa Maria del Borgo a San Nicandro Garganico (FG). Suddividere un edificio in muratura in più elementi è il metodo proposto nelle Linee Guida, di cui si parla nel primo capitolo del presente lavoro: la vulnerabilità delle strutture può essere studiata tramite il moltiplicatore di collasso quale parametro in grado di esprimere il livello di sicurezza sismica. Nel secondo capitolo si illustra il calcolo degli indici di vulnerabilità e delle accelerazioni di danno per la chiesa di Santa Maria del Borgo, attraverso la compilazione delle schede dette “di II livello”, secondo quanto indicato nelle Linee Guida. Nel terzo capitolo viene riportato il calcolo del moltiplicatore di collasso a ribaltamento della facciata della chiesa. Su questo elemento si è incentrata l’attenzione nel presente lavoro. A causa della complessità dello schema strutturale della facciata connessa ad altri elementi dell’edificio, si è fatto uso del codice di calcolo agli elementi finiti ABAQUS. Della modellazione del materiale e del settaggio dei parametri del software si è discusso nel quarto capitolo. Nel quinto capitolo si illustra l’analisi condotta tramite ABAQUS sullo stesso schema della facciata utilizzato per il calcolo manuale nel capitolo tre: l’utilizzo combinato dell’analisi cinematica e del metodo agli elementi finiti permette per esempi semplici di convalidare i risultati ottenibili con un’analisi non-lineare agli elementi finiti e di estenderne la validità a schemi più completi e più complessi. Nel sesto capitolo infatti si riportano i risultati delle analisi condotte con ABAQUS su schemi strutturali in cui si considerano anche gli elementi connessi alla facciata. Si riesce in questo modo ad individuare con chiarezza il meccanismo di collasso di più facile attivazione per la facciata e a trarre importanti informazioni sul comportamento strutturale delle varie parti, anche in vista di un intervento di ristrutturazione e miglioramento sismico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca consiste nell’analisi degli elementi normativi che caratterizzano l’azione della Comunità in materia di alimenti. L’obiettivo è quello di verificare l’esistenza di un nucleo di principi comuni cui il legislatore comunitario si ispira nella ricerca di un equilibrio tra le esigenze di tutela della salute e quelle relative alla libera circolazione degli alimenti. Lo studio si apre con la ricostruzione storica delle principali fasi che hanno condotto alla definizione della politica comunitaria di sicurezza alimentare. Durante i primi anni del processo di integrazione europea, l’attenzione del legislatore comunitario si è concentrata sugli alimenti, esclusivamente in virtù della loro qualità di merci. La tutela della salute rimaneva nella sfera di competenza nazionale e le incursioni del legislatore comunitario in tale settore erano volte ad eliminare le divergenze normative suscettibili di rappresentare un ostacolo al commercio. Nella trattazione sono illustrati i limiti che un approccio normativo essenzialmente orientato alla realizzazione del mercato interno era in grado potenzialmente di creare sul sistema e che le vicende legate alle crisi alimentari degli anni Novanta hanno contribuito a rendere evidenti. Dall’urgenza di un coinvolgimento qualitativamente diverso della Comunità nelle tematiche alimentari, si è sviluppata progressivamente la necessità di una politica che fosse in grado di determinare un punto di equilibrio tra le esigenze di sicurezza alimentare e quelle della libera circolazione degli alimenti. Il risultato di tale processo di riflessione è stata l’adozione del Regolamento 178/2002 CE che stabilisce i principi e i requisiti generali della legislazione alimentare ed istituisce l’Autorità per la sicurezza alimentare. Nei capitoli successivi, è svolta un’analisi dettagliata delle innovazioni normative introdotte nell’ambito dell’azione comunitaria in materia di alimenti, con l’obiettivo di verificare se tale riforma abbia impresso alla formazione delle regole in materia di alimenti caratteristiche e specificità proprie. In particolare, vengono esaminate le finalità della politica alimentare comunitaria, evidenziando il ruolo centrale ormai assunto dalla tutela della salute rispetto al principio fondamentale della libera circolazione. Inoltre, l’analisi si concentra nell’identificazione del campo di applicazione materiale – la definizione di alimento – e personale – la definizione di impresa alimentare e di consumatore – della legislazione alimentare. Successivamente, l'analisi si concentra s sui principi destinati ad orientare l’attività normativa della Comunità e degli Stati membri nell’ambito del settore in precedenza individuato. Particolare attenzione viene dedicata allo studio dell’interazione tra l’attività di consulenza scientifica e la fase politico-decisionale, attraverso l’approfondimento del principio dell’analisi dei rischi, del principio di precauzione e del principio di trasparenza. Infine, l’analisi si conclude con lo studio di alcuni requisiti innovativi introdotti dal Regolamento 178 come la rintracciabilità degli alimenti, l’affermazione generale dell’esigenza di garantire la sicurezza dei prodotti e la responsabilità primaria degli operatori del settore alimentare. Il risultato del profondo ripensamento del sistema attuato con il Regolamento 178 é la progressiva individuazione di un quadro di principi e requisiti orizzontali destinati ad imprimere coerenza ed organicità all’azione della Comunità in materia di alimenti. Tale tendenza è inoltre confermata dalla giurisprudenza comunitaria che utilizza tali principi in chiave interpretativa ed analogica. Lo studio si conclude con alcune considerazioni di carattere generale, mettendo in luce la difficoltà di bilanciare le esigenze di protezione della salute con gli imperativi della libera di circolazione degli alimenti. Tale difficoltà dipende dalla natura di merce “complessa” dei prodotti alimentari nel senso che, accanto alla dimensione economica e commerciale, essi sono caratterizzati da un’importante dimensione sociale e culturale. L'indagine svolta mostra come nel settore considerato la ricerca di un equilibrio tra esigenze contrapposte ha prodotto una sostanziale centralizzazione della gestione della politica alimentare a livello europeo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’argomento trattato in questo elaborato è il problema sempre più emergente dello smaltimento dei fanghi provenienti dalla depurazione delle acque reflue. La quantità di fanghi da smaltire, infatti, è in continuo aumento e continuerà a crescere nel corso dei prossimi anni a causa di trattamenti sempre più spinti di depurazione e della costruzione di nuovi impianti. Dopo aver analizzato i vari scenari possibili per lo smaltimento dei fanghi ed i relativi costi, si passa ad analizzare le varie tecniche utilizzate per l’essiccamento dei fanghi (dirette ed indirette), includendo anche tecniche di ultima generazione come l’essiccamento per via solare. Si è andati poi ad analizzare nel dettaglio il funzionamento dell’impianto di essiccamento termico dei fanghi di depurazione di Coriano (RN), situato presso il termovalorizzatore e che sfrutta il calore proveniente da questo come fonte di calore per essiccare i fanghi. Sono state evidenziate le varie parti che compongono l’impianto e le caratteristiche delle correnti in ingresso ed uscita. Si è passati poi ad analizzare il pericolo di esplosione, all’interno dello stesso impianto, dovuto alla presenza di miscele esplosive formate dalla polvere organica del fango e dall’aria. Si sono analizzate tutte le modifiche apportate all’impianto in modo tale da prevenire questo rischio di esplosione. Infine è stata condotta una valutazione economica per dimostrare che l’essiccamento dei fanghi risulta un processo molto conveniente, perché consente di ridurre i volumi da trattare, e, quindi, di conseguenza anche i costi dello smaltimento finale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo del presente elaborato è lo studio della regolarità stradale. La regolarità è una caratteristica fondamentale sia dal punto di vista dell’utenza, poiché da essa dipendono il comfort, ma soprattutto, la sicurezza della guida, sia dal punto di vista dell’ente proprietario della strada, perché dalla regolarità dipende la pianificazione della manutenzione della rete viaria, con tutti i pesi economici che essa comporta. Da questa piccola considerazione si comprende perché nell’ultimo secolo l’argomento abbia suscitato sempre maggiore interesse, vedendo la nascita, sin dagli anni ’50, di strumenti sempre più sofisticati, grazie allo sviluppo dell’elettronica, e sempre più veloci nell’acquisizione dei dati, per far fronte al contemporaneo sviluppo della rete viaria. Nel primo capitolo si affronterà la tematica della regolarità stradale, cercando di comprenderne la natura e i suoi livelli di degrado, dei quali viene fatta un’ampia descrizione, comprensiva di cause scatenanti. Inoltre si fa un accenno al Catasto Stradale, poiché costituisce uno strumento essenziale per la gestione dell’infrastruttura viaria e per l’ottimizzazione delle risorse destinate alla sua manutenzione e alla sua sicurezza; infine si parla delle tecnologie finalizzate al rilievo della regolarità. Il secondo capitolo è dedicato al panorama normativo in materia di regolarità stradale. Le varie norme sono commentate nel dettaglio, data l’importanza di una standardizzazione nella calibrazione e nell’uso degli strumenti di rilievo e nelle procedure di stima della regolarità. Il capitolo successivo contiene una trattazione sugli indici di regolarità, ma l’attenzione è in particolar modo rivolta all’IRI, l’indice internazionale di irregolarità. Per le caratteristiche con cui è stato concepito, cioè stabilità temporale, validità e compatibilità, è stato assunto come scala di riferimento internazionale, a cui gli altri indici possono riferirsi. Viene quindi illustrato il significato di IRI, il modello matematico su cui si basa la sua definizione, per passare poi al procedimento analitico e a quello informatico con il quale viene calcolato. Essendo la presente tesi avvenuta in collaborazione con la ditta Siteco Informatica di Bologna, nel capitolo quarto, sono stati analizzati gli strumenti installati sul veicolo ad alto rendimento (VAR) messo a disposizione dalla ditta stessa. Gli strumenti consistono principalmente in dispositivi per il calcolo del posizionamento e dell’assetto del veicolo, in un profilometro laser per il rilievo della regolarità stradale e in un laser scanner, di cui si è tentato di studiarne le potenzialità nell’ambito dell’oggetto di questa tesi. Il percorso di ricerca ha incluso l’esperienza diretta in sito tramite varie campagne di rilievo, per meglio comprendere il mezzo e la natura dei dati ottenuti. Si è quindi ripercorso l’intero processo di elaborazione dei dati grezzi di rilievo, così com’è strutturato per le finalità della ditta collaborante, per utilizzare poi il dato finito per finalità ingegneristiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’argomento della presente tesi di dottorato riguarda lo studio clinico del trapianto di cellule staminali emopoietiche aploidentiche nelle patologie oncoematologiche. Nel periodo di tempo compreso tra 1/12/2005 ed il 30/10/2007 sono stati arruolati 10 pazienti (6 LAM, 3 LAL, 1 LMC in crisi blastica mieloide) nell’ambito di uno studio clinico che prevedeva il trapianto di midollo osseo aploidentico per pazienti affetti da patologia oncoematologica in prima o successiva recidiva, per i quali non fosse disponibile un donatore di midollo osseo consanguineo o da banca. Lo schema di condizionamento al trapianto di midollo osseo utilizzato era il seguente: Fludarabina 150/m2, Busulfano orale 14mg/kg, Tiothepa 10mg/kg e Ciclofosfamide 160mg/kg. Per la profilassi della malattia da trapianto contro l’ospite è stata somministrata timoglobulina antilinfocitaria (ATG) al dosaggio complessivo di 12.5 mg/kg, short course metotrexate (+1, +3 e +11), cortisone e ciclosporina con tapering precoce al + 60. I pazienti hanno reinfuso una megadose di cellule CD34+ mediana pari a 12.8x106/kg. Tre pazienti non sono valutabili per l’attecchimento a causa di rigetto (1/3) o morte precoce (2/3). Sette pazienti sono valutabili per l’attecchimento; per questi pazienti il tempo mediano a 500 PMN/mmc e a 20 x 109/l piastrine è stato rispettivamente di 17 e 20 giorni. Quattro pazienti su 7 hanno svillupato una Graft versus Host Disease (GVHD) acuta di grado II-IV, mentre soltanto 1/7 ha sviluppato una GVHD cronica. Sette pazienti su 10 trapiantati hanno ottenuto una remissione completa successivamente al trapianto. Di questi, attualmente 2 pazienti sono vivi in remissione completa, mentre gli altri 5 sono ricaduti e successivamente deceduti. In conclusione, il trapianto aploidentico è una procedura fattibile ed efficace. Tale procedura è in grado di garantire un 20% di lungo sopravviventi in un setting di pazienti a prognosi estremamente infausta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Parapoxvirus (PPV) are member of a genus in the family poxviridae which currently encompasses four species: the prototype orf virus (OV), bovine papular stomatitis virus (BPSV), pseudocowpox virus (PCPV) and parapoxvirus of New Zealand red deer (PVNZ). PPVs cause widespread, but localized diseases of small and large ruminants and they can also be transmitted to man. Knowledge of the molecular biology of PPV is still limited as compared to orthopoxviruses, especially vaccinia virus (VACV). The PPV genome displays a high G+C content and relatively small size for poxvirus. Coventional electron microscopy displays PPV virions with ovoid shape and slightly smaller in size than the brickshaped orthopoxviruses. The most striking feature, which readily enables identification of PPV, is a tubule-like structure that surrounds the particle in a spiral fashion. PPV genome organization and content is very similar to that of other poxviruses, the central region contain 88 genes which are present in all poxviruse, in contrast the terminal regions are variable and contain a set of genes unique to the genus PPV. Genes in the near-terminal regions of the genome are frequently not essential for growth in cultured cells encoding factors with important roles in virushost interactions including modulating host immune responses and determining host range. Recently it was suggested that the open reading frames (ORFs) 109 and 110 of the OV genome have a major role in determining species specificity during natural infection in sheep and goats. This hypothesis is based on the analysis of a few number of sequences of different sheep and goats viral isolates. PPV replicate into the cytoplasm of infected cells and produce three structurally different infectious particles: the intracellular mature virions (IMV), intracellular enveloped virions (IEV) and the extracellular enveloped virions (EEV). The vaccinia A33R and A34R hotologue proteins encoded by the ORFS 109 and 110 are expressed in the envelope of the IEV and EEV. The F1L immunodominant protein of orf virus is the major component of the surface tubule structure of the IMV and can post-translationaly insert into membranes via Cterminal, hydrofobic anchor sequence like its orthologue VACV H3L protein. Moreover the F1L protein binds to glycosaminoglycans on the cell surface and has an important role in IMV adsorption to mammalian cells. In this study we investigated the morphogenesis of the PPV through the construction of a mutant virus deleted of the F1L protein. A study of the deleted virus life cycle was conducted in different type of cells and its morphology was observed with electron microscopy. It was demonstared that F1L protein have important role in morphogenesis and infectivity. Moreover it is essential to determine the spiral fashion of the tubule like structure of the virion surface. Some pathogenetic aspects of the PPV infection were studied, in particular the protein implicated in the host range were analysed in detail. An experimental infection with OV and PCPV was conducted in goats and sheep. After infection, the severity of the lesions were comparable in both the animal species. The OV did not result in severe disease neither in sheep nor in goats, suggesting that host factors, rather than virus strain characteristics, may play an important role in the pathogenesis of the Parapoxvirus infections. The PCPV failed to produce any lesion in both sheep and goats, ruling out the possibility of any recombination between PCPV and OV during natural infection in these animal species. The phylogenetic analysis of the ORFs 109 and 110 from several goats and sheep viral isolates showed a clustering based on the antigenic content of the protein that was independent from species and geographic origin.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi di dottorato ha per suo oggetto la ricognizione degli elementi teorici, di linguaggio politico e di influenza concettuale che le scienze sociali tra Ottocento e Novecento hanno avuto nell’opera di Antonio Gramsci. La ricerca si articola in cinque capitoli, ciascuno dei quali intende ricostruire, da una parte, la ricezione gramsciana dei testi classici della sociologia e della scienza politica del suo tempo, dall’altra, far emergere quelle filiazioni concettuali che permettano di valutare la portata dell’influenza delle scienze sociali sugli scritti gramsciani. Il lungo processo di sedimentazione concettuale del lessico delle scienze sociali inizia in Gramsci già negli anni della formazione politica, sullo sfondo di una Torino positivista che esprime le punte più avanzate del “progetto grande borghese” per lo studio scientifico della società e per la sua “organizzazione disciplinata”; di questa tradizione culturale Gramsci incrocia a più riprese il percorso. La sua formazione più propriamente politica si svolge però all’interno del Partito socialista, ancora imbevuto del lessico positivista ed evoluzionista. Questi due grandi filoni culturali costituiscono il brodo di coltura, rifiutato politicamente ma al tempo stesso assunto concettualmente, per quelle suggestioni sociologiche che Gramsci metterà a frutto in modo più organico nei Quaderni. La ricerca e la fissazione di una specifica antropologia politica implicita al discorso gramsciano è il secondo stadio della ricerca, nella direzione di un’articolazione complessiva delle suggestioni sociologiche che i Quaderni assumono come elementi di analisi politica. L’analisi si sposta sulla storia intellettuale della Francia della Terza Repubblica, più precisamente sulla nascita del paradigma sociologico durkheimiano come espressione diretta delle necessità di integrazione sociale. Vengono così messe in risalto alcune assonanze lessicali e concettuali tra il discorso di Durkheim, di Sorel e quello di Gramsci. Con il terzo capitolo si entra più in profondità nella struttura concettuale che caratterizza il laboratorio dei Quaderni. Si ricostruisce la genesi di concetti come «blocco storico», «ideologia» ed «egemonia» per farne risaltare quelle componenti che rimandano direttamente alle funzioni di integrazione di un sistema sociale. La declinazione gramsciana di questo problema prende le forme di un discorso sull’«organicità» che rende più che mai esplicito il suo debito teorico nei confronti dell’orizzonte concettuale delle scienze sociali. Il nucleo di problemi connessi a questa trattazione fa anche emergere l’assunzione di un vero e proprio lessico sociologico, come per i concetti di «conformismo» e «coercizione», comunque molto distante dallo spazio semantico proprio del marxismo contemporaneo a Gramsci. Nel quarto capitolo si affronta un caso paradigmatico per quanto riguarda l’assunzione non solo del lessico e dei concetti delle scienze sociali, ma anche dei temi e delle modalità della ricerca sociale. Il quaderno 22 intitolato Americanismo e fordismo è il termine di paragone rispetto alla realtà che Gramsci si prefigge di indagare. Le consonanze delle analisi gramsciane con quelle weberiane dei saggi su Selezione e adattamento forniscono poi gli spunti necessari per valutare le novità emerse negli Stati Uniti con la razionalizzazione produttiva taylorista, specialmente in quella sua parte che riguarda la pervasività delle tecniche di controllo della vita extra-lavorativa degli operai. L’ultimo capitolo affronta direttamente la questione delle aporie che la ricezione della teoria sociologica di Weber e la scienza politica italiana rappresentata dagli elitisti Mosca, Pareto e Michels, sollevano per la riformulazione dei concetti politici gramsciani. L’orizzonte problematico in cui si inserisce questa ricerca è l’individuazione di una possibile “sociologia del politico” gramsciana che metta a tema quel rapporto, che è sempre stato di difficile composizione, tra marxismo e scienze sociali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Attualmente le tematiche legate alla produzione e all’uso dell’energia rivestono grande importanza, anche in relazione agli obiettivi in termini di riduzione delle emissioni di gas partecipanti all’effetto serra prefissati dal Protocollo di Kyoto, che impongono il contenimento dei consumi energetici. Andando a ricercare i fattori che alterano i consumi energetici dei sistemi acquedottistici, accanto a quelli legati all’efficienza degli impianti e alle condizioni delle condotte, si deve tener conto anche della presenza delle perdite idriche in rete. Infatti nel valutare il problema delle perdite idriche esclusivamente come quantitativo di acqua di elevata qualità dispersa nell’ambiente, si trascura di considerare il contenuto energetico che ad essa viene conferito mediante attività di pompaggio durante le fasi di prelievo, potabilizzazione, adduzione e distribuzione all’utenza. L’efficienza invece varia in funzione di fattori oggettivi strettamente legati alle caratteristiche del territorio da servire, ma anche in funzione delle scelte effettuate in fase di progettazione e di esercizio. Da questa premessa discendono due importanti considerazioni. Il primo aspetto consiste nel poter valutare separatamente l’influenza sul consumo energetico dell’efficienza dei pompaggi e della rete, in modo da identificare l’impatto di singoli interventi, in particolare la riduzione delle perdite idriche (Colombo & Karney, 2002, 2004; Walski, 2004; Artina et al. 2007, 2008) ed il miglioramento dello stato dell’infrastruttura acquedottistica. Alla luce degli studi già svolti, sarà approfondita l’analisi del legame tra perdite idriche e aumento del consumo energetico, valutandola su modello numerico con riferimento a un caso di studio reale, costituito da un distretto monitorato della rete acquedottistica di Mirabello (Ferrara) alimentato mediante un sistema bypass-pompaggio a giri variabili. Il secondo aspetto riguarda la necessità di individuare dei termini di paragone che consentano di formulare un giudizio nei confronti del quantitativo di energia attualmente impiegato in un sistema acquedottistico. Su tale linea saranno analizzati alcuni indicatori per esprimere i consumi energetici dei sistemi acquedottistici.