882 resultados para Aderenza Modelli Pseudoslittamenti Translohr Metropolitane Monorotaie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scavo di un tunnel in ammassi rocciosi comporta una ridistribuzione degli stress nell’intorno del foro e induce spesso deformazioni della superficie che si traducono frequentemente in movimenti verticali verso il basso. In letteratura esistono soluzioni analitiche in grado di quantificare gli stress e la subsidenza indotti da uno scavo in sotterraneo. Tali soluzioni funzionano però solo per semplici casi. Al fine di valutare i risultati delle soluzioni analitiche e poter considerare modelli di materiale che si avvicinano maggiormente al comportamento reale del terreno, gli stress e le deformazioni indotte vengono spesso analizzati attraverso modellazioni numeriche. Tali modellazioni vengono svolte di norma tramite l’utilizzo di codici numerici bidimensionali alle differenze finite o agli elementi finiti. L’utilità di un approccio modellistico è particolarmente evidente nel caso dello studio degli spostamenti indotti in un versante dallo scavo di un tunnel. In questi casi le analisi numeriche mostrano che se si considera un versante ideale costituito da materiale elastico, lo scavo provoca spostamenti che tendono a convergere verso il tunnel. Se si considera invece un versante costituito da materiale elasto-plastico, lo scavo, in alcuni casi, può causare uno spostamento verso valle e verso il basso dell’intero versante. Si è voluto quindi indagare il complesso rapporto tra scavo e deformazioni utilizzando un approccio modellistico. A tale scopo è stato condotto uno studio sul tipo di deformazioni che avvengono in un versante teorico, interessato da scavo, a partire da differenti condizioni di stabilità iniziale e considerando tunnel di diverse dimensioni e contropressioni. I versanti considerati nelle modellazioni riproducono le condizioni tipiche dei versanti appenninici argillosi, caratterizzati da basso angolo di attrito interno, geometrie relativamente poco inclinate e coesione fortemente variabile. I risultati ottenuti sono stati successivamente testati analizzando un caso reale di interazione scavo-deformazione relativo a un versante appenninico costituito da Argille a Palombini.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro è stato finalizzato all’analisi delle caratteristiche spettrali delle acque sia da dati in situ che telerilevati, attraverso l’implementazione di algoritmi semi-empirici e modelli bio-ottici dedicati. Inoltre prende in considerazione la correzione delle immagini ottiche per la mappatura delle concentrazioni del particellato sospeso per osservarne la distribuzione nelle acque costiere dell’Alto Adriatico. Le acque costiere sono caratterizzate da un'alta variabilità di proprietà ottiche che dipende dalle specifiche ambientali e stagionali, dai processi idrodinamici e dalle componenti che contiene. Lo studio della dinamica di dispersione del materiale totale sospeso, analizzato in questo lavoro, è stato possibile proprio grazie alle proprietà ottiche del particellato sospeso che, assieme alla clorofilla, è annoverato tra le sostanze otticamente attive. E’ stata svolta un’analisi pluriennale al fine di valutare quali fossero i diversi fattori che influenzano le dinamiche e la distribuzione del particellato sospeso presente nelle acque costiere nell’area prospiciente il delta del Po. La dinamica di dispersione del materiale sospeso in acque superficiali è modulato da variazioni spazio-temporali legate a diversi fattori, tra i quali sono stati considerati l’influenza dell’apporto fluviale del Po e il contributo derivante da diverse condizioni meteomarine. L’analisi effettuata e i risultati ottenuti sono un contributo preliminare a supporto di una gestione costiera, e può fornire una visuale d’insieme dei principali fattori che determinano la presenza di materiale sospeso nella regione costiera esaminata. Tali informazioni sono utili ad una gestione più informata al fine di ridurre gli impatti legati alla presenza di materiale sospeso nelle acque dell’area presa in esame. Le attività svolte sono incluse nel progetto CYAN IS WAS all’interno del programma esecutivo sulla cooperazione scientifica e tecnologica tra la Repubblica d’Italia e il Regno di Svezia per gli anni 2010-2013 e nell’ambito del progetto bandiera RITMARE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato analizza gli strumenti utilizzati nella gestione di infrastrutture informatiche. In particolare: nel primo capitolo viene fatta una panoramica del Cloud Computing e relativi modelli infrastrutturali e di distribuzione. Nel secondo vengono analizzate le piattaforme di gestione di sistemi basati su architettura IaaS, quali OpenStack, OpenNebula ed Eucalyptus. Nel terzo capitolo vengono esaminati due dei Software Configuration Management maggiormente utilizzati: Puppet e Chef. Nel quarto ed ultimo capitolo viene descritto lo standard OCCI (Open Cloud Computing Interface).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio della memoria semantica attraverso modelli teorici (qualitativi o matematici) gioca un ruolo importante nelle neuroscienze cognitive. In questa tesi viene presentato un modello della memoria semantica e lessicale. Il principio alla base del modello è che la semantica di un oggetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione dell’oggetto nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate del cervello, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è indagare i meccanismi che portano alla formazione di categorie, analizzare il ruolo delle diverse proprietà nella costruzione di un concetto e le connessioni tra queste proprietà e la parola corrispondente al nome dell’oggetto. Durante l’addestramento per ogni oggetto sono presentate alcune proprietà in input, con una data frequenza: alcune sono condivise, cioè appartengono a più di un concetto e permettono la formazione di categorie, altre sono distintive, cioè sono tipiche di un concetto e consentono la rappresentazione dei membri di una categoria. Un ulteriore aspetto riguardante le proprietà è la distinzione fra proprietà salienti, che sono spontaneamente evocate, e proprietà marginali. E’ stata utilizzata una tassonomia composta da 11 parole che identificano 11 animali. La salienza è stabilita dalla frequenza con cui si verifica ciascuna proprietà. La distinzione tra proprietà condivise e distintive, e tra proprietà salienti e non salienti, è stata ottenuta mediante l’uso della regola di Hebb con una diversa soglia presinaptica e postsinaptica, producendo patterns di sinapsi asimmetriche all’interno della rete semantica (auto-associazione) e tra la rete semantica e lessicale (etero-associazione). La rete addestrata è in grado di risolvere compiti di riconoscimento e denominazione di oggetti, mantenendo una distinzione tra le categorie e i suoi membri, e fornendo un diverso ruolo per le proprietà salienti rispetto alle proprietà marginali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Studio del coefficiente di resistenza aerodinamica, della potenza aerodinamica e del comportamento in caso di raffica di vento laterale, su un modello del restyling della vettura Astura, disegnato in SolidWorks. Attraverso le simulazioni in una galleria del vento fittizia realizzata in Flow Simulation si è ottenuta la resistenza aerodinamica del modello. Da questa è stato possibile ottenere il valore del coefficiente di resistenza e la potenza aerodinamica assorbita. Il coefficiente di resistenza è stato confrontato con quello di veicoli presenti sul mercato. Si è poi studiato il comportamento della vettura in caso di raffica laterale, ricorrendo all'ellisse di aderenza degli pneumatici e verificando che la stabilità con raffiche fino a 150 km/h non venga compromessa. Lo stesso stuido è stato fatto nel caso in cui si inizi una frenata sempre sotto l'influenza di una raffica laterale; si è visto che, al fine di non perdere aderenza, lo spazio di frenata deve aumentare. Si è quindi calcolato lo spazio minimo necessario per la frenata, in presenza di una raffica di 150 km/h, senza che si verifichi una perdita di aderenza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli ammassi di galassie sono le strutture gravitazionalmente legate con le più profonde buche di potenziale, pertanto è previsto che questi contengano una frazione di barioni non molto diversa da quella cosmologica. Con l’introduzione di modelli sempre più accurati di fisica barionica all’interno di simulazioni idrodinamiche è stato possibile predire la percentuale cosmica di barioni presente negli ammassi di galassie. Unendo questi modelli previsionali con misure della frazione di gas in ammassi e informazioni sulla densità di barioni dell’Universo si può ottenere una stima della densità di materia cosmica Ωm. L'obiettivo di questo lavoro di Tesi è la stima di Ωm a partire dalla frazione di gas osservata in questi sistemi. Questo lavoro era stato già fatto in precedenza, ma tenendo in considerazione solo gli ammassi più massivi e dinamicamente rilassati. Usando parametri che caratterizzano la morfologia della distribuzione di brillanza superficiale nei raggi X, abbiamo classificato i nostri oggetti come rilassati o disturbati, laddove presentassero evidenze di recenti attività di interazione. Abbiamo dunque valutato l’impatto degli oggetti disturbati sulla stima del parametro cosmologico Ωm, computando il Chi2 tra la frazione di massa barionica nell’Universo e quella da noi ricavata. Infine abbiamo investigato una relazione tra il valore della frazione di gas degli ammassi rilassati e quello dei disturbati, in modo da correggere quindi questi ultimi, riportandoli nei dintorni del valore medio per i rilassati e usarli per ampliare il campione e porre un vincolo più stringente su Ωm. Anche con il limitato campione a nostra disposizione, è stato possibile porre un vincolo più stretto su Ωm, utilizzando un maggior numero di oggetti e riducendo così l’errore statistico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato verrà illustrato il processo di realizzazione degli scenari tridimensionali utilizzati nell’addestramento dei Controllori del Traffico Aereo di aeroporto. Verrà esposto nel dettaglio il processo di modellazione al computer di scenari compatibili con il sistema Adacel™ MaxSim® attualmente utilizzato nei simulatori di ENAV Academy; verranno inoltre analizzati e descritti i processi decisionali che si affrontano prima e durante le diverse fasi di realizzazione dello scenario. Nell’illustrare i processi e le metodologie si farà riferimento all’esperienza acquisita durante la collaborazione con il team di ENAV per la realizzazione di modelli e scenari tridimensionali. In particolare, si farà riferimento allo scenario dell’Aeroporto di Ciampino in una fase di addestramento resa necessaria dal delicato passaggio dalla gestione militare alla gestione civile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, studi scientifici hanno evidenziato come il nostro sistema nervoso abbia la capacità di combinare e integrare informazioni di diversa natura sensoriale. Una interazione ampiamente studiata è quella audiovisiva. Oggetto principale di questa tesi è un esempio di interazione audiovisiva, ovvero un fenomeno illusorio visivo indotto dal suono che prende il nome “sound-induced flash illusion”: quando una coppia flash+beep è preceduta o seguita - ad una distanza temporale detta Stimulus Onset Asynchorny (SOA) - da un secondo beep, i soggetti spesso riportano la percezione di aver visto due flash. Il fenomeno illusorio tende a svanire al crescere dell’SOA, e si definisce “finestra temporale d’integrazione” l’intervallo di valori di SOA all’interno del quale si verifica l’illusione. Il fenomeno illusorio è presente anche nei soggetti autistici; questi, rispetto ai soggetti sani, presentano una maggiore propensione nel riportare l’illusione e una finestra temporale d’integrazione di durata maggiore. Obiettivo di questo lavoro è stato approfondire questi fenomeni di interazione mediante l’utilizzo di un modello di rete neurale precedentemente sviluppato dal gruppo di Bioingegneria dell’Università di Bologna. Tale modello era in grado di simulare il fenomeno illusorio, ma presentava il limite di non considerare l’intera finestra temporale in cui tale fenomeno si verifica. Un’analisi di sensitività del modello ha individuato quali variazioni dei parametri potessero spiegare l’illusione in un ampio intervallo temporale e interpretare le differenze tra soggetti sani e soggetti autistici. I risultati delle simulazioni hanno evidenziato un soddisfacente accordo con i dati di letteratura. Le analisi svolte possono contribuire a chiarire i meccanismi alla base del fenomeno illusorio e della finestra temporale in cui esso ha luogo e a fare luce sulle possibili alterazioni nelle singole aree cerebrali e nella interazione tra esse che possono interpretare le differenze osservate nei soggetti autistici rispetto ai sani.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La necessità di indagine sul fronte dell’insufficienza cardiaca deriva dall’elevato impatto sociale della patologia, non soltanto per l’effetto invalidante sulla condizione del paziente che ne è affetto, bensì anche per la notevole incidenza sui servizi sanitari nazionali, per l’importante valore di mortalità e morbilità che ne è associato. Il numero di ospedalizzazioni per scompenso cardiaco è consistente; ciò rende ragione dell’elevato assorbimento di risorse dovuto a questa patologia. Il razionale dell’impiego della Terapia di Resincronizzazione Cardiaca (CRT) consiste nella correzione della dissincronia cardiaca come causa di disfunzione meccanica atriale e ventricolare. Il metodo analitico sviluppato origina dalle indagini sugli spostamenti dell’elettrocatetere posizionato in Seno Coronarico, sulla base del fatto che il sito di stimolazione risulta un fattore determinante per la buona risposta alla terapia. Dovendo studiare le posizioni nel tempo del catetere, si è pensato di valutarne le variazioni nel periodo pre e post attivazione della CRT ricostruendone la traiettoria in 3D. Lo studio parametrico di quest’ultima ha permesso di individuare un indice predittore della risposta alla CRT al follow-up a sei mesi. La prosecuzione della ricerca presentata ha l’intento di migliorare gli algoritmi di elaborazione dei dati per rendere più robuste le misure, sfruttando tecniche che possano aumentare riproducibilità, ripetibilità, e ininfluenza rispetto alla variabilità delle condizioni analitiche. Sviluppando nuovi modelli si è eliminata l'interazione dell'operatore nelle fasi d'indagine, rendendo le analisi completamente automatiche. I metodi sono stati testati e applicati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il seguente elaborato costituisce un approfondimento nel campo dei materiali compositi e della loro modellizzazione nel software, incominciato in seno all'attività curriculare di tirocinio da me svolta presso i laboratori universitari. Lo scopo è effettuare analisi numeriche su componenti e provini in materiale composito al fine di osservare, e conseguentemente valutare, gli effetti che diverse tipologie di carico, e in particolare diverse tipologie di impatti, provocano. Il mezzo con il quale ho potuto raggiungere tale obiettivo è stato Abaqus, un software di simulazione largamente utilizzato da aziende ed enti che operano nel settore aerospaziale, dell'automotive, ecc. Il funzionamento di Abaqus si basa sull'impiego di modelli agli elementi finiti, pertanto parte dell'introduzione è dedicata all'illustrazione della teoria degli elementi finiti. Inoltre sempre nella parte introduttiva è riportata una breve descrizione dei materiali compositi con un'analisi delle loro principali caratteristiche. Infatti la loro particolare natura rende difficoltoso creare nella pratica modelli funzionanti, e pertanto, al fine di ottenere risultati il più possibile coerenti alla realtà, è necessario avere una perfetta conoscenza delle loro proprietà.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborato di Tesi esamina gli strumenti proposti nella letteratura tecnica per effettuare un’analisi di rischio di incidente rilevante per le acque superficiali. In Italia, nel 1988, è stata introdotta una normativa apposita per la prevenzione dei grandi rischi industriali, che definisce l’indicente rilevante come: “un evento quale un’emissione, un incendio o un’esplosione di grande entità, dovuto a sviluppi incontrollati che si verificano durante l’attività di uno stabilimento e che dia luogo a un pericolo grave, immediato o differito, per la salute umana o per l’ambiente, all’interno o all’esterno dello stabilimento, e in cui intervengano una o più sostanze pericolose”. Tuttavia, in mancanza di metodologie comprensive per il calcolo del rischio ambientale di incidente rilevante, la normativa italiana richiede di valutare il rischio per l’ambiente solamente in maniera qualitativa. Vengono quindi analizzati in questo elaborato metodi semplificati di valutazione del rischio. Questi metodi sono descritti nel Rapporto ISPRA 2013, che elenca alcune metodologie formulate in ambito europeo e propone un nuovo metodo a indici, utilizzabile per una valutazione preliminare di analisi di rischio per i siti del territorio nazionale. In particolare, in questo elaborato vengono illustrati nel dettaglio: il metodo proposto dal predetto Rapporto, basato sull’Indice di Propensione al Rilascio di uno stabilimento e sulla sensibilità ambientale dei corpi idrici posti nelle sue immediate vicinanze; e un metodo a indici proposto dalle autorità svedesi, l’Environmental Accident Index, che fornisce un’analisi preliminare del rischio intrinseco di uno stabilimento. Vengono poi presi in rassegna software che implementino modelli di dispersione degli inquinanti in acqua, utilizzabili per la valutazione delle conseguenze ambientali di un rilascio che coinvolga un corpo idrico superficiale. Si analizza nel dettaglio ADIOS 2, software gratuito distribuito dalla National Oceanic and Atmospheric Administration, specifico per la modellazione della dispersione di idrocarburi in mari ed estuari. Per effettuare una validazione delle metodologie sopraelencate, se ne è considerata l’applicazione ad un caso di studio reale, costituito da un deposito costiero di prodotti petroliferi. Innanzitutto si è calcolato per il deposito l’indice EAI; si è poi applicato il metodo qualitativo proposto dal Rapporto ISPRA 2013 e si è effettuata la simulazione di un rilascio di gasolio in acqua con il software ADIOS 2. A conclusione del lavoro svolto è possibile affermare che l’indice EAI non è adatto agli stabilimenti a rischio di incidente rilevante, in quanto è pesato per stoccaggi di sostanze pericolose di piccole dimensioni. Invece, sia il metodo ad indici del Rapporto ISPRA che il software ADIOS 2 sono strumenti utili per una prima valutazione del rischio di contaminazione delle acque superficiali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il trasporto del petrolio via mare tramite navi petroliere è molto utilizzato per congiungere i paesi produttori con quelli consumatori. Durante il trasporto possono avvenire rilasci accidentali di petrolio in mare, con contaminazione anche estesa dell’ambiente marino. La stima del rischio di contaminazione ambientale imputabile alle attività di trasporto via mare è fondamentale al fine di ridurre il rischio stesso. Per prevedere il destino degli sversamenti di olio in mare, sono stati sviluppati diversi software che simulano lo spostamento della chiazza di olio rilasciato e le trasformazioni chimico-fisiche cui essa è soggetta, dette fenomeni di oil weathering. L’obiettivo del presente lavoro di tesi è stato quello di individuare un software per la simulazione del destino dei rilasci di olio in mare idoneo ad essere utilizzato nell’ambito di una innovativa metodologia di valutazione del rischio per l’ambiente marino. A tal fine sono stati studiati e confrontati, sia da un punto di vista teorico sia tramite l’applicazione a casi di studio, i software GNOME, ADIOS e OSCAR; dal confronto è emerso che GNOME e ADIOS contengono modelli semplificati per simulare i fenomeni di oil weathering subiti da una chiazza di olio formatasi a seguito di un rilascio. Rispetto ai software GNOME e ADIOS, OSCAR è molto più complesso e articolato; richiede numerosi dati in ingresso, ma fornisce in uscita una descrizione dello scenario più aderente alla realtà. Un’importante peculiarità di OSCAR, che lo rende estremamente vantaggioso nell’ambito di una metodologia di valutazione del rischio, consiste nel fatto che esso dispone di una modalità di funzionamento stocastica. Per validare l’utilizzo di OSCAR nell’ambito di una metodologia di valutazione del rischio, se ne è effettuata l’applicazione ad un caso di studio, ovvero alla rotta da Suez a Porto Marghera. Si è pertanto osservato che il rischio derivante da un rilascio di olio in mare è dipendente dal punto in cui questo rilascio avviene. È dunque possibile concludere che il software OSCAR è uno strumento valido nell’analisi del rischio ambientale derivante da sversamenti di olio in mare. Il lavoro di tesi è strutturato come descritto nel seguito. Il Capitolo 1 è introduttivo e, dopo aver descritto la problematica legata agli sversamenti di idrocarburi in mare, elenca e spiega i fenomeni di oil weathering. Il Capitolo 2 è incentrato sulle caratteristiche e sul confronto dei software dell’ente americano NOAA, ossia ADIOS e GNOME. Il Capitolo 3 si occupa della descrizione del software OSCAR dell’ente norvegese SINTEF. Il Capitolo 4 riporta la metodologia seguita per il calcolo del rischio di contaminazione del mare, ripresa da una metodologia per il calcolo del rischio già consolidata nell’industria di processo relativa all’uomo. Il Capitolo 5 introduce il caso di studio, ovvero l’applicazione della metodologia alla rotta da Suez a Marghera. Il Capitolo 6 riporta alcune considerazioni conclusive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tra le numerose tecnologie che impiegano l'energia solare per la produzione di elettricità una tra le più promettenti è quella degli impianti a Central Receiving System (CRS). Tale sistema consiste in un campo di specchi altamente riflettenti, detti eliostati, che concentrano la radiazione solare su una superficie assorbente posizionata in cima a una torre. La quantità di radiazione concentrabile da un sistema CRS, e quindi l'energia effettivamente prodotta, dipende in maniera cruciale dalla precisione del puntamento degli eliostati. I sistemi attualmente disponibili sono in grado di ottenere un'alta effcienza ma necessitano di componenti meccanici ad alto costo, che siano in grado di ottenere precisioni di puntamento molto elevate. Le molte sorgenti di errore presenti nel sistema possono però portare a un decremento significativo di tale efficienza. Alcuni di questi errori (tolleranze meccaniche dell'installazione, agenti atmosferici) possono essere compensati mediante opportuni sistemi di controllo ad anello chiuso. Il risultato è di aumentare il potere di concentrazione dell'impianto, riducendo al contempo i costi, vista la possibilità di utilizzo di componenti meccanici meno precisi. Questa tesi si propone di sviluppare un sistema di controllo a basso costo in retroazione per orientare nello spazio tridimensionale un eliostato. Tale sistema deve essere in grado di soddisfare le specifiche sulla precisione di puntamento fornite dalla modellistica degli impianti CRS. Sono illustrati i metodi per ottenere le quantità necessarie a determinare l'orientazione da misure statiche di accelerazione e campo magnetico.Sono stati esaminati i modelli teorici di accelerometri e magnetometri e le procedure, presenti nella letteratura, per una loro corretta calibrazione. Si sono quindi confrontate le prestazioni delle differenti calibrazioni in una misura con un sensore reale. Si è valutato l'impatto di vari tipi di filtraggio digitale nel diminuire l'incertezza di determinazione degli angoli caratteristici fino ai valori forniti dalle specifiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presenza sempre più massiccia di fornitori di servizi basati su web service ha portato in rilievo uno dei limiti di questo approccio, l’impossibilità di rendere automatizzabili i task di ricerca, invocazione e orchestrazione dei servizi. Il raggiungimento di questo obiettivo risulta impossibile a causa della mancanza di informazioni comprensibili ad una macchina attraverso le quali un agente software può effettuare delle scelte tra vari servizi esposti. Il fallimento della “ricerca intelligente” di un servizio pubblicato sta nella stessa modellazione dei servizi. I linguaggi attualmente disponibili permettono di modellare un servizio solo dal punto di vista sintattico. Definire le operazioni proposte, il tipo di parametri accettati e il tipo di output prodotto non è sufficiente a comprendere cosa il servizio può fare. I web services semantici consentono di superare questo limite fornendo uno stack semantico, il quale ha il compito di racchiudere le informazioni relative ai servizi, il loro funzionamento e gli obiettivi raggiungibili organizzando la conoscenza in ontologie. La formalizzazione dei modelli ontologici e la loro integrazione con i servizi esistenti è uno dei problemi più interessanti che ha catturato l’attenzione di numerosi studi di settore. Negli ultimi anni numerose sono state le soluzioni proposte. Tra queste si possono considerare due principali vie di sviluppo che hanno visto un’intensa attività sperimentale. Il primo scenario è volto a modellare in maniera formale la conoscenza legata ai servizi esposti, il secondo integra i servizi già esistenti con nuove strutture semantiche in modo da conservare le infrastrutture presenti. Entrambi i filoni hanno come scopo quello di fornire la conoscenza adatta a sistemi esperti che consentano di automatizzare la ricerca dei servizi in base ai desideri dei clienti, permettendo la loro composizione dinamica basata su un’interazione utile e indipendente dai protocolli che vincolano il trasporto delle informazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’agricoltura e la trasformazione dei prodotti agro-alimentari hanno un forte impatto sull’ambiente. Su questo aspetto converge l’attenzione sia delle politiche nazionali ed internazionali sia del singolo consumatore. E’ quindi sempre più necessario valutare questo impatto lungo tutta la filiera dei prodotti agro-alimentari per capire dove e come intervenire per aumentarne le prestazioni ambientali. La presente tesi, svolta in collaborazione con la società di ingegneria ambientale E&NGI srl, si propone quindi di analizzare, attraverso la metodologia di Life Cycle Assessment, gli impatti del ciclo di vita di grano e mais, prodotti, trasportati e trattati dalla cooperativa agricola Capa Cologna, in provincia di Ferrara. I cereali sono stati seguiti dalla produzione fino ai cancelli dell’azienda e i dati relativi a tutti i flussi uscenti ed entranti dal processo produttivo sono stati raccolti in campo o ottenuti dall’applicazione di modelli previsionali o, quando necessario, ricavati da banche dati esistenti. Questi flussi hanno costituito un inventario implementato nel software Gabi 6. Successivamente i flussi sono stati convertiti in impatti potenziali utilizzando due metodi (CML 2001 e USEtox) e selezionando sette categorie d’impatto potenziale: esaurimento delle risorse abiotiche, acidificazione, eutrofizzazione, effetto serra, assottigliamento della fascia di ozono stratosferico, smog fotochimico ed ecotossicità acquatica. Dall’analisi è emerso che per entrambi i cereali la fase del ciclo di vita maggiormente impattante è quella di coltivazione. Ciò è dovuto, soprattutto, alla produzione dei fertilizzanti chimici, dei fitofarmaci e alle loro emissioni in ambiente. Sui metodi per la stima di queste emissioni è stata svolta un’analisi di sensitività. Infine, non essendo ipotizzabile intervenire nella fase agricola, in quanto la cooperativa deve seguire un rigido disciplinare, si sono proposte azioni di miglioramento sull’impianto di Capa Cologna. In particolare, si è proposto uno scenario alternativo in cui l’impianto è alimentato ad energia solare fotovoltaica.