999 resultados para Euro VI NOx CO2 rapporto di compressione Skyactiv
Resumo:
Lo studio ha applicato la metodologia Life Cycle Assessment (LCA) con l’obiettivo di valutare i potenziali impatti ambientali derivanti dalla coltivazione dell’uva in due aziende a conduzione convenzionale del ravennate, denominate DZ e NG. Successivamente è stato applicato il modello RothC per simulare scenari sulla variazione del Soil Organic Carbon (SOC) e valutare in che misura le diverse pratiche agronomiche di gestione del suolo influenzino la variazione del SOC e la relativa emissione di CO2. Infine, i risultati dell’LCA sono stati integrati con quelli del modello RothC. Gli esiti dell’LCA indicano che, generalmente, sui diversi aspetti ambientali l’azienda DZ ha impatti superiori a quelli di NG soprattutto a causa di un maggiore utilizzo di fertilizzanti e pesticidi. Per quanto riguarda il contributo al riscaldamento globale (GWP), DZ mostra un impatto circa doppio di quello di NG. Il modello RothC ha individuato quali pratiche culturali aumentano il SOC mitigando le emissioni di CO2eq., in particolare: l’inerbimento perenne, la scelta di forme di allevamento con elevata produzione di residui culturali e l’utilizzo di ammendanti. L’integrazione dei valori dei due strumenti ha permesso di ottenere un bilancio globale di CO2eq. in cui le emissioni totali rispetto al GWP aumentano in DZ e diminuiscono in NG, portando a un impatto di DZ circa tre volte superiore rispetto a quello di NG. Fertilizzazione, potatura e lavorazione del suolo sono pratiche considerate nel calcolo del GWP in termini di consumo ed emissione dei processi produttivi, ma non come input di carbonio fornibili al suolo, determinando sovra o sottostima delle effettive emissioni di CO2eq. Questo studio dimostra l’utilità di incentivare la diffusione dell’applicazione integrata dei due strumenti nel settore viticolo, determinante per la comprensione e quantificazione delle emissioni di CO2 associate alla fase di coltivazione, sulla quale quindi indirizzare ottimizzazioni e approfondimenti.
Resumo:
Un danneggiamento in una struttura altera le sue caratteristiche dinamiche quali frequenze naturali, indici di smorzamento e forme modali associate ad ogni frequenza naturale. In particolare, nel caso di travi, una variazione di rigidezza flessionale è in generale definibile danneggiamento se corrisponde ad una riduzione della stessa; tuttavia, anche un incremento altera i parametri dinamici della struttura. Il presente elaborato investiga l’applicazione del cambiamento nelle curvature modali per identificare un incremento di rigidezza flessionale in una trave metallica semplicemente appoggiata studiata presso il laboratorio LISG dell’Università di Bologna. Utilizzando le differenze centrali, le curvature modali sono state calcolate dalle forme modali ottenute sperimentalmente. Le modalità di calcolo utilizzate per identificare le forme modali della trave sono accomunate dall’utilizzo delle funzioni di trasferimento sperimentali ricavate sia dal rapporto tra le trasformate di output ed input, sia facendo uso della densità di potenza spettrale (PSD e CPSD). A supporto delle indagini sperimentali e per validare le modalità di calcolo utilizzate è stata modellata tramite elementi finiti una trave semplicemente appoggiata che simula la configurazione iniziale e quella irrigidita localmente in un suo tratto. I risultati numerici condotti validano le modalità utilizzate per la determinazione delle forme modali, evidenziando una forte sensibilità delle curvature modali all’irrigidimento locale. Come atteso, lato sperimentale le forme modali risultano meno accurate di quelle dedotte dalle esperienze numeriche. I risultati ottenuti evidenziano limiti e potenzialità dell’algoritmo di identificazione impiegato.
Resumo:
La Macchina di Boltzmann Ristretta (RBM) è una rete neurale a due strati utilizzata principalmente nell'apprendimento non supervisionato. La sua capacità nel rappresentare complesse relazioni insite nei dati attraverso distribuzioni di tipo Boltzmann Gibbs la rende un oggetto particolarmente interessante per un approfondimento teoretico in ambito fisico matematico. In questa tesi vengono presentati due ambiti di applicazione della meccanica statistica all'apprendimento automatico. 1) La similarità della RBM a unità binarie con il modello di Ising permette di sfruttare un'espansione alle alte temperature per approssimare l'energia libera, termine presente nel gradiente della likelihoood e difficile da trattare numericamente. I risultati ottenuti con questa tecnica sul dataset MNIST sono paragonabili a quelli ottenuti dalla Contrastive Divergence, che utilizza invece metodi di Monte Carlo. 2) L'equivalenza statistica della variante ibrida di RBM con il modello di Hopfield permette di studiare la taglia del training set necessaria per l'apprendimento attraverso l'analisi del problema inverso, in cui i ruoli di spin e pattern sono invertiti. Viene quindi presentato un metodo basato sulla teoria di Gauge che permette di derivare il diagramma di fase del modello di Hopfield duale sulla linea di Nishimori in funzione della temperatura e del rapporto tra numero di campioni e dimensione del sistema.
Resumo:
Il presente lavoro di tesi si è posto sostanzialmente due obbiettivi principali. Il primo è stato quello di valutare in maniera speditiva la vulnerabilità sismica dell’Edificio 5 - BO0960005 in uso alla polizia di stato, mediante il metodo RE.SIS.TO. Il secondo obiettivo è stato quello di validare tramite modellazione agli elementi finiti, i risultati ottenuti con la metodologia speditiva. In particolare è stato confrontato il rapporto PGAc/PGAd della struttura ottenuto con l’approccio speditivo, con quello ottenuto tramite un’analisi pushover. L’Edificio 5 – BO0960005 oggetto di studio, è composto da tre unità strutturali in c.a., denominate U.S.1, U.S.2 e U.S.3, separate da giunti sismici. Gli studi effettuati successivamente, quindi, considereranno ciascuna unità strutturale indipendente dalle altre. Come precedentemente esposto, la prima parte dell’elaborato tratta la valutazione speditiva della vulnerabilità sismica, attraverso l’utilizzo della classificazione RE.SIS.TO, il quale è in grado di definire il livello di criticità del fabbricato. Nell’applicazione del metodo è stato ottenuto un livello di sicurezza, pari all’88% per l’U.S.1, al 353% per l’U.S.2 e al 109% per l’U.S.3. La seconda parte della tesi è incentrata sull’implementazione dell’analisi pushover di tipo “cerniere concentrate” su un modello agli elementi finiti realizzato attraverso il software commerciale MidasGen. Essendo i risultati delle analisi PO una serie di curve di capacità, al fine di effettuare il confronto finale, si ha che in questo formato risulta impossibile ottenere una stima della PGA che porta a collasso la struttura. Per stimare da tale grandezza è stato utilizzato il Capacity Spectrum Method (CSM). Nell’ultima parte dell’elaborato vengono confrontati i valori di livelli di sicurezza ottenuti dalle due metodologie, dai quali si è potuta accertare la buona approssimazione della metodologia speditiva RE.SIS.TO nell’ambito della valutazione di vulnerabilità sismica.
Resumo:
The present thesis focuses on the permebility analisys of Aquivion® 980 Perfluoro sulfonic acid (PFSA) polymer with particular reference to the influence of the equivalent weight (gram of polymer per molSO3H) on the permeation properties. Aquivion grade tested, indeed, were characterized by a lower equivalent weight ( 870 g/molSO3H against 980 of the present material) with respect to data present in the open literature. Permeability of different gases (CO2, N2, and CH4) was tested at different temperatures and different humidity, a parameter which greatly influences the gas transport in such hydrophilic material- Aquivion® swells consistently in humid conditions increasing its gas permeability of more than one order of magnitude with respect to values prevailing in dry conditions. Present data confirm such behavior being the permeability of all gases and vapors tested substantially increased in presence of water. Interestingly the increase in permeability results be similar for all the gases inspected, hence such enhanced permeation capability is not associated to a selectivity loss that happens in polymeric membranes. Although, the results, of CO2, are lower compared to those obtained with the different grades, with lower equivalent weight, of Aquivion, thus suggesting that an increase of this parameter is detrimental for both permeability and selectivity of the membranes with respect to CO2. This is likely related to the fact that a lower content of SO3H groups makes it difficult to have an interconnected water domain inside the membranes. A modeling approach was considered to describe the experimental data and to give a better insight into the observed behavior, unfortunately, it resulted not sensitive enough to catch the differences between the gas permeability in PSFAs with high and low equivalent weight. The latter were indeed usually contained within 10-20% which results to be the in the same range of model precision when used in a predictive way.
Resumo:
Il telerilevamento satellitare costituisce una delle tecniche di osservazione maggiormente efficace nel monitoraggio e nello studio dell'estensione del manto nevoso. Il manto ricopre un ruolo di estrema importanza quale risorsa idrica per gli ecosistemi e per le applicazioni agricole e industriali. Inoltre, è un indicatore climatologico in un contesto di cambiamenti climatici regionali e globali. In questo senso, la copertura nevosa è da considerarsi come una importante risorsa economica e sociale. Lo scopo della presente tesi è di produrre mappe di copertura nevosa giornaliere per la stima dell'estensione del manto nevoso della regione Emilia-Romagna e di analizzare la sua variabilità spazio-temporale nel periodo 2000-2020. Le mappe sono state sviluppate sulla base dei prodotti di neve, M*D10A1, del sensore MODIS, che consistono in mappe di classificazione della copertura in funzione dell'indice NDSI. Inizialmente, è stato costruito un albero decisionale con criteri a soglia multipla in grado di rielaborare la classificazione della superficie del sensore e produrre mappe di copertura nevosa sulla base di tre classi: neve, no-neve e nube. L'accuratezza delle mappe è stata validata tramite test statistici effettuati confrontandole con i dati di altezza del manto nevoso in situ di 24 stazioni meteorologiche, per il periodo di compresenza dei dati 2000-2012. I risultati della procedura di validazione hanno mostrato come, in generale, vi sia buon accordo tra il dato satellitare e la rispettiva osservazione al suolo, soprattutto nei pressi di stazioni lontane da vegetazione sempreverde e/o di ambiente urbano. Infine, è stata valutata la variabilità climatologica dell'estensione del manto nevoso tramite l'elaborazione degli indici di neve SCF, SCD e diversi indici SCA. L'attenzione è stata particolarmente focalizzata sugli indici di massima estensione invernale del manto, del valore mediano e del numero di giorni con estensione superiore al 39.5% della regione.
Resumo:
Il presente lavoro propone la stesura di un codice in ambiente MATLAB per l'analisi energetica di powertrain ibridi operanti nel ciclo WLTP con il particolare funzionamento del motore termico benzina a punto fisso stechiometrico. Nello specifico, il codice prende dei dati in input tramite un'interfaccia grafica ed avvia una simulazione, i cui risultati principali corrispondono ad emissioni di anidride carbonica per chilometro percorso ed ai chilometri percorsi con un litro di carburante. Queste sono le due grandezze che questo lavoro si prefigge di ottimizzare, dalle quali proviene la scelta del particolare funzionamento del motore termico. Sono state implementate due differenti strategie di controllo, una generale ed una più particolare. La simulazione con la strategia generale è stata applicata a tre differenti scenari reali, con le caratteristiche tecniche di tre veicoli realmente esistenti che vengono inserite nell'interfaccia grafica. I risultati provenienti da queste simulazioni sono stati poi analizzati e discussi nel dettaglio, anche con l'ausilio di grafici a supporto della spiegazione. La strategia di controllo particolare non è stata applicata a scenari reali ma ha portato alla definizione di una ipotetica architettura di powertrain ibrido, alla quale la sopracitata strategia si adatta al meglio. Dopo aver proposto miglioramenti e possibili ulteriori sviluppi di questo lavoro, sono state tratte le conclusioni generali, allargando il tutto al contesto più ampio in cui si va ad inserire.
Resumo:
A Milano, nel sito che ha ospitato Expo 2015, sta nascendo MIND:Milano Innovation District, un quartiere innovativo e sostenibile che si candida a diventare luogo di eccellenze grazie ad una partnership pubblico-privato che sta rigenerando l’area creando un quartiere ex-novo. Gli attori pubblici e privati in gioco nella creazione di questo luogo sono molteplici e uniti allo scopo di creare un distretto appetibile sia per le aziende che vi si insedieranno sia per la popolazione milanese e lombarda. Proprio la cittadinanza svolgerà un ruolo chiave nella creazione di una vera e propria comunità in grado di far raggiungere a questo quartiere l’ambizioso obiettivo di diventare un luogo vissuto a pieno a tutte le ore del giorno e durante tutto l’anno. Il luogo infatti non presenta una comunità di partenza radicata nel territorio in grado di garantire storia e identità: il sito infatti aveva ospitato Expo nel 2015, dopo che i lavori di bonifica e creazione di infrastrutture avevano dal 2011 colmato questo vuoto urbano, ma è stato effettivamente aperto al pubblico soltanto nel mese di Maggio 2022. Coinvolgere la comunità che vive nelle aree limitrofe risulterà di primaria importanza per avvicinare la popolazione a questo luogo e renderla partecipe della co-creazione. Come si inserirà questo quartiere nel tessuto urbano e sociale milanese? E quali esternalità sono previste per la città di Milano, i comuni limitrofi della provincia?
Resumo:
Augusto Righi (1850 - 1920) è stato un fisico bolognese di prestigio e fama internazionale, i suoi contributi scientifici spaziarono in quasi tutti gli ambiti della fisica noti al tempo; inoltre, egli era rinomato per essere un insegnate chiaro e comprensibile, che si dedicò anche alla comunicazione scientifica con la società. In questo lavoro di tesi: si analizza l’opera La moderna teoria dei fenomeni fisici (radioattività, ioni, elettroni) di Augusto Righi, come esempio divulgativo di successo della teoria degli elettroni di Lorentz; si delinea il quadro culturale e sociale presente a cavallo tra l’Ottocento e il Novecento in Italia, Inghilterra e Francia; si selezionano alcune opere della scena internazionale per meglio collocare il contributo di Righi; si definiscono le differenze terminologiche tra la divulgazione scientifica e la Public Understanding of Science sorta negli ultimi decenni. Si procede dunque col definire una griglia di analisi tramite la quale si studia la trasposizione attuata dagli autori sui contenuti scientifici della teoria degli elettroni, nel momento in cui questi vengono comunicati alla società. Si mostra come la teoria degli elettroni sia stata sviluppata da Lorentz durante la fine dell’Ottocento e come questa sia sviluppata in diversi sui scritti; si ricostruiscono quindi i natali di tale teoria, per poi delinearne le caratteristiche principali esposte da Lorentz, Righi, Pearson e Poincaré. In questo confronto consiste la prima analisi presentata in questo scritto ed effettuata mantenendo una visione ampia sulle opere dei quattro scienziati; successivamente si propone un esempio di analisi più profonda e dettagliata, riguardante in particolare uno dei punti principali della teoria di Lorentz: il rapporto fra la carica elettrica e la massa dell’elettrone.
L'artivismo di Giacomo Verde: come l'arte in video può cambiare le prospettive individuali e sociali
Resumo:
Ho deciso di approfondire la figura di Giacomo Verde. Nel primo capitolo s’intende inquadrare il periodo storico nel quale Verde si è inserito e le correnti storiche che ha attraversato. Il secondo capitolo è dedicato all’arte ludica e in particolare, all’invenzione del Teleracconto (1989) per il gruppo Giallo Mare Minimal Teatro. Dalla Storia di Hansel e Gretel a Bit il burattino ai racconti illustrati con gli ologrammi, ad altri progetti in video, Verde sposta l’attenzione dell’arte dall’oggetto al soggetto. Nel terzo capitolo, si farà riferimento a ciò che ha segnato nel profondo la sua carriera: l’Artivismo. Il suo significato e come viene applicato alla vita pratica. Con questo percorso si ha l’auspicio che la voglia di battersi per un valore, per un cambiamento sociale non sia solo simbolico. Concretizzare può essere un atto difficile da perseguire ed è per questo che ci vengono incontro gli strumenti e le persone; con l’arte in video si scatena un po' lo stesso meccanismo: arte fatta di dispositivi tecnologi che coniugano più aspetti della vita umana: primo fra tutti quello emozionale. Alla luce di queste premesse e per concludere l’excursus su un artista poliedrico, ho deciso di somministrare un sondaggio a campione parziale. Ispirata dalle esperienze passate e dalla prefazione di Antonio Caronia in Artivismo tecnologico. Scritti e interviste su arte, politica, teatro e tecnologie (2007), mi sono chiesta cosa ne pensassero gli altri circa il rapporto tra arte e politica, quanto questi si sentano influenzati da una società che comunica quasi esclusivamente attraverso le immagini. Verde, in fondo, con la sua poetica, insegna che l’arte, per essere incline alla condivisione e accessibile a tutti, deve essere anche fatta dalle persone.
Resumo:
Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.
Resumo:
L’obbiettivo di questo elaborato è descrivere l'implementazione, attraverso l’uso del programma di calcolo Matlab, di un metodo per ottenere una configurazione di un velivolo dell’aviazione generale che sia rispettosa delle specifiche di progetto e presenti un costo orario minimo. Il metodo utilizzato per progettare l’aeromobile preso come caso di studio è basato sui concetti della progettazione robusta. Con questo metodo di progettazione si cerca di rendere l’aereo il più insensibile possibile alle modifiche di alcuni dei parametri di progetto che possono variare in modo casuale; in particolare ci si è concentrati sul costo orario di una missione, andandone a calcolare la media e la sua deviazione standard. Considerando infine il rapporto segnale-rumore introdotto da Taguchi per la progettazione robusta, viene implementato un metodo di ottimizzazione basato su un algoritmo Particle Swarm Optimization (PSO), attraverso il quale si ottengono i valori più idonei dei parametri di progetto necessari per la realizzazione del futuro velivolo. In dettaglio, i parametri fissati in seguito all’applicazione dell’ottimizzatore sono l’allungamento alare, il carico alare e il rapporto potenza massima motori-peso. A conclusione del lavoro svolto, si può dire che l’ottimizzazione robusta può essere utile in tutti i casi in cui alcuni parametri di progetto non sono definiti in modo univoco, ma possono variare in un modo non prevedibile all’inizio della sviluppo del prodotto.
Resumo:
Lo scopo di questa tesi è stato quello di analizzare le caratteristiche qualitative delle carni di sovracoscia di pollo appartenenti alle principali categorie commerciali presenti sul mercato nazionale per caratterizzarne i principali parametri qualitativi. A tale scopo, sono stati campionati un totale 12 lotti di carne avicola che differivano in termini di peso alla macellazione, tipo di alimentazione e sistema di allevamento. Per ogni lotto, sono state selezionate 20 sovracosce, suddivise in 3 gruppi sperimentali (n=80/gruppo) in funzione della categoria commerciale di appartenenza e corrispondente peso di macellazione: pollo medio convenzionale (PMC) 3,5-3,8 kg, pollo pesante convenzionale (PPC) 2,5-2,8 kg e pollo leggero allevato all’aperto (PLA) 1,8-2 kg. I campioni sono stati utilizzati per l’analisi del pH, del colore e dell’ossidazione lipidica e proteica, tramite la valutazione del contenuto di TBARs e carbonili, rispettivamente. Dai risultati ottenuti è possibile evidenziare come il gruppo PLA abbia fatto registrare variazioni significative in termini di colore e ossidazione lipidica rispetto agli altri gruppi sperimentali oggetto di tesi. Nel dettaglio, il gruppo PLA ha mostrato valori di b* più che raddoppiati rispetto alle altre categorie commerciali: ciò potrebbe essere un aspetto favorevole in quei mercati in cui vi è una consolidata abitudine a questa pigmentazione della carne. Inoltre, i risultati dell’analisi dei TBARs indicano un livello di ossidazione lipidica significativamente superiore nel gruppo PLA rispetto a PMC e PPC: ciò potrebbe essere correlato ad uno scadimento qualitativo della carne, specialmente quando questa viene macinata ed utilizzata nella formulazione di prodotti trasformati. Dunque, i risultati ottenuti potrebbero essere di particolare interesse per l’industria avicola, in quanto potrebbero suggerire l’idoneità della carne proveniente da una particolare categoria commerciale per il consumo fresco anziché per la trasformazione.
Resumo:
Il segreto di Pietramala (La nave di Teseo, 2018) è il primo romanzo di Andrea Moro e si caratterizza per la discussione di teorie linguistiche all’interno di una veste narrativa. A partire dai contenuti del romanzo, i cinque capitoli in cui si articola l’elaborato propongono una riflessione sul ruolo che la linguistica riveste e sul modo in cui emerge nella narrazione, sui principi di analogia e anomalia e sul rapporto tra sintassi e cervello, sull’acquisizione del linguaggio e sull’ipotesi di una lingua primigenia, sulla linguistica come scienza empirica e sulla natura della sintassi, sull’impossibilità di stilare graduatorie di valore delle lingue.
Resumo:
La tesi ha avuto come obiettivo la valutazione dell’effetto dell’uso di fonti proteiche alternative (alghe ed insetti) nell’alimentazione del broiler sui parametri qualitativi ed il profilo ossidativo della carne di petto di pollo. A tale scopo, 1000 polli maschi ROSS 308 sono stati suddivisi in 8 gruppi sperimentali in funzione della percentuale di inclusione nel mangime di farina di microalghe ed insetti, e della presenza o meno dell’enzima chitinasi: controllo (dieta commerciale), controllo con enzima, dieta 1 (insetti 9%), dieta 2 (insetti 18%), dieta 3 (insetti 9% + chitinasi), dieta 4 (insetti 18% + chitinasi), dieta 5 (microalghe 3%), dieta 6 (microalghe 6%). Un totale di 120 petti di pollo (15/gruppo) sono stati destinati all’analisi del pH, colore, drip e cooking loss, sforzo di taglio, nonché del livello di ossidazione di grassi e proteine della carne. I risultati ottenuti hanno evidenziato come, a prescindere dal tipo di fonte proteica e dalla percentuale di inclusione, il pH della carne ha mostrato valori significativamente inferiori in tutti i gruppi trattati rispetto al controllo, senza però esercitare effetti negativi sulla qualità della carne. La capacità di ritenzione idrica (valutata tramite drip e cooking loss), lo sforzo di taglio e il livello di ossidazione dei lipidi e delle proteine non sono stati infatti influenzati negativamente dal trattamento dietetico. Tuttavia, il colore della carne è stato modificato dall’alimentazione, con particolare riferimento all’indice di giallo (b*) che è risultato significativamente superiore nei gruppi sperimentali alimentati con microalghe rispetto al controllo e a quelli alimentati con farina di insetti. Tale colorazione potrebbe essere gradita in quei mercati in cui vi è una consolidata abitudine a questa pigmentazione della carne. Ulteriori studi saranno effettuati per valutare l’effetto delle fonti proteiche alternative sulla qualità sensoriale e l’attitudine del consumatore verso il colore del prodotto.