938 resultados para Diesel due tempi, cinematica, biella, manovella, equilibratura delle forze, verifica, dimensionamento, valvola allo scarico
Resumo:
Nel seguente lavoro è stata sviluppata una analisi ambientale ed economica del ciclo di vita del pellet, realizzato con scarti agricoli dalle potature degli uliveti. L’obiettivo di tale lavoro è dimostrare se effettivamente l’utilizzo del pellet apporti vantaggi sia dal punto di vista ambientale sia da quello economico. In tale progetto si sviluppano quindi un LCA, Life cycle analysis, e un LCC, Life Cycle Cost, secondo gli steps standard suggeriti da tali metodologie. Per effettuare l’analisi del ciclo di vita è stato utilizzato il software Simapro che ha permesso di valutare gli impatti ambientali sulle varie categorie di impatto incluse. In particolare sono stati considerati due metodologie, una midpoint ed una endpoint, ossia l’Ecoindicator 99 e il CML2 baseline 2000. Per le valutazioni finali è stata poi utilizzata la normativa spagnola sugli impatti ambientali, BOE 21/2013 del 9 dicembre, che ci ha permesso di caraterizzare le varie categorie d’impatto facendo emergere quelle più impattate e quelle meno impattate. I risultati finali hanno mostrato che la maggior parte degli impatti sono di tipo compatibile e moderato; pochi, invece, sono gli impatti severi e compatibili, che si riscontrano soprattutto nella categoria d’impatto “Fossil Fuels”. Per quanto riguarda invece l’analisi economica, si è proceduto effettuando una valutazione iniziale fatta su tutto il processo produttivo considerato, poi una valutazione dal punto di vista del produttore attraverso una valutazione dell’investimento ed infine, una valutazione dal punto di vista del cliente finale. Da queste valutazioni è emerso che ciò risulta conveniente dal punto di vista economico non solo per il produttore ma anche per l’utente finale. Per il primo perché dopo i primi due anni di esercizio recupera l’investimento iniziale iniziando ad avere un guadagno; e per il secondo, poiché il prezzo del pellet è inferiore a quello del metano. Quindi, in conclusione, salvo cambiamenti in ambito normativo ed economico, l’utilizzo del pellet realizzato da scarti di potature di uliveti risulta essere una buona soluzione per realizzare energia termica sia dal punto di vista ambientale, essendo il pellet una biomassa il cui ciclo produttivo non impatta severamente sull’ambiente; sia dal punto di vista economico permettendo al produttore introiti nell’arco del breve tempo e favorendo al cliente finale un risparmio di denaro sulla bolletta.
Resumo:
L'analisi di fase del segnale si presenta appropriata e di notevole efficacia per l'individuazione di attivazioni in fibrillazione atriale, in quanto permette la valutazione di come queste si generano e si propagano. Dopo aver ottenuto i dati relativi alle attivazioni, è possibile ricostruire delle mappe di fase atriale che possono essere utilizzate dal clinico per individuare i punti in cui cauterizzare. In questo lavoro di tesi sono stati utilizzati i segnali endocavitari atriali acquisiti con un catetere a contatto di nuova generazione per ottenere gli istanti di attivazione nelle diverse zone della camera atriale. I risultati dell'algoritmo messo a punto e testato su segnali in ritmo sinusale, sono stati confrontati con le performance di due metodi riportati in letteratura, evidenziando prestazioni migliori che potrebbero portare alla costruzione accurata delle mappe di fase e quindi ad una precisa localizzazione delle aree da cauterizzare durante la procedura di ablazione.
Resumo:
Questa tesi ha l’obiettivo di analizzare lo stretto rapporto esistente tra innovazione tecnologica ed innovazione strategica al fine di comprenderne le dinamiche di relazione. Il lavoro è suddiviso in due parti: una prima parte prettamente teorica in cui verranno trattati gli aspetti delle due diverse tipologie di innovazione e le sinergie che si innescano tra di esse, ed una seconda parte in cui, alla luce degli argomenti teorici delineati nella prima, si illustrerà il percorso di Apple dalla sua fondazione, ponendo l’enfasi su quei prodotti l’hanno portata ad essere l’azienda simbolo di innovazione, qualità e design che tutti noi oggi conosciamo.
Resumo:
Questa tesi di laurea nasce dall’esperienza maturata presso l’azienda FCA Italy (Fiat Chrysler Automobiles S.p.A., ex VM Motori) nello stabilimento situato a Cento in provincia di Ferrara, in particolare all’interno dell’ufficio di Ricerca Avanzata CRM (Centro Ricerca Motori), divisione del reparto R&D (Research and Development). Tale esperienza viene riassunta (in piccola parte) in questo elaborato di Tesi, che tratta tematiche inerenti allo sviluppo di un sistema di sovralimentazione assistito elettricamente, applicato ad un propulsore Diesel 3.0L V6 destinato ai segmenti “Premium” del mercato. Il sistema utilizzato, che ha come componente principale un compressore attuato da una macchina elettrica, appartiene all’insieme delle tecnologie cosiddette di e-boosting. Questo tipo di tecnologia, fortemente innovativa e ad oggi non ancora presente sul mercato, ha le potenzialità per rappresentare un significativo passo avanti nel processo di riduzione delle emissioni, dei consumi e del miglioramento delle performance dei moderni motori endotermici alternativi, al punto che un numero crescente di costruttori di motori sta oggi studiando soluzioni come quella oggetto di questo elaborato. L’obiettivo è stato quindi quello di definire, applicare e gestire il sistema di e-boost a banco motore e, successivamente, caratterizzarlo dal punto di vista energetico e testarne le effettive potenzialità. Le fasi in cui ho apportato il mio contributo sono state, in particolare, quelle di definizione e integrazione dei nuovi componenti all’interno del layout motore preesistente, di realizzazione e implementazione delle strategie di controllo in un sistema dedicato in grado di gestire efficacemente i componenti, e di sperimentazione al banco prova. I risultati conseguiti al termine dell’attività sono quindi inerenti allo sviluppo e validazione del sistema di controllo, alla valutazione delle performance del propulsore risultante e alla caratterizzazione e analisi critica del sistema di e-boost dal punto di vista energetico.
Resumo:
La presente tesi analizza le principali caratteristiche di due tipi di traduzione: la traduzione audiovisiva, e in particolare il sottotitolaggio, e la traduzione automatica (TA). Obiettivo della nostra ricerca è stabilire quali risultati è possibile aspettarsi dall’impiego di sistemi di traduzione automatica appositamente sviluppati, nella creazione di sottotitoli di qualità professionale. Tale metodo avrebbe il potenziale vantaggio di velocizzare il processo traduttivo, riducendo in parte la pressione cui i sottotitolatori sono sottoposti, dovendo realizzare molte traduzioni in tempi troppo brevi, spesso a scapito della qualità finale del prodotto. Nel presente lavoro, il Capitolo 1 delinea le tappe principali della nascita e dello sviluppo della traduzione automatica, fino ad arrivare ai sistemi di TA più moderni. Nel Capitolo 2 vengono presentati i tipi principali di sistemi di traduzione automatica, con riferimento alle loro potenzialità e alle loro debolezze, soprattutto per quanto riguarda il loro impiego nel settore multimediale. Il Capitolo 3 riguarda la storia del sottotitolaggio, e le condizioni che hanno portato allo sviluppo e alla diffusione delle diverse modalità di traduzione audiovisiva, di cui il sottotitolaggio è una variante. Nel Capitolo 4 descriveremo le fasi principali di questo processo traduttivo, con particolare enfasi sull’importanza del contesto di arrivo e delle esigenze e aspettative dei futuri fruitori del testo finale. I Capitoli 5 e 6 presentano il lavoro di ricerca “sul campo”, svolto per raccogliere il parere di sottotitolatori professionisti e fansubber, attivi in Italia e all’estero, riguardo la possibilità di usare la TA nel loro lavoro. Infine, il capitolo conclusivo fornisce un commento sui risultati ottenuti, e sulle prospettive future riguardo la possibile apertura da parte del sottotitolaggio verso questa nuova tecnologia.
Resumo:
Il presente elaborato, partendo dalla curiosità e gli stimoli ricevuti durante il percorso di laurea triennale, vuole prendere in analisi i tratti caratteristici dell’Intercultura e delle due facce che la compongono: l’interpretariato e la mediazione linguistica. Nel primo capitolo si delineano i contorni dell’interculturalità, partendo dalla definizione stessa di cultura, passando poi per l’approccio alla comunicazione interculturale e giungendo alla descrizione dei protagonisti dello scambio comunicazionale. Nel secondo capitolo dell’elaborato ci si concentra invece sulle figure professionali quali l’interprete di conferenza e il mediatore linguistico, cercando di far emergere i punti di contatto ma soprattutto le discrepanze inerenti alla pratica linguistica. Nel terzo ed ultimo capitolo, grazie alla collaborazione degli operatori del centro di accoglienza per extracomunitari richiedenti asilo della città di Caltanissetta, si traggono le conclusioni basandosi su un’intervista sottoposta ad un’operatrice in attività nel centro in qualità di interprete.
Resumo:
L’esperimento ATLAS al CERN di Ginevra ha un complesso sistema di rivelatori che permettono l’acquisizione e il salvataggio di dati generati dalle collisioni di particelle fondamentali. Il rivelatore per cui trova una naturale applicazione il lavoro di questa tesi è il Pixel Detector. Esso è il più vicino alla beam pipe e si compone di più strati, il più interno dei quali, l’Insertable B-Layer (IBL), aggiunto in seguito allo shut down dell’LHC avvenuto nel 2013, ha apportato diverse innovazioni per migliorare la risoluzione spaziale delle tracce e la velocità di acquisizione dei dati. E’ stato infatti necessario modificare il sistema di acquisizione dati dell’esperimento aggiungendo nuove schede chiamate ROD, ReadOut Driver, e BOC, Back Of Crate. Entrambe le due tipologie di schede sono montate su un apparato di supporto, chiamato Crate, che le gestisce. E’ evidente che avere un sistema remoto che possa mostrare in ogni momento il regime di funzionamento del crate e che dia la possibilità di pilotarlo anche a distanza risulta estremamente utile. Così, tramite il linguaggio di programmazione LabVIEW è stato possibile progettare un sistema multipiattaforma che permette di comunicare con il crate in modo da impostare e ricevere svariati parametri di controllo del sistema di acquisizione dati, come ad esempio la temperatura, la velocità delle ventole di raffreddamento e le correnti assorbite dalle varie tensioni di alimentazione. Al momento il software viene utilizzato all’interno dell’Istituto Nazionale di Fisica Nucleare (INFN) di Bologna dove è montato un crate W-Ie-Ne-R, speculare a quello presente al CERN di Ginevra, contenente delle schede ROD e BOC in fase di test. Il progetto ed il programma sviluppato e presentato in questa tesi ha ulteriori possibilità di miglioramento e di utilizzo, dal momento che anche per altri esperimenti dell’LHC le schede di acquisizione vengono montate sullo stesso modello di crate.
Resumo:
La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.
Resumo:
il ruolo della tesi è stato di valorizzare attraverso la valutazione di un peso l'urgenza e la necessità di cure dei pazienti processati da un modello di ottimizzazione. Essa si inserisce all'interno di un progetto di creazione di tale modello per la schedulazione di interventi in un reparto chirurgico di un generico ospedale.si è fatto uso del software ibm opl optimization suite.
Resumo:
The study of dielectric properties concerns storage and dissipation of electric and magnetic energy in materials. Dielectrics are important in order to explain various phenomena in Solid-State Physics and in Physics of Biological Materials. Indeed, during the last two centuries, many scientists have tried to explain and model the dielectric relaxation. Starting from the Kohlrausch model and passing through the ideal Debye one, they arrived at more com- plex models that try to explain the experimentally observed distributions of relaxation times, including the classical (Cole-Cole, Davidson-Cole and Havriliak-Negami) and the more recent ones (Hilfer, Jonscher, Weron, etc.). The purpose of this thesis is to discuss a variety of models carrying out the analysis both in the frequency and in the time domain. Particular attention is devoted to the three classical models, that are studied using a transcendental function known as Mittag-Leffler function. We highlight that one of the most important properties of this function, its complete monotonicity, is an essential property for the physical acceptability and realizability of the models. Lo studio delle proprietà dielettriche riguarda l’immagazzinamento e la dissipazione di energia elettrica e magnetica nei materiali. I dielettrici sono importanti al fine di spiegare vari fenomeni nell’ambito della Fisica dello Stato Solido e della Fisica dei Materiali Biologici. Infatti, durante i due secoli passati, molti scienziati hanno tentato di spiegare e modellizzare il rilassamento dielettrico. A partire dal modello di Kohlrausch e passando attraverso quello ideale di Debye, sono giunti a modelli più complessi che tentano di spiegare la distribuzione osservata sperimentalmente di tempi di rilassamento, tra i quali modelli abbiamo quelli classici (Cole-Cole, Davidson-Cole e Havriliak-Negami) e quelli più recenti (Hilfer, Jonscher, Weron, etc.). L’obiettivo di questa tesi è discutere vari modelli, conducendo l’analisi sia nel dominio delle frequenze sia in quello dei tempi. Particolare attenzione è rivolta ai tre modelli classici, i quali sono studiati utilizzando una funzione trascendente nota come funzione di Mittag-Leffler. Evidenziamo come una delle più importanti proprietà di questa funzione, la sua completa monotonia, è una proprietà essenziale per l’accettabilità fisica e la realizzabilità dei modelli.
Analisi petrografica delle ultramafiti del Passo Val Clapa (Austroalpino superiore, Alta Val di Non)
Resumo:
Questo elaborato ha come obiettivo l'analisi petrografica di rocce ultramafiche facenti parte del basamento metamorfico cristallino affiorante in Alta Val di Non (Provincia autonoma di Trento). Tali rocce appartengono all'Unità di Ultimo (Falda del Tonale, Austroalpino superiore), caratterizzata da corpi ultramafici che affiorano al contatto tra i sottostanti paragneiss a granato e cianite e le soprastanti migmatiti. Il metamorfismo e l'anatessi registrati dalle rocce dell'Unità di Ultimo hanno età Ercinica (Carbonifero Sup.). Lo studio si è concentrato su un corpo ultramafico situato in Alta Val di Bresimo, in località Passo Val Clapa, costituito da una lente di harzburgite a granato attraversato da livelli di olivin-websterite a granato e anfibolo. L'harzburgite è costituita al 65% da olivina, al 20% da serpentino (cresciuto a spese dell'olivina) e al 15% da ortopirosseno; sono presenti spinelli e clinopirosseni accessori. Nel campione analizzato, il granato è sostituito da aggregati policristallini costituiti da kelifite e da anfibolo secondario. La websterite è costituita al 40% da pirosseni (orto e clinopirosseni in uguale quantità), al 25% da anfibolo primario, al 25% da granato, al 5% da olivina e al 5% da minerali opachi. Sono presenti strutture coronitiche attorno ai granati (costituite da kelifite e anfibolo); si nota clorite cresciuta a spese di anfibolo e pirosseni e hyddingsite cresciuta a spese dell'olivina. L'olivin-websterite mostra gli stessi minerali indice riscontrati nell'harzburgite ospitante, segno che entrambi i corpi hanno seguito la medesima evoluzione P-T. In una prima fase la pirossenite si trovava, come la peridotite, in facies a spinello: ciò è confermato dalla presenza di spinelli relitti al nucleo dei granati. Questi ultimi si sono formati a spese dello spinello durante l'aumento di P, una volta superata la soglia di transizione tra le due facies. Le corone kelifitiche, presenti sia nella harzburgite che nella olivin-websterite, rappresentano un'evidenza di metamorfismo retrogrado.
Resumo:
Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.
Resumo:
Il sistema carsico dei Piani Eterni e la Valle del Mis si trovano in provincia di Belluno, all'interno del parco Nazionale delle Dolomiti Bellunesi. Questi due sistemi geologici sono attualmente in fase di studio e la presente tesi, ha come scopo la correlazione tra i livelli paleo-freatici di grotta dei Piani Eterni e le superfici a bassa pendenza (terrazzi glaciali, kame e superfici di spianamento) dell'adiacente Val del Mis. L'elaborato è stato sviluppato prevalentemente su ArcMap (Gis) e su Excel, mentre su Datagraph sono stati ottenuti i grafici che mostrano i confronti altimetrici e quantitativi tra condotte e superfici. I risultati ottenuti dalla fase di analisi della tesi, mostrano che le correlazioni sono evidenti e grazie alle datazione U-Th di alcuni speleotemi del sistema carsico, sono state avanzate sia una ipotetica ricostruzione dell'antico reticolo di drenaggio della Valle del Mis, sia la causa per la quale questo drenaggio, attualmente, si presenti in maniera estremamente diversa da quello passato.
Resumo:
Questa tesi ha permesso di osservare e analizzare le strategie risolutive che gli studenti italiani utilizzano quando si cimentano nello svolgimento delle prove di matematica nazionali INVALSI (Sistema Nazionale per la Valutazione del Sistema dell'Istruzione). L'osservazione è stata svolta durante le ore di tirocinio curriculare effettuate nell'anno accademico 2014/2015 presso il liceo scientifico e delle scienze umane "Albert Bruce Sabin" di Bologna. L'interesse per l'esperimento è nato dalla constatazione dei risultati deludenti degli studenti italiani nelle prove di matematica rispetto all'andamento internazionale. Pertanto,in collaborazione con il prof Giorgio Bolondi, relatore dell'elaborato, e della prof.ssa Valeria Vesi insegnante di matematica delle classi prime seguite durante il tirocinio, è stato realizzato un test di domande estrapolate dalle prove INVALSI svolte negli anni precedenti, sottoposto a un campione di 12 studenti (14-15 anni) frequentanti le classi 1M, 1O e 1R.Il lavoro d'indagine è stato realizzato in due diverse fasi: soluzione del test e intervista-colloquio registrata. Le registrazioni, apparse fin da subito molto interessanti, rivelano importanti informazioni che permettono di evidenziare le diverse difficoltà che i nostri studenti incontrano nel risolvere le prove di matematica. Per meglio interpretare i loro comportamenti durante la messa in atto dei processi risolutivi è stato svolto uno studio e una ricerca riguardanti gli studi e le teorie che interessano il problem-solving, oltre a fornire una panoramica sulle ricerche nel campo della valutazione.
Resumo:
In questo lavoro vengono analizzate due sottovarietà notevoli di P^5 legate allo studio delle ipersuperfici quadriche: la quadrica di Klein e la superficie di Veronese. La quadrica di Klein è una ipersuperficie di grado 2 di P^5 in corrispondenza biunivoca con l'insieme delle rette di P^3. Riguardando P^5 come lo spazio delle coniche di P^2, la superficie di Veronese corrisponde alle coniche di rango 1, cioè alle rette doppie.