289 resultados para Cinetica chimica, modelli cinetici, detonazione, evoluzione, CFD
Resumo:
Viviamo in un epoca di cambiamenti. Continuamente, giorno dopo giorno, il vecchio scompare per fare spazio al nuovo. La tecnologia permea sempre più in ogni aspetto della vita, conquistando le nostre abitudini, cambiando il nostro modo di vedere il mondo, e, in maniera inevitabile, il nostro modo di agire. L’essere umano ha da sempre cercato di concepire cose che ancora non ci sono, per cambiare la realtà e modellarla a suo piacimento. Si parte, quindi, da qualcosa che fin dalla nascita è dentro ognuno di noi, un desiderio che arde nell'animo umano, che si alimenta grazie al soffio dell’immaginazione e che non c’è modo di spegnere. L’innovazione porta novità. Resistere al cambiamento non è sempre facile, e se si cerca di ostacolarlo esso ti travolgerà. “Affrontare il cambiamento è come scalare una colata di fango giù per una collina” - esordisce in “The Innovator Dilemma”, Clayton M. Christensen - “Bisogna affrontare qualsiasi cosa per rimanere su di essa, e non appena ci si ferma per prendere fiato si viene seppelliti”. Si intuisce come il cambiamento tecnologico non solo sia di fondamentale evidenza nella vita di ognuno, ma come esso abbia cambiato e stia cambiando il modo di fare business. In questo umile lavoro si è voluto analizzare come certi tipi di innovazione abbiano il potere di cambiare tutto un sistema di riferimento sul quale prima l’impresa faceva affidamento. Sono le Disruptive Innovation – le innovazioni dirompenti – quelle innovazioni che ribaltano un modello di business, il modo di vedere un prodotto, la logica dietro a certe operations aziendali, che seppur sembrassero solide, si sgretolano scontrandosi con innovazioni così forti. Vi è poi una domanda critica a cui si è cercato di rispondere. Si può fare Disruptive Marketing? Alcuni esempi virtuosi ci mostrano come si possa attuare una strategia di questo genere, e come si possa “comprendere, creare, comunicare e distribuire valore” in modo innovativo.
Resumo:
Modello su AMPL per ottimizzare la scelta del trasporto in base al tragitto, all'orario di partenza e all'intervallo di tempo considerato.
Resumo:
Come il titolo suggerisce, due sono gli aspetti oggetto di questo elaborato: i modelli e gli algoritmi (con le rispettive criticità), e il linguaggio di modellazione AMPL. Il filo conduttore che integra le due parti, nonché mezzo ultimo per un’applicazione pratica dell’attività di modellazione, è l’ottimizzatore, la ”macchina” che effettua la risoluzione vera e propria dei suddetti modelli.
Resumo:
Nel corso degli anni le fonti rinnovabili e in particolare il fotovoltaico hanno assunto un ruolo sempre più importante nel panorama energetico italiano. Si è effettuata un’analisi della tecnologia fotovoltaica illustrandone il funzionamento, le tipologie di pannelli, il calcolo dell’energia elettrica producibile e le curve caratteristiche. Dal momento che la maggior parte delle rinnovabili presenta il problema della non programmabilità dovuta alla produzione intermittente, è necessario adottare dei sistemi di accumulo. Tali sistemi vengono mostrati, con particolare riguardo per le batterie al piombo acido e per l’idrogeno immagazzinato in idruri metallici, spiegando nel dettaglio l’elettrolisi e gli elettrolizzatori PEM. Dopo questa panoramica iniziale, si è illustrato l’impianto oggetto di questa tesi, composto principalmente da due pannelli fotovoltaici, un simulatore solare, due batterie al Piombo, un elettrolizzatore, un carico e un alimentatore. In seguito viene spiegata l’attività sperimentale, svolta sulle prove di laboratorio ai fini di ottenere le curve di funzionamento dei vari componenti, tramite due approcci diversi: per il sistema atto all’elettrolisi e per tutti i suoi componenti si è usato un modello black-box, per i pannelli fotovoltaici si è usato un approccio fisico-matematico partendo dalle equazioni del simulatore solare applicandovi i dati dei pannelli del laboratorio. Una volta ottenute queste curve, si è creato un modello completo del laboratorio per simularne il funzionamento al variare dell’irraggiamento. Si è testato prima il modello su un’utenza da 3 kW, poi, dopo aver confrontato gli andamenti reali con quelli ottenuti, si sono simulate varie configurazioni per trovare quella che permette al sistema di produrre idrogeno alla potenza nominale di 250 W in una giornata senza supplemento della rete elettrica.
Resumo:
Il grafene, allotropo del carbonio costituito da un reticolo bidimensionale, è uno dei nanomateriali più promettenti allo stato attuale della ricerca nei campi della Fisica e della Chimica, ma anche dell'Ingegneria e della Biologia. Isolato e caratterizzato per la prima volta nel 2004 dai ricercatori russi Andre Geim e Konstantin Novoselov presso l'Università di Manchester, ha aperto la via sia a studi teorici per comprendere con gli strumenti della Meccanica Quantistica gli effetti di confinamento in due dimensioni (2D), sia ad un vastissimo panorama di ricerca applicativa che ha l'obiettivo di sfruttare al meglio le straordinarie proprietà meccaniche, elettriche, termiche ed ottiche mostrate da questo materiale. Nella preparazione di questa tesi ho personalmente seguito presso l'Istituto per la Microelettronica e i Microsistemi (IMM) del CNR di Bologna la sintesi mediante Deposizione Chimica da Fase Vapore (CVD) di grafene "tridimensionale" (3D) o "poroso" (denominato anche "schiuma di grafene", in inglese "graphene foam"), ossia depositato su una schiuma metallica dalla struttura non planare. In particolare l'obiettivo del lavoro è stato quello di misurare le proprietà di conduttività elettrica dei campioni sintetizzati e di confrontarle con i risultati dei modelli che le descrivono teoricamente per il grafene planare. Dopo un primo capitolo in cui descriverò la struttura cristallina, i livelli energetici e la conduzione dei portatori di carica nel reticolo ideale di grafene 2D (utilizzando la teoria delle bande e l'approssimazione "tight-binding"), illustrerò le differenti tecniche di sintesi, in particolare la CVD per la produzione di grafene poroso che ho seguito in laboratorio (cap.2). Infine, nel capitolo 3, presenterò la teoria di van der Pauw su cui è basato il procedimento per eseguire misure elettriche su film sottili, riporterò i risultati di conduttività delle schiume e farò alcuni confronti con le previsioni della teoria.
Resumo:
In questa tesi si vuole fornire una panoramica generale dei processi di formazione delle galassie, con l'aggiunta di alcuni cenni sulla loro evoluzione. Nel primo capitolo si danno alcune informazioni sulla natura di questi oggetti e su come è stata scoperta la loro esistenza. Poi, utilizzando le premesse di cui al capitolo 2, nel capitolo 3 si passa alla spiegazione della loro formazione a partire dagli eventi successivi al Big Bang, di cui si fornisce una breve cronologia. Nel capitolo 4 si dà una panoramica della formazione degli ammassi di galassie e si discute di alcune osservazioni compiute su di essi, per concludere con considerazioni sul loro futuro. Infine, nell'ultimo capitolo ci si concentra sull'evoluzione delle galassie, in particolare sui processi di merging e sulle collisioni.
Resumo:
La Chemical Vapor Deposition (CVD) permette la crescita di sottili strati di grafene con aree di decine di centimetri quadrati in maniera continua ed uniforme. Questa tecnica utilizza un substrato metallico, solitamente rame, riscaldato oltre i 1000 °C, sulla cui superficie il carbonio cristallizza sotto forma di grafene in un’atmosfera attiva di metano ed idrogeno. Durante la crescita, sulla superficie del rame si decompone il metano utilizzato come sorgente di carbonio. La morfologia e la composizione della superficie del rame diventano quindi elementi critici del processo per garantire la sintesi di grafene di alta qualità e purezza. In questo manoscritto si documenta l’attività sperimentale svolta presso i laboratori dell’Istituto per la Microelettronica e i Microsistemi del CNR di Bologna sulla caratterizzazione della superficie del substrato di rame utilizzato per la sintesi del grafene per CVD. L’obiettivo di questa attività è stato la caratterizzazione della morfologia superficiale del foglio metallico con misure di rugosità e di dimensione dei grani cristallini, seguendo l’evoluzione di queste caratteristiche durante i passaggi del processo di sintesi. Le misure di rugosità sono state effettuate utilizzando tecniche di profilometria ottica interferometrica, che hanno permesso di misurare l’effetto di livellamento successivo all' introduzione di un etching chimico nel processo consolidato utilizzato presso i laboratori dell’IMM di Bologna. Nell'ultima parte di questo manoscritto si è invece studiato, con tecniche di microscopia ottica ed elettronica a scansione, l’effetto di diverse concentrazioni di argon e idrogeno durante il trattamento termico di annealing del rame sulla riorganizzazione dei suoi grani cristallini. L’analisi preliminare effettuata ha permesso di individuare un intervallo ottimale dei parametri di annealing e di crescita del grafene, suggerendo importanti direzioni per migliorare il processo di sintesi attualmente utilizzato.
Resumo:
In questo elaborato viene sperimentato un iter processuale che consenta di utilizzare i sensori termici affiancati a fotocamere digitale in ambito fotogrammetrico al fine di ottenere prodotto dal quale sono estrapolabili informazioni geometriche e termiche dell’oggetto di studio. Il rilievo fotogrammetrico è stato svolto mediante l’utilizzo di un drone con equipaggiamento multisensoriale, termico e digitale, su una porzione di territorio soggetto ad anomalie termiche nei pressi di Medolla (MO). Per l’analisi termica e geometrica sono stati posizionati sul campo 5 target termici di cui ne sono state misurate le coordinate per la georeferenziazione delle nuvole dense di punti e la temperatura. In particolare sono state eseguite due riprese aeree dalle quali sono stati estratti i frame necessari per i processi di restituzione fotogrammetrica. Le immagini sono state sottoposte ad una fase di trattamento che ha prodotto immagini rettificate prive di delle distorsioni impresse dall’obbiettivo. Per la creazione degli elaborati vettoriali e raster a colori e termici sono stati impiegati inizialmente software di fotogrammetria digitale in grado di fornire scene tridimensionali georeferenziate dell’oggetto. Sono state sviluppate sia in un ambiente open-source, sia sfruttando programmi commerciali. Le nuvole dense sono state successivamente trattate su una piattaforma gratuita ad interfaccia grafica. In questo modo è stato possibile effettuare dei confronti tra i diversi prodotti e valutare le potenzialità dei software stessi. Viene mostrato come creare un modello tridimensionale, contenente sia informazioni geometriche che informazioni termiche, partendo dalla nuvola termica e da quella a colori. Entrambe georeferenziate utilizzando gli stessi punti fotogrammetrici d’appoggio. Infine i prodotti ottenuti sono stati analizzati in un ambiente GIS realizzando sovrapposizioni grafiche, confronti numerici, interpolazioni, sezioni e profili.
Resumo:
Il lavoro di tesi riguarda lo studio dettagliato di un ciclone di tipo tropicale (tropical like cyclone, TLC) verificatosi nel Canale di Sicilia nel novembre 2014, realizzato attraverso un'analisi modellistica effettuata con i modelli BOLAM e MOLOCH (sviluppati presso il CNR-ISAC di Bologna) e il confronto con osservazioni. Nel primo capitolo è fornita una descrizione generale dei cicloni tropicali e dei TLC, indicando come la formazione di questi ultimi sia spesso il risultato dell'evoluzione di cicloni extratropicali baroclini nel Mediterraneo; sono identificate le aree geografiche con i periodi dell'anno maggiormente soggetti all'influenza di questi fenomeni, riportando un elenco dei principali TLC verificatisi nel Mediterraneo negli utlimi tre decenni e lo stato dell'arte sullo studio di questi eventi. Nel secondo capitolo sono descritte le modalità di implementazione delle simulazioni effettuate per il caso di studio e presentati i principali prodotti dell'analisi modellistica e osservazioni da satellite. Il terzo capitolo si apre con la descrizione della situazione sinottica e l'analisi osservativa con immagini Meteosat e rilevazioni radar che hanno permesso di ricostruire la traiettoria osservata del TLC. In seguito, viene dapprima fornito l'elenco completo delle simulazioni numeriche, quindi sono presentati alcuni dei più importanti risultati ottenuti, dai quali emerge che la previsione della traiettoria e intensità del TLC differisce notevolmente dalle osservazioni. Tenendo conto della bassa predicibilità che ha caratterizzato l'evento, nel quarto capitolo è descritto il metodo usato per ricostruire in maniera ottimale la traiettoria, utilizzando spezzoni da varie simulazioni, che ha permesso un confronto più realistico con i dati osservati e un'analisi dei processi fisici. Nel quinto capitolo sono riportati i principali risultati di alcuni test mirati a valutare l'impatto di aspetti legati all'implementazione delle simulazioni e ad altre forzanti fisiche.
Resumo:
Il lavoro presentato in questa tesi è stato svolto presso il Department of Computer Science, University of Oxford, durante il mio periodo all’estero nel Computational Biology Group. Scopo del presente lavoro è stato lo sviluppo di un modello matematico del potenziale d’azione per cellule umane cardiache di Purkinje. Tali cellule appartengono al sistema di conduzione elettrico del cuore, e sono considerate molto importanti nella genesi di aritmie. Il modello, elaborato in linguaggio Matlab, è stato progettato utilizzando la tecnica delle Popolazione di Modelli, un innovativo approccio alla modellazione cellulare sviluppato recentemente proprio dal Computational Biology Group. Tale modello è stato sviluppato in 3 fasi: • Inizialmente è stato sviluppato un nuovo modello matematico di cellula umana del Purkinje cardiaco, tenendo in considerazione i modelli precedenti disponibili in letteratura e le più recenti pubblicazioni in merito alle caratteristiche elettrofisiologiche proprie della cellula cardiaca umana di Purkinje. Tale modello è stato costruito a partire dall’attuale gold standard della modellazione cardiaca ventricolare umana, il modello pubblicato da T. O’Hara e Y. Rudy nel 2011, modificandone sia le specifiche correnti ioniche che la struttura interna cellulare. • Il modello così progettato è stato, poi, utilizzato come “modello di base” per la costruzione di una popolazione di 3000 modelli, tramite la variazione di alcuni parametri del modello all’interno di uno specifico range. La popolazione così generata è stata calibrata sui dati sperimentali di cellule umane del Purkinje. A valle del processo di calibrazione si è ottenuta una popolazione di 76 modelli. • A partire dalla popolazione rimanente, è stato ricavato un nuovo modello ai valori medi, che riproduce le principali caratteristiche del potenziale d’azione di una cellula di Purkinje cardiaca umana, e che rappresenta il dataset sperimentale utilizzato nel processo di calibrazione.
Resumo:
Il cuore è uno dei principali organi vitali dell’organismo umano e la sua fisiologica attività è indispensabile per sostenere uno stile di vita conforme alle esigenze del singolo individuo. Le aritmie cardiache, alterazioni del ritmo, possono compromettere o limitare la vita di un paziente che ne è affetto. Specifiche aritmie cardiache vengono trattate con l’impianto di dispositivi cardiaci impiantabili, i defibrillatori, che generano una stimolazione elettrica nel tessuto cardiaco allo scopo di ripristinare un ritmo cardiaco fisiologico. Il presente elaborato descrive come tali dispositivi siano in grado di correggere le aritmie cardiache, garantendo la sicurezza del paziente e permettendogli di svolgere le normali attività quotidiane . Il primo capitolo andrà ad analizzare il cuore dal punto di vista anatomico e fisiologico per capirne il funzionamento non affetto da patologie. Il secondo capitolo concentrerà l’analisi sui defibrillatori impiantabili per stimolazione cardiaca (ICD), facendo luce sulla storia, sulle funzioni primarie,sui componenti interni,sulle patologie legate all’utilizzo,sulle tipologie presenti in commercio e sul metodo d’impianto. Il terzo capitolo è incentrato sul monitoraggio remoto degli ICD (home-monitoring), attraverso il quale il paziente può trasmettere per via transtelefonica al centro cardiologico di riferimento i dati tecnici e clinici desumibili dall’interrogazione del dispositivo impiantato, senza necessità di ricorrere al controllo ambulatoriale tradizionale. L’home-monitoring nei pazienti portatori di dispositivo impiantabile si è dimostrato efficace per l’individuazione di malfunzionamenti e di instabilità cliniche in misura sovrapponibile rispetto al controllo ambulatoriale tradizionale, offrendo però significativi vantaggi in termini di qualità della vita e di gestione delle risorse sanitarie. Infine saranno presentate le conclusioni di tale elaborato.
Resumo:
The Italian territory offers a wide range of treasures in the field of Cultural Assets. This is a highly relevant property, which needs an accurate management and preservation performed by appropriate tools, also giving attention to the maintenance and safeguard from risk factors. Nowadays the increasing development of new digital technologies, added by remarkable steps forward got by the subject of Geomatic makes possible an efficient integration among different techniques, helped also by spread of solutions to improve the data import-export and transmission between different devices. The main objective of this thesis is to experience the photogrammetric restitution implemented in a commercial software of digital photogrammetry, in order to generate a dense 3D model of the facade of the Basilica Sant'Apollinare Nuovo in Ravenna. The 1st Chapter, after a general introduction regarding the 3D survey of Cultural Heritage and some considerations linked to the use of digital photogrammetry in this field, is focused to analyze the case of stereoscopic and the monoscopic approach. In particular, it develops the theme of close-range photogrammetry. The 2nd Chapter, exposes the theme of digital images, from color theory until their appearing on the monitor. The 3rd Chapter, develops the case study of the Basilica di Sant'Apollinare Nuovo, the historical, architectural and religious of the same. Also, it is examined the issue of photogrammetry and laser scanning of the case study. The final part of the same chapter, treats the processing of data processing the software Agisoft PhotoScan, in order to generate, by means of Structure from Motion technique, a digital geometric 3D model of the Basilica Facade. The digital model has been scaled on the basis of measurements made on the field. With the software it was possible to accomplish the three phases of the photogrammetric data processing: internal orientation, exterior orientation and restitution.
Resumo:
Negli ultimi mesi la possibilità di una cosiddetta “Brexit”, ovvero di un’uscita della Gran Bretagna dall’Unione Europea, ha dominato i canali di informazione europei e mondiali. Nel referendum consultivo tenutosi il 23 giugno 2016 la maggioranza della popolazione inglese ha scelto di uscire dall’UE, e il Regno Unito potrebbe diventare il primo Paese membro ad abbandonare l’Unione. Il Regno Unito è stato un Paese membro poco partecipe fin dalla sua entrata nella Comunità Economica Europea (CEE) nel 1973: indisse un referendum per decidere se restare nella CEE già nel 1975, e in seguito ha cercato più volte di ritrattare i contributi finanziari che era tenuto a versare, si è tenuto fuori dall’area Schengen e non è entrato nell’euro. Lo scopo di questo elaborato è analizzare l’evoluzione dell’euroscetticismo inglese dalle origini dell’Unione Europea al referendum del 2016, indagando le ragioni per cui i cittadini inglesi hanno scelto di uscire dall’UE. Il primo capitolo si concentra sul rapporto sviluppatosi tra Gran Bretagna e Unione Europea dal dopoguerra fino al 2012. Il secondo capitolo tratta in modo specifico del referendum inglese del 2016, considerando le due campagne referendarie ufficiali e analizzando i risultati delle votazioni. Le fonti utilizzate per la ricerca sono principalmente saggi pubblicati su riviste online, articoli di giornale, libri e siti delle campagne referendarie e del governo inglese.
Resumo:
In questo lavoro di tesi si presenta il primo studio multi-scala e multi-frequenza focalizzato sul getto della radiogalassia IC1531 (z=0.026) con i satelliti Chandra, XMM-Newton e Fermi con l’obiettivo di tracciarne l’emissione alle alte energie; definire i processi radiativi responsabili dell’emissione osservata e stimare i principali parametri fisici del getto; stimare l’energetica del getto alle diverse scale. La sorgente è stata selezionata per la presenza di un getto esteso (≈5’’) osservato in radio e ai raggi X, inoltre, era riportata come possibile controparte della sorgente gamma 3FGLJ0009.6-3211 presente nel terzo catalogo Fermi (3FGL). La presenza di emissione ai raggi γ, confermata dal nostro studio, è importante per la modellizzazione della SED della regione nucleare. L’emissione X del nucleo è dominata da una componente ben riprodotta da una legge di potenza con indice spettrale Γ=2.2. L’analisi dell’emissione in banda gamma ha evidenziato una variabilità su scale di 5 giorni, dalla quale è stato possibile stimare le dimensioni delle regione emittente. Inoltre viene presentato lo studio della distribuzione spettrale dell’energia della regione nucleare di IC 1531 dalla banda radio ai raggi γ. I modelli ci permettono di determinare la natura dell’emissione gamma e stimare la potenza cinetica del getto a scale del su-pc. Gli osservabili sono stati utilizzati per ottenere le stime sui parametri del modello. La modellizzazione così ottenuta ha permesso di stimare i parametri fisici del getto e la potenza trasportata del getto a scale del sub-pc. Le stime a 151MHz suggerisco che il getto abbia basse velocita' (Γ≤7) e angolo di inclinazione rispetto alla linea di vista 10°<ϑ<20°; nel complesso, il trasporto di energia da parte del getto risulta efficiente. L’origine dell’emissione X del getto a grandi scale è consistente con un’emissione di sincrotrone, che conferma la classificazione di IC1531 come sorgente di bassa potenza MAGN.
Resumo:
La presente ricerca tratta lo studio delle basi di conoscenza, volto a facilitare la raccolta, l'organizzazione e la distribuzione della conoscenza. La scelta dell’oggetto è dovuta all'importanza sempre maggiore acquisita da questo ambito di ricerca e all'innovazione che esso è in grado di apportare nel campo del Web semantico. Viene analizzata la base di conoscenza YAGO: se ne descrivono lo stato dell’arte, le applicazioni e i progetti per sviluppi futuri. Il lavoro è stato condotto esaminando le pubblicazioni relative al tema e rappresenta una risorsa in lingua italiana sull'argomento.