915 resultados para Cinetica chimica, modelli cinetici, detonazione, evoluzione, CFD
Resumo:
Lo scopo di questa tesi è quello di evidenziare, attraverso varie analisi statistiche ed applicazione di modelli stocastici, il comportamento strutturale e funzionale dei dinucleotidi che compongono le sequenze di DNA di diversi organismi. Gli organismi che abbiamo scelto di prendere in considerazione sono l'uomo, il topo e l'Escherichia coli. Questa scelta non è stata casuale, ma oculata, al fine di mettere in risalto alcune differenze tra organismi eucarioti, quali l'uomo e il topo, ed organismi procarioti come il batterio E.coli. Nella prima parte del nostro studio, abbiamo computato le distanze che intercorrono tra occorrenze successive dello stesso dinucleotide lungo la sequenza, usando un metodo di non sovrapposizione, ed abbiamo iterato il calcolo per tutti i 16 dinucleotidi. Dopodiché ci siamo preoccupati di graficare le distribuzioni di distanza dei 16 dinucleotidi per l'E.Coli, il topo e l'uomo; gli istogrammi evidenziano un comportamento anomalo della distribuzione di CG che accomuna gli organismi eucarioti e di cui, invece, è esente l'organismo procariote esaminato. Questo dato statistico trova una spiegazione nei processi biologici di metilazione che possono innescarsi sul dinucleotide CG nelle sequenze eucariotiche. In seguito, per determinare quanto ciascuna delle 16 distribuzioni si discosti dalle altre abbiamo usato la divergenza di Jensen-Shannon. Per quantificare le differenze sostanziali tra le distribuzioni di CG dei 3 organismi considerati abbiamo deciso di verificare quale fosse il miglior fit per tali curve tra un esponenziale ed una power-law. L'esponenziale rappresenta un buon fit per le code delle distribuzioni di CG del topo e dell'uomo; ciò rivela la presenza di una lunghezza caratteristica per entrambi gli organismi. Nella seconda parte dello studio, i risultati vengono confrontati con modelli markoviani: sequenze random generate con catene di Markov di ordine zero (basate sulle frequenze relative dei nucleotidi) e uno (basate sulle probabilità di transizione tra diversi nucleotidi). Quest'ultima riproduce abbastanza fedelmente la sequenza biologica di partenza, per cui abbiamo scelto di utilizzare la catena Markov del 1° ordine per altre analisi statistiche riguardanti le distribuzioni dei nucleotidi, dinucleotidi, ed anche dei trinucleotidi con particolare interesse per quelli in cui è contenuto CG, in modo da verificare se l'anomalia si ripercuote anche in essi. Riteniamo pertanto che metodi basati su questo approccio potrebbero essere sfruttati per confermare le peculiarità biologiche e per migliorare l'individuazione delle aree di interesse, come le isole CpG, ed eventualmente promotori e Lamina Associated Domains (LAD), nel genoma di diversi organismi.
Resumo:
Obiettivo di questa tesi è l'analisi e l'approfondimento di una tecnologia di nuova generazione che prende il nome di iBeacon. Basata sulla localizzazione di prossimità (wireless) a bassi consumi energetici e sviluppata da Apple, l'iBeacon sfrutta il protocollo Bluetooth Low Energy con il quale riesce ad utilizzare al meglio l'energia, permettendo alle batterie dei dispositivi che lo implementano di durare molto più a lungo. In questa argomentazione, vengono elencate e descritte alcune tecniche di comunicazione wireless a medio-corto raggio (Wi-Fi, Infrarosso, RFID, NFC, Bluetooth, BLE), che utilizzano lo scambio di informazioni senza fili, descrivendone una breve storia, dalla loro evoluzione nel tempo e nei modi, ad alcune caratteristiche di utilizzo. L'argomentazione poi focalizzerà l'attenzione sui metodi di localizzazione utilizzati dall'iBeacon, fornendone le funzionalità e le caratteristiche principali di questa nuova tecnologia e discutendone i vantaggi, i limiti tecnologici e di sviluppo del protocollo, fino a delineare alcune soluzioni per quanto riguarda le soglie di sicurezza e di privacy. L'analisi poi confronterà l'iBeacon con i maggiori antagonisti che utilizzano questa tecnica di microgeolocalizzazione (NFC, EddyStone). Si cercherà inoltre di delineare in maniera più dettagliata le specifiche tecniche che costituiscono questa nuova tecnologia di prossimità, dal protocollo di comunicazione alla componentistica hardware. Successivamente verrà descritto come un dispositivo iOS si interfaccia con un iBeacon, delineandone le API e il setup e mostrando i diversi passaggi per la creazione di un prototipo di applicazione. Si cercherà infine di pianificare, progettare e costruire una rete con iBeacon. Come ultima analisi, si prenderà in esame la relazione tra l'iBeacon e l'Internet of Things (IoT), e gli sviluppi che potrà portare all'evoluzione del Marketing di Prossimità, mostrando un esempio concreto di utilizzo efficace di questa innovativa tecnologia (EXPO 2015).
Resumo:
Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.
Resumo:
Scopo di questo lavoro di tesi è la revisione della legislazione in materia di dispositivi medici nel mercato europeo, facendone un confronto con la normativa extra-europea. In particolare si sono studiate ed analizzate anche le regolamentazioni degli Stati Uniti e del Giappone, che insieme a quella dell’Unione Europea, rappresentano attualmente i tre maggiori mercati mondiali di dispositivi medici. L’obiettivo quindi è stato la ricerca, lo studio e l’analisi critica dei vari sistemi legislativi in vigore, la loro evoluzione e le prospettive future. Considerando il punto di vista del fabbricante di dispositivi medici, si sono illustrati percorsi normativi per poter immettere sul mercato un nuovo dispositivo medico nell’Unione Europea, negli Stati Uniti e in Giappone, evidenziando le procedure da seguire, le modalità di commercializzazione nei tre mercati, le certificazioni richieste, facendone un’analisi comparativa di un mercato rispetto agli altri. Sempre nella stessa ottica, si è inoltre effettuata una sintetica analisi del mercato dei dispositivi medici nei paesi emergenti, in quanto sono già, e lo diventeranno sempre più, una risorsa importante per una azienda con una visione internazionale del mercato. In questo elaborato di tesi sono stati ampiamente descritti ed analizzati i diversi sistemi di regolamentazione dei dispositivi medici e si è effettuata una valutazione comparativa tra i diversi sistemi legislativi e normativi che condizionano il mercato dei dispositivi medici. Un fabbricante con una visione internazionale della propria azienda deve conoscere perfettamente le legislazioni vigenti in materia di dispositivi medici. Per l'impresa, la conoscenza e la pratica della norma è indispensabile ma, ancor più, l'informazione e la consapevolezza dell'evoluzione della norma è determinante per la crescita competitiva. Il business mondiale dei dispositivi medici infatti ha subito profondi cambiamenti, con l'introduzione nei diversi paesi di complesse procedure di certificazione e autorizzazione, che sono in continua evoluzione. Tutto questo richiede una dimestichezza con le norme di settore e un continuo aggiornamento tecnico-normativo: sono indispensabili per le imprese competenze adeguate, in grado di affrontare tematiche tecnico-scientifiche e di adempiere a quanto prevedono le norme nazionali ed internazionali. Comprendere le opportunità, conoscere le regole e le barriere per l'ingresso in un determinato mercato, è sempre più importante per le imprese interessate ai processi di internazionalizzazione. Per meglio comprendere un mercato/paese, occorre la conoscenza dei peculiari aspetti regolatori, ma anche la conoscenza della specifica cultura, tradizione, società. In questo quadro, conoscere e praticare le norme non è sufficiente, sapere come evolvono le norme e le regole è per le imprese un fattore determinante per la competitività.
Resumo:
La presente tesi si propone di analizzare i pacemaker e i defibrillatori cardiaci impiantabili, soprattutto dal punto di vista tecnico ma anche dal punto di vista medico per darne una descrizione il più possibile completa e dettagliata, al fine di comprenderne il funzionamento e come questi dispositivi aiutino a correggere i principali disturbi cardiaci.
Resumo:
L'elaborato si pone come obiettivo l'analisi del mercato degli smartphone, considerandone l'evoluzione negli anni dalla nascita ad oggi, ed esaminando come i competitor già presenti sul mercato dei telefoni cellulari si sono evoluti a seguito dell'introduzione di nuove tecnologie; e come i competitor interessati all'ingresso nel mercato abbiano sfruttato l'introduzione delle nuove tecnologie.
Resumo:
Nel lavoro di tesi si sono studiati i modelli di transizione di fase studiati in precedenza da Gibbs e da Cahn-Hilliard. Si è poi verificato che i due modelli sono equivalenti sotto le ipotesi della gamma convergenza
Resumo:
Questo lavoro si concentra sullo studio fluidodinamico del flusso multifase cavitante di un iniettore per applicazioni a motori ad iniezione diretta (GDI). L’analisi è stata svolta tramite l’uso del software CFD (Computational Fluid Dynamics) Star-CCM+^® sviluppato da CD-ADAPCO. L’obiettivo di questo studio è investigare i motivi che portano ad un diverso comportamento tra i rilievi della prova sperimentale di caratterizzazione dell’iniettore e quanto atteso dai valori nominali dettati dalla specifica dell’iniettore, con particolare riferimento alla distribuzione di portata fra i diversi ugelli. Il presente lavoro fa parte di una coppia di elaborati collegati tra loro e, pertanto, ha inoltre lo scopo di fornire dati utili allo sviluppo dell’altro tema di analisi mirato alla individuazione di parametri di qualità della miscela aria-combustibile non reagente utili alla previsione della formazione del particolato prodotto dalla combustione di un motore GDI. L’elaborato, costituito di 5 capitoli, è strutturato secondo lo schema sottostante. Nel capitolo 1 vengono presentate le motivazioni che lo hanno avviato e viene esposto lo stato dell’arte della tecnologia GDI. Il capitolo 2 è a sfondo teorico: in esso vengono riportati i fondamenti del processo di cavitazione nella prima parte e i modelli numerici utilizzati nell’analisi nella seconda. Il capitolo 3 descrive la modellazione e successiva validazione dei modelli tramite confronto con il test case ‘Comprensive hydraulic and flow field documentation in model throttle experiments under cavitation conditions’ (E. Winklhofer, 2001). Nella scelta dei modelli e dei parametri relativi, l’analisi si è basata su precedenti lavori trovati in letteratura. Successivamente è stato svolto uno studio di sensibilità per valutare la stabilità della soluzione a piccole variazioni nei valori dei parametri. La scelta dei parametri modellistici nel caso di interesse, l’iniettore multihole, si è basata inizialmente sui valori ‘ottimali’ ottenuti nel test case ed è l’argomento del capitolo 4. All’interno del capitolo si parla inoltre dell’analisi di sensibilità successiva, svolta con lo scopo di comprendere i motivi che portano allo sbilanciamento tra fori corrispondenti e al maggiore sviluppo del getto centrale rispetto agli altri. Nel capitolo 5 dopo un breve riepilogo dei punti fondamentali trattati nello svolgimento dell’elaborato, si tirano le conclusioni sull’analisi e si espongono gli sviluppi futuri.
Resumo:
L'accurata determinazione dei parametri che costituiscono un modello cosmologico è fondamentale per caratterizzare correttamente l'evoluzione globale dell'universo e per spiegare le sue caratteristiche locali. Per quanto riguarda questo lavoro di Tesi abbiamo studiato l'efficienza di un particolare metodo per la stima del parametro di densità della materia detto test di Alcock-Paczynski. Con tale metodo si studiando le distorsioni geometriche che un’errata assunzione dei parametri cosmologici introduce nella funzione di correlazione a due punti bidimensionale. Abbiamo applicato il test a diversi cataloghi prodotti dalla simulazione Magneticum. In particolare abbiamo studiato come l'efficienza del metodo nel riconoscere il corretto valore del parametro di densità dipenda dal tipo di tracciante considerato, dal redshift d'osservazione e dai metodi di modelizzazione delle distorsioni dovute alla dinamica degli oggetti osservati. Si è potuto osservare come l’efficienza del metodo dipenda dalla densità d’oggetti contenuti nel catalogo (rendendo le galassie il tracciante migliore su cui applicare il test) e dall’ampiezza dell’effetto di distorsione geometrica, massimo per redshift vicini a 1. Abbiamo verificato che considerare come indipendenti le misure effettuate sui cataloghi a diversi redshift migliora l’identificazione del corretto valore del parametro di densità. Nella combinazione delle diverse misure, inoltre, si nota che i contributi meno significativi vengono dai redshift estremi dell’intervallo considerato, ma i singoli risultati, per quanto incerti, non intaccano il risultato finale. Infine si è osservato come ridurre il numero di parametri liberi attraverso i quali si introducono nei modelli le distorsioni dinamiche, in particolar modo gli effetti di distorsione a piccole scale, migliora sensibilmente l’efficacia del metodo.
Resumo:
Ai nostri giorni le aree costiere risultano particolarmente sensibili perché sottoposte ad alcune fonti di stress, quali la salinizzazione degli acquiferi e la naturale ed antropica modificazione del territorio costiero. Questo lavoro indaga gli effetti dell’incendio del 2012 nella Pineta costiera di Lido di Dante (Ravenna) sull’acquifero costiero superficiale. Sono stati effettuati i rilievi in campo della tavola d’acqua, della conduttitivà elettrica e del pH nei mesi di novembre 2014 e luglio 2015. I campioni di acqua sono stati prelevati grazie alla tecnologia dei minifiltri, un sistema di campionamento multilivello molto preciso e rapido. Il campionamento comprende 3 transetti di minifiltri ubicati nella zona bruciata della pineta e un transetto di controllo nella zona verde della pineta, dove la vegetazione è intatta. Dall’elaborazione grafica di questi valori sono state ottenute delle isolinee rappresentative di valori soglia per le acque dolci, salmastre, salate, a pH 7.5 tipico delle acque meteoriche e a pH 8 tipico dell’acqua di mare. I valori di conduttività elettrica rapportati alla topografia e alla tavola d’acqua mostrano la formazione di lenti di acqua dolce nella zona dove la vegetazione è scomparsa a causa dell’incendio. Acque dolci assenti nella zona verde a causa della vegetazione e della sua attività evapotraspirativa. Le isolinee ottenute dal pH spiegano invece l’effetto delle ceneri dell’incendio dilavate dalle acque meteoriche e le differenze con la zona ancora ricoperta da vegetazione. I parametri analizzati risultano determinanti nella valutazione dello stato di salute della risorsa acquifera della costiera romagnola minacciata dalla salinizzazione e dalla modificazione del pH.
Resumo:
Il presente lavoro di tesi ha avuto lo scopo di valutare l’influenza della marinatura su alcuni aspetti microbiologici e chimico-fisici correlati alla qualità della carne di petto di pollo confezionata sottovuoto durante un periodo di stoccaggio di 14 giorni in condizioni refrigerate. Dalle analisi microbiologiche, è emerso che, nonostante l’aumento di pH dovuto all’azione alcalinizzante del bicarbonato, la shelf-life del prodotto marinato è rimasta invariata rispetto al gruppo di controllo non-marinato ed è stata pari a circa 14 giorni. Dal punto di vista tecnologico, gli ingredienti funzionali aggiunti nella soluzione di marinatura hanno consentito di ottenere livelli di perdite di cottura nel prodotto finito simili a quelli delle carni non-marinate durante tutto il periodo di conservazione. Ciò è riconducibile al notevole aumento della solubilità delle proteine miofibrillari determinato dall’effetto sinergico di cloruro di sodio e bicarbonato. Tuttavia, i prodotti marinati hanno mostrato maggiori perdite di liquido nelle confezioni e questo aspetto può condizionare negativamente la propensione all’acquisto da parte del consumatore. Gli effetti rilevati sul colore non costituiscono invece un elemento determinante nella scelta dei prodotti avicoli confezionati sottovuoto. Infine, è stato escluso qualsiasi effetto negativo della marinatura nei confronti della stabilità ossidativa dei lipidi. I risultati ottenuti in questo lavoro di tesi hanno pertanto dimostrato che è possibile realizzare un prodotto marinato a base di carne di petto di pollo stabile durante la conservazione offrendo così al consumatore un alimento con caratteristiche sensoriali di succulenza e tenerezza superiori e con una maggiore facilità d’uso. Restano da ottimizzare alcuni aspetti legati alla presentazione del prodotto soprattutto in relazione alla presenza di liquido nelle confezioni.
Resumo:
Il litorale di Senigallia si sviluppa ai due lati del porto ed è caratterizzato da una costa bassa e sabbiosa, che già nei decenni passati ha risentito dell’influenza del porto nel tratto sottocorrente, in cui sono state installate delle opere di difesa. Nei primi anni del 2000 il porto ha subito ulteriori modifiche con possibili altri impatti sulla spiaggia emersa e sommersa. In tale ambito, la ditta Geomarine S.r.l. di Senigallia, su commissione del Comune di Senigallia, ha eseguito dei rilievi topo-batimetrici su un tratto del litorale del medesimo Comune dal 2009 al 2015. In questo lavoro di tesi ho partecipato personalmente alla campagna di misura del 2015. Per le indagini nella spiaggia sommersa è stata utilizzata una strumentazione Singlebeam e Multibeam mentre per i rilievi topografici è stato utilizzato un sistema GPS-NRTK. Con i dati acquisiti, elaborati e processati, è stato costruito un DTM con una carta delle isoipse e isobate dell’area. Allo scopo di integrare la ricostruzione morfologica ottenuta per l’area con informazioni sul sedimento presente, sono stati realizzati dei campionamenti lungo gli stessi transetti adottati in precedenti campagne sedimentologiche svolte dalla Regione Marche. I campioni sono stati successivamente sottoposti ad un’analisi granulometrica e i risultati confrontati tra loro e con quelli raccolti nei decenni precedenti. I risultati dei rilievi topo-batimetrici sono stati, infine, confrontati tra loro sui diversi intervalli temporali di acquisizione, per comprendere l’evoluzione del tratto di costa studiato nel breve termine e come i fattori naturali e antropici possano aver influito sui cambiamenti osservati. Per inquadrare l’evoluzione dell’area d’interesse su un arco temporale più ampio (1955-2015) si è poi effettuata un’analisi semi-qualitativa/quantitativa dell’andamento nel medio termine della linea di riva a partire da foto aeree.
Resumo:
Il testo contiene nozioni base di probabilità necessarie per introdurre i processi stocastici. Sono trattati infatti nel secondo capitolo i processi Gaussiani, di Markov e di Wiener, l'integrazione stocastica alla Ito, e le equazioni differenziali stocastiche. Nel terzo capitolo viene introdotto il rapporto tra la genetica e la matematica, dove si introduce l'evoluzione la selezione naturale, e altri fattori che portano al cambiamento di una popolazione; vengono anche formulate le leggi basilari per una modellizzazione dell’evoluzione fenotipica. Successivamente si entra più nel dettaglio, e si determina un modello stocastico per le mutazioni, cioè un modello che riesca ad approssimare gli effetti dei fattori di fluttuazione all'interno del processo evolutivo.
Resumo:
Il lavoro di tesi è basato sull'analisi chimica e radiometrica dei suoli di Terni. L'indagine ha interessato lo studio dell'impatto antropico associato alle principali sorgenti antropogeniche presenti nell'area di studio
Resumo:
Argomento della presente tesi è il calcolo integrale. Nella prima parte dell'elaborato viene descritta l'evoluzione storica delle idee presenti già nella matematica antica, che conducono infine alla creazione del calcolo integrale vero e proprio, nei fondamentali lavori di Newton e Leibniz. Segue una sintetica descrizione delle sistematizzazioni formali della teoria dell'integrazione, ad opera di Riemann e successivamente Lebesgue, oltre alla generalizzazione dell'integrale di Riemann ideata da Sieltjes, di grande importanza, fra l'altro, nel calcolo delle probabilità. Si dà poi conto degli spazi funzionali con norme integrali (L^p, spazi di Sobolev). L'ultimo capitolo è dedicato all'insegnamento del calcolo integrale nella scuola secondaria in Italia, e alla sua evoluzione dall'inizio del XX secolo a oggi.