16 resultados para Grandeza discreta
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
In questo elaborato si è definita la trasformata di Bargmann discreta. Vengono proposti alcuni risultati sulla sua applicazione ad operatori di derivazione parziale. Si utilizzano questi argomenti per ottenere un risultato di ipoellitticità per operatori ellittici a coefficienti variabili sul toro d dimensionale.
Resumo:
L’utilizzo di materiali compositi come i calcestruzzi fibrorinforzati sta diventando sempre più frequente e diffuso. Tuttavia la scelta di nuovi materiali richiede una approfondita analisi delle loro caratteristiche e dei loro comportamenti. I vantaggi forniti dall’aggiunta di fibre d’acciaio ad un materiale fragile, quale il calcestruzzo, sono legati al miglioramento della duttilità e all'aumento di assorbimento di energia. L’aggiunta di fibre permette quindi di migliorare il comportamento strutturale del composito, dando vita ad un nuovo materiale capace di lavorare non solo a compressione ma anche in piccola parte a trazione, ma soprattutto caratterizzato da una discreta duttilità ed una buona capacità plastica. Questa tesi ha avuto come fine l’analisi delle caratteristiche di questi compositi cementizi fibrorinforzati. Partendo da prove sperimentali classiche quali prove di trazione e compressione, si è arrivati alla caratterizzazione di questi materiali avvalendosi di una campagna sperimentale basata sull’applicazione della norma UNI 11039/2003. L’obiettivo principale di questo lavoro consiste nell’analizzare e nel confrontare calcestruzzi rinforzati con fibre di due diverse lunghezze e in diversi dosaggi. Studiando questi calcestruzzi si è cercato di comprendere meglio questi materiali e trovare un riscontro pratico ai comportamenti descritti in teorie ormai diffuse e consolidate. La comparazione dei risultati dei test condotti ha permesso di mettere in luce differenze tra i materiali rinforzati con l’aggiunta di fibre corte rispetto a quelli con fibre lunghe, ma ha anche permesso di mostrare e sottolineare le analogie che caratterizzano questi materiali fibrorinforzati. Sono stati affrontati inoltre gli aspetti legati alle fasi della costituzione di questi materiali sia da un punto di vista teorico sia da un punto di vista pratico. Infine è stato sviluppato un modello analitico basato sulla definizione di specifici diagrammi tensione-deformazione; i risultati di questo modello sono quindi stati confrontati con i dati sperimentali ottenuti in laboratorio.
Resumo:
Il termine extravergine, per un olio di alta qualità, rappresenta solo un pre-requisito: la categoria merceologica, intesa come conformità ad una serie di analisi chimico-sensoriali previste dalla normativa Europea, non è sufficiente ad esaltare il valore aggiunto che un olio può avere in termini di attributi di qualità sensoriale e salutistica. Questi ultimi sono fortemente influenzati dalla presenza di alcuni composti minori, come le molecole volatili e quelle a struttura fenolica (biofenoli). I composti volatili sono i principali responsabili dell'aroma di un olio extravergine d’oliva, mentre i biofenoli lo sono per gli attributi positivi, di amaro e piccante, già normati dal legislatore. Lo studio ha riguardato le relazioni esistenti tra le sostanze volatili e biofenoliche e le percezioni sensoriali ad esse associate. Tra gli oli extravergini di oliva partecipanti all’International Olive Oil Award di Zurigo 2012, sono stati selezionati 28 campioni monovarietali di diversa provenienza geografica (principalmente Italia, Spagna e Grecia). La valutazione sensoriale è stata eseguita dal panel dell’Institute of Food and Beverage Innovation di Zurigo con l’impiego di una scheda di profilo più descrittiva di quella ufficiale (Reg. CE 640/2008), contenente numerosi attributi positivi secondari valutati su scala discreta a 4 punti, oltre ad armonia e persistenza, su scala continua di 10 cm. I campioni sono stati sottoposti alla caratterizzazione della frazione biofenolica (indice di amaro, contenuto in fenoli totali ed analisi delle principali molecole fenoliche mediante HPLC-DAD/MSD) e dei composti volatili (SPME/GC-MSD). I dati ottenuti sono stati elaborati con l’ausilio di tecniche di analisi multivariata nel tentativo di valutare le correlazioni esistenti tra le variabili e di individuare gruppi omogenei di oli. La finalità di questo lavoro è stata quella di suggerire attributi discriminanti la qualità sensoriale di oli di pregio, che possano essere impiegati come leve di promozione dei prodotti, così come indicatori addizionali di autenticità.
Resumo:
"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.
Resumo:
Studio del gruppo di sterzo di un nuovo trattore rasaerba professionale della Grillo S.p.A., azienda che opera nell'ambito dell'agricoltura e del giardinaggio. Lo studio consta principalmente nella definizione di una geometria di sterzo efficace in grado di garantire alla macchina rasaerba il più piccolo raggio di sterzata possibile, compatibilmente con gli ingombri e le dimensioni della macchina stessa, il cui vantaggio consiste nel permettere la realizzazione di traiettorie strette in prossimità di alberi e nell'intorno di ostacoli che possono essere presenti lungo i percorsi di taglio, caratteristica molto ricercata dai clienti ed indispensabile per ottenere alta guidabilità del veicolo e rasatura uniforme del manto erboso senza la necessità di interventi manuali. Le ruote sterzanti di un veicolo risultano parallele solo in condizioni di traiettorie rettilinee mentre in corrispondenza di traiettorie curve tendono ad assumere angoli diversi, venendo a mancare in questo modo il parallelismo. E' oggetto di questa trattazione determinare i valori degli angoli necessari per ottenere un determinato raggio di curvatura e definire di conseguenza il sistema articolato in grado di far seguire alle ruote l'andamento di questi angoli. L'obiettivo è quindi il miglioramento e l'evoluzione del gruppo di sterzo presente sulle macchine della stessa gamma cercando di realizzare un prodotto meccanicamente più semplice e con un comportamento regolare ed uniforme in funzione del verso di sterzata; l'analisi degli sforzi e le successive verifiche strutturali, anche mediante l'impiego di software FEM dei componenti soggetti a carichi variabili con il variare della sterzata, permetteranno di convalidarne l'integrità e l'effettiva resistenza alle sollecitazioni. I componenti primari dell'assale necessiteranno di essere verificati anche nel caso di carichi dinamici (urti) in situazioni particolarmente gravose tipiche di incidenti e rotture delle macchine Grillo avvenuti in fase di lavoro o nel caso di manovre incaute. La movimentazione del veicolo avverrà per mezzo di quattro motori idraulici due dei quali verranno installati in corrispondenza dei fuselli dell'assale sterzante: ciò comporterà il dimensionamento di tali motori al fine di garantire non solo la percorrenza del mezzo con una determinata velocità ma anche il taglio lungo salite di pendenza discreta, condizioni di lavoro ordinarie di molti utilizzatori.
Resumo:
L’idea da cui nasce questa tesi è quella di introdurre in Blender un Add-on in linguaggio Python che permetta di applicare alcune deformazioni di tipo surface-based a mesh poligonali. Questa tipologia di deformazioni rappresentano l’alternativa alle deformazioni di mesh poligonali tramite rigging ( cioè l’aggiunta di uno scheletro per controllare e per animare la mesh) e caging (cioè l’utilizzo di una struttura di controllo di tipo reticolare che propaga la sua deformazione su un oggetto in essa immerso), che di solito sono le prescelte in computer animation e in modellazione. Entrambe le deformazioni indicate sono già estremamente radicate in Blender, prova ne è il fatto che esiste più di un modificatore che le implementa, già integrato in codice nativo. Si introduce inizialmente la tecnica di deformazione di mesh poligonali tramite elasticità discreta, che è stata realizzata, quindi, presenteremo diverse metodologie di deformazione. Illustreremo poi come modellare, creare ed editare delle mesh in Blender. Non ci soffermeremo su dettagli puramente dettati dall’interfaccia utente, cercheremo invece di addentrarci nei concetti e nelle strutture teoriche, allo scopo di avere le basi logiche per definire una Add-on che risulti veramente efficace e utile all’interno del sistema di modellazione. Approfondiremo la struttura di due modificatori chiave per la deformazioni di mesh : Lattice Modifier e Mesh Deform Modifier che implementano una metodologia di tipo space-based. Infine ci concentreremo sulla parte di scripting Python in Blender. Daremo un’idea delle strutture dati, dei metodi e delle funzioni da utilizzare per interagire con l’ambiente circostante, con i singoli oggetti ed in particolare con le Mesh e daremo un esempio di script Python. Andremo infine a descrivere l’implementazione della deformazione elastica mediante add-on Python in Blender.
Resumo:
L’analisi presentata è stata ottenuta a partire dai dati acquisiti durante uno studio clinico presso il reparto di emodialisi dell'ospedale Ceccarini di Riccione. L’obiettivo principale dello studio clinico è quello di misurare la correlazione tra la concentrazione di sodio nel plasma del paziente misurata tramite emogas analizzatore e la conducibilità plasmatica stimata dal biosensore Diascan in vari istanti temporali intradialitici e valutare la bontà della stima della sodiemia, ottenuta dalle formule di correlazione, rispetto alle effettive misure di concentrazione. La correlazione globale ottenuta risulta discreta ma inferiore rispetto a precedenti risultati pubblicati in letteratura; si ipotizza che questo scostamento possa dipendere dalla struttura del protocollo di sperimentazione.
Resumo:
Scopo dell'opera è implementare in maniera efficiente ed affidabile un metodo di tipo Newton per la ricostruzione di immagini con termine regolativo in norma L1. In particolare due metodi, battezzati "OWL-QN per inversione" e "OWL-QN precondizionato", sono presentati e provati con numerose sperimentazioni. I metodi sono generati considerando le peculiarità del problema e le proprietà della trasformata discreta di Fourier. I risultati degli esperimenti numerici effettuati mostrano la bontà del contributo proposto, dimostrando la loro superiorità rispetto al metodo OWL-QN presente in letteratura, seppure adattato alle immagini.
Resumo:
La presente tesi vuole dare una descrizione delle Trasformate Wavelet indirizzata alla codifica dell’immagine in formato JPEG2000. Dopo aver quindi descritto le prime fasi della codifica di un’immagine, procederemo allo studio dei difetti derivanti dall’analisi tramite la Trasformata Discreta del Coseno (utilizzata nel formato predecessore JPEG). Dopo aver quindi descritto l’analisi multirisoluzione e le caratteristiche che la differenziano da quest’ultima, analizzeremo la Trasformata Wavelet dandone solo pochi accenni teorici e cercando di dedurla, in una maniera più indirizzata all’applicazione. Concluderemo la tesi descrivendo la codifica dei coefficienti calcolati, e portando esempi delle innumerevoli applicazioni dell’analisi multirisoluzione nei diversi campi scientifici e di trasmissione dei segnali.
Resumo:
La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.
Resumo:
La vongola Chamelea gallina è un mollusco appartenente alla famiglia Veneridae avente un'ampia distribuzione nel Mediterraneo. L’animale vive su fondali sabbiosi o sabbiosi – fangosi, con distribuzione aggregata, in prossimità della costa, a bassa profondità da 0 a 15metri. Nel presente studio è stata stimata sia la biomassa di Chamelea gallina espressa in kg/mq che la distribuzione di taglia, per valutare l’accrescimento della specie. L’accrescimento della vongola, così come per altre specie fossorie è influenzato da fattori biotici e abiotici, come la temperatura, lo stato trofico delle acque, la natura dei sedimenti ed infine la densità. Lo scopo di questa tesi è stato quello di monitorare l’attività di pesca delle vongole nel Compartimento di Rimini e raccogliere gli elementi conoscitivi esistenti a fine di ottimizzare la gestione della risorsa. A tal fine sono state realizzate a Rimini due campagne di pesca nel mese di Luglio e Dicembre 2014, utilizzando una draga idraulica di tipo commerciale conforme agli standard previsti dalla legge. Il campionamento è stato effettuato su 9 transetti perpendicolari alla costa con stazioni a 0,25-0,50-0,75 e proseguendo 1 Miglio qualora nei campioni vi sia ancora la presenza di vongole. A fine di valutare la frazione di individui con taglia inferiore a quella commerciale (25mm), all’interno della draga è stato posto un retino campionatore. Il materiale contenuto nella draga è stato selezionato al vibro-vaglio installato a bordo, attrezzato con griglie aventi fori del diametro di 19mm di apertura. Tutte le vongole trattenute dal vaglio sono state analizzate per ottenere una distribuzione di taglia. I risultati acquisiti nel corso della presente indagine hanno evidenziato una generale situazione di sofferenza per la taglia commerciale. In particolare sono state catturate molte vongole della prima maturità sessuale (14mm). Tutto ciò potrebbe essere proprio un’indicazione di banco in ricostituzione e ripresa dopo una situazione di crisi. Per quanto riguarda le forme giovanili i risultati ottenuti dalle due campagne di pesca indicano una notevole differenza di densità dei banchi di Chamelea gallina. Tali risultati sono stati ottenuti con il software ImageJ, il quale è in grado di rilevare la larghezza massima delle singole vongole. Infine sono stati registrati i valori di biomassa espressi in kg/mq, evidenziando una discreta oscillazione di valori tra le stazioni campionate. Infatti in entrambi i campionamenti le stazioni situate all’ interno degli strati più costieri presentano nella maggior parte dei casi valori, sia in biomassa che in numero, maggiori rispetto a quelle di largo. Concludendo, l’insieme dei dati raccolti ha evidenziato la necessità di urgenti misure di controllo e regolamentazione della risorsa, dei parametri eco-ambientali e della pesca esercitata, al fine di acquisire quelle informazioni utili per avviare un corretto piano di gestione della risorsa.
Resumo:
Molte applicazioni sono legate a tecniche di rilassometria e risonanza magnetica nucleare (NMR). Tali applicazioni danno luogo a problemi di inversione della trasformata di Laplace discreta che è un problema notoriamente mal posto. UPEN (Uniform Penalty) è un metodo numerico di regolarizzazione utile a risolvere problemi di questo tipo. UPEN riformula l’inversione della trasformata di Laplace come un problema di minimo vincolato in cui la funzione obiettivo contiene il fit di dati e una componente di penalizzazione locale, che varia a seconda della soluzione stessa. Nella moderna spettroscopia NMR si studiano le correlazioni multidimensionali dei parametri di rilassamento longitudinale e trasversale. Per studiare i problemi derivanti dall’analisi di campioni multicomponenti è sorta la necessità di estendere gli algoritmi che implementano la trasformata inversa di Laplace in una dimensione al caso bidimensionale. In questa tesi si propone una possibile estensione dell'algoritmo UPEN dal caso monodimensionale al caso bidimensionale e si fornisce un'analisi numerica di tale estensione su dati simulati e su dati reali.
Resumo:
Questa tesi si pone l'obiettivo di presentare la teoria dei giochi, in particolare di quelli cooperativi, insieme alla teoria delle decisioni, inquadrandole formalmente in termini di matematica discreta. Si tratta di due campi dove l'indagine si origina idealmente da questioni applicative, e dove tuttavia sono sorti e sorgono problemi più tipicamente teorici che hanno interessato e interessano gli ambienti matematico e informatico. Anche se i contributi iniziali sono stati spesso formulati in ambito continuo e utilizzando strumenti tipici di teoria della misura, tuttavia oggi la scelta di modelli e metodi discreti appare la più idonea. L'idea generale è quindi quella di guardare fin da subito al complesso dei modelli e dei risultati che si intendono presentare attraverso la lente della teoria dei reticoli. Ciò consente di avere una visione globale più nitida e di riuscire agilmente ad intrecciare il discorso considerando congiuntamente la teoria dei giochi e quella delle decisioni. Quindi, dopo avere introdotto gli strumenti necessari, si considerano modelli e problemi con il fine preciso di analizzare dapprima risultati storici e solidi, proseguendo poi verso situazioni più recenti, più complesse e nelle quali i risultati raggiunti possono suscitare perplessità. Da ultimo, vengono presentate alcune questioni aperte ed associati spunti per la ricerca.
Resumo:
In questo lavoro viene presentato un modello matematico per l'aggregazione e la diffusione della beta-amiloide nel cervello umano affetto dalla malattia di Alzheimer, con la particolarità di considerare coefficienti di diffusione variabili e non costanti. Il modello è basato sull'equazione di Smoluchowski discreta per l'aggregazione, modificata in modo opportuno per considerare anche il fenomeno di diffusione.
Resumo:
La simulazione di un sistema quantistico complesso rappresenta ancora oggi una sfida estremamente impegnativa a causa degli elevati costi computazionali. La dimensione dello spazio di Hilbert cresce solitamente in modo esponenziale all'aumentare della taglia, rendendo di fatto impossibile una implementazione esatta anche sui più potenti calcolatori. Nel tentativo di superare queste difficoltà, sono stati sviluppati metodi stocastici classici, i quali tuttavia non garantiscono precisione per sistemi fermionici fortemente interagenti o teorie di campo in regimi di densità finita. Di qui, la necessità di un nuovo metodo di simulazione, ovvero la simulazione quantistica. L'idea di base è molto semplice: utilizzare un sistema completamente controllabile, chiamato simulatore quantistico, per analizzarne un altro meno accessibile. Seguendo tale idea, in questo lavoro di tesi si è utilizzata una teoria di gauge discreta con simmetria Zn per una simulazione dell'elettrodinamica quantistica in (1+1)D, studiando alcuni fenomeni di attivo interesse di ricerca, come il diagramma di fase o la dinamica di string-breaking, che generalmente non sono accessibili mediante simulazioni classiche. Si propone un diagramma di fase del modello caratterizzato dalla presenza di una fase confinata, in cui emergono eccitazioni mesoniche ed antimesoniche, cioè stati legati particella-antiparticella, ed una fase deconfinata.