570 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini


Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo di questa tesi si articola in tre punti. In primo luogo, ci proponiamo di definire, sia in ambito analitico che in un contesto più algebrico e geometrico, la trasformata di Radon, di discutere la possibilità di un'eventuale generalizzazione a spazi non euclidei, e di presentare le sue proprietà più caratteristiche. In secondo luogo vogliamo dimostrare, sfruttando un collegamento di questa con la trasformata di Fourier, che la trasformata di Radon è un'applicazione iniettiva tra spazi funzionali e che è dunque invertibile, per poi descrivere uno dei possibili metodi formali di inversione. Accenneremo anche alle problematiche che insorgono nell'utilizzare l'antitrasformata di Radon in situazioni reali, e alle relative soluzioni. Infine, concluderemo la trattazione con una breve ma, ottimisticamente, delucidatrice, introduzione ad alcuni esempi di applicazione della trasformata di Radon a vari ambiti fisici e matematici.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo di questo lavoro è stato individuare una possibile correlazione tra le condizioni ambientali e la presenza di Escherichia coli in vongole veraci. I dati sono relativi a campioni raccolti nel periodo 2007-2015 nella zona Sacca di Goro. Essi sono stati messi in relazione con alcuni parametri quali: salinità dell’acqua, temperatura, ossigeno di fondo, pH e livello del fiume Po di Volano. Sono stati presi in considerazione più di 523 campioni, in cui i conteggi di E. coli, mediante metodo MPN, sono stati suddivisi in tre categorie: cariche basse (<50 MPN/100g); intermedie (50-230 MPN/100g); alte, ovvero non conformi al regolamento europeo (>230 MPN/100g). La significatività della relazione tra E. coli e le variabili considerate è stata valutata attraverso il test Χ2 e il test di Kruskal-Wallis. Il test Χ2, è stato attuato ponendo in relazione anno, mese e stagione. In esso non è stato registrato nessun risultato significativo. L’analisi della varianza tramite test di Kruskal-Wallis ha evidenziato che gli unici risultati ottenuti, dando luogo ad una differenza significativa, sono relativi ai valori di salinità, dove in presenza di valori più bassi si osserva un numero maggiore di campioni con carica superiore al limite di legge. I dati ottenuti ponendo in relazione la temperatura delle acque e il livello del fiume Po di Volano non sono risultate significativamente diverse fra loro. Questi risultati sono chiaramente correlati al processo di depurazione delle vongole veraci che abbassano la carica microbica, ma ciò è correlato anche ai miglioramenti dei controlli delle acque reflue della Pianura Padana negli ultimi decenni, inoltre l’assenza di relazioni può essere imputata al fatto che la Sacca di Goro è un tratto di mare relativamente chiuso e quindi in qualche modo protetto dalle fluttuazioni stagionali di questi parametri, in una sorta di omeostasi ambientale.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Le alte pressioni di omogeneizzazione sono considerate una tecnologia non termica basata sull’applicazione di pressioni comprese tra 60 e 400 MPa ad alimenti fluidi o fluidificabili, con un tempo di trattamento di pochi millisecondi. Questa tecnologia permette di ottenere una serie di effetti sull’alimento che variano in rapporto all’entità del trattamento applicato e alla matrice fluida considerata. Pertanto, le alte pressioni di omogeneizzazione rappresentano una delle tecnologie maggiormente studiate in ragione delle loro buone opportunità applicative a livello industriale. Tale tecnologia viene comunemente applicata per modificare le proprietà funzionali di alcune macromolecole caratteristiche degli alimenti ed ha permesso l’ottenimento di prodotti di origine lattiero-casearia ed anche succhi di frutta caratterizzati da migliore texture, gusto, flavour e aumentata shelf-life. L’omogeneizzazione ad alta pressione, considerata come trattamento di sanitizzazione a freddo, è in grado di disattivare sia microrganismi patogeni che degradativi presenti in un determinato sistema, contribuendo a ridurre o contenere quindi lo sviluppo microbico nei prodotti alimentari. L’effetto di tale tecnologia, quando applicata a livelli compresi tra 60-200 MPa bar è stato valutato nei confronti di diversi patogeni quali Escherichia coli, Listeria monocytogenes, Yersinia enterocolitica, Staphylococcus aureus, Salmonella typhimurium microrganismi degradativi, come Bacillus subtilis e lieviti, deliberatamente inoculati in prodotti diversi.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L'elaborato riguarda l'analisi del ciclo di lavorazione di un assy center cutter, prodotto impiegato in macchinari (ad esempio: carotiere a cutter) per scavi verticali. In particolare verrà descritta brevemente l'azienda produttrice, per poi inoltrarsi nel cuore della tesi e analizzare il ciclo di lavorazione dei principali componenti del cutter, quali: carcassa, albero e perno. Seguirà una breve descrizione dei componenti secondari (guarnizioni, o-ring, sfere e rulli) e una panoramica generale sugli strumenti utilizzati per il controllo delle misure. In seguito verranno ripresi i cicli di lavorazione concentrandosi sugli utensili scelti per le varie operazioni. L'ultima parte tratterà la costificazione di ogni componente fino a giungere all'intero costo dell'assy center cutter secondo il metodo Full Costing.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di ottenere una rappresentazione grafica del profilo di velocità di un fluido all’interno di un condotto. In particolare si studieranno le equazioni di bilancio facendo alcune ipotesi semplificative riguardo il moto del fluido. Si considererà un moto laminare in condizione di completo sviluppo dinamico e convezione forzata. Grazie a queste ipotesi si riuscirà ad ottenere un’equazione semplificata di Navier-Stokes, che permetterà di calcolare l’andamento della velocità all’interno di condotti con qualsiasi forma della sezione. In questo caso si confronterà il profilo di velocità di un condotto a sezione circolare con uno a sezione circolare forata come in uno scambiatore di calore a tubi concentrici. Per risolvere l’equazione di Navier-Stokes e stampare l’andamento delle velocità all’interno della sezione del condotto si è utilizzato il software “Mathematica”, che è stato appreso durante l’attività di tirocinio curriculare. Questo software offre un supporto notevole allo studio matematico di qualsiasi problema. Permette inoltre di avere un riscontro grafico dei risultati ottenuti, direttamente nell’interfaccia utilizzata per la stesura del codice. Per rappresentare il profilo di velocità sarà inoltre utilizzato il metodo degli elementi finiti all’interno di Mathematica, che permetterà di ottenere una soluzione più uniforme e vicina alla realtà. Il metodo degli elementi finiti (FEM) permette di semplificare lo studio del moto di un fluido, in quanto ci dà la possibilità di avere un sistema di equazioni algebriche che ne descrivono il moto, invece di equazioni differenziali e le sue relative condizioni al contorno. Sarà quindi brevemente descritto questo metodo che è stato di grande aiuto tramite l’implementazione della “mesh” su Mathematica.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questo elaborato si pone l’obiettivo principale di formulare una metodologia volta alla misura sperimentale della risposta impulsiva di ambienti indoor in ambito acustico. Lo studio della risposta impulsiva di una stanza trova diverse applicazioni nell’ambito dell’ingegneria acustica. Essa contiene infatti informazioni sulla geometria della stanza stessa, che può essere ricostruita con appositi algoritmi. È sovente impiegata anche in campo architettonico per progettare interventi di correzione o ottimizzazione acustica. In questo elaborato si darà spazio ad una terza applicazione: si utilizzerà la risposta impulsiva misurata in una determinata stanza per aggiungere effetti ambientali a suoni registrati in camere anecoiche. Per perseguire quest’obiettivo, nel capitolo 1 si richiamano i concetti di base riguardo i sistemi LTI, funzioni di trasferimento e risposta impulsiva, approfondendo gli aspetti legati alle tecniche tradizionalmente usate per la misura della risposta impulsiva in ambito acustico. Si pone poi la base teorica del metodo sperimentale che sarà sviluppato nel corso dell’elaborato, fondato sulla stima numerica dello spettro di segnali ad energia finita. Nel secondo capitolo s’illustra l’impostazione della catena di misura, chiarendo le scelte hardware intraprese, le motivazioni di tali scelte, il funzionamento generale dei dispositivi impiegati e le condizioni ottimali di misura. Il capitolo 3 rappresenta il cuore di questo elaborato, nel quale viene illustrata l’implementazione vera e propria della metodologia della misura della risposta impulsiva, a partire dal settaggio degli strumenti utilizzati, alla realizzazione del codice MATLAB per l’elaborazione dei dati, per giungere infine all’analisi dei risultati sperimentali ottenuti. Con il quarto ed ultimo capitolo si introduce il concetto di equalizzazione e si implementa una prima e grossolana soluzione al problema degli effetti distorcenti introdotti dai dispositivi non ideali.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo lavoro viene effettuata un’analisi di membrane per la separazione di CO2 basate sul meccanismo di trasporto facilitato. Queste membrane sono caratterizzate da un supporto poroso impregnato di una fase liquida le cui proprietà chimico-fisiche vengono presentate in relazione alle performance di separazione fornite: si tratta di liquidi ionici che presentano gruppi funzionali in grado di reagire con la CO2 consentendo il trasporto facilitato del gas acido attraverso la membrana. Le prestazioni in termini di separazione di CO2 da miscele gas fornite da questa tecnologia vengono analizzate e confrontate con quelle offerte da altre tipologie di membrane: alcune basate sul meccanismo di solution-diffusion (membrane polimeriche e membrane impregnate di liquidi ionici room-temperature) ed altre caratterizzate da permeazione di CO2 con presenza di reazione chimica ottenuta mediante facilitatori (mobili o legati allo scheletro carbonioso del polimero costituente la membrana). I risultati ottenuti sono analizzati in merito alla possibile implementazione di tale sistema di separazione a membrana in processi di cattura di CO2 nell'ambito della tecnologia di Carbon Capture and Storage.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Le apparecchiature di manovra tramite isolamento a gas (GIS) sono in funzione da più di 45 anni e hanno dimostrato un alto livello di affidabilità, con tassi di difetto molto bassi. Tuttavia, il riscontro pratico indica che alcuni dei guasti che si verificano durante il servizio sono legati a difetti del sistema di isolamento. Molti di questi difetti possono essere rilevati tramite diagnostica con scariche parziali (PD). Per la rilevazione PD, viene utilizzato il metodo UHF perché meno sensibile ai disturbi e quindi più facile da gestire in confronto al metodo convenzionale secondo IEC 60270. Un rapporto di Electra pubblicato nel 1999 dal CIGRE Task Force 15/33.03.05 descrive la procedura in due fasi per la verifica della sensibilità del sistema UHF in modo molto generale. Dopo 15 anni dalla sua applicazione, è diventata necessaria una descrizione più dettagliata, sia su misure necessarie al test di laboratorio (Passaggio 1) che sul test in loco (Passaggio 2).

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L'elaborato nasce dalla partecipazione al progetto dell'Università di Bologna, sull'Osservatorio aziendale. Un metodo di ricerca trasversale, focalizzato sulla prospettiva manageriale e sulle capacità che le aziende sono in grado di sviluppare al loro interno, mediante una raccolta dati esaustiva, sistematica e periodica. In particolare l'indagine si è incentrata nell'individuazione del livello di sostenibilità, intesa come ambientale, sociale ed economica, per le aziende del territorio Emiliano-Romagnolo, nel settore della grande distribuzione. In seguito si è analizzato i principali marchi con l'obiettivo di individuare le azioni intraprese e i progetti che sono stati sviluppati e che si intendono sviluppare. Dopo uno studio incentrato nell'ambito della letteratura sul concetto di sostenibilità, si è cercato di comprendere come la grande distribuzione alimentare si pone all'interno di questa tematica, cercando di individuare le principali certificazioni ambientali e sociali, e i punti in comune o di differenziazione di questo settore merceologico, rispetto agli altri. La raccolta delle informazioni è stata effettuata attraverso l'analisi dei siti ufficiali delle aziende selezionate e, laddove presenti, attraverso i Bilanci Sociali/Sostenibili e gli altri documenti disponibili. In particolare sono state considerate quattro aziende del settore della grande distribuzione alimentare, del nostro territorio, andando ad analizzarne: informazioni generali sull'azienda da analizzare, certificazioni ambientali, certificazioni sociali, energia, risorse primarie, gestione rifiuti, impatto ambientale, reporting, welfare, responsabilità sociale, supply chain e valore per il consumatore.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questo lavoro di tesi riguarda lo studio e l’implementazione di un algoritmo di multiple kernel learning (MKL) per la classificazione e la regressione di dati di neuroimaging ed, in particolare, di grafi di connettività funzionale. Gli algoritmi di MKL impiegano una somma pesata di vari kernel (ovvero misure di similarità) e permettono di selezionare le features utili alla discriminazione delle istanze durante l’addestramento del classificatore/regressore stesso. L’aspetto innovativo introdotto in questa tesi è stato lo studio di un nuovo kernel tra grafi di connettività funzionale, con la particolare caratteristica di conservare l’informazione relativa all’importanza di ogni singola region of interest (ROI) ed impiegando la norma lp come metodo per l’aggiornamento dei pesi, al fine di ottenere soluzioni sparsificate. L’algoritmo è stato validato utilizzando mappe di connettività sintetiche ed è stato applicato ad un dataset formato da 32 pazienti affetti da deterioramento cognitivo lieve e malattia dei piccoli vasi, di cui 16 sottoposti a riabilitazione cognitiva tra un’esame di risonanza ma- gnetica funzionale di baseline e uno di follow-up. Le mappe di con- nettività sono state ottenute con il toolbox CONN. Il classificatore è riuscito a discriminare i due gruppi di pazienti in una configurazione leave-one-out annidata con un’accuratezza dell’87.5%. Questo lavoro di tesi è stato svolto durante un periodo di ricerca presso la School of Computer Science and Electronic Engineering dell’University of Essex (Colchester, UK).

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il CTBT (Trattato di Bando Complessivo dei Test Nucleari) è un accordo multilaterale tra Stati, stilato nel 1996, che impone il divieto assoluto di effettuare esplosioni di tipo nucleare, sia per scopi civili che per scopi militari, in qualsiasi ambiente. Esso prevede l'istituzione di un sistema di verifica e monitoraggio che si prefigge lo scopo di rilevare tempestivamente se in una qualsiasi parte del mondo sia stato clandestinamente effettuato un test. Tra le varie tecniche utilizzate, la più decisiva per l'identificazione di un'esplosione è data dal monitoraggio di radionuclidi, che permette di fare ipotesi su di un eventuale evento illecito di origine nucleare se in una certa regione si rileva la presenza nell'ambiente di particolari isotopi radioattivi in quantità anomale. Attualmente, il metodo più efficace consiste nell'eventuale identificazione della presenza di quattro radioisotopi di gas nobili, ovvero xeno-131m, xeno-133, xeno-133m e xeno-135. Di recente, però, gli esperti hanno cominciato a valutare l'ipotesi di effettuare misurazioni anche di un altro radioisotopo di gas nobili, ovvero l'argon-37. L'efficacia nell'utilizzo di quest'ultimo è superiore a quella che caratterizza il monitoraggio dello xeno, anche se il motivo per cui il metodo di rilevazione dell'argon non è ancora sfruttato è dato dall'estrema difficoltà che la sua misurazione comporta. Obiettivo di questo lavoro è proprio quello di analizzare le potenzialità dell'utilizzo di tale radioisotopo dell'argon per gli scopi di verifica del CTBT, di descrivere l'attuale stato dell'arte delle tecnologie disponibili per la sua misurazione e di valutare quantitativamente il fondo di argon-37 naturalmente presente, in modo da stabilire i criteri con cui si possa dire se le quantità rilevate siano compatibili con la normale presenza di tale radioisotopo oppure se siano senza dubbio dovute a un'avvenuta esplosione.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questa tesi descrive alcune tecniche realizzative e algoritmi di controllo per il posizionamento delle testine di lettura/scrittura in hard disk drive magnetici. Viene presentata l'attuazione a due stadi delle testine per incrementare la banda frequenziale del sistema, in cui un motore VCM funge da primo stadio e come secondo stadio si utilizza un microattuatore, di tipo piezoelettrico o elettromagnetico o elettrotermico. Il posizionamento della testina sulle tracce magnetiche dei dischi contenenti i dati si divide in due fasi: track-seeking e track-following, che presentano diversi requisiti di velocità e precisione, per questo motivo si descrive il metodo dello switching control. Successivamente viene formulato un modello matematico nello spazio degli stati degli stati dell'attuatori a due stadi e il relativo controllo in retroazione, basato su osservatore dello stato. Inoltre per il track-seeking si propone il controllo a due gradi di libertà e per il track-following il metodo del disaccoppiamento della sensitività. Infine si riportano due novità tecnologiche per gli hard disk magnetici: l'attuazione a tre stadi, che sfrutta un secondo microattuatore, di tipo termico, e gli hard disk riempiti d'elio ed ermeticamente sigillati, che semplificano il controllo grazie alla minore turbolenza del gas e al suo minor peso.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro di tesi affronta diverse tematiche riguardanti la valutazione della vulnerabilità sismica del centro storico di Sansepolcro, con particolare riferimento all’analisi di fonti storiche perlopiù inedite e a indagini morfologiche sui tessuti edilizi. La zona della Valtiberina toscana è stata interessata da numerosi eventi sismici che spesso hanno raggiunto intensità elevate e che hanno provocato molti danni. Il susseguirsi di tali eventi ha fatto si che si sviluppasse una certa esperienza nell’affrontare le conseguenze dell’evento sismico. Ne sono testimonianza i documenti conservati presso l’Archivio Storico Comunale di Sansepolcro che riguardano gli eventi sismici del 1781 e del1789. Dalla corrispondenza tra le autorità di Firenze e di Sansepolcro è stato possibile ricostruire la cronologia delle azioni principali compiute nella gestione dell’emergenza. Tra le lavorazioni eseguite, molti furono i presidi antisismici utilizzati. Nell’ambito dell’analisi delle fonti di archivio si sono analizzati anche documenti più recenti, in particolare gli elaborati del Genio Civile conservati presso l’Archivio di Stato di Arezzo riguardanti gli eventi sismici del 1917 e 1919. Parallelamente alle ricerche archivistiche si è cercato di stabilire una correlazione tra la morfologia dei tessuti e la vulnerabilità sismica degli aggregati edilizi in relazione al loro processo evolutivo e al loro periodo storico di formazione. Una volta stabilita, per ogni aggregato, la fase di impianto, ci si è avvalsi del metodo di calcolo speditivo dell’indice di vulnerabilità in pianta (TPS). Lo scopo è quello di elaborare delle considerazioni generali per singoli aggregati campione, per poi estenderle agli aggregati omogenei. A conclusione del lavoro si è preso in considerazione il caso del Palazzo Aloigi-Luzzi e se ne sono calcolati gli indici analitici globali di vulnerabilità sismica, per avere un riscontro concreto di un singolo caso.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’elaborato di tesi è stato redatto durante un’esperienza formativa presso la Parker Hannifin Manufacturing – Divisione Calzoni di Anzola dell’Emilia (BO). Il lavoro della tesi ha avuto per oggetto l’analisi di sicurezza e l’analisi dei guasti di un banco di assemblaggio e collaudo per motori oleodinamici a pistoni radiali. Il lavoro si è articolato in più fasi: una prima fase volta all’analisi funzionale (meccanica, idraulica, elettrica ed elettronica) dell’apparecchiatura, la fase successiva è stata dedicata allo studio delle varie normative necessarie a redigere il rapporto di sicurezza. Si sono poi valutati ed analizzati tutti i requisiti di sicurezza dell’apparecchiatura (valutazione del rischio) al fine di redigere il fascicolo tecnico. Infine, si è svolta l’analisi dei guasti (FMEA) secondo il metodo adottato in azienda. Il primo ed il secondo capitolo introducono la finalità industriale ed una descrizione generica dell’apparecchiatura. Nel terzo capitolo vi è una descrizione accurata del sistema idraulico e delle sue possibili configurazioni; il quarto nasce invece per approcciarsi alle normative di sicurezza a cui si è fatto riferimento. Infine, il quinto ed il sesto capitolo contengono rispettivamente il fascicolo tecnico e l’analisi dei guasti relativa all'apparecchiatura industriale studiata.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Partendo da un’analisi dei problemi che si incontrano nella fase di conceptual design, si presentano le diverse tecniche di modellazione tridimensionale, con particolare attenzione al metodo subdivision e agli algoritmi che lo governano (Chaikin, Doo – Sabin). Vengono poi proposti alcuni esempi applicativi della modellazione free form e skeleton, con una successiva comparazione, sugli stessi modelli, delle sequenze e operazioni necessarie con le tradizionali tecniche di modellazione parametrica. Si riporta un esempio dell’utilizzo del software IronCAD, il primo software a unire la modellazione parametrica e diretta. Si descrivono le limitazioni della modellazione parametrica e di quella history free nella fase concettuale di un progetto, per arrivare a definire le caratteristiche della hybrid modeling, nuovo approccio alla modellazione. Si presenta brevemente il prototipo, in fase di sviluppo, che tenta di applicare concretamente i concetti dell’hybrid modeling e che vuole essere la base di partenza per una nuova generazione di softwares CAD. Infine si presenta la possibilità di ottenere simulazioni real time su modelli che subiscono modifiche topologiche. La simulazione real time è permessa dalla ridefinizione in forma parametrica del problema lineare elastico che viene successivamente risolto mediante l’applicazione congiunta delle R – Functions e del metodo PGD. Seguono esempi di simulazione real time.