570 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini


Relevância:

50.00% 50.00%

Publicador:

Resumo:

Nel quarto capitolo introduco il problema e spiego il funzionamento generale della macchina senza essere troppo dettagliato per mantenere i segreti industriali che siamo tenuti a rispettare. Le proposte di soluzioni sono state sviluppate sia da me, ragionando sul gruppo singolo ma anche sul gruppo complessivo in generale, altre invece sono state proposte dal mio correlatore, l’ingegner Fabrizio Rimondi, e anche il confronto con altri colleghi dell’ufficio tecnico è stato fondamentale per la realizzazione e il funzionamento del gruppo. Nel capitolo successivo ho spiegato in dettaglio le mie idee di soluzioni mettendo i relativi disegni di ogni componente di volta in volta dopo ogni modifica significativa. Ad ogni proposta ho cercato sempre di mettere le mie opinioni in merito cercando di valutare al meglio ogni tipo di approccio. Durante lo studio dei vari casi mi sono interfacciato continuamente con i fornitori per sapere se alcune delle nostre idee fossero realizzabili e quindi capire se continuare con una certa decisione o cambiare metodo di risoluzione. Dopo aver ideato 4 tipi di soluzioni abbiamo avuto un confronto con l’azienda cliente sentendo anche la loro opinione e arrivando alla decisione finale, portando delle modifiche a una delle soluzioni che ci è sembrata la più adatta al caso. Successivamente per capire se quel tipo di soluzione fosse possibile da implementare ho cercato vari fornitori per sentire la loro opinione e sapere se alcuni componenti fossero realizzabili portando le ultime modifiche alle singole parti. Successivamente nel settimo capitolo ho iniziato uno studio sul gruppo pompa da scegliere per collegarlo al gruppo oggetto di studio. Inizialmente ho fatto un’introduzione generale sulle pompe a vuoto e compressori volumetrici, dopodiché ho cercato, tra i vari cataloghi disponibili su internet, una pompa a vuoto idonea per i parametri richiesti dall’azienda cliente.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La caratterizzazione del parenchima polmonare è un aspetto cruciale per l’identificazione dell’enfisema e dell’air trapping in pazienti affetti da broncopneumopatia cronica ostruttiva (BPCO). L’innovazione presente in questo lavoro di tesi è quella di utilizzare a questo scopo l’analisi tessiturale mediante il metodo delle matrici di co-occorrenza su immagini di tomografia computerizzata (TC) acquisite in inspirio ed espirio co-registrate. La co-registrazione che ha portato le immagini acquisite in espirio sullo stesso sistema di riferimento di quelle acquisite in inspirio è avvenuta utilizzando la trasformazione diffeomorfa B-Spline SyN, implementata nel software ANTs, ed è stata applicata sia alle immagini TC che alle features estratte da esse. Dalle matrici di co-occorrenza è stata calcolata la feature Energia, che misura l’uniformità dei livelli di grigio contenuti nell’immagine, e quindi la sua omogeneità. Partendo dal fatto che le aree parenchimali affette da enfisema e air trapping hanno alti livelli di omogeneità dovuti alla presenza dell’aria intrappolata al loro interno, l’idea alla base di questo lavoro è stata quella di identificare queste aree attraverso gli alti valori che l’Energia assume in loro corrispondenza. Sono state quindi stabilite sperimentalmente alcune soglie basate sui valori assunti dall’Energia in inspirio e in espirio. Sulla base di queste il parenchima polmonare è stato clusterizzato in diverse aree identificanti i tessuti sani, quelli affetti da enfisema e quelli affetti dall’air trapping. La clusterizzazione ottenuta è risultata coerente con la reale distribuzione dell’enfisema e dell’air trapping nei pazienti analizzati, dimostrando la validità della tecnica utilizzata e aprendo nuovi scenari futuri alla caratterizzazione del parenchima polmonare in questa patologia.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Negli ultimi anni, lo sviluppo tecnologico e il progresso nel campo della nanotecnologia hanno portato ad un radicale cambiamento per i prodotti ceramici: oltre all’innovazione di formati e spessori, si è cominciato ad utilizzare trattamenti funzionali capaci di trasformare sistemi di rivestimento convenzionali in rivestimenti “intelligenti”. Questo ha comportato l’utilizzo di questi materiali, tradizionali ma “innovati” nelle loro prestazioni, in contesti in precedenza non considerati. L’efficacia di questi rivestimenti al momento della loro applicazione non rappresenta più una novità, mentre a livello normativo e procedurale vi è una grossa lacuna per quanto riguarda la valutazione della durabilità dei rivestimenti e la capacità di mantenimento nel tempo delle prestazioni iniziali. Per questo motivo, il presente lavoro è stato orientato verso uno studio riguardante la durabilità dei trattamenti di completamento applicati a superfici ceramiche, in considerazione della crescente importanza che essa ha assunto negli ultimi anni per la valutazione dei costi relativi al ciclo di vita. Quando si parla di durabilità si pensa all’essere durevole nel tempo e quest'ultimo è influenzato da una molteplicità di fattori che possono portare ad una condizione di degrado, legati sia all’ambiente in cui il materiale vive, sia all’invecchiamento del materiale stesso, rendendo la stima della durata un’operazione estremamente complessa. Il percorso di ricerca, partendo da una valutazione delle diverse metodologie normate e procedure presenti in letteratura, si è orientato verso l’analisi dei metodi rivolti alla valutazione della durabilità dei trattamenti superficiali, così da poter condurre un confronto sperimentale, tra i risultati conseguiti con l’applicazione delle metodologie proposte dalle norme ed il comportamento effettivo in servizio. Nella ricerca è stato importante definire i fattori che determinano i meccanismi di degrado e la modalità con cui applicarli in laboratorio.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo di questo lavoro di tesi è stato quello di studiare l’efficacia e l’applicabilità dello strumento HERACLES II Flash Gas Chromatography Electronic Nose mediante l’analisi di un set molto ampio di campioni di oli d’oliva vergini reperiti presso un concorso nazionale. Nello specifico, mediante elaborazioni di statistica multivariata dei dati, è stata valutata sia la capacità discriminante del metodo per campioni caratterizzati da un diverso profilo sensoriale, sia la correlazione esistente tra l’intensità delle sensazioni percepite per via sensoriale ed i dati ottenuti mediante l’analisi strumentale. La valutazione delle caratteristiche sensoriali dei campioni è stata realizzata in occasione dello stesso concorso da parte di un gruppo di giudici esperti e secondo le modalità stabilite dai regolamenti comunitari. Ogni campione è stato valutato da almeno 8 assaggiatori che hanno determinato l’intensità di caratteristiche olfattive (eventuali difetti, fruttato e note secondarie positive) e gustative (amaro e piccante). La determinazione dei composti volatili, invece, è stata condotta mediante lo strumento HERACLES II Electronic Nose (AlphaMOS), dotato di due colonne cromatografiche caratterizzate da diversa polarità (MXT-5 con fase stazionaria apolare e MXT-WAX con fase stazionaria polare), ciascuna collegata ad un rivelatore di tipo FID. L’elaborazione multivariata dei dati è stata realizzata mediante il software in dotazione con lo strumento.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questo studio sono state prodotte 5 diverse tipologie di Squacquerone inoculate con St. thermophilus e con batteri lattici funzionali in forma planctonica o microincapsulata al fine di garantire la loro sopravvivenza, in ambienti caratterizzati da condizioni chimico-fisiche proibitive. Sono stati utilizzati Lb. crispatus BC4 e Lb. paracasei A13 caratterizzati da comprovata attività anti-Candida e battericida o probiotica, rispettivamente. I campioni sono stati caratterizzati a livello microbiologico, chimico-fisico, reologico, proteolitico ed organolettico durante la maturazione/conservazione a 4°C. I dati hanno dimostrato che l’incapsulazione non ha inciso sulla sopravvivenza dei ceppi funzionali in quanto la loro concentrazione è sempre stata costante. La proteolisi ha dimostrato un’evidente relazione tra il ceppo e le modalità della sua immissione nel prodotto: in presenza dei co-starter non incapsulati i processi litici sono accelerati rispetto al campione di controllo, mentre la cinetica di proteolisi viene influenzata negativamente dalle microcapsule. I campioni funzionali, dopo 4 giorni, sono risultati nettamente più apprezzati a livello sensoriale, indipendentemente dal tipo di inclusione dei microrganismi. A fine shelf-life i 5 Squacqueroni sono invece molto più simili tra loro. Di conseguenza, la microincapsulazione può essere vista come uno strumento per modulare le cinetiche di maturazione dello Squacquerone e il momento di immissione di questo sul mercato, per estendere la sua shelf-life ed allargare i mercati. In conclusione sia l’addizione dei co-starter in forma planctonica, che in forma microincapsulata con St. thermophilus, hanno permesso di produrre quattro diversi Squacqueroni identificabili come alimenti funzionali caratterizzati da specifici patterns proteolitici e organolettici. La microincapsulazione e la selezione dei ceppi sono da considerarsi strumenti utili alla innovazione e alla differenziazione dei prodotti lattiero-caseari.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Abbiamo investigato con metodologie geofisiche del tutto non invasive un settore della necropoli etrusca di Monterozzi, Tarquinia (VT). Le tecniche utilizzate, per l'accertamento di camere sepolcrali nel sottosuolo, sono state il GPR e la geoelettrica. Dalla campagna effettuata nel mese di giugno 2016 è emerso che: I) le camere mortuarie, scavate direttamente nella roccia calcarenitica, si possono suddividere in superficiali (profondità maggiore di 2 m e comprendenti un dromos di accesso) e profonde (profondità maggiore di 5 m e di dimensioni maggiori rispetto alle prime); II) il metodo GPR permette un'elevata risoluzione delle strutture nascoste a scapito della profondidi investigazione, inoltre è affetto da disturbo proveniente da artefatti antropici posti in superficie; III) il metodo resistivo adottato permette esplorazioni profonde e risulta molto potente nella localizzazione delle cavità sepolte; IV) le strutture archeologiche nel sottosuolo producono sulla superficie topografica delle forme ben riconoscibili per il diverso contenuto in umidità rispetto all'intorno, di ausilio quindi al presente studio è stata l’analisi delle immagini da satellite di Google Earth; V) l'approccio di lavoro che ha combinato le due diverse metodologie sia tra loro sia con le immagini digitali risulta molto vantaggioso ai fini della presente ricerca.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il Building Information Modelling nasce da un processo di integrazione sostenibile, basato sull'interoperabilità dei processi. La caratteristica vincente è la circolarietà delle informazioni: ogni informazione è gestita come parametro di un ricco e complesso modello parametrico dell'edificio; la geometria, i materiali, i costi ed i tempi sono gestiti come parametri internamente collegati e quindi variabili di uno stesso sistema. Nel caso di beni storici, la maggior parte degli edifici possiede vincoli intrinseci che influenzano tali parametri. I materiali non possono essere scelti liberamente, in quanto parte di un organismo esistente, la geometria dell'edificio è definita e difficilmente sarà variata negli interventi di recupero. Nella presente tesi si applica il metodo CLOUD2FEM al mondo dell'Historic Building Information Modelling (HBIM) concentrandosi sullo studio della Rocca Estense di San Felice sul Panaro, colpita dal sisma dell'Emilia e attualmente inagibile. La procedura CLOUD2FEM permette di trasformare le informazioni ricavate dal laser scanner in mesh chiuse e regolari, generando in modo semi-automatico un modello FEM 3D. Nel caso di costruzioni complesse, la cui geometria non può essere ricondotta a modelli semplificati, è necessario valutare l'attendibilità del modello strutturale. Nel caso in esame, la validazione è stata condotta mediante il confronto del danno rilevato con il danno simulato. La flessibilità del modello permette di aggiungere dettagli inizialmente non rilevati: ogni informazione è inserita nel modello attraverso un parametro differente, al fine di eseguire analisi sullo stato di fatto e su futuri stati di progetto con semplice aggiornamento dei parametri.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il versante sinistro delle Gole di Scascoli (BO) è caratterizzato da una marcata tendenza evolutiva per crollo e ribaltamento. Negli ultimi 25 anni si sono verificati eventi parossistici con volumi di roccia coinvolti rispettivamente di 7000 m3, 20000 m3 e 35000 m3. Il sito è di grande rilevanza a causa del forte fattore di rischio rappresentato per la strada di fondovalle ad esso adiacente. Il lavoro di tesi è stato finalizzato allo studio dei fenomeni di versante di una parete rocciosa inaccessibile nota in letteratura come “ex-Mammellone 1” mediante tecniche di telerilevamento quali TLS (Terrestrial Laser Scanning) e CRP (Close Range Photogrammetry) al fine affiancare il rilievo geomeccanico soggettivo dell’area svolto nel 2003 da ENSER Srl in seguito ai fenomeni di crollo del 2002. Lo sviluppo di tecnologie e metodi innovativi per l’analisi territoriale basata sull’impiego di UAV (Unmanned Aerial Vehicle, meglio noti come Droni), associata alle tecniche di fotogrammetria digitale costituisce un elemento di notevole ausilio nelle pratiche di rilevamento in campo di sicurezza e tempi di esecuzione. Il lavoro ha previsto una prima fase di rilevamento areo-fotogrammetrico mediante strumentazione professionale e amatoriale, a cui è seguita l’elaborazione dei rispettivi modelli. I diversi output sono stati confrontati dal punto di vista geomorfologico, geometrico, geomeccanico e di modellazione numerica di caduta massi. Dal lavoro è stato possibile indagare l’evoluzione morfologica del sito in esame negli ultimi 10 anni, confrontare diversi metodi di rilevamento e analisi dati, sperimentare la robustezza e ripetibilità geometrica del metodo fotogrammetrico per il rilievo di fronti rocciosi e mettere a punto un metodo semiautomatico di individuazione e analisi delle giaciture delle discontinuità.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La risalita capillare di umidità nelle murature storiche è la principale responsabile del degrado dei materiali. La metodologia ad oggi più utilizzata in tale campo è quella basata sull’iniezione di prodotti chimici in grado di formare barriere artificiali che blocchino il flusso ascendente dell’acqua, ma è ancora in fase di perfezionamento. Per potere svolgere tale perfezionamento, è utile disporre di una metodologia attendibile per la valutazione dell’esito dei trattamenti, ossia un metodo standardizzato che possa garantire una corretta misurazione del contenuto di umidità nelle murature pre e post iniezioni. Nella presente tesi, che ha lo scopo di valutare l’efficacia di alcuni prodotti per barriere chimiche nelle murature, si è utilizzato un metodo di laboratorio standardizzato proposto dai ricercatori del LASTM (DICAM), che permette di riprodurre in laboratorio il processo di risalita dell’umidità e, allo stesso tempo, permette di potere svolgere le misurazioni del contenuto d’acqua interno ai materiali con il metodo diretto. I trattamenti, svolti in collaborazione con la Azienda inglese “Safeguard”, produttrice di resine impermeabilizzanti, sono stati effettuati su vari modelli, costituiti di laterizi e malta, preventivamente sottoposti a differenti condizioni ambientali. Successivamente si è svolto un monitoraggio periodico per potere determinare sia l’efficacia dell’intervento che l’attendibilità del modello. Dopo avere studiato un sistema di controllo delle condizioni di laboratorio, si è ritenuto opportuno svolgere anche alcune prove di caratterizzazione dei materiali utilizzati nella costruzione dei vari modelli, per conoscerne appieno le caratteristiche e potere valutare con maggiore attendibilità i risultati dei trattamenti. Infine, per approfondire le dinamiche di diffusione dei formulati chimici all’interno dei materiali, si sono svolte prove su travetti di malta.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questa tesi si è focalizzata sulla topologia robotica. In particolare, in questo elaborato si è voluto sottolineare l’importanza della topografia dei pezzi nella visione robotica. Siamo partiti dalle definizioni di politopo e di mappa gaussiana estesa, per poi passare ad alcuni punti chiave della robotica, quali la definizione di posa di un oggetto, di “peg in the hole”e di forma da X. Questi punti ci hanno permesso di enunciare i teoremi di Minkowski ed Alexandrov che sono stati poi utilizzati nella costruzione del metodo EGI. Questo metodo è stato quindi utilizzato per determinare l’assetto di un oggetto nello spazio e permettere quindi al braccio del robot di afferrarlo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

In questa tesi è stato affrontato lo studio della valutazione delle proprietà meccaniche del calcestruzzo negli edifici esistenti, ponendo attenzione alle normative che regolano questa procedura, alle prove distruttive e non, che vengono eseguite in sito e in laboratorio, fino all'elaborazione dei risultati al fine di ottenere il valore desiderato della resistenza a compressione del cls. In particolare sono state affrontate le prove a compressione, trazione indiretta e di determinazione del modulo elastico che si eseguono in laboratorio, i carotaggi, la carbonatazione, la prova sclerometrica, ultrasonica, di aderenza, di estrazione e penetrazione eseguite in sito. Per la valutazione del calcestruzzo è stato introdotto il funzionamento delle curve di correlazione, la loro costruzione e valutazione, e le varie definizioni del calcestruzzo definite dalla NTC del 2008, dalle Linee Guida C.S. LL.PP. e dal metodo Holos.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Lo scopo della presente tesi è sviluppare un ambiente per l'ottimizzazione strutturale di componenti per applicazione aerospaziale utilizzando codici open-source. In particolare, il codice Salome viene utilizzato per il disegno automatico delle strutture, il programma Code Aster permette di effettuare l'analisi agli elementi finiti del componente, mentre Octave viene utilizzato per svolgere l'ottimizzazione basata su un algoritmo euristico e per integrare fra di loro i differenti codici. Le tecniche di ottimizzazione dei componenti stanno rivestendo sempre più importanza visto che le moderne tecniche di Additive Manufacturing permettono di realizzare strutture molto complesse che un tempo non era conveniente (o possibile) realizzare con asportazione di materiale. Nella prima parte della tesi si descrivono gli strumenti software utilizzati e la loro integrazione al fine di parametrizzare la generazione di geometrie ed effettuare in modo automatico analisi strutturali. Successivamente si descrivono tre casi di studio in cui la metodologia è stata sperimentata: un primo caso di validazione in cui si è applicato il metodo alla definizione della geometria di minimo peso per una trave a sbalzo con carico concentrato, un secondo test di ottimizzazione di un longherone per aeromobile, un terzo caso applicativo legato alla ottimizzazione di un serbatoio per fluidi in pressione da utilizzare su un satellite.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il progetto realizzato consiste in uno strumento software in grado di effettuare una conversione di file, dal formato MIDI al formato MusicXML. Il tool è il proseguimento di un’attività basata sull'analisi di reti complesse e sullo sviluppo di strumenti per la modellazione di spartiti musicali. Melodie, assoli ed in generale tracce musicali sono rappresentabili come reti complesse, in cui i nodi identificano le note del brano e gli archi mostrano le sequenze con cui queste vengono suonate. Utilizzando la teoria delle reti è possibile estrarre alcune metriche principali che caratterizzano il brano in questione. Per la generazione della rete si è fatto uso di spartiti musicali descritti tramite lo standard MusicXML. File in questo formato sono difficilmente reperibili, per cui lo strumento realizzato si propone di effettuare una conversione da formato MIDI a formato MusicXML, con l’obiettivo di ottenere un database più esteso. Attraverso il tool sono stati convertiti brani di diverso genere, le cui reti relative sono state poi analizzate applicandovi le metriche principali ed effettuando le dovute valutazioni.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La tesi tratta la ricerca di procedure che permettano di rilevare oggetti utilizzando il maggior numero di informazioni geometriche ottenibili da una nuvola di punti densa generata da un rilievo fotogrammetrico o da TLS realizzando un modello 3D importabile in ambiente FEM. Il primo test si è eseguito su una piccola struttura, 1.2x0.5x0.2m, in modo da definire delle procedure di analisi ripetibili; la prima consente di passare dalla nuvola di punti “Cloud” all’oggetto solido “Solid” al modello agli elementi finiti “Fem” e per questo motivo è stata chiamata “metodo CSF”, mentre la seconda, che prevede di realizzare il modello della struttura con un software BIM è stata chiamata semplicemente “metodo BIM”. Una volta dimostrata la fattibilità della procedura la si è validata adottando come oggetto di studio un monumento storico di grandi dimensioni, l’Arco di Augusto di Rimini, confrontando i risultati ottenuti con quelli di altre tesi sulla medesima struttura, in particolare si è fatto riferimento a modelli FEM 2D e a modelli ottenuti da una nuvola di punti con i metodi CAD e con un software scientifico sviluppato al DICAM Cloud2FEM. Sull’arco sono state eseguite due tipi di analisi, una lineare sotto peso proprio e una modale ottenendo risultati compatibili tra i vari metodi sia dal punto di vista degli spostamenti, 0.1-0.2mm, che delle frequenze naturali ma si osserva che le frequenze naturali del modello BIM sono più simili a quelle dei modelli generati da cloud rispetto al modello CAD. Il quarto modo di vibrare invece presenta differenze maggiori. Il confronto con le frequenze naturali del modello FEM ha restituito differenze percentuali maggiori dovute alla natura 2D del modello e all’assenza della muratura limitrofa. Si sono confrontate le tensioni normali dei modelli CSF e BIM con quelle ottenute dal modello FEM ottenendo differenze inferiori a 1.28 kg/cm2 per le tensioni normali verticali e sull’ordine 10-2 kg/cm2 per quelle orizzontali.