999 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini
Resumo:
La caratterizzazione del parenchima polmonare è un aspetto cruciale per l’identificazione dell’enfisema e dell’air trapping in pazienti affetti da broncopneumopatia cronica ostruttiva (BPCO). L’innovazione presente in questo lavoro di tesi è quella di utilizzare a questo scopo l’analisi tessiturale mediante il metodo delle matrici di co-occorrenza su immagini di tomografia computerizzata (TC) acquisite in inspirio ed espirio co-registrate. La co-registrazione che ha portato le immagini acquisite in espirio sullo stesso sistema di riferimento di quelle acquisite in inspirio è avvenuta utilizzando la trasformazione diffeomorfa B-Spline SyN, implementata nel software ANTs, ed è stata applicata sia alle immagini TC che alle features estratte da esse. Dalle matrici di co-occorrenza è stata calcolata la feature Energia, che misura l’uniformità dei livelli di grigio contenuti nell’immagine, e quindi la sua omogeneità. Partendo dal fatto che le aree parenchimali affette da enfisema e air trapping hanno alti livelli di omogeneità dovuti alla presenza dell’aria intrappolata al loro interno, l’idea alla base di questo lavoro è stata quella di identificare queste aree attraverso gli alti valori che l’Energia assume in loro corrispondenza. Sono state quindi stabilite sperimentalmente alcune soglie basate sui valori assunti dall’Energia in inspirio e in espirio. Sulla base di queste il parenchima polmonare è stato clusterizzato in diverse aree identificanti i tessuti sani, quelli affetti da enfisema e quelli affetti dall’air trapping. La clusterizzazione ottenuta è risultata coerente con la reale distribuzione dell’enfisema e dell’air trapping nei pazienti analizzati, dimostrando la validità della tecnica utilizzata e aprendo nuovi scenari futuri alla caratterizzazione del parenchima polmonare in questa patologia.
Resumo:
Negli ultimi anni, lo sviluppo tecnologico e il progresso nel campo della nanotecnologia hanno portato ad un radicale cambiamento per i prodotti ceramici: oltre all’innovazione di formati e spessori, si è cominciato ad utilizzare trattamenti funzionali capaci di trasformare sistemi di rivestimento convenzionali in rivestimenti “intelligenti”. Questo ha comportato l’utilizzo di questi materiali, tradizionali ma “innovati” nelle loro prestazioni, in contesti in precedenza non considerati. L’efficacia di questi rivestimenti al momento della loro applicazione non rappresenta più una novità, mentre a livello normativo e procedurale vi è una grossa lacuna per quanto riguarda la valutazione della durabilità dei rivestimenti e la capacità di mantenimento nel tempo delle prestazioni iniziali. Per questo motivo, il presente lavoro è stato orientato verso uno studio riguardante la durabilità dei trattamenti di completamento applicati a superfici ceramiche, in considerazione della crescente importanza che essa ha assunto negli ultimi anni per la valutazione dei costi relativi al ciclo di vita. Quando si parla di durabilità si pensa all’essere durevole nel tempo e quest'ultimo è influenzato da una molteplicità di fattori che possono portare ad una condizione di degrado, legati sia all’ambiente in cui il materiale vive, sia all’invecchiamento del materiale stesso, rendendo la stima della durata un’operazione estremamente complessa. Il percorso di ricerca, partendo da una valutazione delle diverse metodologie normate e procedure presenti in letteratura, si è orientato verso l’analisi dei metodi rivolti alla valutazione della durabilità dei trattamenti superficiali, così da poter condurre un confronto sperimentale, tra i risultati conseguiti con l’applicazione delle metodologie proposte dalle norme ed il comportamento effettivo in servizio. Nella ricerca è stato importante definire i fattori che determinano i meccanismi di degrado e la modalità con cui applicarli in laboratorio.
Resumo:
Lo scopo di questo lavoro di tesi è stato quello di studiare l’efficacia e l’applicabilità dello strumento HERACLES II Flash Gas Chromatography Electronic Nose mediante l’analisi di un set molto ampio di campioni di oli d’oliva vergini reperiti presso un concorso nazionale. Nello specifico, mediante elaborazioni di statistica multivariata dei dati, è stata valutata sia la capacità discriminante del metodo per campioni caratterizzati da un diverso profilo sensoriale, sia la correlazione esistente tra l’intensità delle sensazioni percepite per via sensoriale ed i dati ottenuti mediante l’analisi strumentale. La valutazione delle caratteristiche sensoriali dei campioni è stata realizzata in occasione dello stesso concorso da parte di un gruppo di giudici esperti e secondo le modalità stabilite dai regolamenti comunitari. Ogni campione è stato valutato da almeno 8 assaggiatori che hanno determinato l’intensità di caratteristiche olfattive (eventuali difetti, fruttato e note secondarie positive) e gustative (amaro e piccante). La determinazione dei composti volatili, invece, è stata condotta mediante lo strumento HERACLES II Electronic Nose (AlphaMOS), dotato di due colonne cromatografiche caratterizzate da diversa polarità (MXT-5 con fase stazionaria apolare e MXT-WAX con fase stazionaria polare), ciascuna collegata ad un rivelatore di tipo FID. L’elaborazione multivariata dei dati è stata realizzata mediante il software in dotazione con lo strumento.
Resumo:
In questo studio sono state prodotte 5 diverse tipologie di Squacquerone inoculate con St. thermophilus e con batteri lattici funzionali in forma planctonica o microincapsulata al fine di garantire la loro sopravvivenza, in ambienti caratterizzati da condizioni chimico-fisiche proibitive. Sono stati utilizzati Lb. crispatus BC4 e Lb. paracasei A13 caratterizzati da comprovata attività anti-Candida e battericida o probiotica, rispettivamente. I campioni sono stati caratterizzati a livello microbiologico, chimico-fisico, reologico, proteolitico ed organolettico durante la maturazione/conservazione a 4°C. I dati hanno dimostrato che l’incapsulazione non ha inciso sulla sopravvivenza dei ceppi funzionali in quanto la loro concentrazione è sempre stata costante. La proteolisi ha dimostrato un’evidente relazione tra il ceppo e le modalità della sua immissione nel prodotto: in presenza dei co-starter non incapsulati i processi litici sono accelerati rispetto al campione di controllo, mentre la cinetica di proteolisi viene influenzata negativamente dalle microcapsule. I campioni funzionali, dopo 4 giorni, sono risultati nettamente più apprezzati a livello sensoriale, indipendentemente dal tipo di inclusione dei microrganismi. A fine shelf-life i 5 Squacqueroni sono invece molto più simili tra loro. Di conseguenza, la microincapsulazione può essere vista come uno strumento per modulare le cinetiche di maturazione dello Squacquerone e il momento di immissione di questo sul mercato, per estendere la sua shelf-life ed allargare i mercati. In conclusione sia l’addizione dei co-starter in forma planctonica, che in forma microincapsulata con St. thermophilus, hanno permesso di produrre quattro diversi Squacqueroni identificabili come alimenti funzionali caratterizzati da specifici patterns proteolitici e organolettici. La microincapsulazione e la selezione dei ceppi sono da considerarsi strumenti utili alla innovazione e alla differenziazione dei prodotti lattiero-caseari.
Resumo:
Abbiamo investigato con metodologie geofisiche del tutto non invasive un settore della necropoli etrusca di Monterozzi, Tarquinia (VT). Le tecniche utilizzate, per l'accertamento di camere sepolcrali nel sottosuolo, sono state il GPR e la geoelettrica. Dalla campagna effettuata nel mese di giugno 2016 è emerso che: I) le camere mortuarie, scavate direttamente nella roccia calcarenitica, si possono suddividere in superficiali (profondità maggiore di 2 m e comprendenti un dromos di accesso) e profonde (profondità maggiore di 5 m e di dimensioni maggiori rispetto alle prime); II) il metodo GPR permette un'elevata risoluzione delle strutture nascoste a scapito della profondità di investigazione, inoltre è affetto da disturbo proveniente da artefatti antropici posti in superficie; III) il metodo resistivo adottato permette esplorazioni profonde e risulta molto potente nella localizzazione delle cavità sepolte; IV) le strutture archeologiche nel sottosuolo producono sulla superficie topografica delle forme ben riconoscibili per il diverso contenuto in umidità rispetto all'intorno, di ausilio quindi al presente studio è stata l’analisi delle immagini da satellite di Google Earth; V) l'approccio di lavoro che ha combinato le due diverse metodologie sia tra loro sia con le immagini digitali risulta molto vantaggioso ai fini della presente ricerca.
Resumo:
Il Building Information Modelling nasce da un processo di integrazione sostenibile, basato sull'interoperabilità dei processi. La caratteristica vincente è la circolarietà delle informazioni: ogni informazione è gestita come parametro di un ricco e complesso modello parametrico dell'edificio; la geometria, i materiali, i costi ed i tempi sono gestiti come parametri internamente collegati e quindi variabili di uno stesso sistema. Nel caso di beni storici, la maggior parte degli edifici possiede vincoli intrinseci che influenzano tali parametri. I materiali non possono essere scelti liberamente, in quanto parte di un organismo esistente, la geometria dell'edificio è definita e difficilmente sarà variata negli interventi di recupero. Nella presente tesi si applica il metodo CLOUD2FEM al mondo dell'Historic Building Information Modelling (HBIM) concentrandosi sullo studio della Rocca Estense di San Felice sul Panaro, colpita dal sisma dell'Emilia e attualmente inagibile. La procedura CLOUD2FEM permette di trasformare le informazioni ricavate dal laser scanner in mesh chiuse e regolari, generando in modo semi-automatico un modello FEM 3D. Nel caso di costruzioni complesse, la cui geometria non può essere ricondotta a modelli semplificati, è necessario valutare l'attendibilità del modello strutturale. Nel caso in esame, la validazione è stata condotta mediante il confronto del danno rilevato con il danno simulato. La flessibilità del modello permette di aggiungere dettagli inizialmente non rilevati: ogni informazione è inserita nel modello attraverso un parametro differente, al fine di eseguire analisi sullo stato di fatto e su futuri stati di progetto con semplice aggiornamento dei parametri.
Resumo:
Il versante sinistro delle Gole di Scascoli (BO) è caratterizzato da una marcata tendenza evolutiva per crollo e ribaltamento. Negli ultimi 25 anni si sono verificati eventi parossistici con volumi di roccia coinvolti rispettivamente di 7000 m3, 20000 m3 e 35000 m3. Il sito è di grande rilevanza a causa del forte fattore di rischio rappresentato per la strada di fondovalle ad esso adiacente. Il lavoro di tesi è stato finalizzato allo studio dei fenomeni di versante di una parete rocciosa inaccessibile nota in letteratura come “ex-Mammellone 1” mediante tecniche di telerilevamento quali TLS (Terrestrial Laser Scanning) e CRP (Close Range Photogrammetry) al fine affiancare il rilievo geomeccanico soggettivo dell’area svolto nel 2003 da ENSER Srl in seguito ai fenomeni di crollo del 2002. Lo sviluppo di tecnologie e metodi innovativi per l’analisi territoriale basata sull’impiego di UAV (Unmanned Aerial Vehicle, meglio noti come Droni), associata alle tecniche di fotogrammetria digitale costituisce un elemento di notevole ausilio nelle pratiche di rilevamento in campo di sicurezza e tempi di esecuzione. Il lavoro ha previsto una prima fase di rilevamento areo-fotogrammetrico mediante strumentazione professionale e amatoriale, a cui è seguita l’elaborazione dei rispettivi modelli. I diversi output sono stati confrontati dal punto di vista geomorfologico, geometrico, geomeccanico e di modellazione numerica di caduta massi. Dal lavoro è stato possibile indagare l’evoluzione morfologica del sito in esame negli ultimi 10 anni, confrontare diversi metodi di rilevamento e analisi dati, sperimentare la robustezza e ripetibilità geometrica del metodo fotogrammetrico per il rilievo di fronti rocciosi e mettere a punto un metodo semiautomatico di individuazione e analisi delle giaciture delle discontinuità.
Resumo:
La risalita capillare di umidità nelle murature storiche è la principale responsabile del degrado dei materiali. La metodologia ad oggi più utilizzata in tale campo è quella basata sull’iniezione di prodotti chimici in grado di formare barriere artificiali che blocchino il flusso ascendente dell’acqua, ma è ancora in fase di perfezionamento. Per potere svolgere tale perfezionamento, è utile disporre di una metodologia attendibile per la valutazione dell’esito dei trattamenti, ossia un metodo standardizzato che possa garantire una corretta misurazione del contenuto di umidità nelle murature pre e post iniezioni. Nella presente tesi, che ha lo scopo di valutare l’efficacia di alcuni prodotti per barriere chimiche nelle murature, si è utilizzato un metodo di laboratorio standardizzato proposto dai ricercatori del LASTM (DICAM), che permette di riprodurre in laboratorio il processo di risalita dell’umidità e, allo stesso tempo, permette di potere svolgere le misurazioni del contenuto d’acqua interno ai materiali con il metodo diretto. I trattamenti, svolti in collaborazione con la Azienda inglese “Safeguard”, produttrice di resine impermeabilizzanti, sono stati effettuati su vari modelli, costituiti di laterizi e malta, preventivamente sottoposti a differenti condizioni ambientali. Successivamente si è svolto un monitoraggio periodico per potere determinare sia l’efficacia dell’intervento che l’attendibilità del modello. Dopo avere studiato un sistema di controllo delle condizioni di laboratorio, si è ritenuto opportuno svolgere anche alcune prove di caratterizzazione dei materiali utilizzati nella costruzione dei vari modelli, per conoscerne appieno le caratteristiche e potere valutare con maggiore attendibilità i risultati dei trattamenti. Infine, per approfondire le dinamiche di diffusione dei formulati chimici all’interno dei materiali, si sono svolte prove su travetti di malta.
Resumo:
Un film edibile è un sottile strato di materiale commestibile, preformato o formato direttamente sull'alimento, usato come rivestimento o inserito tra i diversi componenti dell'alimento stesso. Per le sue peculiari caratteristiche un film edibile è preparato con materiali commestibili e rappresenta una protezione per l'alimento dall'ambiente esterno. É dunque parte integrante dell'alimento, prolungandone la "shelf-life", ovvero il periodo di utilizzo in commercio del prodotto, dunque il tempo utile tra la data di confezionamento e di scadenza. Una maggiore "shelf-life" comporta molteplici vantaggi per tutti i settori coinvolti nella filiera alimentare: chi produce infatti può offrire ai distributori un prodotto con maggiori garanzie di qualità e conservazione, che distribuisce può allungare il periodo di esposizione negli scaffali e di stoccaggio nei magazzini, chi consuma ottiene un prodotto più sicuro e che può essere conservato più a lungo. I film edibili inoltre sono dotati di proprietà peculiari, infatti conferiscono protezione agli alimenti, costituendo un'interfaccia tra prodotto e ambiente e rallentando il decadimento qualitativo; hanno una natura ecologica perchè non incidono sull'inquinamento ambientale essendo commestibili; sono funzionali, poichè oltre al ruolo di imballaggio, possono assumere funzione antimicrobica e funzionale.
Resumo:
Parlare di KeyCrime significa rapportarsi con un software che si fonda prioritariamente su di un metodo scientifico che fa proprio il ragionamento conclusivo (conclusive reasoning), applicato al decison making , pertanto all’intelligence investigativa e alla predictive policing. Potremmo pensare a KeyCrime come un paradigma operativo che si pone in sinergia tra la filosofia, il cognitivismo giuridico e le scienze applicate (Romeo F., 2006). Quando analisi e decision making trovano in un unico contesto il terreno fertile dove svilupparsi, ma ancor più, creare presupposti di ragionamento, ecco che da queste è facile comprendere da quale altra condizione sono nate, attivate e soprattutto utilizzate ai fini di un risultato: questa non è altro che “l’osservazione”; se ben fatta, profonda e scientifica offre una sistematica quanto utile predisposizione alle indagini, specialmente di carattere preventivo per l’anticrimine e la sicurezza.
Resumo:
Questa tesi si è focalizzata sulla topologia robotica. In particolare, in questo elaborato si è voluto sottolineare l’importanza della topografia dei pezzi nella visione robotica. Siamo partiti dalle definizioni di politopo e di mappa gaussiana estesa, per poi passare ad alcuni punti chiave della robotica, quali la definizione di posa di un oggetto, di “peg in the hole”e di forma da X. Questi punti ci hanno permesso di enunciare i teoremi di Minkowski ed Alexandrov che sono stati poi utilizzati nella costruzione del metodo EGI. Questo metodo è stato quindi utilizzato per determinare l’assetto di un oggetto nello spazio e permettere quindi al braccio del robot di afferrarlo.
Resumo:
In questa tesi è stato affrontato lo studio della valutazione delle proprietà meccaniche del calcestruzzo negli edifici esistenti, ponendo attenzione alle normative che regolano questa procedura, alle prove distruttive e non, che vengono eseguite in sito e in laboratorio, fino all'elaborazione dei risultati al fine di ottenere il valore desiderato della resistenza a compressione del cls. In particolare sono state affrontate le prove a compressione, trazione indiretta e di determinazione del modulo elastico che si eseguono in laboratorio, i carotaggi, la carbonatazione, la prova sclerometrica, ultrasonica, di aderenza, di estrazione e penetrazione eseguite in sito. Per la valutazione del calcestruzzo è stato introdotto il funzionamento delle curve di correlazione, la loro costruzione e valutazione, e le varie definizioni del calcestruzzo definite dalla NTC del 2008, dalle Linee Guida C.S. LL.PP. e dal metodo Holos.
Resumo:
Lo scopo della presente tesi è sviluppare un ambiente per l'ottimizzazione strutturale di componenti per applicazione aerospaziale utilizzando codici open-source. In particolare, il codice Salome viene utilizzato per il disegno automatico delle strutture, il programma Code Aster permette di effettuare l'analisi agli elementi finiti del componente, mentre Octave viene utilizzato per svolgere l'ottimizzazione basata su un algoritmo euristico e per integrare fra di loro i differenti codici. Le tecniche di ottimizzazione dei componenti stanno rivestendo sempre più importanza visto che le moderne tecniche di Additive Manufacturing permettono di realizzare strutture molto complesse che un tempo non era conveniente (o possibile) realizzare con asportazione di materiale. Nella prima parte della tesi si descrivono gli strumenti software utilizzati e la loro integrazione al fine di parametrizzare la generazione di geometrie ed effettuare in modo automatico analisi strutturali. Successivamente si descrivono tre casi di studio in cui la metodologia è stata sperimentata: un primo caso di validazione in cui si è applicato il metodo alla definizione della geometria di minimo peso per una trave a sbalzo con carico concentrato, un secondo test di ottimizzazione di un longherone per aeromobile, un terzo caso applicativo legato alla ottimizzazione di un serbatoio per fluidi in pressione da utilizzare su un satellite.
Resumo:
Il progetto realizzato consiste in uno strumento software in grado di effettuare una conversione di file, dal formato MIDI al formato MusicXML. Il tool è il proseguimento di un’attività basata sull'analisi di reti complesse e sullo sviluppo di strumenti per la modellazione di spartiti musicali. Melodie, assoli ed in generale tracce musicali sono rappresentabili come reti complesse, in cui i nodi identificano le note del brano e gli archi mostrano le sequenze con cui queste vengono suonate. Utilizzando la teoria delle reti è possibile estrarre alcune metriche principali che caratterizzano il brano in questione. Per la generazione della rete si è fatto uso di spartiti musicali descritti tramite lo standard MusicXML. File in questo formato sono difficilmente reperibili, per cui lo strumento realizzato si propone di effettuare una conversione da formato MIDI a formato MusicXML, con l’obiettivo di ottenere un database più esteso. Attraverso il tool sono stati convertiti brani di diverso genere, le cui reti relative sono state poi analizzate applicandovi le metriche principali ed effettuando le dovute valutazioni.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.