905 resultados para minimi di funzionali metodo di steepest descent metriche riemanniane elaborazione di immagini
Resumo:
L’elaborato prevede lo studio delle catene anaforiche con l’obiettivo di indagare le meccaniche che guidano la scelta della ripresa, in rapporto alle caratteristiche dell’antecedente. Nel primo capitolo sarà presentato il fenomeno dell’anafora e della catena anaforica. Quindi prima di tutto sarà illustrato che cos’è un referente testuale e quando viene attivato e in seguito il focus si sposterà sulla ripresa anaforica, distinguendo anafora coreferenziale, non coreferenziale e anafore particolari. La parte finale poi sarà dedicata a un confronto tra anafora, deissi testuale e deissi situazionale. Il secondo capitolo verterà sull’anafora con identità di referente, e presenterà due importanti studi che si propongono di indagare i meccanismi che guidano la selezione della ripresa: quelli di Givòn e di Berretta. Quindi si partirà dal concetto di topicalità per arrivare al principio innovativo introdotto da Givòn, la continuità tematica (topic continuity). Successivamente sarà presentato il modello di analisi di Berretta, che si basa sullo studio di catene anaforiche “difficili”, ovvero costituite da antecedenti di rango topicale basso, opponendosi al metodo di Givòn basato su catene “facili”, con antecedenti umani, singolari e nel ruolo di soggetto. Nel terzo capitolo, invece, verrà introdotta la parte sperimentale dell’elaborato: l’annotazione di un testo per lo studio delle catene anaforiche. In questo capitolo sarà presentato nel dettaglio il modello di analisi adottato, ovvero un modello integrato che comprende le variabili considerate sia da Givòn sia da Berretta. Il procedimento di marcatura prevede l’annotazione manuale di tutti gli antecedenti (soggetti e non soggetti, umani e non umani, in ruolo sintattico topicale e non topicale) e le rispettive riprese, oltre alle unità testuali quali capitolo, paragrafo e frase. Il quarto e ultimo capitolo, invece, rappresenta l’analisi empirica dei dati estratti dal testo annotato. In questa sezione, sotto forma di tabelle e grafici, saranno presentati i dati considerando diverse variabili e correlazioni.
Resumo:
Il presente lavoro si inserisce all’interno del progetto che da più di quindici anni si sta portando avanti presso il Laboratorio di Terminologia e Traduzione Assistita (Dipartimento di Interpretazione e Traduzione dell’Università di Bologna) e che riguarda la creazione di risorse terminologiche specifiche per le esigenze professionali e di formazione degli interpreti di conferenza. La peculiarità del Laboratorio risiede nel fatto che gli strumenti terminologici e terminografici sono usati anche per descrivere elementi del lessico naturale: sia le risorse che servono per strutturare un discorso orale (nessi e segnali discorsivi), sia le espressioni linguistiche che, per il loro stretto legame con una determinata lingua-cultura, possono creare problemi traduttivi a livello semantico e sintattico (espressioni idiomatiche, collocazioni, locuzioni, ecc.). Proprio su queste espressioni è incentrato il lavoro di questa tesi; il nucleo è rappresentato dalla creazione di 40 schede terminografiche dedicate a locuzioni italiane che presentano diversi gradi di “fissità” e di idiomaticità. Il termine ‘locuzione’ è stato usato in senso ampio per includere diverse tipologie di espressioni quali collocazioni, espressioni idiomatiche, costruzioni con verbi supporto e locuzioni propriamente dette. Lo scopo principale, infatti, non era costruire una classificazione teorica, bensì creare una risorsa che potesse servire all’interprete nell’ambito sia professionale sia formativo. Le schede, infatti, sono state costruite in modo che possano servire sia come glossario per identificare equivalenti funzionali nelle altre lingue di lavoro (i primi 5 campi di ogni scheda), sia come strumento per sviluppare una competenza lessicale “alta” legata, appunto, alla conoscenza della struttura e dei modi d’uso di espressioni formulari che possono variare sensibilmente da una lingua-cultura a un’altra (gli ultimi 5 campi). Le schede, costruite basandosi su risorse lessicografiche e terminografiche e su un corpus di resoconti di sedute parlamentari, devono essere considerate come il primo passo nella creazione di un database terminologico multilingue.
Resumo:
Il presente lavoro di tesi presenta la progettazione, realizzazione e applicazione di un setup sperimentale miniaturizzato per la ricostruzione di immagine, con tecnica di Tomografia ad Impedenza Elettrica (EIT). Il lavoro descritto nel presente elaborato costituisce uno studio di fattibilità preliminare per ricostruire la posizione di piccole porzioni di tessuto (ordine di qualche millimetro) o aggregati cellulari dentro uno scaffold in colture tissutali o cellulari 3D. Il setup disegnato incorpora 8 elettrodi verticali disposti alla periferia di una camera di misura circolare del diametro di 10 mm. Il metodo di analisi EIT è stato svolto utilizzando i) elettrodi conduttivi per tutta l’altezza della camera (usati nel modello EIT bidimensionale e quasi-bidimensionale) e ii) elettrodi per deep brain stimulation (conduttivi esclusivamente su un ridotto volume in punta e posti a tre diverse altezze: alto, centro e basso) usati nel modello EIT tridimensionale. Il metodo ad elementi finiti (FEM) è stato utilizzato per la soluzione sia del problema diretto che del problema inverso, con la ricostruzione della mappa di distribuzione della conduttività entro la camera di misura. Gli esperimenti svolti hanno permesso di ricostruire la mappa di distribuzione di conduttività relativa a campioni dell’ordine del millimetro di diametro. Tali dimensioni sono compatibili con quelle dei campioni oggetto di studio in ingegneria tissutale e, anche, con quelle tipiche dei sistemi organ-on-a-chip. Il metodo EIT sviluppato, il prototipo del setup realizzato e la trattazione statistica dei dati sono attualmente in fase di implementazione in collaborazione con il gruppo del Professor David Holder, Dept. Medical Physics and Bioengineering, University College London (UCL), United Kingdom.
Resumo:
Il presente lavoro si inserisce nell’ambito del progetto Language Toolkit, portato avanti dalla Camera di Commercio di Forlì-Cesena e dalla Scuola di Lingue, Letterature, Traduzione e Interpretazione di Forlì. Il progetto coinvolge gli studenti della Scuola e le piccole-medie aziende del territorio provinciale e ha due obiettivi principali: creare occasioni di contatto tra il mondo accademico e quello professionale e favorire l’internazionalizzazione delle aziende del territorio. L’azienda con cui si è collaborato è la Pieri s.r.l. di Pievesestina di Cesena, attiva nel settore di confezionamento e movimentazione di carichi pallettizzati. Ci si è occupati principalmente di sistematizzare la terminologia aziendale in ottica trilingue (italiano - inglese - francese), partendo dall’analisi della documentazione aziendale. Sono stati individuati due gruppi di destinatari: i dipendenti dell’azienda e i traduttori esterni a cui essa ricorre saltuariamente. Viste le esigenze molto diverse dei due gruppi, sono stati elaborati due termbase con caratteristiche distinte, volte a renderli massimamente funzionali rispetto agli scopi. Dopo un breve inquadramento della situazione di partenza focalizzato sul progetto, l’azienda e i materiali di lavoro (capitolo 1), sono state fornite le basi teoriche (capitolo 2) che hanno guidato l’attività pratica di documentazione e di estrazione terminologica (capitolo 3). Sono stati presentati i due database terminologici costruiti, motivando le scelte compiute per differenziare le schede terminologiche in funzione dei destinatari (capitolo 4). Infine, si è tentato di valutare le risorse costruite attraverso la loro applicazione pratica in due attività: l’analisi della versione francese del manuale di istruzioni di una delle macchine Pieri e la traduzione verso il francese di alcune offerte commerciali, svolta utilizzando il programma di traduzione assistita SDL Trados Studio (capitolo 5).
Resumo:
In questo lavoro di tesi si intende fornire un'analisi in chiave quantomeccanica di una serie di caratteristiche della molecola di idrogeno ionizzata. Il fatto che l'equazione di Schrödinger per l'elettrone sia nel caso di H2+ risolvibile in maniera esatta rende questo sistema fisico un prezioso banco di prova per qualsiasi metodo di approssimazione. Il lavoro svolto in questa trattazione consisterà proprio nella risoluzione dell'equazione d'onda per l'elettrone nel suo stato fondamentale, dapprima in maniera esatta poi mediante LCAO, e successivamente nell'analisi dei risultati ottenuti, che verranno dapprima discussi e interpretati in chiave fisica, e infine messi a confronto per la verifica della bontà dell'approssimazione. Il metodo approssimato fornirà approssimazioni relative anche al primo stato elettronico eccitato; anche questo verrà ampiamente discusso, e ci si soffermerà in particolare sulla caratterizzazione di orbitali di "legame" e di "antilegame", e sul loro rapporto con la stabilità dello ione molecolare.
Resumo:
Il presente lavoro di tesi è stato svolto a seguito delle indagini geognostiche previste per un progetto ingegneristico volto alla riqualificazione con caratteristiche autostradali della SP46 Rho-Monza e del preesistente sistema autostradale A8/A52, la cui area interessata dai lavori è ubicata nella parte Nord del comune di Milano. Lo studio è stato finalizzato alla valutazione, attraverso metodologie e tecnologie specifiche, delle caratteristiche idrodinamiche delle acque sotterranee presenti nella zona oggetto dei lavori. A seguito di misure sul livello piezometrico della falda, compiute dopo la realizzazione di 8 piezometri, è stata realizzata (con l’ausilio del software Surfer 8.0® – Golden Software Inc.) una mappa relativa all’andamento delle isopieze e dei gradienti di flusso, attraverso interpolazione spaziale con metodo Kriging delle misure. La ricostruzione dell’assetto della falda così ottenuto ha permesso di fornire utili indicazioni riguardo le successive scelte progettuali.
Resumo:
Il presente lavoro di tesi, svolto presso i laboratori dell'X-ray Imaging Group del Dipartimento di Fisica e Astronomia dell'Università di Bologna e all'interno del progetto della V Commissione Scientifica Nazionale dell'INFN, COSA (Computing on SoC Architectures), ha come obiettivo il porting e l’analisi di un codice di ricostruzione tomografica su architetture GPU installate su System-On-Chip low-power, al fine di sviluppare un metodo portatile, economico e relativamente veloce. Dall'analisi computazionale sono state sviluppate tre diverse versioni del porting in CUDA C: nella prima ci si è limitati a trasporre la parte più onerosa del calcolo sulla scheda grafica, nella seconda si sfrutta la velocità del calcolo matriciale propria del coprocessore (facendo coincidere ogni pixel con una singola unità di calcolo parallelo), mentre la terza è un miglioramento della precedente versione ottimizzata ulteriormente. La terza versione è quella definitiva scelta perché è la più performante sia dal punto di vista del tempo di ricostruzione della singola slice sia a livello di risparmio energetico. Il porting sviluppato è stato confrontato con altre due parallelizzazioni in OpenMP ed MPI. Si è studiato quindi, sia su cluster HPC, sia su cluster SoC low-power (utilizzando in particolare la scheda quad-core Tegra K1), l’efficienza di ogni paradigma in funzione della velocità di calcolo e dell’energia impiegata. La soluzione da noi proposta prevede la combinazione del porting in OpenMP e di quello in CUDA C. Tre core CPU vengono riservati per l'esecuzione del codice in OpenMP, il quarto per gestire la GPU usando il porting in CUDA C. Questa doppia parallelizzazione ha la massima efficienza in funzione della potenza e dell’energia, mentre il cluster HPC ha la massima efficienza in velocità di calcolo. Il metodo proposto quindi permetterebbe di sfruttare quasi completamente le potenzialità della CPU e GPU con un costo molto contenuto. Una possibile ottimizzazione futura potrebbe prevedere la ricostruzione di due slice contemporaneamente sulla GPU, raddoppiando circa la velocità totale e sfruttando al meglio l’hardware. Questo studio ha dato risultati molto soddisfacenti, infatti, è possibile con solo tre schede TK1 eguagliare e forse a superare, in seguito, la potenza di calcolo di un server tradizionale con il vantaggio aggiunto di avere un sistema portatile, a basso consumo e costo. Questa ricerca si va a porre nell’ambito del computing come uno tra i primi studi effettivi su architetture SoC low-power e sul loro impiego in ambito scientifico, con risultati molto promettenti.
Resumo:
Questa tesi si pone l'obiettivo di applicare un metodo lineare per l'inversione delle curve di dispersione delle onde superficiali di Rayleigh da rumore sismico, al fine di descrivere con maggior definizione la struttura della crosta terrestre in corrispondenza dell'Italia settentrionale e confrontarlo con il modello di riferimento. Si è fatto uso del processo di cross-correlazione applicato al rumore sismico per ricostruire la Funzione di Green per ogni coppia di stazioni. Sono state considerate circa 100 stazioni, tutte nel Nord-Italia. I segnali ottenuti sono costituiti principalmente da onde di superficie, in particolare onde di Rayleigh, le quali dominano i segnali in ampiezza. Per periodi compresi tra 1s e 50s, per ogni raggio tra coppie di stazioni, è stata misurata la velcoità di gruppo tramite l'utilizzo del software EGFAnalysisTimeFreq per Matlab. Le curve di dispersione così ottenute sono state utilizzate come dato per la risoluzione del problema inverso, al fine di ottenere mappe2D della velocità di gruppo che è fortemente dipendente dalle caratteristiche del mezzo. Infine queste ultime sono state confrontate con mappe di un modello esistente per la regione (Molinari et al. [22]).
Resumo:
Grazie alla crescente evoluzione tecnologica è oggi possibile, tramite Head Mounted Display (HMD), vivere una realtà virtuale ricca nei dettagli, interattiva ed immersiva. L’avanzamento in questo settore ha infatti portato a una vera e propria rivoluzione, aprendo la possibilità di utilizzare questa tecnologia in molteplici ambiti. L’ostacolo riscontrato è che a un progresso di tale entità non si associa un adeguato aggiornamento e perfezionamento riguardo alle metodologie di interazione con oggetti 3D, dell’utilizzo di interfacce grafiche e del generale design ambientale. La diretta conseguenza di questo mancato aggiornamento è quella di indebolire o addirittura annullare l’effetto presenza dell'HMD, requisito indispensabile che consente all’utente di immergersi sensorialmente nel contesto simulato. L’obiettivo di questo studio consiste nel comprendere cosa è necessario tenere in considerazione e quali regole vanno cambiate per poter mantenere un'alta sensazione di presenza per l'utente all’interno di una realtà virtuale. A questo scopo è stato creato un ambiente virtuale 3D in grado di supportare l'utilizzo di un HMD, l'Oculus Rift, e di diversi dispositivi di input in grado di consentire controllo tramite movimenti naturali, il Razer Hydra ed il Leap Motion, in modo da poter effettuare un'analisi diretta sul livello del fattore presenza percepito nell'effettuare diverse interazioni con l'ambiente virtuale e le interfacce grafiche attraverso questi dispositivi. Questa analisi ha portato all'individuazione di molteplici aspetti in queste tipologie di interazioni e di design di intrefacce utente che, pur essendo di uso comune negli ambienti 3D contemporanei, se vissuti in un contesto di realtà virtuale non risultano più funzionali e indeboliscono il senso di presenza percepito dall'utente. Per ognuno di questi aspetti è stata proposta ed implementata una soluzione alternativa (basata su concetti teorici quali Natural Mapping, Diegesis, Affordance, Flow) in grado di risultare funzionale anche in un contesto di realtà virtuale e di garantire una forte sensazione di presenza all'utente. Il risultato finale di questo studio sono quindi nuovi metodi di design di ambienti virtuali per realtà aumentata. Questi metodi hanno permesso la creazione di un ambiente virtuale 3D pensato per essere vissuto tramite HMD dove l'utente è in grado di utilizzare movimenti naturali per interagire con oggetti 3D ed operare interfacce grafiche.
Resumo:
Lo scopo di questo studio è quello di valutare come sono variati gli impatti dell’impianto di compostaggio Romagna Compost a seguito dell’intervento di ampliamento e adeguamento, che ha portato ad un’evoluzione impiantistica notevole: dal processo di compostaggio tradizionale ad un sistema integrato anaerobico-aerobico. Per fare ciò si è scelto di utilizzare la metodologia di valutazione del ciclo di vita Life Cycle Assessment (LCA). Il vantaggio di questa analisi, è quello di riuscire a considerare tutti gli aspetti del ciclo di vita dei diversi sotto-processi considerati, dal compostaggio vero e proprio, all’utilizzo di reagenti, combustibili e materiali ausiliari, dal trasporto e smaltimento dei flussi di rifiuti finali al recupero energetico. A tal proposito si è rivelata utile una ricerca bibliografica per individuare studi LCA applicati al campo d’interesse.Inoltre, è stato effettuato un riesame delle tecnologie utilizzate negli impianti di recupero dei rifiuti organici e del concetto di Best Available Techniques (BAT). Mediante l’analisi di inventario, è stato studiato in maniera approfondita l’impianto e le attività svolte al suo interno. Per quanto riguarda la valutazione degli impatti, eseguita con il metodo Recipe 2014, è stato preso in esame il periodo temporale dal 2007 al 2013, esaminando tutti gli anni di funzionamento. Nello specifico, ci si è posto l’obiettivo di valutare se e quanto l’introduzione del sistema di recupero energetico abbia portato ad un reale miglioramento del processo con una diminuzione complessiva degli impatti. Nella seconda fase dello studio, sono stati estesi i confini del sistema per valutare gli impatti associati al trasporto del rifiuto dal luogo di raccolta all’impianto Romagna Compost e alla diversa gestione dei rifiuti nell’ambito nazionale. La modellazione è stata effettuata con il programma di calcolo SimaPro e il database Ecoinvent, Infine, per convalidare i dati ottenuti è stato effettuata un’analisi di incertezza mediante il metodo Monte Carlo.
Resumo:
In questa tesi viene effettuata una panoramica sull'apprendimento di alberi di decisione (un particolare metodo di apprendimento supervisionato) e sulle varie tecniche per poterne migliorare le prestazioni. Vengono poi descritti alcuni algoritmi e ne vengono confrontate le prestazioni.
Resumo:
Argomento di questa tesi è l’ottimizzazione di un portafoglio, cioè, dato un portafoglio, massimizzarne il guadagno minimizzando il rischio. Nel primo capitolo illustrerò le nozioni matematiche basi della finanza, come i mercati discreti, la definizione di portafoglio, il modello binomiale,l’arbitraggio e la misura martingala. Nel secondo capitolo presenterò i due metodi risolutivi del problema di ottimizzazione:il Metodo Martingala e il Metodo della Programmazione Dinamica. Nell’ultimo capitolo parto dalla funzione d'utilità esponenziale e calcolo il portafoglio ottimizzato utilizzando i due metodi precedenti.
Resumo:
I cambiamenti climatici stanno sempre più influenzando l’assetto territoriale ed ambientale della nostra società. Questo fatto si evince da eventi che riescono a sconvolgere le opere atte alla loro mitigazione; tali sistemi vengono progettati tenendo conto delle competenze acquisite in campo teorico e archivistico, ovvero la serie dei dati storici sui quali costruire dei modelli probabilistici che permettano di determinare il massimo grado di intensità che l'evento di interesse potrà generare. Questi database, però, conseguentemente ai cambiamenti ambientali cui stiamo avendo testimonianza diretta, risultano essere sempre meno affidabili allo scopo di impostare questi studi di tendenza. Esempio di quanto detto sono le alluvioni, generate da eventi meteorologici fuori dall'ordinario: queste situazioni, sempre più frequenti sul nostro territorio, oltre che subire l'influsso dei cambiamenti climatici, trovano un substrato favorevole nel quale attecchire, dovuto dall'alto grado di antropizzazione del territorio. In questo ambito, rientrano quegli eventi che i media chiamano "bombe d'acqua", le quali scaricano su un piccolo territorio una massiccia quantità di acque di precipitazione in un arco di tempo estremamente limitato. L'effetto principale è quello di mettere in crisi la rete idrologica della zona colpita, la quale non è stata progettata per sopportare eventi di tale magnitudo. Gli effetti avversi sul territorio possono essere importanti e vantano una vasta gamma di effetti. Inondazioni ed allagamenti in primis, poi i conseguenti da danni economici, ma anche smottamenti o colate di fango ed il collasso dei sistemi fognari. In questo lavoro di tesi, queste problematiche saranno trattate col fine ultimo di valutare delle soglie di precipitazioni, tali per cui, in caso di eventi meteorologici fuori dall’ordinario, sarà possibile allertare la popolazione localizzata nella zona soggetta a rischio idro-geologico. Questa analisi è stata condotta grazie ai dati reperiti per un piccolo bacino pedecollinare del Comune di Rimini.
Resumo:
Questa tesi Magistrale è frutto di un'attività di ricerca, che consiste nella realizzazione di un'indagine geofisica di tipo geoelettrico (ERT Electrical Resistivity Tomography). Lo scopo è quello di caratterizzare l'idrogeologia di una porzione limitata dell'acquifero freatico costiero ravennate, situato nella Pineta Ramazzotti di Lido di Dante, cercando di apportare nuove conoscenze sulle dinamiche che favoriscono l'ingressione marina (problema di forte attualità)che potrebbero contribuire a migliorare la gestione e la tutela delle risorse idriche. In questo contesto la tesi si pone come obiettivo quello di valutare l'applicabilità del metodo geoelettrico verificando se questo è in grado d'individuare efficacemente l'interfaccia acqua dolce-salata e le strutture presenti nel sottosuolo, in due tipologie di ambiente, con e senza un sistema di dune. I risultati dimostrano che dal punto di vista scientifico, il metodo geoelettrico ha verificato il principio di Ghyben-Herzberg, il quale suppone che vi sia una relazione inversa tra quota topografica e limite superiore della zona satura con acqua salata, inoltre si è riscontrata una certa stagionalità tra i profili acquisiti in momenti diversi (influenzati dalla piovosità). Mentre dal punto di vista tecnologico, il metodo, è di difficile utilizzo negli ambienti di transizione tanto ché chi si occupa professionalmente di questi rilievi preferisce non eseguirli. Questo è dovuto alla mancanza di un protocollo per le operazioni di acquisizione e a causa dell'elevato rumore di fondo che si riscontra nelle misurazioni. Con questo studio è stato possibile calibrare e sviluppare un protocollo, utilizzabile con diverse spaziature tra gli elettrodi, che è valido per l'area di studio indagata. Si è riscontrato anche che l'utilizzo congiunto delle informazioni delle prospezioni e quelle dei rilievi classici (monitoraggio della superficie freatica, parametri chimico-fisici delle acque sotterranee, rilievo topografico e sondaggi geognostici), generino un prodotto finale di semplice interpretazione e di facile comprensione per le dinamiche in atto.
Resumo:
I materiali plastici trovano ampie applicazioni in ogni aspetto della vita e delle attività industriali. La maggior parte delle plastiche convenzionali non sono biodegradabili e il loro accumulo è una minaccia per il pianeta. I biopolimeri presentano vantaggi quali: la riduzione del consumo delle risorse e la riduzione delle emissioni CO2, offrendo un importante contributo allo sviluppo sostenibile. Tra i biopolimeri più interessanti troviamo il poliidrossibutirrato (PHB), l’oggetto di questo studio, che è il più noto dei poliidrossialcanoati. Questo polimero biodegradabile mostra molte somiglianze con il polipropilene. La tesi consiste nell’applicazione del Life Cycle Assessment a processi di estrazione del PHB da colture batteriche. In essa sono valutate le prestazioni ambientali di 4 possibili processi alternativi, sviluppati dal CIRI EA, che utilizzano il dimetilcarbonato (DMC) e di 3 processi che utilizzano solventi alogenati (cloroformio, diclorometano, dicloroetano). Per quanto riguarda i processi che utilizzano come solvente di estrazione il DMC, due sono gli aspetti indagati e per i quali differiscono le alternative: la biomassa di partenza (secca o umida), e il metodo di separazione del polimero dal solvente (per evaporazione del DMC oppure per precipitazione). I dati primari di tutti gli scenari sono di laboratorio per cui è stato necessario realizzare un up scaling industriale di tutti i processi. L’up scaling è stato realizzato in collaborazione con il Dipartimento di Ingegneria Civile Chimica Ambientale e dei Materiali. La valutazione delle prestazioni ambientali è stata fatta rispetto a tutte le categorie d’impatto raccomandate dall’Handbook della Commissione Europea, di queste solo alcune sono state analizzate nel dettaglio. Tutti i risultati mostrano un andamento simile, in cui gli impatti dei processi che utilizzano DMC sono inferiori a quelli dei solventi alogenati. Fra i processi che impiegano DMC, l’alternativa più interessante appare quella che impiega biomassa di partenza secca e raccolta del PHB per precipitazione.