999 resultados para analisi fonetico-pragmatica
Resumo:
Le lingue sono veri organismi vitali che creano meccanismi propri al fine di esprimere concetti capaci di descrivere la realtà, fisica e interiore. Un meccanismo linguistico tipico delle lingue (ed anche una risorsa) per esprimere le diverse sfaccettature di una realtà multiforme e diversamente percettibile, è il ricorso a strutture perifrastiche, di utilizzo piuttosto comune in molte lingue. In quest’analisi, nello specifico, viene preso in esame e studiato il sistema perifrastico di tre lingue romanze, quali lo spagnolo, il francese e l’italiano; in particolare, l’attenzione è diretta alle perifrasi costruite con un verbo di movimento in funzione di ausiliare, per analizzare e dimostrare l’eventuale slittamento di tale concetto di movimento dal piano spaziale a quello temporale, o semplicemente metaforico. I sistemi linguistici sono stati scelti tutti appartenenti alla famiglia romanza, al fine di metterli a confronto e trovare convergenze e divergenze fra la gamma di perifrasi costruite con verbi di movimento che le lingue in questione, di ceppo comune, presentano. Per svolgere questo tipo di lavoro sono state utilizzate Grammatiche istituzionali, saggi, articoli e manuali che inquadrano il panorama linguistico di ogni lingua a partire da punti di vista differenti. Inoltre, al fine di dimostrare la tesi principale, ogni concetto teorico è accompagnato da dimostrazioni e da esempi, entrambi tratti da "corpora" linguistici già esistenti in rete.
Resumo:
L'Open Data, letteralmente “dati aperti”, è la corrente di pensiero (e il relativo “movimento”) che cerca di rispondere all'esigenza di poter disporre di dati legalmente “aperti”, ovvero liberamente re-usabili da parte del fruitore, per qualsiasi scopo. L’obiettivo dell’Open Data può essere raggiunto per legge, come negli USA dove l’informazione generata dal settore pubblico federale è in pubblico dominio, oppure per scelta dei detentori dei diritti, tramite opportune licenze. Per motivare la necessità di avere dei dati in formato aperto, possiamo usare una comparazione del tipo: l'Open Data sta al Linked Data, come la rete Internet sta al Web. L'Open Data, quindi, è l’infrastruttura (o la “piattaforma”) di cui il Linked Data ha bisogno per poter creare la rete di inferenze tra i vari dati sparsi nel Web. Il Linked Data, in altre parole, è una tecnologia ormai abbastanza matura e con grandi potenzialità, ma ha bisogno di grandi masse di dati tra loro collegati, ossia “linkati”, per diventare concretamente utile. Questo, in parte, è già stato ottenuto ed è in corso di miglioramento, grazie a progetti come DBpedia o FreeBase. In parallelo ai contributi delle community online, un altro tassello importante – una sorta di “bulk upload” molto prezioso – potrebbe essere dato dalla disponibilità di grosse masse di dati pubblici, idealmente anche già linkati dalle istituzioni stesse o comunque messi a disposizione in modo strutturato – che aiutino a raggiungere una “massa” di Linked Data. A partire dal substrato, rappresentato dalla disponibilità di fatto dei dati e dalla loro piena riutilizzabilità (in modo legale), il Linked Data può offrire una potente rappresentazione degli stessi, in termini di relazioni (collegamenti): in questo senso, Linked Data ed Open Data convergono e raggiungono la loro piena realizzazione nell’approccio Linked Open Data. L’obiettivo di questa tesi è quello di approfondire ed esporre le basi sul funzionamento dei Linked Open Data e gli ambiti in cui vengono utilizzati.
Resumo:
Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.
Resumo:
Obiettivo di questa tesi dal titolo “Analisi di tecniche per l’estrazione di informazioni da documenti testuali e non strutturati” è quello di mostrare tecniche e metodologie informatiche che permettano di ricavare informazioni e conoscenza da dati in formato testuale. Gli argomenti trattati includono l'analisi di software per l'estrazione di informazioni, il web semantico, l'importanza dei dati e in particolare i Big Data, Open Data e Linked Data. Si parlerà inoltre di data mining e text mining.
Resumo:
Analisi del sistema NewSQL e sperimentazione del software VoltDB su un benchmark definito.
Resumo:
Obiettivo del lavoro di tesi è l’analisi della vulnerabilità delle strutture della città di Augusta, che è una delle aree campione scelte dal progetto europeo ASTARTE, riguardante fra l’altro la stima e la mitigazione del rischio da tsunami nei mari europei. Per prima cosa sono state ricercate le strutture tettoniche che possono dare origine a terremoti di grande magnitudo, e che possono causare in seguito devastanti tsunami, nella zona della Sicilia orientale. La Scarpata Maltese è risultata essere la caratteristica morfologica dominante in questa zona del Mediterraneo. Per l’analisi di vulnerabilità sono state utilizzate due diverse metodologie: il modello SCHEMA (SCenarios for Hazard-induced Emergencies MAnagement) e il modello PTVA-3 (Papathoma Tsunami Vulnerability Assessment). Il metodo SCHEMA, di tipo quantitativo, è un metodo più semplice in quanto si avvale della fotointerpretazione per assegnare ad una costruzione la classe di appartenenza in base alla sua tipologia. Poi, attraverso le matrici del danno, si assegna un livello di danno (da D0, nessun danno, a D5, collasso) in base all’altezza della colonna d’acqua. Il metodo PTVA-3, di tipo qualitativo, risulta invece essere più complicato. Infatti, per arrivare all’assegnazione dell’indice di vulnerabilità relativa (RVI), che fornisce una stima del danno subito da una data struttura, si ha bisogno di assegnare un certo numero di attributi. L’indice RVI è dato dalla somma pesata tra la vulnerabilità strutturale e la vulnerabilità dovuta all’intrusione d’acqua (percentuale di piani inondati). In conclusione si è fatto un confronto tra i due metodi, ottenendo una sovrastima del metodo PTVA-3 rispetto al metodo SCHEMA nella quantificazione del livello di danneggiamento degli edifici.
Resumo:
La metafora del viaggio è una metafora 'pervasiva', utilizzata quotidianamente e spesso inconsapevolmente. Ma è altrettanto 'automatico' tradurre tali metafore in interpretazione simultanea? Attraverso lo studio di tale tipologia di metafore, tratte dai discorsi pronunciati durante le sessioni plenarie del Parlamento Europeo, e tratti dal corpus EPIC, e durante gli esami finali della Scuola Superiore di Lingue Letterature Traduzione e Interpretazione, se ne osserverà l'uso in italiano, in inglese e in spagnolo. Solo in seguito, sarà possibile prendere in considerazione le rese in interpretazione simultanea degli interpreti del Parlamento Europeo, i 'professionisti', e gli studenti che sostengono gli esami finali, i 'semi-professionisti'. Dalla ricerca sono emerse sostanziali differenze tra la lessicalizzazione delle metafore del viaggio in italiano, inglese e spagnolo che rendono la loro interpretazione in simultanea tutto fuorché semplice e automatica.
Resumo:
La tesi tratta il processo di analisi, progettazione e implementazione dell'applicazione del corso di laurea di Programmazione, in ambiente iOS. L'applicazione fornirà i servizi, ora offerti dal portale del corso di laurea, ottimizzati per dispositivi mobili.
Resumo:
Scopo di questo lavoro di tesi è la caratterizzazione della risposta di una partita di dosimetri a termoluminescenza LiF:Mg,Cu,P (GR200A) a fasci X di energie e intensità variabili. In questo elaborato è presentata la teoria che sta alla base degli strumenti e delle procedure utilizzate, cioè nozioni basilari di radiologia e dosimetria assieme ad una breve trattazione riguardante i dosimetri a termoluminescenza; sono descritti gli strumenti e le attrezzature impiegate, quali il sistema di acquisizione To.Le.Do , il tubo a raggi X presente all'interno del Centro di Coordinamento delle Attività di Fisica Medica e la camera di confronto utilizzata per la taratura. Tramite l'analisi dei dati raccolti sono stati definiti, all'interno della partita, gruppi differenti di dosimetri con risposte uniformi entro livelli di confidenza differenti. Questi gruppi di dosimetri saranno utilizzati dall'U. O. di Fisica Sanitaria dell'Università di Bologna per scopi diversi, in particolare per valutazioni di dosi personali e valutazioni di dosi ambientali in locali sottoposti a controlli di radioprotezione.
Resumo:
Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.
Resumo:
Sono state realizzate prove per verificare l'influenza della pressione di compattazione usata in autoclave sulle proprietà meccaniche di un laminato in fibra di carbonio e resina epossidica. Sono stati analizzati spessori e ILSS di rottura e, tramite un modello FEM, sono stati determinati i moduli di elasticità del laminato per i vari livelli di pressione indagati; inoltre sono state verificate le ILSS del modello con quelle risultate dalle prove realizzate.
Resumo:
La ricostruzione dettagliata dell’architettura stratigrafica e delle facies delle successioni tardo-quaternarie sepolte al di sotto delle pianure alluvionali moderne sta assumendo un’importanza crescente come strumento per le ricostruzioni paleoambientali e paleoclimatiche e per la correlazione dei sistemi deposizionali continentali e costieri, finalizzata alla caratterizzazione geometrica di corpi sedimentari che rappresentano potenziali serbatoi. Un impulso significativo verso la caratterizzazione dell’architettura stratigrafica dei depositi tardo-quaternari del Bacino Padano è stato fornito, negli ultimi quindici anni, da un’intensa campagna di perforazioni operata dal Servizio Geologico, Sismico e dei Suoli di Regione Emilia-Romagna, nell’ambito della realizzazione della Carta geologica d’Italia in scala 1:50.000. Tuttavia, per ottenere un numero sufficiente di informazioni stratigrafiche è necessario un dataset molto esteso e le perforazioni (sondaggi a carotaggio continuo) presentano costi estremamente elevati. I limiti operativi delle descrizioni dei sondaggi a carotaggio continuo possono essere superati utilizzando metodi indiretti che si basano sullo sfruttamento delle proprietà geotecniche dei depositi tardo-quaternari. In questo lavoro di tesi l’analisi delle caratteristiche geotecniche delle prove CPTU è stata sfruttata per caratterizzare le associazioni di facies della Pianura Padana centrale. Una dettagliata analisi dei log stratigrafici e, in particolare, delle curve di resistenza delle prove CPTU inserite nelle sezioni, la costruzione di sezioni stratigrafiche e un meticoloso lavoro di correlazione basato su 19 datazioni radiometriche, ha rivelato una serie di paleosuoli (inceptisuoli) impilati nei 50-60 m più superficiali della successione tardo-quaternaria della Pianura Padana centrale; questi paleosuoli rappresentano l’unico marker stratigrafico all’interno di una successione costituita prevalentemente da depositi argillosi uniformi. L’analisi delle caratteristiche geotecniche di alcuni paleosuoli e dei loro rapporti con la channel belt del Fiume Po risulta fondamentale per comprendere l’evoluzione recente del Bacino Padano e le caratteristiche geometriche dei corpi sedimentari finalizzata allo sfruttamento di potenziali risorse fluide sotterranee.
Resumo:
A partire dal 2010 la Commissione Europea ha compilato una lista di 20 materie prime ritenute “critiche” per importanza economica e rischio di approvvigionamento, per le quali è fondamentale la ricerca di possibili fonti alternative nel territorio europeo, poiché i maggiori produttori sono tutti paesi extra-europei. Dati questi presupposti, 20 campioni di fango marino, dragati nelle adiacenze di seamounts del Tirreno sud-orientale, sono stati analizzati per mezzo di XRF, al fine di trovare arricchimenti in elementi critici quali cromo, cobalto, gallio, niobio e alcuni elementi delle Terre Rare (lantanio, cerio, neodimio, samario, ittrio). I fanghi, talvolta con frazione sabbiosa più abbondante, sono stati dapprima divisi in base al colore in fanghi marroni e grigi e fanghi di colore bianco, rosso o arancio; presentano anche inclusi di diverso tipo, quali frammenti di conchiglie, noduli neri o bruno-arancio, croste bruno-nere o bruno-arancio. Dalle analisi chimiche è risultato che campioni più ricchi in CaO hanno un contenuto minore negli elementi ricercati, al contrario dei campioni ricchi in ossidi di Si, Ti, Al, Fe. Confrontando inoltre i campioni con i valori medi di composizione della crosta terrestre superiore, essi risultano più ricchi in REY e meno in Co, Cr, Ga, Nb, mentre sono sempre più arricchiti della composizione media dei sedimenti marini. Dalle analisi mineralogiche risulta che i fanghi contengono generalmente quarzo, calcite, feldspati in piccole quantità e fillosilicati. Infine, analisi XRD e SEM-EDS sui noduli neri hanno dimostrato che si tratta di todorokite, un ossido idrato di Mn, con tenori variabili di Na, K, Ca, Mg, dalla forma globosa con microstruttura interna fibroso-raggiata. Si ritiene quindi che fanghi ricchi in CaCO3, probabilmente bioderivato, non siano l’obiettivo più adatto per la ricerca di elementi critici, mentre potrebbero esserlo fanghi più ricchi in Si, Al, Fe, K, che hanno maggiori concentrazioni di tali elementi.
Resumo:
Estrazione e analisi di dati (like, commenti, share) relativi alle APT regionali per contesti di promozione turistica
Resumo:
Il presente lavoro nasce dall’esigenza maturata, oramai da diversi decenni, di conoscere l’ambiente che circonda i beni culturali, in virtù della loro intrinseca natura non rinnovabile. La ricerca si compone di due parti: l’analisi microclimatica e lo sviluppo di una metodologia innovativa di analisi relativa del rischio, che vede come bersagli i beni culturali, con particolare riferimento a quelli librari. In particolare, sulla base dei dati di temperatura, umidità relativa, concentrazioni di NO2 e O3, misurati in alcune sale della Biblioteca Classense di Ravenna, nel periodo dal 21 luglio al 7 agosto 2014, è stato possibile caratterizzare diversi ambienti confinati, tra loro eterogenei, e confrontare le dinamiche che s’instaurano tra l’ambiente indoor e quello outdoor, mediante, ad esempio, il calcolo del cosiddetto rapporto Indoor/Outdoor (I/O) e la stima del tasso di ventilazione. È stata poi proposta una metodologia di analisi del rischio che valuta i suddetti parametri microclimatici, come fattori di rischio. Attraverso tale metodologia, che identifica gli eventuali stati anomali nel sistema, è possibile giungere ad una definizione delle priorità per quegli aspetti esaminati che potrebbero discostarsi dalle condizioni di benessere, provocando un’accelerazione dei processi di degrado dei beni librari. Tale metodologia, infine, è stata applicata alle sale oggetto dell’analisi microclimatica, allo scopo di identificare eventuali fattori di rischio microclimatici.