908 resultados para analisi non lineari
Resumo:
Studio ed analisi delle principali tecniche in ambito di Social Data Analysis. Progettazione e Realizzazione di una soluzione software implementata con linguaggio Java in ambiente Eclipse. Il software realizzato permette di integrare differenti servizi di API REST, per l'estrazione di dati sociali da Twitter, la loro memorizzazione in un database non-relazionale (realizzato con MongoDB), e la loro gestione. Inoltre permette di effettuare operazioni di classificazione di topic, e di analizzare dati complessivi sulle collection di dati estratti. Infine permette di visualizzare un albero delle "ricondivisioni", partendo da singoli tweet selezionati, ed una mappa geo-localizzata, contenente gli utenti coinvolti nella catena di ricondivisioni, e i relativi archi di "retweet".
Resumo:
In questo elaborato tratterò il tema della comunicazione non verbale in ambito didattico. Nella prima parte parlerò della comunicazione non verbale e ne presenterò le diverse categorie. Nella seconda parte fornirò delle analisi del linguaggio non verbale della figura dell'insegnante, allo scopo di dimostrare come i codici non verbali incidano nella trasmissione del sapere e siano quindi uno strumento didattico molto importante. Infine tratterò la questione dell'apprendimento dei tratti non verbali tipici di una cultura da parte di studenti di lingua straniera.
Resumo:
In questa tesi viene proposta un'analisi di tipo politolinguistico di una selezione di discorsi pronunciati dal politico inglese Nigel Farage. Alla fine degli anni 90 dello scorso secolo il linguista tedesco Armin Burkhardt ha proposto un nuovo metodo di analisi linguistica andatosi ad integrare agli studi classici relativi al discorso politico, alla retorica e all'analisi del contenuto. Mediante tale approccio transdisciplinare è possibile avvalersi degli strumenti di analisi forniti dalla linguistica e dallo studio del discorso, così come dei metodi di ricerca impiegati nei campi della scienza politica, della sociolinguistica e della retorica politica, fornendo un quadro analitico più complesso ed articolato. Nella presente tesi non solo vengono identificate le peculiarità della retorica del leader euroscettica, bensì viene effettuata un'analisi sia linguistica che contestuale, affrontando le tematiche del pensiero euroscettico e la sua tradizione in Inghilterra, identificando i temi principali trattati da Farage nei suoi discorsi. Individuato l'ambito di studio, viene poi proposta un'analisi di tipo sia quantitativo che qualitativo delle tecniche discorsive di Farage, partendo dalla descrizione del linguaggio e della retorica in generale sino all'identificazione delle strategie più efficaci all'ottenimento del consenso presso l'opinione pubblica in materia economica ed europea.
Resumo:
La brain computer interface sono state create per sopperire ai problemi motori e di linguistica nei pazienti che, a causa di malattie neurodegenerative o in seguito a traumi, sono paralizzate o non riescono a parlare. Vengono prese in questione le caratteristiche di un sistema per le BCI analizzando ogni blocco funzionale del sistema. Si fa visione delle applicazioni tra le quali la possibilità di far muovere un arto bionico a una donna tetraplegica e la possibilità di far scrivere una parola su uno schermo a un paziente non in grado di comunicare verbalmente. Si mettono in luce i problemi annessi a questo campo e i possibili sviluppi.
Resumo:
La trasformata di Fourier (FT) è uno strumento molto potente implementato, oggi, in un enorme numero di tecnologie. Il suo primo esempio di applicazione fu proprio il campionamento e la digitalizzazione di segnali analogici. Nel tempo l'utilizzo della FT è stato ampliato a più orizzonti in ambito digitale, basti pensare che il formato di compressione '.jpg' utilizza una FT bidimensionale, mentre uno degli ultimi esempi di applicazione si ha nell'imaging digitale in ambito medico (risonanza magnetica nucleare, tomografia assiale computerizzata TAC ecc...). Nonostante gli utilizzi della FT siano molto diversificati il suo basilare funzionamento non è mai cambiato: essa non fa altro che modificare il dominio di una funzione del tempo (un segnale) in un dominio delle frequenze, permettendo così lo studio della composizione in termini di frequenza, ampiezza e fase del segnale stesso. Parallelamente all'evoluzione in termini di applicazioni si è sviluppato uno studio volto a migliorare e ottimizzare la computazione della stessa, data l'esponenziale crescita del suo utilizzo. In questa trattazione si vuole analizzare uno degli algoritmi di ottimizzazione più celebri e utilizzati in tal senso: la trasformata veloce di Fourier (Fast Fourier Transformation o FFT). Si delineeranno quindi le caratteristiche salienti della FT, e verrà introdotto l'algoritmo di computazione tramite linguaggio C++ dedicando particolare attenzione ai limiti di applicazione di tale algoritmo e a come poter modificare opportunamente la nostra funzione in modo da ricondurci entro i limiti di validità.
Resumo:
Negli ultimi anni i dati, la loro gestione e gli strumenti per la loro analisi hanno subito una trasformazione. Si è visto un notevole aumento dei dati raccolti dagli utenti, che si aggira tra il 40 e il 60 percento annuo, grazie ad applicazioni web, sensori, ecc.. Ciò ha fatto nascere il termine Big Data, con il quale ci si riferisce a dataset talmente grandi che non sono gestibili da sistemi tradizionali, come DBMS relazionali in esecuzione su una singola macchina. Infatti, quando la dimensione di un dataset supera pochi terabyte, si è obbligati ad utilizzare un sistema distribuito, in cui i dati sono partizionati su più macchine. Per gestire i Big Data sono state create tecnologie che riescono ad usare la potenza computazionale e la capacità di memorizzazione di un cluster, con un incremento prestazionale proporzionale al numero di macchine presenti sullo stesso. Il più utilizzato di questi sistemi è Hadoop, che offre un sistema per la memorizzazione e l’analisi distribuita dei dati. Grazie alla ridondanza dei dati ed a sofisticati algoritmi, Hadoop riesce a funzionare anche in caso di fallimento di uno o più macchine del cluster, in modo trasparente all’utente. Su Hadoop si possono eseguire diverse applicazioni, tra cui MapReduce, Hive e Apache Spark. É su quest’ultima applicazione, nata per il data processing, che è maggiormente incentrato il progetto di tesi. Un modulo di Spark, chiamato Spark SQL, verrà posto in confronto ad Hive nella velocità e nella flessibilità nell’eseguire interrogazioni su database memorizzati sul filesystem distribuito di Hadoop.
Resumo:
Nella presente tesi, di argomento astrofisico, sono esaminati gli ammassi di galassie (galaxy clusters), ovvero gli oggetti virializzati più grandi dell’Universo. Attraverso una introduttiva analisi morfologica vengono descritte le proprietà di luminosità in banda X e radio dovute alle galassie che li compongono ed al caldo gas intergalattico (ICM IntraCluster Medium) tra queste interposto. In particolare è presa in esame l’emissione radio diffusa di natura non termica di sottostrutture del gas, note con il nome di Aloni, relitti e mini-aloni. Nei capitoli II e III l’attenzione si concentra sul non facile problema della determinazione della massa di un ammasso, proprietà che costituisce il principale oggetto di studio del presente lavoro, passando in rassegna e descrivendo i metodi più utilizzati: analisi dinamica delle galassie (equazione di Jeans ed equazione del viriale), osservazioni in banda X dell’ICM, weak lensing (WL), strong lensing (SL) ed infine WL e SL accoppiati. Una analisi critica ed un confronto tra questi metodi è sviluppata nel capitolo IV, prendendo in considerazione l’ammasso RCS2327. Il conclusivo capitolo V racchiude e collega gli argomenti delle sezioni precedenti cercando una possibile correlazione tra le proprietà emissive non termiche (in banda radio) e le masse di un campione di 28 ammassi, determinate mediante tecnica di weak lensing e strong lensing accoppiate.
Resumo:
In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.
Resumo:
La tesi affronta tematiche relative al rilievo di un aggregato edilizio, all'analisi della consistenza e dei quadri fessurativi, ai criteri di lettura dei cinematismi e alle procedure di consolidamento. Vengono, inoltre, proposte strategie di progetto, finalizzate al riuso e all'auto-mantenimento sostenibile del medesimo sistema architettonico attraverso sequenze logiche e concatenate di decisioni operative, sulla base di esigenze, criticità e requisiti emersi.
Resumo:
Il lavoro svolto nella zona di Vareš, in particolare nella zona del lago di Veovača ha investigato diverse matrici ambientali (sedimenti, suoli, acque) per valutare le loro caratteristiche e la loro qualità. Nella zona è stata presente in passato attività estrattiva e di lavorazione dei minerali estratti, da qui la necessità di questo studio esplorativo. Il lavoro svolto si divide in tre fasi: campionamento, svolto in quattro giorni passati in campagna; analisi dei campioni raccolti e interpretazione dei risultati. Sono state campionate acque e sedimenti in punti interni al lago, altri in corrispondenza delle sue sponde e punti lungo la diga. Sul materiale solido sono state svolte analisi di spettrometria di fluorescenza a raggi X, mentre sulle acque sono state applicate tecniche di spettrometria di assorbimento atomico (AAS), spettrometria di emissione al plasma induttivamente accoppiato (ICP-AES) e cromatografia ionica oltre che a misure di parametri chimico-fisici in campo. Sono stati poi valutati i risultati, attraverso il confronto con banche dati di riferimento ed elaborazioni statistiche e grafiche. Si tratta di uno studio preliminare effettuato su un piccolo numero di campioni e perciò solo indicativo e non in grado di fornire risposte definitive sulla condizione ambientale dell'area. Tuttavia queste prime informazioni consentono di delineare un quadro nel quale future indagini potranno approfondire aspetti e problemi critici per la qualità ambientale.
Resumo:
La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.
Resumo:
La conoscenza e la determinazione dell’equazione cinetica è indispensabile per lo studio, la progettazione e l’ottimizzazione di qualsiasi reattore chimico. Normalmente l’analisi cinetica viene eseguita con reattori che operano in maniera quanto più prossima a condizioni ideali in modo da rendere più facile e meno affetta da errori l’interpretazione dei risultati sperimentali. In fotocatalisi è invece di fatto impossibile realizzare, anche in presenza di una perfetta miscelazione, un sistema ideale in cui si abbia un’uniforme distribuzione di tutti i parametri che influenzano la velocità di reazione. Infatti in un reattore fotocatalitico il campo di radiazione è intrinsecamente non uniforme poiché l’assorbimento della radiazione e quindi la sua attenuazione sono necessari per l’attivazione della reazione. Pertanto l’impossibilità di realizzare un sistema fotocatalitico che operi in condizioni quanto più possibile prossime all’idealità e l’incapacità di misurare sperimentalmente i valori locali di velocità di reazione e di velocità di assorbimento dei fotoni possono rendere complessa una corretta analisi cinetica. In questo lavoro vengono studiate le modalità con cui condurre comunque una rigorosa analisi cinetica di un sistema fotocatalitico slurry, nel quale il fotocalizzatore è disperso come polvere fine in sospensione nella soluzione reagente. La reazione studiata è quella di mineralizzazione dell’acido formico. Sono stati impiegati due reattori con geometrie ed illuminazioni differenti: un reattore piano illuminato con luci LED ed un reattore anulare con lampada lineare fluorescente blacklight. È stata verificata la validità di una particolare equazione cinetica, che tiene conto dell’effetto non lineare della velocità specifica (cioè per unità di massa di catalizzatore) di assorbimento dei fotoni e delle concentrazioni del reagente, dell’ossigeno e del fotocatalizzatore. Sono state inoltre determinate le condizioni critiche che possono portare ad errori nell’analisi cinetica ed è stata dimostrata l’utilità di un modello matematico che tiene conto dei bilanci di energia raggiante, di materia nonché del campo di moto. Il modello matematico, in cui compare un solo parametro aggiustabile (il tempo caratteristico di reazione od equivalentemente la costante cinetica), è in grado di riprodurre molto soddisfacentemente i risultati sperimentali in tutte le diverse condizioni operative: diversa geometria di reattore, diversa illuminazione, differente spessore ottico, diverse contrazioni di substrato e di fotocatalizzatore. Infine è stato mostrato come l’equazione cinetica ad una sola costante cinetica, che è stata adottata, descriva meglio la cinetica della reazione fotocatalitica in esame di altre equazioni a due o più costanti cinetiche spesso utilizzate in fotocatalisi e basate sulla teoria di Langmuir-Hinshelwood, a dimostrazione di un diverso meccanismo di reazione.
Resumo:
Anche la clausola Institute International Hull Clause contiene la clausola Sue and Labor Clause secondo cui le spese che sono intercorse per cercare di minimizzare la perdita saranno coperte dall’assicuratore. Comunque anche se la Sue and Labor Clause non fosse presente in una polizza assicurativa, l’assicuratore potrebbe avere l’obbligo di rimborsare l’assicurato per le misure prese affinché si evitasse la perdita, come se gli garantisse un benefit. Per meglio comprendere le argomentazioni su esposte, conviene ricordare il caso giudiziario australiano Emperor Goldmining Co. Ltd. v. Switzerland General Ins. Co. Ltd., secondo cui sostanzialmente l’assenza di una clausola Sue and Labour dalla polizza non significa addossare sul ricorrente le spese.
Resumo:
L'esperimento LHCb è stato progettato per eseguire misure di altissima precisione nel settore della fisica dei quark pesanti al Large Hadron Collidere del CERN. Sfruttando l'alta sezione d'urto di produzione di charm nelle interazioni protone-protone ad LHC e utilizzando la statistica raccolta durante il RUN-1, corrispondente ad una luminosità integrata di 3 fb{-1}, l'esperimento LHCb ha realizzato le misure più precise al mondo in questo settore. In particolare i decadimenti del mesone D0 in due corpi carichi senza leptoni nello stato finale hanno permesso di realizzare misure di violazione di CP} che raggiungono precisioni inferiori al 0.1 %. Da pochi mesi LHCb ha iniziato la seconda fase di presa dati, chiamata RUN-2, raccogliendo dati dalle interazioni protone-protone ad una energia nel centro di massa di sqrt{s}=13 TeV, superiore a quella del RUN-1. Le misure attuali di violazione di CP nel settore del charm, sono consistenti con l'ipotesi di non violazione. Il Modello Standard, pur con grandi incertezze teoriche, prevede una violazione di CP molto piccola, pertanto per verificare o meno l'esistenza di taleviolazione, sarà necessario sfruttare al massimo la statistica che verrà raccolta durante il RUN-2, ottimizzando gli algoritmi di selezione dei canali di interesse. In questa tesi verrà presentata uno studio preliminare che ha lo scopo di ottimizzare, mediante una tecnica di analisi multivariata, la selezione dei decadimenti D^*pm-> D0(K+K-)pi_s^pm e D^*pm}-> D0(pi+pi-)pi_s^pm} in previsione della prossima presa dati.
Resumo:
Il presente elaborato ha come obiettivo l’analisi dei discorsi di ringraziamento pronunciati nelle cerimonie dei premi Oscar dal 1990 al 2015 da attori e attrici, protagonisti e non protagonisti, premiati con la statuetta dorata per le loro performance recitative. L’elaborato si articola in tre capitoli: nel primo, si delinea la storia dei premi Oscar, considerati la cerimonia di premiazione cinematografica per antonomasia, con particolare attenzione ai metodi di selezione di premiati e vincitori da parte dell’Academy of Motion Pictures Arts and Sciences. Ci si concentra anche sul significato, letterale e simbolico, dei discorsi di ringraziamento, e sulla rilevanza che essi hanno all’interno della cerimonia. Nel secondo capitolo, si analizzano i discorsi di ringraziamento dei vincitori da un punto di vista linguistico, con particolare attenzione a prosodia, prossemica, retorica e deissi. Nel terzo e ultimo capitolo, infine, l’analisi assume toni più prettamente culturali, focalizzando l’attenzione sugli aspetti pragmatici e contenutistici dei discorsi, nonché nel tentativo di confrontare gli atteggiamenti delle due categorie nazionali più premiate agli Oscar: gli americani e i britannici.