134 resultados para algebra di Lie gruppi risolubili nilpotenti


Relevância:

30.00% 30.00%

Publicador:

Resumo:

I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell'ambito dell'Intelligenza Artificiale uno dei problemi aperti e piu difficile da risolvere e la comprensione del linguaggio naturale. La complessita sintattica e la conoscenza che bisogna avere per comprendere riferimenti, relazioni e concetti impliciti rendono questo problema molto interessante e la sua risoluzione di grande importanza per lo sviluppo di applicazioni che possano interagire in modo diretto con le persone. Questo lavoro di tesi non pretende di studiare e trovare una soluzione completa al suddetto problema, ma si prefigge come obiettivo quello di comprendere e risolvere problemi matematici di tipo logico ed aritmetico scritti in lingua inglese. La difficolta del lavoro si riduce in quanto non si devono considerare gli infiniti ambiti conoscitivi e puo concentrarsi su un'unica interpretazione del testo: quella matematica. Nonostante questa semplificazione il problema da affrontare rimane di grande difficolta poiche e comunque necessario confrontarsi con la complessita del linguaggio naturale. Esempi di problemi matematici che si intende risolvere si possono trovare presso il sito web dell'Universita della Bocconi nella sezione dei Giochi Matematici. Questi problemi richiedono la conoscenza di concetti di logica, insiemistica e di algebra lineare per essere risolti. Il modello matematico che descrive questi problemi non e complesso ed una volta dedotto correttamente e di facile risoluzione tramite un risolutore automatico. La difficolta consiste nel comprendere correttamente il testo ed estrapolarne il giusto modello. Il lavoro che si andra ad esporre nel seguito parte dall'analisi del testo ed arriva fino alla risoluzione del quesito matematico. Si parte quindi da un'analisi del testo con scopo generale seguita da un'analisi semantica volta alla costruzione del modello matematico che andra poi risolto da un risolutore automatico che ne restituira il risultato finale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo della presente tesi è quello di illustrare alcuni dei principali strumenti messi a disposizione dai controlli automatici a servizio dell’ingegneria, in particolare analizzando la struttura generale di una fabbrica automatica e descrivendone i principali sistemi di controllo. L’elaborato è suddiviso in tre macro parti: la prima ha l’obiettivo di inquadrare quella che è la fabbrica automatica, partendo dal precedente concetto di fabbrica tradizionale fino ad arrivare alla fabbrica moderna, caratterizzata da una spinta flessibilità produttiva determinata da una politica di produzione per lotti con elevati livelli di caratterizzazione. Della fabbrica automatica viene poi approfondita l’integrazione con i calcolatori attraverso il sistema concettuale del CIM, Computer Integrated Manufacturing, e l’impiego di celle di fabbricazione flessibili, ovvero le FMS, Flexible Manufacturing System. La seconda parte è incentrata sull’analisi delle logiche di controllo impiegate all’interno di tutto il processo di progettazione e di produzione, suddivise in tre gruppi: il primo focalizzato sui sistemi per la produzione automatica, NC e DNC; il secondo sui sistemi di simulazione e testing del prodotto, CAD, CAM e CAT; il terzo sui sistemi di controllo e sviluppo dati, SCADA, MES e DCS. La terza ed ultima parte è circoscritta all’approfondimento di un particolare sistema di controllo per la gestione dei processi, ovvero sull’uso del PLC, il Controllore Logico Programmabile. Vengono analizzate le componenti fisiche che lo costituiscono, il funzionamento base, i tempi di esecuzione delle istruzioni, i criteri di scelta e di dimensionamento ed altri aspetti rilevanti. Infine è presente un esempio applicativo di alcuni aspetti sovra citati con il caso dell’azienda bolognese G.D, leader del settore delle macchine automatiche a controllo numerico per la fabbricazione e l’impacchettamento delle sigarette.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

la tesi tratta alcuni risultati e applicazioni relative alla teoria delle azioni di gruppi su insiemi finiti, come l'equazione delle classi e il teorema di Cauchy. Infine illustra l'uso di tali risultati nella rappresentazione tramite permutazioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo progetto di tesi è parte di un programma più ampio chiamato TIME (Tecnologia Integrata per Mobilità Elettrica) sviluppato tra diversi gruppi di ricerca afferenti al settore meccanico, termofluidodinamico e informatico. TIME si pone l'obiettivo di migliorare la qualità dei componenti di un sistema powertrain presenti oggi sul mercato progettando un sistema general purpose adatto ad essere installato su veicoli di prima fornitura ma soprattutto su retrofit, quindi permettendo il ricondizionamento di veicoli con motore a combustione esistenti ma troppo datati. Lo studio svolto si pone l'obiettivo di identificare tutti gli aspetti di innovazione tecnologica che possono essere installati all'interno del sistema di interazione uomo-macchina. All'interno di questo progetto sarà effettuata una pianificazione di tutto il lavoro del gruppo di ricerca CIRI-ICT, partendo dallo studio normativo ed ergonomico delle interfacce dei veicoli analizzando tutti gli elementi di innovazione che potranno far parte del sistema TIME e quindi programmare tutte le attività previste al fine di raggiungere gli obiettivi prefissati, documentando opportunamente tutto il processo. Nello specifico saranno analizzate e definite le tecniche da utilizzare per poi procedere alla progettazione e implementazione di un primo sistema sperimentale di Machine Learning e Gamification con lo scopo di predire lo stato della batteria in base allo stile di guida dell'utente e incentivare quest'ultimo tramite sistemi di Gamification installati sul cruscotto ad una guida più consapevole dei consumi. Questo sistema sarà testato su dati simulati con l'obiettivo di avere un prodotto configurabile da installare sul veicolo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi riportiamo le definizioni ed i risultati principali relativi alla corrispondenza tra le successioni di polinomi di tipo binomiale (particolari basi dello spazio dei polinomi a coefficienti reali) e gli operatori delta, cioè operatori lineari sullo spazio dei polinomi che commutano con gli operatori di traslazione e il cui nucleo è costituito dai polinomi costanti. Nel capitolo 1 richiamiamo i concetti fondamentali sull'algebra delle serie formali e definiamo l'algebra degli operatori lineari invarianti per traslazione, dimostrando in particolare l'isomorfismo tra queste algebre. Nel capitolo 2, dopo aver dimostrato l'unicità della successione di base relativa ad un operatore delta, ricaviamo come esempio le successioni di base di tre operatori delta, che useremo durante tutto il capitolo: l'operatore derivata, l'operatore di differenza in avanti e l'operatore di differenza all'indietro. Arriviamo quindi a dimostrare un importante risultato, il Primo Teorema di Sviluppo, in cui facciamo vedere come le potenze di un operatore delta siano una base per l'algebra degli operatori invarianti per traslazione. Introducendo poi le successioni di Sheffer, possiamo dimostrare anche il Secondo Teorema di Sviluppo in cui esplicitiamo l'azione di un operatore invariante per traslazione su un polinomio, tramite un operatore delta fissato e una sua successione di Sheffer. Nell'ultima parte della tesi presentiamo i formalismi e alcune semplici operazioni del calcolo umbrale, che useremo per determinare le cosiddette costanti di connessione, ovvero le costanti che definiscono lo sviluppo di una successione binomiale in funzione di un'altra successione binomiale usata come base dello spazio dei polinomi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi ha come scopo principale quello di studiare la funzione di risoluzione e le distribuzioni della distanza equivalente attraverso i risultati ottenuti dal lavoro del gruppo n_TOF al CERN di Ginevra. n_TOF utilizza un fascio di protoni accelerato dal ProtoSincrotrone (PS) del CERN per crearne due di neutroni (uno verticale e uno orizzontale) tramite spallazione. Dopo aver spiegato la tecnica del tempo di volo (TOF) e descritto il set up sperimentale presente al CERN, si esporranno le simulazioni Monte Carlo utilizzate per simulare la produzione dei fasci di neutroni, analizzando nel dettaglio quello diretto verso la prima sala sperimentale. Nella parte finale del lavoro verranno riportati i risultati ottenuti dalle simulazioni; verrà prestata particolare attenzione al confronto tra le conclusioni ottenute da tre gruppi di lavoro differenti nonchè ad una trattazione statistica delle misure effettuate. Si mostrerà inoltre in che modo lo studio effettuato sia importante nella determinazione delle sezioni d'urto nelle reazioni indotte da neutroni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo lavoro viene effettuata un’analisi di membrane per la separazione di CO2 basate sul meccanismo di trasporto facilitato. Queste membrane sono caratterizzate da un supporto poroso impregnato di una fase liquida le cui proprietà chimico-fisiche vengono presentate in relazione alle performance di separazione fornite: si tratta di liquidi ionici che presentano gruppi funzionali in grado di reagire con la CO2 consentendo il trasporto facilitato del gas acido attraverso la membrana. Le prestazioni in termini di separazione di CO2 da miscele gas fornite da questa tecnologia vengono analizzate e confrontate con quelle offerte da altre tipologie di membrane: alcune basate sul meccanismo di solution-diffusion (membrane polimeriche e membrane impregnate di liquidi ionici room-temperature) ed altre caratterizzate da permeazione di CO2 con presenza di reazione chimica ottenuta mediante facilitatori (mobili o legati allo scheletro carbonioso del polimero costituente la membrana). I risultati ottenuti sono analizzati in merito alla possibile implementazione di tale sistema di separazione a membrana in processi di cattura di CO2 nell'ambito della tecnologia di Carbon Capture and Storage.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro di tesi riguarda lo studio e l’implementazione di un algoritmo di multiple kernel learning (MKL) per la classificazione e la regressione di dati di neuroimaging ed, in particolare, di grafi di connettività funzionale. Gli algoritmi di MKL impiegano una somma pesata di vari kernel (ovvero misure di similarità) e permettono di selezionare le features utili alla discriminazione delle istanze durante l’addestramento del classificatore/regressore stesso. L’aspetto innovativo introdotto in questa tesi è stato lo studio di un nuovo kernel tra grafi di connettività funzionale, con la particolare caratteristica di conservare l’informazione relativa all’importanza di ogni singola region of interest (ROI) ed impiegando la norma lp come metodo per l’aggiornamento dei pesi, al fine di ottenere soluzioni sparsificate. L’algoritmo è stato validato utilizzando mappe di connettività sintetiche ed è stato applicato ad un dataset formato da 32 pazienti affetti da deterioramento cognitivo lieve e malattia dei piccoli vasi, di cui 16 sottoposti a riabilitazione cognitiva tra un’esame di risonanza ma- gnetica funzionale di baseline e uno di follow-up. Le mappe di con- nettività sono state ottenute con il toolbox CONN. Il classificatore è riuscito a discriminare i due gruppi di pazienti in una configurazione leave-one-out annidata con un’accuratezza dell’87.5%. Questo lavoro di tesi è stato svolto durante un periodo di ricerca presso la School of Computer Science and Electronic Engineering dell’University of Essex (Colchester, UK).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con l’ultimo rapporto dell’ IPCC e gli obiettivi che le nazioni del mondo si sono poste in seguito alla conferenza sul clima tenutasi a Parigi nel dicembre del 2015, sono sempre maggiori le soluzioni che si cercano al fine di rendere la società più sostenibile e resiliente per sopportare al meglio le conseguenze dei cambiamenti climatici. Le pareti verdi fanno parte di quelle infrastrutture che si pongono in quest’ottica di sostenibilità e riconciliazione con la natura. In questo elaborato si è cercato di classificare ed esaminare alcune delle tipologie più utilizzate di sistemi di inverdimento verticale, andando ad analizzare la letteratura presente sull’argomento. In particolare ci si è soffermati sugli aspetti di sostenibilità ambientale di tali infrastrutture, con riferimento alla valutazione del loro ciclo di vita e ai benefici da loro apportati, soprattutto quelli riguardanti microclima, diminuzione dell’isola di calore, aumento della biodiversità e miglioramento della qualità dell’aria. Si sono inoltre analizzati aspetti di natura economica e progettuale, mostrando l’utilità di uno strumento quale il “process tree” in quest’ultimo ambito. In seguito, si è preso in considerazione il lavoro del gruppo di ricerca “Terracini in Transizione”, un living-lab della sostenibilità che si svolge nella sede in via Terracini, 28 della facoltà di Ingegneria e Architettura dell’Università di Bologna. Nello specifico si sono osservati alcuni dei progetti e delle analisi svolte dai vari gruppi “pareti verdi” che si sono susseguiti all’interno del corso di “Valorizzazione delle risorse primarie e secondarie” della professoressa Bonoli, tra cui l’analisi di fattibilità di una parete verde da installare nel plesso in via Terracini, l’analisi di substrati di crescita alternativi per pareti vegetate e lo studio, in collaborazione con la facoltà di Agraria, di un substrato innovativo composto da un mix di pannolini usati e fibra di cocco.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il seguente lavoro di tesi è nato durante un’attività di stage della durata di 7 mesi svolto all’interno della divisione Tea&Coffe di IMA S.p.A., azienda leader mondiale nella produzione di macchine automatiche per il confezionamento di prodotti farmaceutici, cosmetici, alimentari, tè e caffè. Le attività svolte si collocano all’interno di un progetto avviato da IMA per promuovere il passaggio ad un modello di industria necessariamente più evoluta, facendo leva sull’attitudine ad integrare e sviluppare nuove conoscenze e nuove tecnologie interdisciplinari e, allo stesso tempo, di massimizzare la sinergia tra le dimensioni tecnica ed economica, comportando una reale riduzione di sprechi nella filiera produttiva, commerciale ed ambientale. I moderni impianti di produzione devono infatti affrontare una sfida che li vede alla continua ricerca della produttività, ovvero di una produzione che remuneri velocemente e con ampi margini gli investimenti effettuati, della qualità dei prodotti e dei processi di produzione, ovvero della garanzia di soddisfacimento delle aspettative espresse ed inespresse del cliente, e della sicurezza per la salvaguardia della collettività e dell’ambiente. L’obiettivo di questo elaborato è stato quello di effettuare lo studio affidabilistico di una macchina automatica per la produzione di bustine di tè al fine di poterne studiare il suo comportamento al guasto e di elaborare in un secondo momento le politiche manutentive ottimizzate che ne permettano una gestione più efficiente. In questo ambito la macchina è stata scomposta in gruppi e sono stati esaminati tutti i pezzi di ricambio che sono stati richiesti in un arco temporale di durata pari a dieci anni, il fine è quello di poter individuare ed effettuare un’analisi affidabilistica dei componenti critici per poi procedere, attraverso l’uso di piattaforme software quali Weibull++ e Blocksim, col modellarne le distribuzioni statistiche e simulare il funzionamento del sistema nel suo complesso.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo del presente lavoro di tesi è quello di approfondire i processi di rigenerazione cosiddetti bottom-up o dal basso, poiché sono promossi da gruppi di cittadini, associazioni, cooperative o altre forme del terzo settore, che, esprimendo le proprie esigenze ed idee innovative, ottengono poi approvazione dall’amministrazione o dai proprietari dei beni. Si tratta di un fenomeno ancora poco presente in letteratura, poiché piuttosto recente e tuttora riscontrabile in maniera spontanea e disorganica. Per questo motivo una congrua parte della ricerca si è concentrata sull’analisi di casi studio italiani, per i quali sono state eseguite interviste ai protagonisti e sopralluoghi al fine di comprendere nel dettaglio il processo di riattivazione. A questi, si sono poi studiati alcuni esempi di realtà associative che mirano a mappare e a sistematizzare il fenomeno dell’abbandono architettonico. Sebbene le esperienze si siano dimostrate differenti tra loro e specifiche per il contesto e il territorio in cui sono collocate. si sono tuttavia individuate caratteristiche e dinamiche comuni che inducono a pensare a una tipologia di processo. Alla luce delle analisi dei casi studio, si è formulata una strategia possibile per un edificio che pur serbando valore storico e grandi potenzialità, si trova in stato di abbandono da più di quaranta anni: Villa Ghigi a Bologna. Si tratta di un’ex-villa padronale, all’interno di uno dei più importanti parchi pubblici bolognesi per la sua varietà vegetale e animale e per la sua posizione prossima al centro storico. Il progetto-processo che si propone si fonda su ipotesi realistiche e concrete di rigenerazione e si sviluppa secondo cinque fasi temporali differenti. Nell’iter si è infatti previsto l’alternarsi di momenti più astratti, incentrati sul networking e la definizione di prospettive, con tempi più fisici. dedicati all’intervento architettonico e alle trasformazioni concrete.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con lo sviluppo di sorgenti capaci di sostenere scariche di non equilibrio a pressione atmosferica è nato un notevole interesse per le applicazioni biomediche del plasma, data la generazione nella scarica di una varietà di agenti efficaci in più ambiti. I plasmi di questo tipo, caratterizzati principalmente da una temperatura macroscopica vicina a quella ambiente, sono infatti già utilizzati, ad esempio, per la sterilizzazione, per il trattamento di polimeri per migliorarne la biocompatibilità, e per l’accelerazione del processo di coagulazione del sangue. In questo lavoro verrà presentata un’altra possibilità applicativa, sempre nel settore della plasma medicine, ovvero l’utilizzo dei plasmi per il trattamento di cellule cancerose, che sta avendo un particolare successo a causa dei risultati ottenuti dai vari gruppi di ricerca che sottintendono un suo possibile futuro nel trattamento di neoplasie. Verrà presentata una breve introduzione alla fisica del plasma, mostrando alcuni parametri che caratterizzano questo stato della materia, concentrandosi in particolare sui plasmi non termici o di non equilibrio, per poi passare al processo di ionizzazione del gas. Nel secondo capitolo sono approfondite due sorgenti per la generazione di plasmi non termici, la scarica a barriera dielettrica e il plasma jet. Il terzo capitolo fornisce una preliminare spiegazione degli agenti generati nella scarica e il rapporto che hanno con la materia con cui interagiscono. L’ultimo capitolo è il fulcro della ricerca, e comprende risultati ottenuti negli ultimi anni da vari gruppi di ricerca di molte nazionalità, e una breve parte riguardante la sperimentazione originale svolta anche in mia presenza dal gruppo di ricerca del Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, rappresentato principalmente dal professor Carlo Angelo Borghi e dal professor Gabriele Neretti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I semiconduttori organici sono alla base dell'elettronica organica, un campo di ricerca che negli ultimi anni ha coinvolto diversi gruppi di lavoro, sia a livello accademico che industriale. Diversi studi hanno portato all'idea di impiegare materiali di questo tipo come detector di raggi X, sfruttando la loro flessibilità meccanica, la facile fabbricazione di dispositivi su larga area e tramite tecniche a basso costo (es. stampa a getto di inchiostro) e le basse tensioni operative. In questa tesi in particolare si utilizzeranno degli OFET (Organic Field-Effect Transistor) a questo scopo, dimostrando la possibilità amplificare la sensibilità alla radiazione X e di pilotare le prestazioni del detector mediante l'applicazione della tensione all'elettrodo di gate. Presenteremo quindi uno studio sperimentale atto a caratterizzare elettricamente dei transistor realizzati con differenti semiconduttori organici, prima, durante e dopo l'esposizione a raggi X, in maniera da stimarne la sensibilità, le proprietà di conduzione intrinseche e la resistenza all'invecchiamento.