438 resultados para risolubilità radicali equazioni polinomiali teoria di Galois gruppi risolubili estensioni radicali risolubili
Resumo:
Questo lavoro di tesi riguarda lo studio e l’implementazione di un algoritmo di multiple kernel learning (MKL) per la classificazione e la regressione di dati di neuroimaging ed, in particolare, di grafi di connettività funzionale. Gli algoritmi di MKL impiegano una somma pesata di vari kernel (ovvero misure di similarità) e permettono di selezionare le features utili alla discriminazione delle istanze durante l’addestramento del classificatore/regressore stesso. L’aspetto innovativo introdotto in questa tesi è stato lo studio di un nuovo kernel tra grafi di connettività funzionale, con la particolare caratteristica di conservare l’informazione relativa all’importanza di ogni singola region of interest (ROI) ed impiegando la norma lp come metodo per l’aggiornamento dei pesi, al fine di ottenere soluzioni sparsificate. L’algoritmo è stato validato utilizzando mappe di connettività sintetiche ed è stato applicato ad un dataset formato da 32 pazienti affetti da deterioramento cognitivo lieve e malattia dei piccoli vasi, di cui 16 sottoposti a riabilitazione cognitiva tra un’esame di risonanza ma- gnetica funzionale di baseline e uno di follow-up. Le mappe di con- nettività sono state ottenute con il toolbox CONN. Il classificatore è riuscito a discriminare i due gruppi di pazienti in una configurazione leave-one-out annidata con un’accuratezza dell’87.5%. Questo lavoro di tesi è stato svolto durante un periodo di ricerca presso la School of Computer Science and Electronic Engineering dell’University of Essex (Colchester, UK).
Resumo:
Con l’ultimo rapporto dell’ IPCC e gli obiettivi che le nazioni del mondo si sono poste in seguito alla conferenza sul clima tenutasi a Parigi nel dicembre del 2015, sono sempre maggiori le soluzioni che si cercano al fine di rendere la società più sostenibile e resiliente per sopportare al meglio le conseguenze dei cambiamenti climatici. Le pareti verdi fanno parte di quelle infrastrutture che si pongono in quest’ottica di sostenibilità e riconciliazione con la natura. In questo elaborato si è cercato di classificare ed esaminare alcune delle tipologie più utilizzate di sistemi di inverdimento verticale, andando ad analizzare la letteratura presente sull’argomento. In particolare ci si è soffermati sugli aspetti di sostenibilità ambientale di tali infrastrutture, con riferimento alla valutazione del loro ciclo di vita e ai benefici da loro apportati, soprattutto quelli riguardanti microclima, diminuzione dell’isola di calore, aumento della biodiversità e miglioramento della qualità dell’aria. Si sono inoltre analizzati aspetti di natura economica e progettuale, mostrando l’utilità di uno strumento quale il “process tree” in quest’ultimo ambito. In seguito, si è preso in considerazione il lavoro del gruppo di ricerca “Terracini in Transizione”, un living-lab della sostenibilità che si svolge nella sede in via Terracini, 28 della facoltà di Ingegneria e Architettura dell’Università di Bologna. Nello specifico si sono osservati alcuni dei progetti e delle analisi svolte dai vari gruppi “pareti verdi” che si sono susseguiti all’interno del corso di “Valorizzazione delle risorse primarie e secondarie” della professoressa Bonoli, tra cui l’analisi di fattibilità di una parete verde da installare nel plesso in via Terracini, l’analisi di substrati di crescita alternativi per pareti vegetate e lo studio, in collaborazione con la facoltà di Agraria, di un substrato innovativo composto da un mix di pannolini usati e fibra di cocco.
Resumo:
Il seguente lavoro di tesi è nato durante un’attività di stage della durata di 7 mesi svolto all’interno della divisione Tea&Coffe di IMA S.p.A., azienda leader mondiale nella produzione di macchine automatiche per il confezionamento di prodotti farmaceutici, cosmetici, alimentari, tè e caffè. Le attività svolte si collocano all’interno di un progetto avviato da IMA per promuovere il passaggio ad un modello di industria necessariamente più evoluta, facendo leva sull’attitudine ad integrare e sviluppare nuove conoscenze e nuove tecnologie interdisciplinari e, allo stesso tempo, di massimizzare la sinergia tra le dimensioni tecnica ed economica, comportando una reale riduzione di sprechi nella filiera produttiva, commerciale ed ambientale. I moderni impianti di produzione devono infatti affrontare una sfida che li vede alla continua ricerca della produttività, ovvero di una produzione che remuneri velocemente e con ampi margini gli investimenti effettuati, della qualità dei prodotti e dei processi di produzione, ovvero della garanzia di soddisfacimento delle aspettative espresse ed inespresse del cliente, e della sicurezza per la salvaguardia della collettività e dell’ambiente. L’obiettivo di questo elaborato è stato quello di effettuare lo studio affidabilistico di una macchina automatica per la produzione di bustine di tè al fine di poterne studiare il suo comportamento al guasto e di elaborare in un secondo momento le politiche manutentive ottimizzate che ne permettano una gestione più efficiente. In questo ambito la macchina è stata scomposta in gruppi e sono stati esaminati tutti i pezzi di ricambio che sono stati richiesti in un arco temporale di durata pari a dieci anni, il fine è quello di poter individuare ed effettuare un’analisi affidabilistica dei componenti critici per poi procedere, attraverso l’uso di piattaforme software quali Weibull++ e Blocksim, col modellarne le distribuzioni statistiche e simulare il funzionamento del sistema nel suo complesso.
Resumo:
L’obiettivo del presente lavoro di tesi è quello di approfondire i processi di rigenerazione cosiddetti bottom-up o dal basso, poiché sono promossi da gruppi di cittadini, associazioni, cooperative o altre forme del terzo settore, che, esprimendo le proprie esigenze ed idee innovative, ottengono poi approvazione dall’amministrazione o dai proprietari dei beni. Si tratta di un fenomeno ancora poco presente in letteratura, poiché piuttosto recente e tuttora riscontrabile in maniera spontanea e disorganica. Per questo motivo una congrua parte della ricerca si è concentrata sull’analisi di casi studio italiani, per i quali sono state eseguite interviste ai protagonisti e sopralluoghi al fine di comprendere nel dettaglio il processo di riattivazione. A questi, si sono poi studiati alcuni esempi di realtà associative che mirano a mappare e a sistematizzare il fenomeno dell’abbandono architettonico. Sebbene le esperienze si siano dimostrate differenti tra loro e specifiche per il contesto e il territorio in cui sono collocate. si sono tuttavia individuate caratteristiche e dinamiche comuni che inducono a pensare a una tipologia di processo. Alla luce delle analisi dei casi studio, si è formulata una strategia possibile per un edificio che pur serbando valore storico e grandi potenzialità, si trova in stato di abbandono da più di quaranta anni: Villa Ghigi a Bologna. Si tratta di un’ex-villa padronale, all’interno di uno dei più importanti parchi pubblici bolognesi per la sua varietà vegetale e animale e per la sua posizione prossima al centro storico. Il progetto-processo che si propone si fonda su ipotesi realistiche e concrete di rigenerazione e si sviluppa secondo cinque fasi temporali differenti. Nell’iter si è infatti previsto l’alternarsi di momenti più astratti, incentrati sul networking e la definizione di prospettive, con tempi più fisici. dedicati all’intervento architettonico e alle trasformazioni concrete.
Resumo:
L’intento di questa ricerca è stato quello di cercare di riordinare ed approfondire il settore delle demolizioni, campo vasto e in costante crescita, dove saranno necessari tecnici sempre più specializzati in materia di statica, ambiente, sicurezza ed esplosivistica civile. Nella prima parte della ricerca è stata analizzata l'errata concezione odierna delle demolizioni viste solamente come un mero intervento di distruzione e sono state descritte le principali tecniche di demolizione tradizionali per costruzioni in calcestruzzo armato, suddividendole nelle due famiglie riguardanti le demolizioni parziali e le demolizioni totali, analizzando i vantaggi e gli svantaggi di ognuna di esse e nello specifico evidenziando il grado di compatibilità della singola tecnica in relazione all'intervento da svolgere. Descritte le tecniche sono state studiate le principali verifiche statiche che vengono solitamente effettuate per le demolizioni con esplosivo e le demolizioni meccaniche. Nella seconda parte della tesi si è voluto prestare attenzione riguardo alle origini della demolizione guardando in che modo si sia evoluta sino ad oggi, in particolare le imprese odierne le quali sono attualmente in grado di affrontare qualsiasi problema seguendo il programma del processo demolitivo. L'ultima parte della ricerca consiste nella valutazione e descrizione dei principali fattori di rischio di questi interventi sottolineando ogni tipo di soluzione per poterli evitare, è stato inoltre analizzato molto schematicamente il caso di studio del Palazzo di Giustizia dell'Aquila distrutto a causa del sisma e rinnovato grazie ad interventi demolitivi.
Resumo:
Lo scopo di questa tesi è quello di illustrare come l’utilizzo delle equazioni differenziali stocastiche sia coinvolto nella modellizzazione di fenomeni relativi all'ambito della biologia delle popolazioni.
Resumo:
L’obbiettivo di questa tesi è quello di analizzare le conseguenze della scelta del frame (Jordan o Einstein) nel calcolo delle proprietà degli spettri primordiali generati dall’inflazione ed in particolare dell’osservabile r (rapporto tensore su scalare) al variare del potenziale del campo che genera l’espansione accelerata. Partendo dalla descrizione della teoria dell’inflazione in relatività generale, focalizzando l’attenzione sui motivi che hanno portato all’introduzione di questa teoria, vengono presentate le tecniche di utilizzo comune per lo studio della dinamica omogenea (classica) inflazionaria e di quella disomogenea (quantistica). Una particolare attenzione viene rivolta ai metodi di approssimazione che è necessario adottare per estrarre predizioni analitiche dai modelli inflazionari per poi confrontarle con le osservazioni. Le tecniche introdotte vengono poi applicate ai modelli di inflazione con gravità indotta, ovvero ad una famiglia di modelli con accoppiamento non minimale tra il campo scalare inflatonico e il settore gravitazionale. Si porrà attenzione alle differenze rispetto ai modelli con accoppiamento minimale, e verrà studiata la dinamica in presenza di alcuni potenziali derivanti dalla teoria delle particelle e diffusi in letteratura. Il concetto di “transizione tra il frame di Jordan e il frame di Einstein” viene illustrato e le sue conseguenze nel calcolo approssimato del rapporto tensore su scalare sono discusse. Infine gli schemi di approssimazione proposti vengono analizzati numericamente. Risulterà che per due dei tre potenziali presentati i metodi di approssimazione sono più accurati nel frame di Einstein, mentre per il terzo potenziale i due frames portano a risultati analitici similmente accurati.
Resumo:
Con lo sviluppo di sorgenti capaci di sostenere scariche di non equilibrio a pressione atmosferica è nato un notevole interesse per le applicazioni biomediche del plasma, data la generazione nella scarica di una varietà di agenti efficaci in più ambiti. I plasmi di questo tipo, caratterizzati principalmente da una temperatura macroscopica vicina a quella ambiente, sono infatti già utilizzati, ad esempio, per la sterilizzazione, per il trattamento di polimeri per migliorarne la biocompatibilità, e per l’accelerazione del processo di coagulazione del sangue. In questo lavoro verrà presentata un’altra possibilità applicativa, sempre nel settore della plasma medicine, ovvero l’utilizzo dei plasmi per il trattamento di cellule cancerose, che sta avendo un particolare successo a causa dei risultati ottenuti dai vari gruppi di ricerca che sottintendono un suo possibile futuro nel trattamento di neoplasie. Verrà presentata una breve introduzione alla fisica del plasma, mostrando alcuni parametri che caratterizzano questo stato della materia, concentrandosi in particolare sui plasmi non termici o di non equilibrio, per poi passare al processo di ionizzazione del gas. Nel secondo capitolo sono approfondite due sorgenti per la generazione di plasmi non termici, la scarica a barriera dielettrica e il plasma jet. Il terzo capitolo fornisce una preliminare spiegazione degli agenti generati nella scarica e il rapporto che hanno con la materia con cui interagiscono. L’ultimo capitolo è il fulcro della ricerca, e comprende risultati ottenuti negli ultimi anni da vari gruppi di ricerca di molte nazionalità, e una breve parte riguardante la sperimentazione originale svolta anche in mia presenza dal gruppo di ricerca del Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, rappresentato principalmente dal professor Carlo Angelo Borghi e dal professor Gabriele Neretti.
Resumo:
La tesi è organizzata nelle seguenti parti: -il primo capitolo affronta il tema della transizione dalla teoria economica classica all'approccio della neuroeconomia, ripercorrendo alcune tappe fondamentali che hanno progressivamente avvicinato l'economia al funzionamento della mente umana; -il secondo capitolo è rivolto a rappresentare le principali caratteristiche dei processi decisionali in Internet, attraverso l’esame della letteratura, anche con riferimento ad ipotesi recenti sulla possibilità che la stretta esposizione al “digitale” porti ad un cambiamento del funzionamento della mente; -il terzo capitolo sviluppa una ipotesi applicativa del nuovo “paradigma” della neuroeconomia al mondo di Internet, evidenziando i processi e le variabili chiave; -nelle conclusioni si riprendono sinteticamente gli aspetti chiave trattati, anche in termini di limiti e possibili sviluppi futuri del lavoro svolto.
Resumo:
Il progetto realizzato consiste in uno strumento software in grado di effettuare una conversione di file, dal formato MIDI al formato MusicXML. Il tool è il proseguimento di un’attività basata sull'analisi di reti complesse e sullo sviluppo di strumenti per la modellazione di spartiti musicali. Melodie, assoli ed in generale tracce musicali sono rappresentabili come reti complesse, in cui i nodi identificano le note del brano e gli archi mostrano le sequenze con cui queste vengono suonate. Utilizzando la teoria delle reti è possibile estrarre alcune metriche principali che caratterizzano il brano in questione. Per la generazione della rete si è fatto uso di spartiti musicali descritti tramite lo standard MusicXML. File in questo formato sono difficilmente reperibili, per cui lo strumento realizzato si propone di effettuare una conversione da formato MIDI a formato MusicXML, con l’obiettivo di ottenere un database più esteso. Attraverso il tool sono stati convertiti brani di diverso genere, le cui reti relative sono state poi analizzate applicandovi le metriche principali ed effettuando le dovute valutazioni.
Resumo:
Teoria delle funzioni di matrici. Spiegazione del concetto di network, proprietà rilevanti rilevate attraverso determinate funzioni di matrici. Applicazione della teoria a due esempi di network reali.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
In questa tesi si discute la formulazione di una teoria quantistica della dinamica libera di particelle e stringhe relativistiche. La dinamica relativistica viene costruita in entrambi i casi a partire dalla formulazione classica con invarianza di gauge della parametrizzazione di, rispettivamente, linee e fogli di mondo. Si scelgono poi condizioni di gauge-fixing dette di cono-luce. La teoria quantistica viene poi formulata usando le prescrizioni di quantizzazione canonica di Dirac.
Resumo:
I semiconduttori organici sono alla base dell'elettronica organica, un campo di ricerca che negli ultimi anni ha coinvolto diversi gruppi di lavoro, sia a livello accademico che industriale. Diversi studi hanno portato all'idea di impiegare materiali di questo tipo come detector di raggi X, sfruttando la loro flessibilità meccanica, la facile fabbricazione di dispositivi su larga area e tramite tecniche a basso costo (es. stampa a getto di inchiostro) e le basse tensioni operative. In questa tesi in particolare si utilizzeranno degli OFET (Organic Field-Effect Transistor) a questo scopo, dimostrando la possibilità amplificare la sensibilità alla radiazione X e di pilotare le prestazioni del detector mediante l'applicazione della tensione all'elettrodo di gate. Presenteremo quindi uno studio sperimentale atto a caratterizzare elettricamente dei transistor realizzati con differenti semiconduttori organici, prima, durante e dopo l'esposizione a raggi X, in maniera da stimarne la sensibilità, le proprietà di conduzione intrinseche e la resistenza all'invecchiamento.
Resumo:
Il presente lavoro prende le mosse da un problema di dinamica dei fasci relativo a un metodo di separazione di un fascio di particelle recentemente messo in funzione nell’sincrotrone PS al CERN. In questo sistema, variando adiabaticamente i parametri di un campo magnetico, nello spazio delle fasi si creano diverse isole di stabilità (risonanze) in cui le particelle vengono catturate. Dopo una parte introduttiva in cui si ricava, a partire dalle equazioni di Maxwell, l’hamiltoniana di una particella sottoposta ai campi magnetici che si usano negli acceleratori, e una presentazione generale della teoria dell’invarianza adiabatica, si procede analizzando la dinamica di tali sistemi. Inizialmente si prende in considerazione l’hamiltoniana mediata sulle variabili veloci, considerando perturbazioni (kick) dei termini dipolare e quadrupolare. In ognuno dei due casi, si arriva a determinare la probabilità che una particella sia catturata nella risonanza. Successivamente, attraverso un approccio perturbativo, utilizzando le variabili di azione ed angolo, si calcola la forza della risonanza 4:1 per un kick quadrupolare.