866 resultados para Super-Paramagnetic clustering
Resumo:
Supramolecular chemistry is a multidisciplinary field which impinges on other disciplines, focusing on the systems made up of a discrete number of assembled molecular subunits. The forces responsible for the spatial organization are intermolecular reversible interactions. The supramolecular architectures I was interested in are Rotaxanes, mechanically-interlocked architectures consisting of a "dumbbell shaped molecule", threaded through a "macrocycle" where the stoppers at the end of the dumbbell prevent disassociation of components and catenanes, two or more interlocked macrocycles which cannot be separated without breaking the covalent bonds. The aim is to introduce one or more paramagnetic units to use the ESR spectroscopy to investigate complexation properties of these systems cause this technique works in the same time scale of supramolecular assemblies. Chapter 1 underlines the main concepts upon which supramolecular chemistry is based, clarifying the nature of supramolecular interactions and the principles of host-guest chemistry. In chapter 2 it is pointed out the use of ESR spectroscopy to investigate the properties of organic non-covalent assemblies in liquid solution by spin labels and spin probes. The chapter 3 deals with the synthesis of a new class of p-electron-deficient tetracationic cyclophane ring, carrying one or two paramagnetic side-arms based on 2,2,6,6-tetramethylpiperidine-N-oxyl (TEMPO) moiety. In the chapter 4, the Huisgen 1,3-dipolar cycloaddition is exploited to synthesize rotaxanes having paramagnetic cyclodextrins as wheels. In the chapter 5, the catalysis of Huisgen’s cycloaddition by CB[6] is exploited to synthesize paramagnetic CB[6]-based [3]-rotaxanes. In the chapter 6 I reported the first preliminary studies of Actinoid series as a new class of templates in catenanes’ synthesis. Being f-block elements, so having the property of expanding the valence state, they constitute promising candidates as chemical templates offering the possibility to create a complex with coordination number beyond 6.
Resumo:
There are different ways to do cluster analysis of categorical data in the literature and the choice among them is strongly related to the aim of the researcher, if we do not take into account time and economical constraints. Main approaches for clustering are usually distinguished into model-based and distance-based methods: the former assume that objects belonging to the same class are similar in the sense that their observed values come from the same probability distribution, whose parameters are unknown and need to be estimated; the latter evaluate distances among objects by a defined dissimilarity measure and, basing on it, allocate units to the closest group. In clustering, one may be interested in the classification of similar objects into groups, and one may be interested in finding observations that come from the same true homogeneous distribution. But do both of these aims lead to the same clustering? And how good are clustering methods designed to fulfil one of these aims in terms of the other? In order to answer, two approaches, namely a latent class model (mixture of multinomial distributions) and a partition around medoids one, are evaluated and compared by Adjusted Rand Index, Average Silhouette Width and Pearson-Gamma indexes in a fairly wide simulation study. Simulation outcomes are plotted in bi-dimensional graphs via Multidimensional Scaling; size of points is proportional to the number of points that overlap and different colours are used according to the cluster membership.
Resumo:
Il task del data mining si pone come obiettivo l'estrazione automatica di schemi significativi da grandi quantità di dati. Un esempio di schemi che possono essere cercati sono raggruppamenti significativi dei dati, si parla in questo caso di clustering. Gli algoritmi di clustering tradizionali mostrano grossi limiti in caso di dataset ad alta dimensionalità, composti cioè da oggetti descritti da un numero consistente di attributi. Di fronte a queste tipologie di dataset è necessario quindi adottare una diversa metodologia di analisi: il subspace clustering. Il subspace clustering consiste nella visita del reticolo di tutti i possibili sottospazi alla ricerca di gruppi signicativi (cluster). Una ricerca di questo tipo è un'operazione particolarmente costosa dal punto di vista computazionale. Diverse ottimizzazioni sono state proposte al fine di rendere gli algoritmi di subspace clustering più efficienti. In questo lavoro di tesi si è affrontato il problema da un punto di vista diverso: l'utilizzo della parallelizzazione al fine di ridurre il costo computazionale di un algoritmo di subspace clustering.
Resumo:
In questo lavoro di tesi si è studiato il clustering degli ammassi di galassie e la determinazione della posizione del picco BAO per ottenere vincoli sui parametri cosmologici. A tale scopo si è implementato un codice per la stima dell'errore tramite i metodi di jackknife e bootstrap. La misura del picco BAO confrontata con i modelli cosmologici, grazie all'errore stimato molto piccolo, è risultato in accordo con il modelli LambdaCDM, e permette di ottenere vincoli su alcuni parametri dei modelli cosmologici.
Resumo:
Bioinformatics, in the last few decades, has played a fundamental role to give sense to the huge amount of data produced. Obtained the complete sequence of a genome, the major problem of knowing as much as possible of its coding regions, is crucial. Protein sequence annotation is challenging and, due to the size of the problem, only computational approaches can provide a feasible solution. As it has been recently pointed out by the Critical Assessment of Function Annotations (CAFA), most accurate methods are those based on the transfer-by-homology approach and the most incisive contribution is given by cross-genome comparisons. In the present thesis it is described a non-hierarchical sequence clustering method for protein automatic large-scale annotation, called “The Bologna Annotation Resource Plus” (BAR+). The method is based on an all-against-all alignment of more than 13 millions protein sequences characterized by a very stringent metric. BAR+ can safely transfer functional features (Gene Ontology and Pfam terms) inside clusters by means of a statistical validation, even in the case of multi-domain proteins. Within BAR+ clusters it is also possible to transfer the three dimensional structure (when a template is available). This is possible by the way of cluster-specific HMM profiles that can be used to calculate reliable template-to-target alignments even in the case of distantly related proteins (sequence identity < 30%). Other BAR+ based applications have been developed during my doctorate including the prediction of Magnesium binding sites in human proteins, the ABC transporters superfamily classification and the functional prediction (GO terms) of the CAFA targets. Remarkably, in the CAFA assessment, BAR+ placed among the ten most accurate methods. At present, as a web server for the functional and structural protein sequence annotation, BAR+ is freely available at http://bar.biocomp.unibo.it/bar2.0.
Resumo:
Implicazioni tettoniche ed estetiche delle logiche monoscocca integrate e stress lines analysis in architettura.
Resumo:
Nel presente lavoro di tesi magistrale sono stati depositati e caratterizzati sottili film di ossido di alluminio, Al2O3, (di spessore compreso tra 3-30 nm) su un substrato di FZ-Si drogato p. La deposizione è avvenuta mediante plasma ALD (Atomic Layer Depostion). La tecnica spettroscopica EPR (Electron Paramagnetic Resonance) è stata utilizzata per studiare l’interfaccia Si/Al2O3 con lo scopo di scoprire l’origine della formazione di densità di carica negativa Qf all’interfaccia: tale carica negativa induce una passivazione per effetto di campo ed è quindi la ragione per cui il dielettrico Al2O3 risulta essere un ottimo materiale passivante. Si è deciso di variare alcuni parametri, come lo spessore dello strato di Al2O3, lo spessore dello strato intermedio di ossido di silicio, depositato mediante ossidazione termica (dry thermal oxidation), e la superficie del substrato di silicio. Sono stati realizzati cinque differenti gruppi di campioni: per ciascuno di essi sono state impiegate varie tecniche di caratterizzazione, come la QSSPC (Quasi Steady State Photoconuctance) e la tecnica di spettroscopia ottica SE (spettroscopic ellipsometry). Per ogni gruppo sono stati riportati gli spettri EPR ottenuti ed i rispettivi fit, da cui è stato possibile risalire ai fattori giromagnetici di spin g, riportati in tabelle con le loro possibili attribuzioni. E’ stato dimostrato che la presenza di uno strato di ossido di silicio tra il substrato di silicio e lo strato di ossido di alluminio risulta essere fondamentale per la formazione di densità di carica negativa all’interfaccia: aumentando lo spessore dello strato di SiOx (nel range 1-30 nm) si assiste ad una diminuzione di carica negativa Qf. Analizzando gli spettri EPR, è stato possibile concludere che all’interfaccia Si/Al2O3 sono presenti difetti caratteristici dell’interfaccia Si/SiOx. Le nostre osservazioni, dunque, sono coerenti con la formazione di uno strato di ossido di silicio tra Si e Al2O3.
Resumo:
Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.
Resumo:
Der Haupt-Lichtsammenkomplex II (LHCII) höherer Pflanzen ist das häufigsternMembranprotein der Welt und in die chloroplastidäre Thylakoidmembran integriert. DerrnLHCII kann als Modellsystem genutzt werden, um die Funktionsweise vonrnMembranproteinen besser zu verstehen, da 96 % seiner Struktur kristallografisch aufgelöstrnist und er in rekombinanter Form in vitro rückgefaltet werden kann. Hierbei entsteht einrnvoll funktionaler Protein-Pigment.Komplex, der nahezu identisch mit der in vivo Varianternist.rnElektronenparamagnetischen Resonanz (EPR) Spektroskopie ist eine hoch sensitive undrnideal geeignete Methode, um die Strukturdynamik von Proteinen zu untersuchen. Hierzurnist eine ortsspezifische Markierung mit Spinsonden notwendig, die kovalent an Cysteinernbinden. Möglich wird dies, indem sorgfältig ausgewählte Aminosäuren gegen Cysteinerngetauscht werden, ohne dass die Funktionsweise des LHCII beeinträchtigt wird.rnIm Rahmen dieser Arbeit wurden die Stabilität des verwendeten Spinmarkers und diernProbenqualität verbessert, indem alle Schritte der Probenpräparation untersucht wurden.rnMithilfe dieser Erkenntnisse konnte sowohl die Gefahr einer Proteinaggregation als auchrnein Verlust des EPR Signals deutlich vermindert werden. In Kombination mit derrngleichzeitigen Etablierung des Q-Band EPR können nun deutlich geringer konzentrierternProben zuverlässig vermessen werden. Darüber hinaus wurde eine reproduzierbarernMethode entwickelt, um heterogene Trimere herzustellen. Diese bestehen aus einemrndoppelt markierten Monomer und zwei unmarkierten Monomeren und erlauben es, diernkristallografisch unvollständig aufgelöste N-terminale Domäne im monomeren undrntrimeren Assemblierungsgrad zu untersuchen. Die Ergebnisse konnten einerseits diernVermutung bestätigen, dass diese Domäne im Vergleich zum starren Proteinkern sehrrnflexibel ist und andererseits, dass sie in Monomeren noch mobiler ist als in Trimeren.rnZudem wurde die lumenale Schleifenregion bei unterschiedlichen pH Werten undrnvariierender Pigmentzusammensetzung untersucht, da dieser Bereich sehr kontroversrndiskutiert wird. Die Messergebnisse offenbarten, dass diese Region starre und flexiblerernSektionen aufweist. Während der pH Wert keinen Einfluss auf die Konformation hatte,rnzeigte sich, dass die Abwesenheit von Neoxanthin zu einer Änderung der Konformationrnführt. Weiterführende Analysen der strukturellen Dynamik des LHCII in einerrnLipidmembran konnten hingegen nicht durchgeführt werden, da dies eine gerichteternInsertion des rückgefalteten Proteins in Liposomen erfordert, was trotz intensiverrnVersuche nicht zum Erfolg führte.
Resumo:
Die biologische Stickstofffixierung durch Molybdän-haltige Nitrogenasen sowie die Erforschung des zugrundeliegenden komplexen Mechanismus (N2-Aktivierung an Metall-Zentren, 6-fache Protonierung und Reduktion, N–N Bindungsspaltung unter Bildung von Ammoniak) ist von erheblichem Interesse. Insbesondere Molybdän-Komplexe wurden bereits erfolgreich als Modellverbindungen für die Untersuchung elementarer Einzelschritte der N2-Aktivierung eingesetzt. Durch die Verwendung von Triamidoamin-Liganden ist es Schrock et al. sogar gelungen mehrere Katalysezyklen zu durchlaufen und einen Mechanismus zu formulieren. Trotz der sterisch anspruchsvollen Substituenten in den Schrock-Komplexen ist die Umsatzrate dieses homogenen Katalysators, aufgrund Komplex-Deaktivierung infolge intermolekularer Reaktionen wie Dimerisierung und Disproportionierung, limitiert. In der vorliegenden Arbeit wurden einige dieser Herausforderungen angegangen und die aktiven Spezies auf einer Festphase immobilisiert, um intermolekulare Reaktionen durch räumliche Isolierung der Komplexe zu unterdrücken.rnEin Polymer-verankertes Analogon des Schrock Nitrido-Molybdän(VI)-Komplexes wurde auf einem neuen Reaktionsweg synthetisiert. Dieser beinhaltet nur einen einzigen Reaktionsschritt, um die funktionelle Gruppe „MoN“ einzuführen. Protonierung des immobilisierten Nitrido-Molybdän(VI)-Komplexes LMoVIN (L = Polymer-verankerter Triamidoamin-Ligand) mit 2,6-Lutidinium liefert den entsprechenden Imido-Molybdän(VI)-Komplex. Durch anschließende Ein-Elektronen-Reduktion mit Cobaltocen wird der Polymer-angebundene Imido-Molybdän(V)-Komplex erhalten, bewiesen durch EPR-Spektroskopie (g1,2,3 = 1.989, 1.929, 1.902). Durch die Immobilisierung und die effektive räumliche Separation der Reaktionszentren auf der Festphase werden bimolekulare Nebenreaktionen, die oft in homogenen Systemen auftreten, unterdrückt. Dies ermöglicht zum ersten Mal die Darstellung des Imido-Molybdän(V)-Intermediates des Schrock-Zyklus.rnEPR-Spektren des als Spin-Label eingeführten immobilisierten Nitrato-Kupfer(II)-Komplexes wurden unter verschiedenen Bedingungen (Lösungsmittel, Temperatur) aufgenommen, wobei sich eine starke Abhängigkeit zwischen der Zugänglichkeit und Reaktivität der immobilisierten Reaktionszentren und der Art des Lösungsmittels zeigte. Somit wurde die Reaktivität von LMoVIN gegenüber Protonen und Elektronen, welches zur Bildung von NH3 führt, unter Verwendung verschiedener Lösungsmittel untersucht und optimiert. Innerhalb des kugelförmigen Polymers verläuft die Protonierung und Reduktion von LMoVIN stufenweise. Aktive Zentren, die sich an der „äußeren Schale“ des Polymers befinden, sind gut zugänglich und reagieren schnell nach H+/e− Zugabe. Aktive Zentren im „Inneren des Polymers“ hingegen sind schlechter zugänglich und zeigen langsame diffusions-kontrollierte Reaktionen, wobei drei H+/e− Schritte gefolgt von einer Ligandenaustausch-Reaktion erforderlich sind, um NH3 freizusetzen: LMoVIN LMoVNH LMoIVNH2 LMoIIINH3 und anschließender Ligandenaustausch führt zur Freisetzung von NH3.rnIn einem weiteren Projekt wurde der Bis(ddpd)-Kupfer(II)-Komplex EPR-spektroskopisch in Hinblick auf Jahn−Teller-Verzerrung und -Dynamik untersucht. Dabei wurden die EPR-Spektren bei variabler Temperatur (70−293 K) aufgenommen. Im Festkörperspektrum bei T < 100 K erscheint der Kupfer(II)-Komplex als gestreckter Oktaeder, wohingegen das EPR-Spektrum bei höheren Temperaturen g-Werte aufzeigt, die einer pseudo-gestauchten oktaedrischen Kupfer(II)-Spezies zuzuordnen sind. Diese Tatsache wird einem intramolekularen dynamischen Jahn−Teller Phänomen zugeschrieben, welcher bei 100 K eingefroren wird.
Resumo:
Il progetto di questa tesi affronta le tematiche relative agli interventi di riqualificazione, adeguamento e rigenerazione urbana di un edificio residenziale di 15 unità abitative situato nella zona della Bolognina in Via Tibaldi. Le condizioni di vetustà dell’edificato e l’evoluzione economico sociale del quartiere hanno portato negli anni all’insorgere di nuove situazioni di criticità. Si sono riscontrati problemi relativi alle dimensioni degli alloggi (troppo grandi per le esigenze dei nuovi nuclei familiari), ai bassi livelli di comfort interni (rapporti illuminanti non rispettati e dimensioni dei vani non confacenti a normativa), all’accessibilità (vano ascensore inefficiente) e alla bassa efficienza energetica, che produce elevati costi di esercizio. L’analisi degli spazi esterni invece ha evidenziato uno stato di abbandono della corte, caratterizzata dalla disorganizzazione dei percorsi e delle aree verdi oltre a una carenza del numero di posti auto necessari agli abitanti dell’isolato. L’obiettivo che si pone la tesi è quello di adeguare l’area alle nuove esigenze dell’utenza e di migliorare gli standard qualitativi dell’edificato, considerando la fattibilità dell’intervento e ipotizzando misure che si pongano in alternativa ad una demolizione completa dell’edificio. Inoltre, le soluzioni proposte sono state studiate in modo da poter essere applicate non solo sul caso studio, ma anche sull’intero isolato, in un’ottica di riqualificazione urbana.Per gli spazi interni, le scelte adottate riguardano la demolizione e ricostruzione puntuali delle murature non portanti o collaboranti e l’ampliamento delle superfici finestrate, conformando a normativa i vani degli alloggi, dotandoli di una maggior superficie utile e riducendo la condizione di discomfort luminoso interno. La stessa strategia è stata adottata anche per ridefinire e diversificare il taglio degli alloggi. Infine per migliorare l’accessibilità all’edificio e agli alloggi le soluzioni prevedono l’inserimento un sistema loggiato per rendere raggiungibili direttamente dal vano ascensore preesistente, che presentava uno sbarco solo interpiano, due appartamenti per piano (dal primo al quarto). Per raggiungere invece le unità abitative collocate nel piano rialzato si è previsto di innalzare la quota del terreno fino all’altezza della soglia di ingresso ai vani. Parallelamente ci si è occupati della riprogettazione degli spazi esterni, optando per un’azione a scala urbana. La riorganizzazione delle aree è avvenuta attraverso l’inserimento di nuovi percorsi pedonali di collegamento all’edificato e mediante la progettazione e riqualificazione di spazi per la socializzazione. Infine, per arginare le problematiche relative al fabbisogno di parcheggi, si è agito diversificando e ponendo su livelli differenti la viabilità carrabile e gli spazi verdi attraverso l’inserimento di un parcheggio seminterrato.
Resumo:
Il progetto affronta le tematiche relative agli interventi di riqualificazione, adeguamento e rigenerazione urbana di un edificio residenziale degli anni ’20, di 15 unità abitative situato a Bologna, nella zona della Bolognina in Via Pellegrino Tibaldi. In tale edificio i problemi riscontrati riguardavano le dimensioni degli alloggi, i bassi livelli di comfort interni, l’accessibilità e la bassa efficienza energetica. Dall’analisi degli spazi esterni invece si evidenziava uno stato di abbandono della corte, caratterizzata dalla disorganizzazione dei percorsi e delle aree verdi oltre che dalla carenza di posti auto necessari agli abitanti dell’isolato. Per quanto concerne gli spazi interni, le scelte adottate riguardano la demolizione e la ricostruzione puntuale delle murature non portanti o collaboranti e l’ampliamento delle superfici finestrate mentre per riconfigurare e diversificare il taglio degli alloggi si è intervenuti solo sul quarto piano dove sono stati ricavati degli appartamenti di taglio inferiore. Infine per migliorare l’accessibilità all’edificio e agli alloggi si è previsto un sistema loggiato che rende raggiungibili direttamente dal vano ascensore preesistente, che presentava uno sbarco solo interpiano, due appartamenti per piano (dal primo al quarto). Per raggiungere invece le unità abitative collocate nel piano rialzato si è previsto di innalzare la quota del terreno fino all’altezza della soglia di ingresso ai vani. Parallelamente ci si è occupati della riprogettazione degli spazi esterni dotando le aree di nuovi percorsi pedonali di collegamento all’edificato e progettando spazi per la socializzazione. Infine, per arginare le problematiche relative al fabbisogno di parcheggi, si è agito diversificando e ponendo su livelli differenti la viabilità carrabile e gli spazi verdi attraverso l’inserimento di un parcheggio seminterrato.
Resumo:
Il presente elaborato ha lo scopo di descrivere le fasi di riparazione del trave di coda di un Cessna Super Skymaster 337A danneggiatosi durante le fasi di rimessaggio in hangar. Per prima cosa andremo ad analizzare le normative in materia di manutenzione degli aeromobili, in particolare la circolare 13 del RAI (Metodi accettabili per la manutenzione degli aeromobili) e la circolare 43.13-1A delle FAA (Acceptable methods, techniques, and practices-Aircraft ispection and repair). Verificheremo poi la tipologia del danno subito dal velivolo e, rifacendoci anche al Service Manual del costruttore, andremo a progettare la riparazione. Riparazioni estese a rivestimenti resistenti su strutture a guscio, infatti, devono preferibilmente essere fatte seguendo le specifiche raccomandazioni del costruttore dell’aeromobile. In molti casi, soprattutto se il danno non è esteso, le parti della riparazione possono essere progettate, e ne può essere dimostrata l’adeguata resistenza, senza calcolare i carichi e le sollecitazioni di progetto, considerando nel modo dovuto il materiale e le dimensioni delle parti originali e dei giunti chiodati. La cosa importante è che la parte riparata dovrà risultare pari all’originale per quanto riguarda la robustezza in relazione a tutti i tipi di carichi e alla rigidezza generale. Nel nostro caso andremo comunque a effettuare un’analisi strutturale per verificare l’effettiva correttezza dei principi contenuti nel manuale di manutenzione. Una volta verificato questo, procederemo con la realizzazione della riparazione soffermandoci sulle caratteristiche dei materiali utilizzati e sulle metodologie utilizzate durante la lavorazione. A lavoro ultimato trarremo poi le dovute conclusioni.