948 resultados para Hydatidiform mole
Resumo:
Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.
Resumo:
Negli ultimi decenni nell’Alto Adriatico, in particolare lungo la costa dell’Emilia-Romagna, si sono verificati fenomeni eutrofici con lo svilupparsi di “red tides”, con frequenza e intensità tali da aver assunto un aspetto cronico. Da questi episodi è nata l’esigenza sia di un efficiente monitoraggio dell’area, che viene svolto dal 1976 dalla Struttura Oceanografica Daphne (ARPA), sia di ricercare e studiare i meccanismi che guidano il processo. Questa zona è sotto stretta osservazione anche nell’ambito Direttiva europea 2008/56/CE, Marine Strategy Framework Directive (MSFD), in quanto l’alto Adriatico rappresenta la zona maggiormente a rischio per i fenomeni di eutrofizzazione e di bloom algali. Il lavoro di questa tesi nasce dalla necessità di approfondire diversi aspetti sollevati dalla MSFD che non vengono soddisfatti da una normale attività di monitoraggio. La frequenza e l’enorme mole di dati raccolti spesso non permette nè di riunire insieme per un unico sito tutti i parametri biotici e abiotici indicativi dello stato dell’ambiente, né di fare elaborazioni statistiche approfondite. Per fare questo sono state condotte in due siti prospicienti la località di Marina di Ravenna (costa emiliano-romagnola): DIGA SUD e GEOMAR, distanti rispettivamente 1.5 Km e 12 Km dalla costa, analisi quali-quantitative dei popolamenti fitoplanctonici presenti e concomitanti analisi dei parametri chimico-fisici (nutrienti, temperatura e salinità) dell’acqua. Il campionamento bimensile è iniziato ad aprile del 2013 ed è terminato ad ottobre dello stesso anno. Dai dati ottenuti dalle suddette analisi, avvalendosi di diversi strumenti statistici, si è cercato di capire se c’è differenza fra i due siti oggetto di studio in termini di variabili abiotiche ambientali e di popolazione fitoplanctonica dovuta ad effetto geografico (distanza dalla costa). Inoltre si è cercato di individuare come le variabili ambientali vadano ad influenzare la distribuzione dei diversi taxa fitoplanctonici e di segnalare l’eventuale presenza di specie microalgali potenzialmente tossiche e/o dannose.
Resumo:
In der vorliegenden Studie wurden verschiedene Techniken eingesetzt um drei Proben (4, 7, and 8) die aus denrnKorrosionsprodukten von aus dem Kosovo Krieg stammenden Munitionskugeln, bestehend aus abgereichertem Uranrn(Depleted Uranium - DU), zu untersuchen. Als erstes Verfahren wurde die Raman-Spektroskopie eingesetzt. Hierbeirnzeigte sichin den Proben, charakterisiert durch einen Doppelpeak, die Anwesenheit von Schoepitrn(UO2)8O2(OH)12(H2O)12. Der erste und zweite Peakzeigte sich im Spektralbereich von 840,3-842,5 cm-1rnbeziehungsweise 853,6-855,8 cm-1. Diese Werte stimmen mit den Literaturwerten für Raman-Peaks für Schoepitrnüberein. Des Weiteren wurde bei dieser Untersuchungsmethode Becquerelite Ca(UO2)6O4(OH)6(H2O)8 mit einemrnPeak im Bereich zwischen 829 to 836 cm-1 gefunden. Aufgrund des Fehlens des Becquerelitespektrums in derrnSpektralbibliothek wurde eine in der Natur vorkommende Variante analysiert und deren Peak bei 829 cm-1 bestimmt,rnwas mit den Ergebnissen in den Proben korrespondiert. Mittels Röntgenbeugung (X-Ray Diffraction, XRD) zeigtenrnsich in allen Proben ähnliche Spektren. Das lässt darauf schließen, dass das pulverisierte Material in allen Probenrndas gleiche ist. Hierbei zeigte sich eine sehr gute Übereinstimmung mit Schoepit und/oder meta-rnSchoepit(UO2)8O2(OH)12(H2O)10, sowie Becquerelite. Weiterhin war weder Autunit, Sabugalit noch Uranylphosphatrnanwesend, was die Ergebnisse einer anderen Studie, durchgeführt an denselben Proben, wiederlegt. DiernAnwesenheit von P, C oder Ca im Probenmaterial konnte ausgeschlossen werden. Im Falle von Calciumkann diesrnmit der Anwesenheit von Uran erklärt werden, welches aufgrund seines Atomradius bevorzugt in Becquerelite (1:6)rneingebaut wird. Die beiden Hauptpeaks für Uran lagen im Falle von U 4f 7/2 bei 382.0 eV und im Falle von U 4f 5/2rnbei 392 eV. Diese Werte mit den Literaturwerten für Schoepit und meta-Schoepitüberein. Die Ergebnissernelektronenmikroskopischen Untersuchung zeigen U, O, Ca, Ti als dominante Komponenten in allen Messungen.rnElemente wie Si, Al, Fe, S, Na, und C wurden ebenfalls detektiert; allerdings kann nicht ausgeschlossen werden,rndass diese Elemente aus dem Boden in der unmittelbaren Umgebung der Munitionsgeschosse stammen. Gold wurdernebenfalls gemessen, was aber auf die Goldarmierung in den Probenaufbereitungsbehältern zurückgeführt werdenrnkann. Die Elektronenmikroskopie zeigte außerdem einige Stellen in denen elementares Uran und Bodenmineralernsowie sekundäre Uranminerale auftraten. Die Elementübersicht zeigt einen direkten Zusammenhang zwischen U andrnCa und gleichzeitig keine Korrelation zwischen U und Si, oder Mg. Auf der anderen Seite zeigte sich aber einrnZusammenhang zwischen Si und Al da beide Konstituenten von Bodenmineralen darstellen. Eine mit Hilfe derrnElektronenstrahlmikroanalyse durchgeführte quantitative Analyse zeigte den Massenanteil von Uran bei ca. 78 - 80%,rnwas mit den 78,2% and 79,47% für Becquerelite beziehungsweise Schoepit aufgrund ihrer Summenformelrnkorrespondiert. Zusätzlich zeigt sich für Calcium ein Massenanteil von 2% was mit dem Wert in Becquerelite (2.19%)rnrecht gut übereinstimmt. Der Massenanteil von Ti lag in einigen Fällen bei 0,77%, was auf eine noch nicht korrodierternDU-Legierung zurückzuführen ist. Ein Lösungsexperiment wurde weiterhin durchgeführt, wobei eine 0,01 M NaClO4-rnLösung zum Einsatz kam in der die verbliebene Probensubstanz der Korrosionsprodukte gelöst wurde;rnNatriumperchlorate wurde hierbei genutzt um die Ionenstärke bei 0,01 zu halten. Um Verunreinigungen durchrnatmosphärisches CO2 zu vermeiden wurden die im Versuch für die drei Hauptproben genutzten 15 Probenbehälterrnmit Stickstoffgas gespült. Eine Modelkalkulation für den beschriebenen Versuchsaufbau wurde mit Visual MINTEQrnv.3.0 für die mittels vorgenannten Analysemethoden beschriebenen Mineralphasen im pH-Bereich von 6 – 10 imrnFalle von Becquerelite, und Schoepit berechnet. Die modellierten Lösungskurven wurden unter An- und Abwesenheitrnvon atmosphärischem CO2 kalkuliert. Nach dem Ende des Lösungsexperiments (Dauer ca. 6 Monate) zeigten diernKonzentrationen des gelösten Urans, gemessen mittels ICP-OES, gute Übereinstimmung mit den modelliertenrnSchoepit und Becquerelite Kurven. Auf Grund des ähnlichen Löslichkeitverhaltens war es nicht möglich zwichen denrnbeiden Mineralen zu unterscheiden. Schoepit kontrolliert im sauren Bereich die Löslichkeit des Urans, währendrnbecquerelit im basichen am wenigsten gelöst wird. Des Weiteren bleibt festzuhalten, dass ein Anteil an CO2 in diernverschlossenen Probenbehälter eingedrungen ist, was sich mit der Vorhersage der Modeldaten deckt. Die Löslichkeitrnvon Uran in der Lösung als Funktion des pH-Wertes zeigte die niedrigsten Konzentrationen im Falle einer Zunahmerndes pH-Wertes von 5 auf 7 (ungefähr 5,1 x 10-6 mol/l) und einer Zunahme des pH-Wertes auf 8 (ungefähr 1,5 x 10-6rnmol/l bei). Oberhalb dieses Bereichs resultiert jeder weitere Anstieg des pH-Wertes in einer Zunahme gelösten Uransrnin der Lösung. Der ph-Wert der Lösung wie auch deren pCO2-Wert kontrollieren hier die Menge des gelösten Urans.rnAuf der anderen Seite zeigten im Falle von Becquerelite die Ca-Konzentrationen höhere Werte als erwartet, wobeirnwahrscheinlich auf eine Vermischung der Proben mit Bodensubstanz zurückgeführt werden kann. Abschließendrnwurde, unter Berücksichtigung der oben genannten Ergebnisse, eine Fallstudie aus Basrah (Irak) diskutiert, wo inrnzwei militärischen Konflikten Uranmunition in zwei Regionen unter verschiedenen Umweltbedingungen eingesetztrnwurden.
Resumo:
Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.
Resumo:
Il primo obiettivo di questo lavoro di tesi è quello di sviluppare il primo modello matematico di potenziale d'azione pacemaker umano: è vero che gli studi elettrofisiologici pubblicati sull'uomo non hanno ancora raggiunto la mole di risultati ottenuti, invece, sugli altri mammiferi da laboratorio, ma i tempi possono ritenersi "maturi", in quanto i dati disponibili in letteratura sono sufficienti e adeguati allo scopo. Il secondo obiettivo di questo lavoro di tesi nasce direttamente dall'esigenza clinica di definire le relazioni causa-effetto tra la mutazione T78M della proteina caveolina-3 e le varie forme di aritmie cardiache riscontrate, ad essa associate. Lo scopo è quello di stabilire quale sia il link tra genotipo della mutazione e fenotipo risultante, ovvero colmare il gap esistente tra i dati sperimentali in vitro in possesso ed i meccanismi di alterazione delle correnti ioniche affette, per arrivare a osservare l'effetto che ne deriva sull'attività elettrica delle cellule. Proprio in relazione a quest'ultimo punto, i due obiettivi del lavoro convergono: l'analisi degli effetti indotti dalla mutazione T78M è, infatti, effettuata sul modello di potenziale d'azione di nodo senoatriale umano sviluppato (oltre che su altri modelli atriali).
Resumo:
La costituzione dell’Unione Europea nel 1993 pose la questione del dover aiutare le regioni svantaggiate in essa contenute, allo scopo di promuovere i principi di eguaglianza appena stipulati. Allo stesso tempo si dovette cercare uno strumento per facilitare la collaborazione fra le regioni appartenenti all’Unione stessa. Tale strumento sono i Fondi Strutturali Europei, un sistema di autofinanziamento utilizzato per promuovere progetti lavorativi, di cultura o di ricerca in tutta Europa. La distribuzione dei fondi avviene secondo delle regole specifiche e spesso i temi verso cui i fondi vengono rivolti sono scelti di comune accordo tra i Paesi membri. Le amministrazioni regionali hanno quindi la possibilità di usufruire di una notevole quantità di denaro, giustificando in modo appropriato la destinazione d’uso dei fondi e stilando dei piani che ne descrivano la loro suddivisione nei vari progetti. In seguito all’evoluzione tecnologica degli anni ’60 e ’70 nacquero nuovi strumenti a favore delle aziende: i DSS (Decision Support System), descritti come “sistemi informatici a supporto del processo decisionale”. L’uso di questa nuova tecnologia permise una facilitazione dei compiti decisionali, oltre ad un miglioramento delle prestazioni negli ambiti di applicazione. Da tali premesse nascono diversi progetti che puntano ad utilizzare strumenti di supporto alle decisioni nei campi più diversi: amministrativo, medico, politico, culturale. In particolare, l’area d’applicazione politica vive un grande fermento negli ultimi anni, grazie a strumenti in grado di aiutare la classe politica in decisioni su più livelli di scelta e su una grosse mole di dati. Un esempio fra gli altri è la redazione del Programma Operativo Regionale, il quale fa affidamento sui finanziamenti dei Fondi Strutturali Europei per potersi sostentare. Negli ultimi anni la Regione Emilia-Romagna ha puntato molto sull’uso di strumenti informatici e automatizzati come aiuto nella compilazione di progetti, piani operativi e preventivi di spesa, sviluppando delle collaborazioni con diversi Enti ed Università, tra le quali l’Università degli Studi di Bologna. L’ultimo progetto realizzato in collaborazione con la Regione, e qui esposto, riguarda la realizzazione di uno strumento di supporto alle decisioni politiche per la ripartizione dei Fondi Europei, in particolare quelli destinati al Programma Operativo Regionale (POR).
Resumo:
Il Centro di Documentazione sul Nazionalsocialismo di Colonia è un importante sito museale che fornisce uno spaccato della vita, della società e della politica al tempo del Terzo Reich nella città di Colonia e non solo. Allestito in un edificio appartenuto alla Gestapo, nei sotterranei presenta ancora le prigioni in cui furono detenute alcune delle vittime del Regime, luogo oggi divenuto monumento commemorativo. Durante un soggiorno a Colonia nell’ambito del progetto Erasmus, ho avuto l’opportunità di tradurre in italiano l’audioguida del Centro di Documentazione. Vista la mole del testo integrale, in questa tesi vengono analizzati alcuni dei testi che per le loro caratteristiche linguistiche o di contenuto hanno presentato i maggiori problemi traduttivi. Si procederà inoltre ad un’analisi più generale della traduzione in ambito museale, descrivendone le peculiarità che influenzano la strategia traduttiva. Attraverso la selezione dei testi presentati in questa tesi, si è cercato di ricreare l’eterogeneità che caratterizza il testo dell’audioguida per quanto riguarda la tipologia testuale e il registro linguistico. In particolare, in ogni capitolo si analizza un genere testuale diverso: testi caratterizzati dal linguaggio coniato dal Nazionalsocialismo, testi a carattere storico, testi a carattere espressivo e infine una testimonianza orale. In ogni sezione si evidenzieranno le diverse esigenze traduttive e soprattutto le varie strategie adottate per far sì che le tante voci contenute nell’audioguida potessero raccontare la propria storia anche ad un pubblico italiano.
Resumo:
Basata sul reperimento di un’ampia mole di testi giornalistici (come cronache, interviste, elzeviri e articoli di “Terza”) dedicati alle pratiche coreiche e pubblicati in Italia nel corso del ventennio fascista, la tesi ricostruisce i lineamenti di quello che, seppure ancora embrionale e certo non specialistico, si può comunque ritenere una sorta di “pensiero italiano” sulla danza del Primo Novecento. A partire dalla ricognizione sistematica di numerose testate quotidiane e periodiche e, pertanto, dalla costruzione di un nutrito corpus di fonti primarie, si è proceduto all’analisi dei testi reperiti attraverso un approccio metodologico che, fondamentalmente storiografico, accoglie tuttavia alcuni rudimenti interpretativi elaborati in ambito semiotico (con particolare riferimento alle teorizzazioni di Jurij Lotman e Umberto Eco), il tutto al fine di cogliere, pur nell’estrema varietà formale e contenutistica offerta dal materiale documentario, alcune dinamiche culturali di fondo attraverso le quali disegnare, da un lato, il panorama delle tipologie di danza effettivamente praticate sulle scene italiane del Ventennio,e, dall’altro, quello dell’insieme di pensieri, opinioni e gusti orbitanti attorno ad esse Ne è scaturita una trattazione fondamentalmente tripartita in cui, dopo la messa in campo delle questioni metodologiche, si passa dapprima attraverso l’indagine dei tre principali generi di danza che, nella stampa del periodo fascista, si ritenevano caratteristici della scena coreica internazionale – qui definiti nei termini di “ballo teatrale”, “ballo russo” e “danze libere” – e, successivamente, si presenta un approfondimento su tre singolari figure di intellettuali che, ognuno con un’attitudine estremamente personale, hanno dedicato alla danza un’attenzione speciale: Anton Giulio Bragaglia, Paolo Fabbri e Marco Ramperti. Un’ampia antologia critica completa il lavoro ripercorrendone gli snodi principali.
Resumo:
Im Rahmen dieser Arbeit wurden zunächst die ausgewählten Lipide anhand ihrer p-ArnIsothermen charakterisiert. Dabei zeigte sich, dass die flüssiganaloge Phase umso ausgeprägter ist, je größer die hydrophile Kopfgruppe des jeweiligen Lipids ist, so dass diese schon bei sehr großen Flächen miteinander wechselwirken. Außerdem wurde das Mischungsverhalten und die Domänenbildung binärer und ternärer Mischungen untersucht.rnDabei konnte im Fall der binären Mischungen der polymerisierbaren Lipide 1 und 2 mit dem perfluorierten Lipid 3 eine Phasenseparation beobachtet werden. Hierbei zeigte sich, dass sowohl die Form als auch die Größe der Domänen durch zwei Faktoren kontrolliert werden konnte, nämlich zum einen durch den Lateraldruck und zum anderen durch die molare Zusammensetzung der binären Mischung. Bei niedrigen Lateraldrücken (10 mN/m) warenrnfluorierte und nichtfluorierte Lipide in der homogenen flüssiganalogen Phase vollständig mischbar. Bei sehr hohen Lateraldrücken (30 mN/m) lag eine nahezu vollständige Entmischung vor, da das Lipid 1 hier schon vollständig auskristallisiert war. Im Fall der binären Mischung 2/3 konnte ein solches Verhalten nicht beobachtet werden, was an dem Phasenverhalten des Lipids 2 liegt. Aber auch hier lies sich die Domänenbildung sowohl überrnden Lateraldruck als auch über die Komposition der binären Mischung kontrollieren. Des Weiteren konnte gezeigt werden, dass die Monoschichten dieser beiden binären Mischungen durch photochemische Polymerisation stabilisiert werden können.rnDer Einfluss des Fluorierungsgrades auf das Phasenseparationsverhalten wurde anhand der binären Mischungen 1/6 und 1/8 untersucht. Es zeigte sich hier, dass sich auch hier in beiden Fällen die Domänenbildung sowohl über den Lateraldruck als auch über die Komposiion der Mischung steuern lies. Ein Vergleich der gefundenen Strukturen belegte darüber hinaus klare Unterschiede zwischen dem fluorierten und teilfluorierten Lipid. Denn in der binären Mischung 1/8 (perfluoriertes Lipid) konnte die hexagonale Grundstruktur, die zuvor schon inrnder binären Mischung 1/3 gefunden wurde, beobachtet werden. Demgegenüber hatten die kristallinen Domänen, die in der binären Mischung 1/6 (teilfluoriertes Lipid) beobachtet wurden, die hexagonale Grundform verloren. Hier wurden rundliche unförmige Domänen gefunden, die zudem deutlich kleiner waren als die bei der Mischung mit dem perfluorierten Lipid gefundenen Domänen. In den ternären Mischungen zeigte sich, dass diese ternären Mischungen eine ähnliche Phasenseparation zeigten wie die binäre Mischung 1/3. Die hier auftretenden kristallanalogen Domänen bestanden aus Lipid 1, wobei die umgebendernflüssiganaloge Matrix die beiden fluorierten Lipide enthielt. Deswegen war es von besonderer Bedeutung wie sich die beiden fluorierten Verbindungen untereinander verhalten würden.rnDazu wurden die p-A Isothermen der binären Mischung 3/5 ausgewertet und dabei zeigte sich, dass sich das Vakzinlipid, sofern der Anteil nicht höher ist als der des fluorierten Matrixlipides, in idealer Weise mit diesem mischt. Eine Untersuchung der Antigen-Antikörper Erkennung der binären Mischungen 3/5 zeigte, dass die Reaktion mit dem Antikörper umso effektiver war, je größer der Anteil des Vakzinlipids 5 war. Allerdings konnte hier kein linearer Zusammenhang gefunden werden. Stattdessen handelte es sich umrneine Sättigungskurve, da bereits ein Anteil an Lipid 5 von 42,2 mol% eine nur geringfügig schwächere Antikörperanbindung zeigte, als das reine Vakzinlipid.
Resumo:
Le caratteristiche strutturali dell’occhio dei Cetacei sono state in passato oggetto di studio. Tuttavia, i dati relativi alla stratigrafia della retina ed alle caratteristiche morfologiche dei neuroni gangliari in essa presenti sono piuttosto ridotti; per questo motivo, l’obiettivo della presente ricerca è stato quello di studiare, mediante metodiche di immunoistochimica, l’uso della microscopia ottica e di opportuni software di analisi immagine, le caratteristiche morfologiche della retina e delle cellule gangliari in essa presenti in differenti specie di Cetacei. Per la presente ricerca sono stati utilizzate come specie di riferimento i seguenti Delfinidi: tursiope (Tursiops truncatus) e stenella striata (Stenella coeruleoalba). Le analisi sulle sezioni interessano l’area, la densità dei neuroni gangliari, la stratigrafia della retina e l’analisi morfometrica degli strati e dei neuroni. I risultati ottenuti indicano come la retina del tursiope e della stenella striata, nonostante un'organizzazione di base assai simile a quella degli altri Mammiferi, mostri caratteristiche qualitative sue proprie. Gli strati retinici sono quelli che si osservano in tutti i Mammiferi e lo spessore totale della retina è, nel tursiope (101,23 µm ) e nella stenella striata (108.35 µm ), pressochè simile ai Mammiferi terrestri (110-220 µm). Nell'ambito della retina, lo strato che presento lo spesso medio maggiore è quello dei granuli interni (SNE); tale dato non coincide con quanto osservato in altri Mammiferi. I neuroni gangliari presenti nella retina di tursiope e stenella striata mostrano, analogamente a quanto osservato in altri Cetacei, una bassa densità cellulare. Nel tursiope e nella stenella striata le aree a maggiore densità cellulare presentano neuroni multipolari di dimensioni minori rispetto a quelle con bassa densità. Questo dato potrebbe indicare una "cellularità" (quantità di superficie occupata da cellule) costante nei differenti distretti retinici. I neuroni gangliari presenti nella retina di tursiope e stenella striata sono disposti in un unico strato, come osservato in numerosi altri Cetacei, ma differisce da quanto osservato nel capodoglio (Physeter macrocephalus) dove tali cellule si dispongono in strati multipli. Neuroni gangliari di grandi dimensioni sono stati osservati sia nel tursiope che nella stenella striata. Tale dato coincide con quanto osservato in altri Odontoceti ed in alcuni Misticeti. Allo stato attuale non è ancora stato dato un chiaro significato funzionale alle cellule gangliari giganti. Un possibile ruolo potrebbe essere quello di condurre, in animali di grossa mole, l'impulso nervoso molto velocemente, grazie alla presenza di un assone provvisto di un diametro notevole. Tale interpretazione non è da tutti accettata in quanto Mammiferi terrestri di grandi dimensioni non presentano nella loro retina neuroni gangliari giganti.
Resumo:
Il 17 agosto 1999 un violento terremoto di Mw 7,4 (terremoto di Izmit) ha interessato l’area del Golfo di Izmit, dove il segmento settentrionale della Faglia Nord-Anatolica (FNA) entra nel Mare di Marmara. Oltre a causare enormi danni e un numero di vittime altissimo (oltre 20000), la dislocazione orizzontale di oltre 5 metri in prossimità dell’epicentro ha caricato tettonicamente il segmento della FNA verso Istanbul. Da qui, l’importanza di un modello geologico-strutturale condiviso dalla comunità scientifica per questo ramo della Faglia Nord Anatolica, per la formulazione dei modelli di stima del rischio sismico in una zona della Turchia molto densamente popolata (oltre 12 milioni di persone). I numerosi studi di geologia e geofisica marina condotti nel Golfo di Izmit e più in generale nel Mare di Marmara, hanno avuto un grosso impulso in concomitanza del terremoto del 1999 e negli anni successivi, quando il Mare di Marmara è stato inserito tra i siti di importanza strategica. Nonostante la grande mole di dati raccolti e le pubblicazioni di lavori importanti che hanno contribuito a portare nuova luce sulla geologia di questo territorio complesso, permangono ancora incertezze e controversie sui rapporti le tra la formazione del bacino di Marmara e la FNA. Questo lavoro di tesi ha lo scopo di esaminare la cinematica della FNA nell’area del Mare di Marmara, in generale, ed in particolare lungo i vari bacini allineati lungo il ramo settentrionale: da Est verso Ovest, il Bacino di Cinarcik, il Bacino di Kumburgaz, il Bacino Centrale ed il Bacino di Tekirdag. Analizzeremo la natura e il grado di attività dei segmenti individuati da zone di trasferimento (bending o overstep) e tenteremo di cartografare la geometria, lo stile strutturale e la lunghezza di ciascun segmento, per effettuare una stima del potenziale sismogenetico di ciascun ramo utilizzando relazioni empiriche.
Resumo:
La mole di reperti e manufatti definiti, al momento, dalla legge come “bene culturale” è immensa e in continua espansione. La definizione di bene culturale copre un'infinità di oggetti, di variabili datazioni, materiali e dimensioni ed è ovvio immaginare che la quantità di manufatti da conservare e restaurare andrà, col tempo, ampliandosi essendo logico supporre che, con l'evolversi del genere umano, gli oggetti attualmente di uso e consumo andranno ad aggiungersi a quanto già viene conservato e tutelato diventando anch'essi reperti storici. La necessità di conoscere quanto più possibile del bene e di massimizzarne la durata mantenendo al contempo la sua integrità e una sua accessibilità al pubblico ha portato alla ricerca di soluzioni sempre più efficaci per adempiere allo scopo. Il fortunato evolversi della tecnologia ha ben risposto a questa richiesta permettendo l'utilizzo di una grande quantità di strumenti per far fronte alle più varie necessità del restauratore, dello studioso e del conservatore che cercano risposte sull'oggetto in esame volendo al contempo incidere il meno possibile sul bene stesso. Al momento di questa trattazione ci troviamo di fronte ad un'enorme quantità di dati ottenibili dalle più svariate forme di indagine. Ciò che tuttavia accomuna molti degli strumenti di indagine non distruttiva utilizzati da chi lavora nel campo dello studio, della conservazione e del restauro è il basarsi sull'impiego delle onde elettromagnetiche nelle diverse bande spettrali. Questa trattazione ha quindi lo scopo di fare il punto su quali tipologie, con quali metodi e con quali risultati le onde elettromagnetiche rispondono alle esigenze della conservazione e dello studio dei beni culturali.
Resumo:
VIRTIS, a bordo di Venus Express, è uno spettrometro in grado di operare da 0.25 a 5 µm. Nel periodo 2006-2011 ha ricavato un'enorme mole di dati ma a tutt'oggi le osservazioni al lembo sono poco utilizzate per lo studio delle nubi e delle hazes, specialmente di notte. Gli spettri al lembo a quote mesosferiche sono dominati dalla radianza proveniente dalle nubi e scatterata in direzione dello strumento dalle hazes. L'interpretazione degli spettri al lembo non può quindi prescindere dalla caratterizzazione dell'intera colonna atmosferica. L'obiettivo della tesi è di effettuare un’analisi statistica sulle osservazioni al nadir e proporre una metodologia per ricavare una caratterizzazione delle hazes combinando osservazioni al nadir e al lembo. La caratterizzazione delle nubi è avvenuta su un campione di oltre 3700 osservazioni al nadir. È stato creato un ampio dataset di spettri sintetici modificando, in un modello iniziale, vari parametri di nube quali composizione chimica, numero e dimensione delle particelle. Un processo di fit è stato applicato alle osservazioni per stabilire quale modello potesse descrivere gli spettri osservati. Si è poi effettuata una analisi statistica sui risultati del campione. Si è ricavata una concentrazione di acido solforico molto elevata nelle nubi basse, pari al 96% in massa, che si discosta dal valore generalmente utilizzato del 75%. Si sono poi integrati i risultati al nadir con uno studio mirato su poche osservazioni al lembo, selezionate in modo da intercettare nel punto di tangenza la colonna atmosferica osservata al nadir, per ricavare informazioni sulle hazes. I risultati di un modello Monte Carlo indicano che il numero e le dimensioni delle particelle previste dal modello base devono essere ridotte in maniera significativa. In particolare si osserva un abbassamento della quota massima delle hazes rispetto ad osservazioni diurne.
Resumo:
L'elaborato finale è basato su una proposta di traduzione dal bulgaro all'italiano del racconto breve "Krăv ot kărtica" di Zdravka Evtimova. Sarà suddivisso in tre sezioni principali: la prima si occuperà brevemente di presentare la scrittrice, con particolare attenzione alla sua attività di traduttrice in diverse lingue europee. Si passerà poi a un excursus sulla letteratura contemporanea bulgara, con particolare attenzione alle cause storiche che, dopo il 1989, hanno portato allo sviluppo di una certa produzione letteraria e alla pubblicazione di autori oggi famosi anche all'estero e che 'esportano' la propria letteratura in Europa e non solo, permettendo di far conoscere questa realtà altrimenti ignota ai più. Infine si parlerà brevemente dello stile personale di Zdravka Evtimova, sia in generale che nel racconto preso in esame. La sezione successiva riguarda l'analisi e la discussione dei problemi incontrati durante il processo di traduzione, suddivisa in un analisi dei problemi di ordine e lessicale, e culturale. L'ultima sezione sarà dedicata a un breve commento sull'auto-traduzione e i caratteri principali del procedimento traduttivo di Zdravka Evtimova rispetto alla versione inglese del racconto, "Blood of a mole". In appendice saranno fruibili la versione originale del brano, la traduzione proposta e il testo in inglese.
Resumo:
PhEDEx, the CMS transfer management system, during the first LHC Run has moved about 150 PB and currently it is moving about 2.5 PB of data per week over the Worldwide LHC Computing Grid (WLGC). It was designed to complete each transfer required by users at the expense of the waiting time necessary for its completion. For this reason, after several years of operations, data regarding transfer latencies has been collected and stored into log files containing useful analyzable informations. Then, starting from the analysis of several typical CMS transfer workflows, a categorization of such latencies has been made with a focus on the different factors that contribute to the transfer completion time. The analysis presented in this thesis will provide the necessary information for equipping PhEDEx in the future with a set of new tools in order to proactively identify and fix any latency issues. PhEDEx, il sistema di gestione dei trasferimenti di CMS, durante il primo Run di LHC ha trasferito all’incirca 150 PB ed attualmente trasferisce circa 2.5 PB di dati alla settimana attraverso la Worldwide LHC Computing Grid (WLCG). Questo sistema è stato progettato per completare ogni trasferimento richiesto dall’utente a spese del tempo necessario per il suo completamento. Dopo svariati anni di operazioni con tale strumento, sono stati raccolti dati relativi alle latenze di trasferimento ed immagazzinati in log files contenenti informazioni utili per l’analisi. A questo punto, partendo dall’analisi di una ampia mole di trasferimenti in CMS, è stata effettuata una suddivisione di queste latenze ponendo particolare attenzione nei confronti dei fattori che contribuiscono al tempo di completamento del trasferimento. L’analisi presentata in questa tesi permetterà di equipaggiare PhEDEx con un insieme di utili strumenti in modo tale da identificare proattivamente queste latenze e adottare le opportune tattiche per minimizzare l’impatto sugli utenti finali.