974 resultados para Podridão mole
Resumo:
Il 17 agosto 1999 un violento terremoto di Mw 7,4 (terremoto di Izmit) ha interessato l’area del Golfo di Izmit, dove il segmento settentrionale della Faglia Nord-Anatolica (FNA) entra nel Mare di Marmara. Oltre a causare enormi danni e un numero di vittime altissimo (oltre 20000), la dislocazione orizzontale di oltre 5 metri in prossimità dell’epicentro ha caricato tettonicamente il segmento della FNA verso Istanbul. Da qui, l’importanza di un modello geologico-strutturale condiviso dalla comunità scientifica per questo ramo della Faglia Nord Anatolica, per la formulazione dei modelli di stima del rischio sismico in una zona della Turchia molto densamente popolata (oltre 12 milioni di persone). I numerosi studi di geologia e geofisica marina condotti nel Golfo di Izmit e più in generale nel Mare di Marmara, hanno avuto un grosso impulso in concomitanza del terremoto del 1999 e negli anni successivi, quando il Mare di Marmara è stato inserito tra i siti di importanza strategica. Nonostante la grande mole di dati raccolti e le pubblicazioni di lavori importanti che hanno contribuito a portare nuova luce sulla geologia di questo territorio complesso, permangono ancora incertezze e controversie sui rapporti le tra la formazione del bacino di Marmara e la FNA. Questo lavoro di tesi ha lo scopo di esaminare la cinematica della FNA nell’area del Mare di Marmara, in generale, ed in particolare lungo i vari bacini allineati lungo il ramo settentrionale: da Est verso Ovest, il Bacino di Cinarcik, il Bacino di Kumburgaz, il Bacino Centrale ed il Bacino di Tekirdag. Analizzeremo la natura e il grado di attività dei segmenti individuati da zone di trasferimento (bending o overstep) e tenteremo di cartografare la geometria, lo stile strutturale e la lunghezza di ciascun segmento, per effettuare una stima del potenziale sismogenetico di ciascun ramo utilizzando relazioni empiriche.
Resumo:
La mole di reperti e manufatti definiti, al momento, dalla legge come “bene culturale” è immensa e in continua espansione. La definizione di bene culturale copre un'infinità di oggetti, di variabili datazioni, materiali e dimensioni ed è ovvio immaginare che la quantità di manufatti da conservare e restaurare andrà, col tempo, ampliandosi essendo logico supporre che, con l'evolversi del genere umano, gli oggetti attualmente di uso e consumo andranno ad aggiungersi a quanto già viene conservato e tutelato diventando anch'essi reperti storici. La necessità di conoscere quanto più possibile del bene e di massimizzarne la durata mantenendo al contempo la sua integrità e una sua accessibilità al pubblico ha portato alla ricerca di soluzioni sempre più efficaci per adempiere allo scopo. Il fortunato evolversi della tecnologia ha ben risposto a questa richiesta permettendo l'utilizzo di una grande quantità di strumenti per far fronte alle più varie necessità del restauratore, dello studioso e del conservatore che cercano risposte sull'oggetto in esame volendo al contempo incidere il meno possibile sul bene stesso. Al momento di questa trattazione ci troviamo di fronte ad un'enorme quantità di dati ottenibili dalle più svariate forme di indagine. Ciò che tuttavia accomuna molti degli strumenti di indagine non distruttiva utilizzati da chi lavora nel campo dello studio, della conservazione e del restauro è il basarsi sull'impiego delle onde elettromagnetiche nelle diverse bande spettrali. Questa trattazione ha quindi lo scopo di fare il punto su quali tipologie, con quali metodi e con quali risultati le onde elettromagnetiche rispondono alle esigenze della conservazione e dello studio dei beni culturali.
Resumo:
VIRTIS, a bordo di Venus Express, è uno spettrometro in grado di operare da 0.25 a 5 µm. Nel periodo 2006-2011 ha ricavato un'enorme mole di dati ma a tutt'oggi le osservazioni al lembo sono poco utilizzate per lo studio delle nubi e delle hazes, specialmente di notte. Gli spettri al lembo a quote mesosferiche sono dominati dalla radianza proveniente dalle nubi e scatterata in direzione dello strumento dalle hazes. L'interpretazione degli spettri al lembo non può quindi prescindere dalla caratterizzazione dell'intera colonna atmosferica. L'obiettivo della tesi è di effettuare un’analisi statistica sulle osservazioni al nadir e proporre una metodologia per ricavare una caratterizzazione delle hazes combinando osservazioni al nadir e al lembo. La caratterizzazione delle nubi è avvenuta su un campione di oltre 3700 osservazioni al nadir. È stato creato un ampio dataset di spettri sintetici modificando, in un modello iniziale, vari parametri di nube quali composizione chimica, numero e dimensione delle particelle. Un processo di fit è stato applicato alle osservazioni per stabilire quale modello potesse descrivere gli spettri osservati. Si è poi effettuata una analisi statistica sui risultati del campione. Si è ricavata una concentrazione di acido solforico molto elevata nelle nubi basse, pari al 96% in massa, che si discosta dal valore generalmente utilizzato del 75%. Si sono poi integrati i risultati al nadir con uno studio mirato su poche osservazioni al lembo, selezionate in modo da intercettare nel punto di tangenza la colonna atmosferica osservata al nadir, per ricavare informazioni sulle hazes. I risultati di un modello Monte Carlo indicano che il numero e le dimensioni delle particelle previste dal modello base devono essere ridotte in maniera significativa. In particolare si osserva un abbassamento della quota massima delle hazes rispetto ad osservazioni diurne.
Resumo:
L'elaborato finale è basato su una proposta di traduzione dal bulgaro all'italiano del racconto breve "Krăv ot kărtica" di Zdravka Evtimova. Sarà suddivisso in tre sezioni principali: la prima si occuperà brevemente di presentare la scrittrice, con particolare attenzione alla sua attività di traduttrice in diverse lingue europee. Si passerà poi a un excursus sulla letteratura contemporanea bulgara, con particolare attenzione alle cause storiche che, dopo il 1989, hanno portato allo sviluppo di una certa produzione letteraria e alla pubblicazione di autori oggi famosi anche all'estero e che 'esportano' la propria letteratura in Europa e non solo, permettendo di far conoscere questa realtà altrimenti ignota ai più. Infine si parlerà brevemente dello stile personale di Zdravka Evtimova, sia in generale che nel racconto preso in esame. La sezione successiva riguarda l'analisi e la discussione dei problemi incontrati durante il processo di traduzione, suddivisa in un analisi dei problemi di ordine e lessicale, e culturale. L'ultima sezione sarà dedicata a un breve commento sull'auto-traduzione e i caratteri principali del procedimento traduttivo di Zdravka Evtimova rispetto alla versione inglese del racconto, "Blood of a mole". In appendice saranno fruibili la versione originale del brano, la traduzione proposta e il testo in inglese.
Resumo:
PhEDEx, the CMS transfer management system, during the first LHC Run has moved about 150 PB and currently it is moving about 2.5 PB of data per week over the Worldwide LHC Computing Grid (WLGC). It was designed to complete each transfer required by users at the expense of the waiting time necessary for its completion. For this reason, after several years of operations, data regarding transfer latencies has been collected and stored into log files containing useful analyzable informations. Then, starting from the analysis of several typical CMS transfer workflows, a categorization of such latencies has been made with a focus on the different factors that contribute to the transfer completion time. The analysis presented in this thesis will provide the necessary information for equipping PhEDEx in the future with a set of new tools in order to proactively identify and fix any latency issues. PhEDEx, il sistema di gestione dei trasferimenti di CMS, durante il primo Run di LHC ha trasferito all’incirca 150 PB ed attualmente trasferisce circa 2.5 PB di dati alla settimana attraverso la Worldwide LHC Computing Grid (WLCG). Questo sistema è stato progettato per completare ogni trasferimento richiesto dall’utente a spese del tempo necessario per il suo completamento. Dopo svariati anni di operazioni con tale strumento, sono stati raccolti dati relativi alle latenze di trasferimento ed immagazzinati in log files contenenti informazioni utili per l’analisi. A questo punto, partendo dall’analisi di una ampia mole di trasferimenti in CMS, è stata effettuata una suddivisione di queste latenze ponendo particolare attenzione nei confronti dei fattori che contribuiscono al tempo di completamento del trasferimento. L’analisi presentata in questa tesi permetterà di equipaggiare PhEDEx con un insieme di utili strumenti in modo tale da identificare proattivamente queste latenze e adottare le opportune tattiche per minimizzare l’impatto sugli utenti finali.
Resumo:
Nell'era genomica moderna, la mole di dati generata dal sequenziamento genetico è diventata estremamente elevata. L’analisi di dati genomici richiede l’utilizzo di metodi di significatività statistica per quantificare la robustezza delle correlazioni individuate nei dati. La significatività statistica ci permette di capire se le relazioni nei dati che stiamo analizzando abbiano effettivamente un peso statistico, cioè se l’evento che stiamo analizzando è successo “per caso” o è effettivamente corretto pensare che avvenga con una probabilità utile. Indipendentemente dal test statistico utilizzato, in presenza di test multipli di verifica (“Multiple Testing Hypothesis”) è necessario utilizzare metodi per la correzione della significatività statistica (“Multiple Testing Correction”). Lo scopo di questa tesi è quello di rendere disponibili le implementazioni dei più noti metodi di correzione della significatività statistica. È stata creata una raccolta di questi metodi, sottoforma di libreria, proprio perché nel panorama bioinformatico moderno non è stato trovato nulla del genere.
Resumo:
Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.
Resumo:
Una nuova ed originale tecnica è stata messa a punto, finalizzata alla realizzazione di una procedura per la diagnosi dell’osteoporosi, mediante l’utilizzo di scanner low field single-sided NMR. Tre differenti scanner (NMR MOLE, MOUSE PM 10 e MOUSE PM5) sono stati usati per determinare il Bone Volume-to-Total Volume ratio (BV/TV), parametro che fornisce indicazioni sulla microstruttura dell’osso. I risultati sono stati confrontati con le analisi micro-CT. Gli esperimenti sono stati condotti nel Lab. NMR del dipartimento DIFA di UNIBO e nel Lab. NMR della Victoria University di Wellington (NZ), durante un periodo di visita di cinque mesi, supportato da una borsa di studio della “Facoltà di Scienze” di UNIBO. Le analisi micro-CT sono state condotte presso il Lab. di Tecnologie Mediche dell’Istituto Ortopedico Rizzoli, Bologna. La ricerca è stata parzialmente finanziata dalla “Fondazione del Monte di Bologna e Ravenna”. La caratterizzazione dell’osso trabecolare di campioni animali e dei tessuti che lo circondano (come cartilagine e muscolo) è stata condotta tramite mappe di correlazione T1-T2 e D-T2 , dove T1 e T2 sono, rispettivamente, il tempo di rilassamento longitudinale e trasversale del nucleo 1H, e D è il coefficiente di autodiffusione molecolare. E’ stata sviluppata una sequenza di impulsi (Diffusion-Weighted T1-T2) per ottenere mappe T1-T2 pesate in diffusione. I risultati hanno consentito di mettere a punto una procedura che elimina il segnale NMR proveniente da cartilagine e muscolo, rendendo più realistico lo scenario di applicazione in-vivo. I tre diversi dispositivi NMR hanno dato risultati consistenti tra loro e con le immagini micro-CT. L’intera catena di esperimenti condotti ha mostrato che dispositivi NMR single-sided possono essere usati per valutare il BV/TV di ossa trabecolari, con il vantaggio di essere portatili, a basso costo e non invasivi, permettendo campagne di screening della popolazione a rischio osteoporosi.
Resumo:
I dispositivi mobili, dagli smartphone ai tablet, sono entrati a far parte della nostra quotidianità. Controllando l’infrastruttura delle comunicazioni, rispetto a qualsiasi altro settore, si ha un maggiore accesso a informazioni relative alla geo-localizzazione degli utenti e alle loro interazioni. Questa grande mole di informazioni può aiutare a costruire città intelligenti e sostenibili, che significa modernizzare ed innovare le infrastrutture, migliorare la qualità della vita e soddisfare le esigenze di cittadini, imprese e istituzioni. Vodafone offre soluzioni concrete nel campo dell’info-mobilità consentendo la trasformazione delle nostre città in Smart City. Obiettivo della tesi e del progetto Proactive è cercare di sviluppare strumenti che, a partire da dati provenienti dalla rete mobile Vodafone, consentano di ricavare e di rappresentare su cartografia dati indicanti la presenza dei cittadini in determinati punti d’interesse, il profilo di traffico di determinati segmenti viari e le matrici origine/destinazione. Per fare questo verranno prima raccolti e filtrati i dati della città di Milano e della regione Lombardia provenienti dalla rete mobile Vodafone per poi, in un secondo momento, sviluppare degli algoritmi e delle procedure in PL/SQL che siano in grado di ricevere questo tipo di dato, di analizzarlo ed elaborarlo restituendo i risultati prestabiliti. Questi risultati saranno poi rappresentati su cartografia grazie a QGis e grazie ad una Dashboard aziendale interna di Vodafone. Lo sviluppo delle procedure e la rappresentazione cartografica dei risultati verranno eseguite in ambiente di Test e se i risultati soddisferanno i requisiti di progetto verrà effettuato il porting in ambiente di produzione. Grazie a questo tipo di soluzioni, che forniscono dati in modalità anonima e aggregata in ottemperanza alle normative di privacy, le aziende di trasporto pubblico, ad esempio, potranno essere in grado di gestire il traffico in modo più efficiente.
Resumo:
Negli ultimi anni la biologia ha fatto ricorso in misura sempre maggiore all’informatica per affrontare analisi complesse che prevedono l’utilizzo di grandi quantità di dati. Fra le scienze biologiche che prevedono l’elaborazione di una mole di dati notevole c’è la genomica, una branca della biologia molecolare che si occupa dello studio di struttura, contenuto, funzione ed evoluzione del genoma degli organismi viventi. I sistemi di data warehouse sono una tecnologia informatica che ben si adatta a supportare determinati tipi di analisi in ambito genomico perché consentono di effettuare analisi esplorative e dinamiche, analisi che si rivelano utili quando si vogliono ricavare informazioni di sintesi a partire da una grande quantità di dati e quando si vogliono esplorare prospettive e livelli di dettaglio diversi. Il lavoro di tesi si colloca all’interno di un progetto più ampio riguardante la progettazione di un data warehouse in ambito genomico. Le analisi effettuate hanno portato alla scoperta di dipendenze funzionali e di conseguenza alla definizione di una gerarchia nei dati. Attraverso l’inserimento di tale gerarchia in un modello multidimensionale relativo ai dati genomici sarà possibile ampliare il raggio delle analisi da poter eseguire sul data warehouse introducendo un contenuto informativo ulteriore riguardante le caratteristiche dei pazienti. I passi effettuati in questo lavoro di tesi sono stati prima di tutto il caricamento e filtraggio dei dati. Il fulcro del lavoro di tesi è stata l’implementazione di un algoritmo per la scoperta di dipendenze funzionali con lo scopo di ricavare dai dati una gerarchia. Nell’ultima fase del lavoro di tesi si è inserita la gerarchia ricavata all’interno di un modello multidimensionale preesistente. L’intero lavoro di tesi è stato svolto attraverso l’utilizzo di Apache Spark e Apache Hadoop.
Resumo:
The purpose of this thesis was to examine the ways in which the fantasy genre is ideally positioned for discussing social issues, such as invisibility and liminality. Elements associated with invisibility, such as poverty, homelessness, and alienation, were explored within two novels by Neil Gaiman: Neverwhere and American Gods. Gaiman's application of these elements within the fantasy genre were juxtaposed with samples from other genres, including Plato's 'Parable of the Cave' and Jennifer Toth's The Mole People. Another aim was to contrast Gaiman's use of the 'beast in the sewer' metaphor with previous renditions of the myth, demonstrating how fantasy, paradoxically, offers a unique and privileged view of reality.
Resumo:
BACKGROUND: FGFRL1, the gene for the fifth member of the fibroblast growth factor receptor (FGFR) family, is found in all vertebrates from fish to man and in the cephalochordate amphioxus. Since it does not occur in more distantly related invertebrates such as insects and nematodes, we have speculated that FGFRL1 might have evolved just before branching of the vertebrate lineage from the other invertebrates (Beyeler and Trueb, 2006). RESULTS: We identified the gene for FGFRL1 also in the sea urchin Strongylocentrotus purpuratus and cloned its mRNA. The deduced amino acid sequence shares 62% sequence similarity with the human protein and shows conservation of all disulfides and N-linked carbohydrate attachment sites. Similar to the human protein, the S. purpuratus protein contains a histidine-rich motif at the C-terminus, but this motif is much shorter than the human counterpart. To analyze the function of the novel motif, recombinant fusion proteins were prepared in a bacterial expression system. The human fusion protein bound to nickel and zinc affinity columns, whereas the sea urchin protein barely interacted with such columns. Direct determination of metal ions by atomic absorption revealed 2.6 mole zinc/mole protein for human FGFRL1 and 1.7 mole zinc/mole protein for sea urchin FGFRL1. CONCLUSION: The FGFRL1 gene has evolved much earlier than previously assumed. A comparison of the intracellular domain between sea urchin and human FGFRL1 provides interesting insights into the shaping of a novel zinc binding domain.
Resumo:
The liquid–vapor interface is difficult to access experimentally but is of interest from a theoretical and applied point of view and has particular importance in atmospheric aerosol chemistry. Here we examine the liquid–vapor interface for mixtures of water, sodium chloride, and formic acid, an abundant chemical in the atmosphere. We compare the results of surface tension and X-ray photoelectron spectroscopy (XPS) measurements over a wide range of formic acid concentrations. Surface tension measurements provide a macroscopic characterization of solutions ranging from 0 to 3 M sodium chloride and from 0 to over 0.5 mole fraction formic acid. Sodium chloride was found to be a weak salting out agent for formic acid with surface excess depending only slightly on salt concentration. In situ XPS provides a complementary molecular level description about the liquid–vapor interface. XPS measurements over an experimental probe depth of 51 Å gave the C 1s to O 1s ratio for both total oxygen and oxygen from water. XPS also provides detailed electronic structure information that is inaccessible by surface tension. Density functional theory calculations were performed to understand the observed shift in C 1s binding energies to lower values with increasing formic acid concentration. Part of the experimental −0.2 eV shift can be assigned to the solution composition changing from predominantly monomers of formic acid to a combination of monomers and dimers; however, the lack of an appropriate reference to calibrate the absolute BE scale at high formic acid mole fraction complicates the interpretation. Our data are consistent with surface tension measurements yielding a significantly more surface sensitive measurement than XPS due to the relatively weak propensity of formic acid for the interface. A simple model allowed us to replicate the XPS results under the assumption that the surface excess was contained in the top four angstroms of solution.
Resumo:
A state-of-the-art inverse model, CarbonTracker Data Assimilation Shell (CTDAS), was used to optimize estimates of methane (CH4) surface fluxes using atmospheric observations of CH4 as a constraint. The model consists of the latest version of the TM5 atmospheric chemistry-transport model and an ensemble Kalman filter based data assimilation system. The model was constrained by atmospheric methane surface concentrations, obtained from the World Data Centre for Greenhouse Gases (WDCGG). Prior methane emissions were specified for five sources: biosphere, anthropogenic, fire, termites and ocean, of which bio-sphere and anthropogenic emissions were optimized. Atmospheric CH 4 mole fractions for 2007 from northern Finland calculated from prior and optimized emissions were compared with observations. It was found that the root mean squared errors of the posterior esti - mates were more than halved. Furthermore, inclusion of NOAA observations of CH 4 from weekly discrete air samples collected at Pallas improved agreement between posterior CH 4 mole fraction estimates and continuous observations, and resulted in reducing optimized biosphere emissions and their uncertainties in northern Finland.
Resumo:
It is well known that gases adsorb on many surfaces, in particular metal surfaces. There are two main forms responsible for these effects (i) physisorption and (ii) chemisorption. Physisorption is associated with lower binding energies in the order of 1–10 kJ mol−¹, compared to chemisorption which ranges from 100 to 1000 kJ mol−¹. Furthermore, chemisorption only forms monolayers, contrasting physisorption that can form multilayer adsorption. The reverse process is called desorption and follows similar mathematical laws; however, it can be influenced by hysteresis effects. In the present experiment, we investigated the adsorption/desorption phenomena on three steel and three aluminium cylinders containing compressed air in our laboratory and under controlled conditions in a climate chamber, respectively. Our observations from completely decanting one steel and two aluminium cylinders are in agreement with the pressure dependence of physisorption for CO₂, CH₄, and H₂O. The CO₂ results for both cylinder types are in excellent agreement with the pressure dependence of a monolayer adsorption model. However, mole fraction changes due to adsorption on aluminium (< 0.05 and 0 ppm for CO₂ and H₂O) were significantly lower than on steel (< 0.41 ppm and about < 2.5 ppm, respectively). The CO₂ amount adsorbed (5.8 × 1019 CO₂ molecules) corresponds to about the fivefold monolayer adsorption, indicating that the effective surface exposed for adsorption is significantly larger than the geometric surface area. Adsorption/desorption effects were minimal for CH₄ and for CO but require further attention since they were only studied on one aluminium cylinder with a very low mole fraction. In the climate chamber, the cylinders were exposed to temperatures between −10 and +50 °C to determine the corresponding temperature coefficients of adsorption. Again, we found distinctly different values for CO₂, ranging from 0.0014 to 0.0184 ppm °C−¹ for steel cylinders and −0.0002 to −0.0003 ppm °C−¹ for aluminium cylinders. The reversed temperature dependence for aluminium cylinders points to significantly lower desorption energies than for steel cylinders and due to the small values, they might at least partly be influenced by temperature, permeation from/to sealing materials, and gas-consumption-induced pressure changes. Temperature coefficients for CH₄, CO, and H₂O adsorption were, within their error bands, insignificant. These results do indicate the need for careful selection and usage of gas cylinders for high-precision calibration purposes such as requested in trace gas applications.