790 resultados para Computing clouds


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Throughout the twentieth century statistical methods have increasingly become part of experimental research. In particular, statistics has made quantification processes meaningful in the soft sciences, which had traditionally relied on activities such as collecting and describing diversity rather than timing variation. The thesis explores this change in relation to agriculture and biology, focusing on analysis of variance and experimental design, the statistical methods developed by the mathematician and geneticist Ronald Aylmer Fisher during the 1920s. The role that Fisher’s methods acquired as tools of scientific research, side by side with the laboratory equipment and the field practices adopted by research workers, is here investigated bottom-up, beginning with the computing instruments and the information technologies that were the tools of the trade for statisticians. Four case studies show under several perspectives the interaction of statistics, computing and information technologies, giving on the one hand an overview of the main tools – mechanical calculators, statistical tables, punched and index cards, standardised forms, digital computers – adopted in the period, and on the other pointing out how these tools complemented each other and were instrumental for the development and dissemination of analysis of variance and experimental design. The period considered is the half-century from the early 1920s to the late 1960s, the institutions investigated are Rothamsted Experimental Station and the Galton Laboratory, and the statisticians examined are Ronald Fisher and Frank Yates.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This PhD thesis is embedded into the Arctic Study of Tropospheric Aerosol, Clouds and Radiation (ASTAR) and investigates the radiative transfer through Arctic boundary-layer mixed-phase (ABM) clouds. For this purpose airborne spectral solar radiation measurements and simulations of the solar and thermal infrared radiative transfer have been performed. This work reports on measurements with the Spectral Modular Airborne Radiation measurement sysTem (SMART-Albedometer) conducted in the framework of ASTAR in April 2007 close to Svalbard. For ASTAR the SMART-Albedometer was extended to measure spectral radiance. The development and calibration of the radiance measurements are described in this work. In combination with in situ measurements of cloud particle properties provided by the Laboratoire de M¶et¶eorologie Physique (LaMP) and simultaneous airborne lidar measurements by the Alfred Wegener Institute for Polar and Marine Research (AWI) ABM clouds were sampled. The SMART-Albedometer measurements were used to retrieve the cloud thermodynamic phase by three different approaches. A comparison of these results with the in situ and lidar measurements is presented in two case studies. Beside the dominating mixed-phase clouds pure ice clouds were found in cloud gaps and at the edge of a large cloud field. Furthermore the vertical distribution of ice crystals within ABM clouds was investigated. It was found that ice crystals at cloud top are necessary to describe the observed SMART-Albedometer measurements. The impact of ice crystals on the radiative forcing of ABM clouds is in vestigated by extensive radiative transfer simulations. The solar and net radiative forcing was found to depend on the ice crystal size, shape and the mixing ratio of ice crystals and liquid water droplets.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A year of satellite-borne lidar CALIOP data is analyzed and statistics on occurrence and distribution of bulk properties of cirri are provided. The relationship between environmental and cloud physical parameters and the shape of the backscatter profile (BSP) is investigated. It is found that CALIOP BSP is mainly affected by cloud geometrical thickness while only minor impacts can be attributed to other quantities such as optical depth or temperature. To fit mean BSPs as functions of geometrical thickness and position within the cloud layer, polynomial functions are provided. It is demonstrated that, under realistic hypotheses, the mean BSP is linearly proportional to the IWC profile. The IWC parameterization is included into the RT-RET retrieval algorithm, that is exploited to analyze infrared radiance measurements in presence of cirrus clouds during the ECOWAR field campaign. Retrieved microphysical and optical properties of the observed cloud are used as input parameters in a forward RT simulation run over the 100-1100 cm-1 spectral interval and compared with interferometric data to test the ability of the current single scattering properties database of ice crystal to reproduce realistic optical features. Finally a global scale investigation of cirrus clouds is performed by developing a collocation algorithm that exploits satellite data from multiple sensors (AIRS, CALIOP, MODIS). The resulting data set is utilized to test a new infrared hyperspectral retrieval algorithm. Retrieval products are compared to data and in particular the cloud top height (CTH) product is considered for this purpose. A better agreement of the retrieval with the CALIOP CTH than MODIS is found, even if some cases of underestimation and overestimation are observed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hochreichende Konvektion über Waldbränden ist eine der intensivsten Formen von atmosphärischer Konvektion. Die extreme Wolkendynamik mit hohen vertikalen Windgeschwindigkeiten (bis 20 m/s) bereits an der Wolkenbasis, hohen Wasserdampfübersättigungen (bis 1%) und die durch das Feuer hohen Anzahlkonzentration von Aerosolpartikeln (bis 100000 cm^-3) bilden einen besonderen Rahmen für Aerosol-Wolken Wechselwirkungen.Ein entscheidender Schritt in der mikrophysikalischen Entwicklung einer konvektiven Wolke ist die Aktivierung von Aerosolpartikeln zu Wolkentropfen. Dieser Aktivierungsprozess bestimmt die anfängliche Anzahl und Größe der Wolkentropfen und kann daher die Entwicklung einer konvektiven Wolke und deren Niederschlagsbildung beeinflussen. Die wichtigsten Faktoren, welche die anfängliche Anzahl und Größe der Wolkentropfen bestimmen, sind die Größe und Hygroskopizität der an der Wolkenbasis verfügbaren Aerosolpartikel sowie die vertikale Windgeschwindigkeit. Um den Einfluss dieser Faktoren unter pyro-konvektiven Bedingungen zu untersuchen, wurden numerische Simulationen mit Hilfe eines Wolkenpaketmodells mit detaillierter spektraler Beschreibung der Wolkenmikrophysik durchgeführt. Diese Ergebnisse können in drei unterschiedliche Bereiche abhängig vom Verhältnis zwischen vertikaler Windgeschwindigkeit und Aerosolanzahlkonzentration (w/NCN) eingeteilt werden: (1) ein durch die Aerosolkonzentration limitierter Bereich (hohes w/NCN), (2) ein durch die vertikale Windgeschwindigkeit limitierter Bereich (niedriges w/NCN) und (3) ein Übergangsbereich (mittleres w/NCN). Die Ergebnisse zeigen, dass die Variabilität der anfänglichen Anzahlkonzentration der Wolkentropfen in (pyro-) konvektiven Wolken hauptsächlich durch die Variabilität der vertikalen Windgeschwindigkeit und der Aerosolkonzentration bestimmt wird. rnUm die mikrophysikalischen Prozesse innerhalb der rauchigen Aufwindregion einer pyrokonvektiven Wolke mit einer detaillierten spektralen Mikrophysik zu untersuchen, wurde das Paketmodel entlang einer Trajektorie innerhalb der Aufwindregion initialisiert. Diese Trajektore wurde durch dreidimensionale Simulationen eines pyro-konvektiven Ereignisses durch das Model ATHAM berechnet. Es zeigt sich, dass die Anzahlkonzentration der Wolkentropfen mit steigender Aerosolkonzentration ansteigt. Auf der anderen Seite verringert sich die Größe der Wolkentropfen mit steigender Aerosolkonzentration. Die Reduzierung der Verbreiterung des Tropfenspektrums stimmt mit den Ergebnissen aus Messungen überein und unterstützt das Konzept der Unterdrückung von Niederschlag in stark verschmutzen Wolken.Mit Hilfe des Models ATHAM wurden die dynamischen und mikrophysikalischen Prozesse von pyro-konvektiven Wolken, aufbauend auf einer realistischen Parametrisierung der Aktivierung von Aerosolpartikeln durch die Ergebnisse der Aktivierungsstudie, mit zwei- und dreidimensionalen Simulationen untersucht. Ein modernes zweimomenten mikrophysikalisches Schema wurde in ATHAM implementiert, um den Einfluss der Anzahlkonzentration von Aerosolpartikeln auf die Entwicklung von idealisierten pyro-konvektiven Wolken in US Standardamtosphären für die mittleren Breiten und den Tropen zu untersuchen. Die Ergebnisse zeigen, dass die Anzahlkonzentration der Aerosolpartikel die Bildung von Regen beeinflusst. Für geringe Aerosolkonzentrationen findet die rasche Regenbildung hauptsächlich durch warme mikrophysikalische Prozesse statt. Für höhere Aerosolkonzentrationen ist die Eisphase wichtiger für die Bildung von Regen. Dies führt zu einem verspäteten Einsetzen von Niederschlag für verunreinigtere Atmosphären. Außerdem wird gezeigt, dass die Zusammensetzung der Eisnukleationspartikel (IN) einen starken Einfluss auf die dynamische und mikrophysikalische Struktur solcher Wolken hat. Bei sehr effizienten IN bildet sich Regen früher. Die Untersuchung zum Einfluss des atmosphärischen Hintergrundprofils zeigt eine geringe Auswirkung der Meteorologie auf die Sensitivität der pyro-konvektiven Wolken auf diernAerosolkonzentration. Zum Abschluss wird gezeigt, dass die durch das Feuer emittierte Hitze einen deutlichen Einfluss auf die Entwicklung und die Wolkenobergrenze von pyro-konvektive Wolken hat. Zusammenfassend kann gesagt werden, dass in dieser Dissertation die Mikrophysik von pyrokonvektiven Wolken mit Hilfe von idealisierten Simulation eines Wolkenpaketmodell mit detaillierte spektraler Mikrophysik und eines 3D Modells mit einem zweimomenten Schema im Detail untersucht wurde. Es wird gezeigt, dass die extremen Bedingungen im Bezug auf die vertikale Windgeschwindigkeiten und Aerosolkonzentrationen einen deutlichen Einfluss auf die Entwicklung von pyro-konvektiven Wolken haben.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nel presente lavoro, partendo dalla definizione di alcuni punti chiavi del concetto di cloud computing, si è insistito molto sulle problematiche relative alle performance degli ambenti cloud, e alle diverse proposte attualmente presenti sul mercato con i relativi limiti. Dopo averle illustrate in modo dettagliato, le diverse proposte sono state tra loro messe a confronto al fine di evidenziare, per ciascuna di essa, tanto gli aspetti positivi quanto i punti di criticità.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Viene analizzato il Cloud Computing, il suo utilizzo, i vari tipi di modelli di servizio. L'attenzione poi vira sul SLA (Service Level Agreement), contratti stipulati tra il provider e l'utente affinchè il servizio venga utilizzato al meglio e in modo sicuro rispettando le norme.Infine vengono analizzati la sicurezza, la privacy e l'accountability nel Cloud.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In distributed systems like clouds or service oriented frameworks, applications are typically assembled by deploying and connecting a large number of heterogeneous software components, spanning from fine-grained packages to coarse-grained complex services. The complexity of such systems requires a rich set of techniques and tools to support the automation of their deployment process. By relying on a formal model of components, a technique is devised for computing the sequence of actions allowing the deployment of a desired configuration. An efficient algorithm, working in polynomial time, is described and proven to be sound and complete. Finally, a prototype tool implementing the proposed algorithm has been developed. Experimental results support the adoption of this novel approach in real life scenarios.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis deals with heterogeneous architectures in standard workstations. Heterogeneous architectures represent an appealing alternative to traditional supercomputers because they are based on commodity components fabricated in large quantities. Hence their price-performance ratio is unparalleled in the world of high performance computing (HPC). In particular, different aspects related to the performance and consumption of heterogeneous architectures have been explored. The thesis initially focuses on an efficient implementation of a parallel application, where the execution time is dominated by an high number of floating point instructions. Then the thesis touches the central problem of efficient management of power peaks in heterogeneous computing systems. Finally it discusses a memory-bounded problem, where the execution time is dominated by the memory latency. Specifically, the following main contributions have been carried out: A novel framework for the design and analysis of solar field for Central Receiver Systems (CRS) has been developed. The implementation based on desktop workstation equipped with multiple Graphics Processing Units (GPUs) is motivated by the need to have an accurate and fast simulation environment for studying mirror imperfection and non-planar geometries. Secondly, a power-aware scheduling algorithm on heterogeneous CPU-GPU architectures, based on an efficient distribution of the computing workload to the resources, has been realized. The scheduler manages the resources of several computing nodes with a view to reducing the peak power. The two main contributions of this work follow: the approach reduces the supply cost due to high peak power whilst having negligible impact on the parallelism of computational nodes. from another point of view the developed model allows designer to increase the number of cores without increasing the capacity of the power supply unit. Finally, an implementation for efficient graph exploration on reconfigurable architectures is presented. The purpose is to accelerate graph exploration, reducing the number of random memory accesses.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'elaborato introduce i concetti di Big Data, Cloud Computing e le tipologie di paradigmi basati sul calcolo parallelo. Trasformando questi concetti in pratica tramite un caso di studio sui Big Data. Nell'elaborato si spiega l'architettura proposta per l'elaborazione di report in formato pdf. Analaizando in fine i risultati ottenuti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'obbiettivo che ci poniamo con questa tesi è quello di esplorare il mondo del Cloud Computing, cercando di capire le principali caratteristiche architetturali e vedere in seguito i componenti fondamentali che si occupano di trasformare una infrastruttura informatica in un'infrastruttura cloud, ovvero i Cloud Operating System.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This PhD thesis discusses the impact of Cloud Computing infrastructures on Digital Forensics in the twofold role of target of investigations and as a helping hand to investigators. The Cloud offers a cheap and almost limitless computing power and storage space for data which can be leveraged to commit either new or old crimes and host related traces. Conversely, the Cloud can help forensic examiners to find clues better and earlier than traditional analysis applications, thanks to its dramatically improved evidence processing capabilities. In both cases, a new arsenal of software tools needs to be made available. The development of this novel weaponry and its technical and legal implications from the point of view of repeatability of technical assessments is discussed throughout the following pages and constitutes the unprecedented contribution of this work

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Elektronen in wasserstoff- und lithium-ähnlichen schweren Ionen sind den extrem starken elektrischen und magnetischen Feldern in der Umgebung des Kerns ausgesetzt. Die Laserspektroskopie der Hyperfeinaufspaltung im Grundzustand des Ions erlaubt daher einen sensitiven Test der Quantenelektrodynamik in starken Feldern insbesondere im magnetischen Sektor. Frühere Messungen an wasserstoffähnlichen Systemen die an einer Elektronenstrahl-Ionenfalle (EBIT) und am Experimentierspeicherring (ESR) der GSI Darmstadt durchgeführt wurden, waren in ihrer Genauigkeit durch zu geringe Statistik, einer starken Dopplerverbreiterung und der großen Unsicherheit in der Ionenenergie limitiert. Das ganze Potential des QED-Tests kann nur dann ausgeschöpft werden, wenn es gelingt sowohl wasserstoff- als auch lithium-ähnliche schwere Ionen mit einer um 2-3 Größenordnung gesteigerten Genauigkeit zu spektroskopieren. Um dies zu erreichen, wird gegenwärtig das neue Penningfallensystem SPECTRAP an der GSI aufgebaut und in Betrieb genommen. Es ist speziell für die Laserspektroskopie an gespeicherten hochgeladenen Ionen optimiert und wird in Zukunft von HITRAP mit nierderenergetischen hochgeladenen Ionen versorgt werden.rnrnSPECTRAP ist eine zylindrische Penningfalle mit axialem Zugang für die Injektion von Ionen und die Einkopplung eines Laserstrahls sowie einem radialen optischen Zugang für die Detektion der Fluoreszenz. Um letzteres zu realisieren ist der supraleitende Magnet als Helmholtz-Spulenpaar ausgelegt. Um die gewünschte Genauigkeit bei der Laserspektroskopie zu erreichen, muss ein effizienter und schneller Kühlprozess für die injizierten hochegeladenen Ionen realisiert werden. Dies kann mittels sympathetischer Kühlung in einer lasergekühlten Wolke leichter Ionen realisiert werden. Im Rahmen dieser Arbeit wurde ein Lasersystem und eine Ionenquelle für die Produktion einer solchen 24Mg+ Ionenwolke aufgebaut und erfolgreich an SPECTRAP in Betrieb genommen. Dazu wurde ein Festkörperlasersystem für die Erzeugung von Licht bei 279.6 nm entworfen und aufgebaut. Es besteht aus einem Faserlaser bei 1118 nm der in zwei aufeinanderfolgenden Frequenzverdopplungsstufen frequenzvervierfacht wird. Die Verdopplerstufen sind als aktiv stabilisierte Resonantoren mit nichtlinearen Kristallen ausgelegt. Das Lasersystem liefert unter optimalen Bedingeungen bis zu 15 mW bei der ultravioletten Wellenlänge und erwies sich während der Teststrahlzeiten an SPECTRAP als ausgesprochen zuverlässig. Desweiteren wurde eine Ionequelle für die gepulste Injektion von Mg+ Ionen in die SPECTRAP Falle entwickelt. Diese basiert auf der Elektronenstoßionisation eines thermischen Mg-Atomstrahls und liefert in der gepulsten Extraktion Ionenbündel mit einer kleinen Impuls- und Energieverteilung. Unter Nutzung des Lasersystems konnten damit an SPECTRAP erstmals Ionenwolken mit bis zu 2600 lasergekühlten Mg Ionen erzeugt werden. Der Nachweis erfolgte sowohl mittels Fluoreszenz als auch mit der FFT-ICR Technik. Aus der Analyse des Fluoreszenz-Linienprofils lässt sich sowohl die Sensitivität auf einzelne gespeicherte Ionen als auch eine erreichte Endtemperatur in der Größenordnung von ≈ 100 mK nach wenigen Sekunden Kühlzeit belegen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi verranno affrontati due argomenti principali. Il primo sono le tecnologie wearable, comprendendo anche la notazione più generica di tecnologie bearable, che si stanno sempre più diffondendo negli ultimi anni; il secondo sono le BAN (Body Area Network), reti di sensori e dispositivi posti sul corpo umano, utilizzate per rendere possibile la comunicazione e l'interazione fra i device wearable. Si partirà da una trattazione di tipo generico degli argomenti, descrivendo l'architettura fisica delle tecnologie, con focalizzazione sull'aspetto informatico prevalentemente che su quello elettronico e telecomunicazionistico. Si parlerà degli attuali impieghi dei dispositivi e delle reti, e delle loro probabili evoluzioni future. Si introdurranno poi i protocolli di comunicazione principali e se ne analizzeranno le differenze, decretando se sia o meno conveniente puntare su uno o sull'altro rispetto alle esigenze di progetto. Verrà introdotto il sistema operativo Android, descrivendo la sua architettura e fornendo le informazioni basilari per comprendere al meglio il rapporto esistente con la tecnologia Bluetooth.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Magic Carpet, nato come un middleware orientato a una dimostrazione sullo spatial computing, che inizialmente coinvolgeva solo smart devices ed un tappeto di tag NFC, è il punto di partenza per uno studio sulle tecnologie abilitanti in tale campo. Il prodotto finale è una toolchain per lo sviluppo e la distribuzione, su dispositivi connessi, di applicazioni di spatial computing. Essa comprende un interprete per un DSL basato su un core calculus formalizzato, Field Calculus, e un middleware che supporta l'astrazione curando, a basso livello, le comunicazioni con il vicinato e le percezioni ambientali.