937 resultados para Distributed non-coherent shared memory
Resumo:
The distribution pattern of European arctic-alpine disjunct species is of growing interest among biogeographers due to the arising variety of inferred demographic histories. In this thesis I used the co-distributed mayfly Ameletus inopinatus and the stonefly Arcynopteryx compacta as model species to investigate the European Pleistocene and Holocene history of stream-inhabiting arctic-alpine aquatic insects. I used last glacial maximum (LGM) species distribution models (SDM) to derive hypotheses on the glacial survival during the LGM and the recolonization of Fennoscandia: 1) both species potentially survived glacial cycles in periglacial, extra Mediterranean refugia, and 2) postglacial recolonization of Fennoscandia originated from these refugia. I tested these hypotheses using mitochondrial sequence (mtCOI) and species specific microsatellite data. Additionally, I used future SDM to predict the impact of climate change induced range shifts and habitat loss on the overall genetic diversity of the endangered mayfly A. inopinatus.rnI observed old lineages, deep splits, and almost complete lineage sorting of mtCOI sequences between mountain ranges. These results support the hypothesis that both species persisted in multiple periglacial extra-Mediterranean refugia in Central Europe during the LGM. However, the recolonization of Fennoscandia was very different between the two study species. For the mayfly A. inopinatus I found strong differentiation between the Fennoscandian and all other populations in sequence and microsatellite data, indicating that Fennoscandia was recolonized from an extra European refugium. High mtCOI genetic structure within Fennoscandia supports a recolonization of multiple lineages from independent refugia. However, this structure was not apparent in the microsatellite data, consistent with secondary contact without sexual incompability. In contrast, the stonefly A. compacta exhibited low genetic structure and shared mtCOI haplotypes among Fennoscandia and the Black Forest, suggesting a shared Pleistocene refugium in the periglacial tundrabelt. Again, there is incongruence with the microsatellite data, which could be explained with ancestral polymorphism or female-biased dispersal. Future SDM projects major regional habitat loss for the mayfly A. inopinatus, particularly in Central European mountain ranges. By relating these range shifts to my population genetic results, I identified conservation units primarily in Eastern Europe, that if preserved would maintain high levels of the present-day genetic diversity of A. inopinatus and continue to provide long-term suitable habitat under future climate warming scenarios.rnIn this thesis I show that despite similar present day distributions the underlying demographic histories of the study species are vastly different, which might be due to differing dispersal capabilities and niche plasticity. I present genetic, climatic, and ecological data that can be used to prioritize conservation efforts for cold-adapted freshwater insects in light of future climate change. Overall, this thesis provides a next step in filling the knowledge gap regarding molecular studies of the arctic-alpine invertebrate fauna. However, there is continued need to explore the phenomenon of arctic-alpine disjunctions to help understand the processes of range expansion, regression, and lineage diversification in Europe’s high latitude and high altitude biota.
Resumo:
Wireless Sensor Networks (WSNs) offer a new solution for distributed monitoring, processing and communication. First of all, the stringent energy constraints to which sensing nodes are typically subjected. WSNs are often battery powered and placed where it is not possible to recharge or replace batteries. Energy can be harvested from the external environment but it is a limited resource that must be used efficiently. Energy efficiency is a key requirement for a credible WSNs design. From the power source's perspective, aggressive energy management techniques remain the most effective way to prolong the lifetime of a WSN. A new adaptive algorithm will be presented, which minimizes the consumption of wireless sensor nodes in sleep mode, when the power source has to be regulated using DC-DC converters. Another important aspect addressed is the time synchronisation in WSNs. WSNs are used for real-world applications where physical time plays an important role. An innovative low-overhead synchronisation approach will be presented, based on a Temperature Compensation Algorithm (TCA). The last aspect addressed is related to self-powered WSNs with Energy Harvesting (EH) solutions. Wireless sensor nodes with EH require some form of energy storage, which enables systems to continue operating during periods of insufficient environmental energy. However, the size of the energy storage strongly restricts the use of WSNs with EH in real-world applications. A new approach will be presented, which enables computation to be sustained during intermittent power supply. The discussed approaches will be used for real-world WSN applications. The first presented scenario is related to the experience gathered during an European Project (3ENCULT Project), regarding the design and implementation of an innovative network for monitoring heritage buildings. The second scenario is related to the experience with Telecom Italia, regarding the design of smart energy meters for monitoring the usage of household's appliances.
Resumo:
L'obiettivo di questa tesi è studiare la fattibilità dello studio della produzione associata ttH del bosone di Higgs con due quark top nell'esperimento CMS, e valutare le funzionalità e le caratteristiche della prossima generazione di toolkit per l'analisi distribuita a CMS (CRAB versione 3) per effettuare tale analisi. Nel settore della fisica del quark top, la produzione ttH è particolarmente interessante, soprattutto perchè rappresenta l'unica opportunità di studiare direttamente il vertice t-H senza dover fare assunzioni riguardanti possibili contributi dalla fisica oltre il Modello Standard. La preparazione per questa analisi è cruciale in questo momento, prima dell'inizio del Run-2 dell'LHC nel 2015. Per essere preparati a tale studio, le implicazioni tecniche di effettuare un'analisi completa in un ambito di calcolo distribuito come la Grid non dovrebbero essere sottovalutate. Per questo motivo, vengono presentati e discussi un'analisi dello stesso strumento CRAB3 (disponibile adesso in versione di pre-produzione) e un confronto diretto di prestazioni con CRAB2. Saranno raccolti e documentati inoltre suggerimenti e consigli per un team di analisi che sarà eventualmente coinvolto in questo studio. Nel Capitolo 1 è introdotta la fisica delle alte energie a LHC nell'esperimento CMS. Il Capitolo 2 discute il modello di calcolo di CMS e il sistema di analisi distribuita della Grid. Nel Capitolo 3 viene brevemente presentata la fisica del quark top e del bosone di Higgs. Il Capitolo 4 è dedicato alla preparazione dell'analisi dal punto di vista degli strumenti della Grid (CRAB3 vs CRAB2). Nel capitolo 5 è presentato e discusso uno studio di fattibilità per un'analisi del canale ttH in termini di efficienza di selezione.
Resumo:
Con il presente studio si è inteso analizzare l’impatto dell’utilizzo di una memoria di traduzione (TM) e del post-editing (PE) di un output grezzo sul livello di difficoltà percepita e sul tempo necessario per ottenere un testo finale di alta qualità. L’esperimento ha coinvolto sei studenti, di madrelingua italiana, del corso di Laurea Magistrale in Traduzione Specializzata dell’Università di Bologna (Vicepresidenza di Forlì). I partecipanti sono stati divisi in tre coppie, a ognuna delle quali è stato assegnato un estratto di comunicato stampa in inglese. Per ogni coppia, ad un partecipante è stato chiesto di tradurre il testo in italiano usando la TM all’interno di SDL Trados Studio 2011. All’altro partecipante è stato chiesto di fare il PE completo in italiano dell’output grezzo ottenuto da Google Translate. Nei casi in cui la TM o l’output non contenevano traduzioni (corrette), i partecipanti avrebbero potuto consultare Internet. Ricorrendo ai Think-aloud Protocols (TAPs), è stato chiesto loro di riflettere a voce alta durante lo svolgimento dei compiti. È stato quindi possibile individuare i problemi traduttivi incontrati e i casi in cui la TM e l’output grezzo hanno fornito soluzioni corrette; inoltre, è stato possibile osservare le strategie traduttive impiegate, per poi chiedere ai partecipanti di indicarne la difficoltà attraverso interviste a posteriori. È stato anche misurato il tempo impiegato da ogni partecipante. I dati sulla difficoltà percepita e quelli sul tempo impiegato sono stati messi in relazione con il numero di soluzioni corrette rispettivamente fornito da TM e output grezzo. È stato osservato che usare la TM ha comportato un maggior risparmio di tempo e che, al contrario del PE, ha portato a una riduzione della difficoltà percepita. Il presente studio si propone di aiutare i futuri traduttori professionisti a scegliere strumenti tecnologici che gli permettano di risparmiare tempo e risorse.
Resumo:
In the current work, three studies about non-aqueous dispersions of particles were carried out by using an amphiphilic block copolymer poly(isoprene)-block-poly(methyl methacrylate) (PI-b-PMMA) as stabilizer:rn1. Dispersions of polyurethane and polyurea porous particles for polymer compositesrn2. Dispersions of PMMA and PU particles with PDI dye for study of Single Molecule Spectroscopy Detectionrn3. Dispersions of graphene nanosheets for polymer compositesrnrnIn the first study, highly porous polyurethane and polyurea particles were prepared in a non-aqueous emulsion. The preparation of porous particles consisted of two parts: At first, a system was developed where the emulsion had high stability for the polymerization among diisocyanate, diol and water. In the second part, porous particles were prepared by using two methods fission/fusion and combination by which highly porous particles were obtained. In this study, the applications of porous particles were also investigated where polyurethane particles were tested as filling material for polymer composites and as catalyst carrier for polyethylene polymerization. rnrnIn the second study, PMMA and PU particles from one non-aqueous emulsion were investigated via single molecule fluorescence detection. At first the particles were loaded with PDI dye, which were detected by fluorescence microscopy. The distribution and orientation of the PDI molecules in the particles were successfully observed by Single Molecule Fluorescence Detection. The molecules were homogenously distributed inside of the particles. In addition they had random orientation, meaning that no aggregations of dye molecules were formed. With the results, it could be supposed that the polymer chains were also homogenously distributed in the particles, and that the conformation was relatively flexible. rnrnIn the third part of the study, graphene nanosheets with high surface area were dispersed in an organic solvent with low boiling point and low toxicity, THF, stabilized with a block copolymer PI-b-PMMA. The dispersion was used to prepare polymer composites. It was shown that the modified graphene nanosheets had good compatibility with the PS and PMMA matrices. rn
Resumo:
Following the internationalization of contemporary higher education, academic institutions based in non-English speaking countries are increasingly urged to produce contents in English to address international prospective students and personnel, as well as to increase their attractiveness. The demand for English translations in the institutional academic domain is consequently increasing at a rate exceeding the capacity of the translation profession. Resources for assisting non-native authors and translators in the production of appropriate texts in L2 are therefore required in order to help academic institutions and professionals streamline their translation workload. Some of these resources include: (i) parallel corpora to train machine translation systems and multilingual authoring tools; and (ii) translation memories for computer-aided tools. The purpose of this study is to create and evaluate reference resources like the ones mentioned in (i) and (ii) through the automatic sentence alignment of a large set of Italian and English as a Lingua Franca (ELF) institutional academic texts given as equivalent but not necessarily parallel (i.e. translated). In this framework, a set of aligning algorithms and alignment tools is examined in order to identify the most profitable one(s) in terms of accuracy and time- and cost-effectiveness. In order to determine the text pairs to align, a sample is selected according to document length similarity (characters) and subsequently evaluated in terms of extent of noisiness/parallelism, alignment accuracy and content leverageability. The results of these analyses serve as the basis for the creation of an aligned bilingual corpus of academic course descriptions, which is eventually used to create a translation memory in TMX format.
Resumo:
L’obiettivo del progetto di tesi svolto è quello di realizzare un servizio di livello middleware dedicato ai dispositivi mobili che sia in grado di fornire il supporto per l’offloading di codice verso una infrastruttura cloud. In particolare il progetto si concentra sulla migrazione di codice verso macchine virtuali dedicate al singolo utente. Il sistema operativo delle VMs è lo stesso utilizzato dal device mobile. Come i precedenti lavori sul computation offloading, il progetto di tesi deve garantire migliori performance in termini di tempo di esecuzione e utilizzo della batteria del dispositivo. In particolare l’obiettivo più ampio è quello di adattare il principio di computation offloading a un contesto di sistemi distribuiti mobili, migliorando non solo le performance del singolo device, ma l’esecuzione stessa dell’applicazione distribuita. Questo viene fatto tramite una gestione dinamica delle decisioni di offloading basata, non solo, sullo stato del device, ma anche sulla volontà e/o sullo stato degli altri utenti appartenenti allo stesso gruppo. Per esempio, un primo utente potrebbe influenzare le decisioni degli altri membri del gruppo specificando una determinata richiesta, come alta qualità delle informazioni, risposta rapida o basata su altre informazioni di alto livello. Il sistema fornisce ai programmatori un semplice strumento di definizione per poter creare nuove policy personalizzate e, quindi, specificare nuove regole di offloading. Per rendere il progetto accessibile ad un più ampio numero di sviluppatori gli strumenti forniti sono semplici e non richiedono specifiche conoscenze sulla tecnologia. Il sistema è stato poi testato per verificare le sue performance in termini di mecchanismi di offloading semplici. Successivamente, esso è stato anche sottoposto a dei test per verificare che la selezione di differenti policy, definite dal programmatore, portasse realmente a una ottimizzazione del parametro designato.
Resumo:
La programmazione aggregata è un paradigma che supporta la programmazione di sistemi di dispositivi, adattativi ed eventualmente a larga scala, nel loro insieme -- come aggregati. L'approccio prevalente in questo contesto è basato sul field calculus, un calcolo formale che consente di definire programmi aggregati attraverso la composizione funzionale di campi computazionali, creando i presupposti per la specifica di pattern di auto-organizzazione robusti. La programmazione aggregata è attualmente supportata, in modo più o meno parziale e principalmente per la simulazione, da DSL dedicati (cf., Protelis), ma non esistono framework per linguaggi mainstream finalizzati allo sviluppo di applicazioni. Eppure, un simile supporto sarebbe auspicabile per ridurre tempi e sforzi d'adozione e per semplificare l'accesso al paradigma nella costruzione di sistemi reali, nonché per favorire la ricerca stessa nel campo. Il presente lavoro consiste nello sviluppo, a partire da un prototipo della semantica operazionale del field calculus, di un framework per la programmazione aggregata in Scala. La scelta di Scala come linguaggio host nasce da motivi tecnici e pratici. Scala è un linguaggio moderno, interoperabile con Java, che ben integra i paradigmi ad oggetti e funzionale, ha un sistema di tipi espressivo, e fornisce funzionalità avanzate per lo sviluppo di librerie e DSL. Inoltre, la possibilità di appoggiarsi, su Scala, ad un framework ad attori solido come Akka, costituisce un altro fattore trainante, data la necessità di colmare l'abstraction gap inerente allo sviluppo di un middleware distribuito. Nell'elaborato di tesi si presenta un framework che raggiunge il triplice obiettivo: la costruzione di una libreria Scala che realizza la semantica del field calculus in modo corretto e completo, la realizzazione di una piattaforma distribuita Akka-based su cui sviluppare applicazioni, e l'esposizione di un'API generale e flessibile in grado di supportare diversi scenari.
Resumo:
High Performance Computing e una tecnologia usata dai cluster computazionali per creare sistemi di elaborazione che sono in grado di fornire servizi molto piu potenti rispetto ai computer tradizionali. Di conseguenza la tecnologia HPC e diventata un fattore determinante nella competizione industriale e nella ricerca. I sistemi HPC continuano a crescere in termini di nodi e core. Le previsioni indicano che il numero dei nodi arrivera a un milione a breve. Questo tipo di architettura presenta anche dei costi molto alti in termini del consumo delle risorse, che diventano insostenibili per il mercato industriale. Un scheduler centralizzato non e in grado di gestire un numero di risorse cosi alto, mantenendo un tempo di risposta ragionevole. In questa tesi viene presentato un modello di scheduling distribuito che si basa sulla programmazione a vincoli e che modella il problema dello scheduling grazie a una serie di vincoli temporali e vincoli sulle risorse che devono essere soddisfatti. Lo scheduler cerca di ottimizzare le performance delle risorse e tende ad avvicinarsi a un profilo di consumo desiderato, considerato ottimale. Vengono analizzati vari modelli diversi e ognuno di questi viene testato in vari ambienti.
Resumo:
La simulazione è definita come la rappresentazione del comportamento di un sistema o di un processo per mezzo del funzionamento di un altro o, alternativamente, dall'etimologia del verbo “simulare”, come la riproduzione di qualcosa di fittizio, irreale, come se in realtà, lo fosse. La simulazione ci permette di modellare la realtà ed esplorare soluzioni differenti e valutare sistemi che non possono essere realizzati per varie ragioni e, inoltre, effettuare differenti valutazioni, dinamiche per quanto concerne la variabilità delle condizioni. I modelli di simulazione possono raggiungere un grado di espressività estremamente elevato, difficilmente un solo calcolatore potrà soddisfare in tempi accettabili i risultati attesi. Una possibile soluzione, viste le tendenze tecnologiche dei nostri giorni, è incrementare la capacità computazionale tramite un’architettura distribuita (sfruttando, ad esempio, le possibilità offerte dal cloud computing). Questa tesi si concentrerà su questo ambito, correlandolo ad un altro argomento che sta guadagnando, giorno dopo giorno, sempre più rilevanza: l’anonimato online. I recenti fatti di cronaca hanno dimostrato quanto una rete pubblica, intrinsecamente insicura come l’attuale Internet, non sia adatta a mantenere il rispetto di confidenzialità, integrità ed, in alcuni, disponibilità degli asset da noi utilizzati: nell’ambito della distribuzione di risorse computazionali interagenti tra loro, non possiamo ignorare i concreti e molteplici rischi; in alcuni sensibili contesti di simulazione (e.g., simulazione militare, ricerca scientifica, etc.) non possiamo permetterci la diffusione non controllata dei nostri dati o, ancor peggio, la possibilità di subire un attacco alla disponibilità delle risorse coinvolte. Essere anonimi implica un aspetto estremamente rilevante: essere meno attaccabili, in quanto non identificabili.
Resumo:
We describe a 61-year-old patient with clinical evidence of limbic encephalitis who improved with anticonvulsant treatment only, that is, without the use of immunosuppressive agents. Three years following occurrence of anosmia, increasing memory deficits, and emotional disturbances, he presented with new-onset temporal lobe epilepsy, with antibodies binding to neuronal voltage-gated potassium channels and bitemporal hypometabolism on FDG-PET scan; the MRI scan was normal. This is most likely a case of spontaneous remission, illustrating that immunosuppressive therapy might be suspended in milder courses of limbic encephalitis. It remains open whether treatment with anticonvulsant drugs played an additional beneficiary role through the direct suppression of seizures or, additionally, through indirect immunomodulatory side effects.
Resumo:
The Default Mode Network (DMN) is a higher order functional neural network that displays activation during passive rest and deactivation during many types of cognitive tasks. Accordingly, the DMN is viewed to represent the neural correlate of internally-generated self-referential cognition. This hypothesis implies that the DMN requires the involvement of cognitive processes, like declarative memory. The present study thus examines the spatial and functional convergence of the DMN and the semantic memory system. Using an active block-design functional Magnetic Resonance Imaging (fMRI) paradigm and Independent Component Analysis (ICA), we trace the DMN and fMRI signal changes evoked by semantic, phonological and perceptual decision tasks upon visually-presented words. Our findings show less deactivation during semantic compared to the two non-semantic tasks for the entire DMN unit and within left-hemispheric DMN regions, i.e., the dorsal medial prefrontal cortex, the anterior cingulate cortex, the retrosplenial cortex, the angular gyrus, the middle temporal gyrus and the anterior temporal region, as well as the right cerebellum. These results demonstrate that well-known semantic regions are spatially and functionally involved in the DMN. The present study further supports the hypothesis of the DMN as an internal mentation system that involves declarative memory functions.
Resumo:
Brain mechanisms associated with artistic talents or skills are still not well understood. This exploratory study investigated differences in brain activity of artists and non-artists while drawing previously presented perspective line-drawings from memory and completing other drawing-related tasks. Electroencephalography (EEG) data were analyzed for power in the frequency domain by means of a Fast Fourier Transform (FFT). Low Resolution Brain Electromagnetic Tomography (LORETA) was applied to localize emerging significances. During drawing and related tasks, decreased power was seen in artists compared to non-artists mainly in upper alpha frequency ranges. Decreased alpha power is often associated with an increase in cognitive functioning and may reflect enhanced semantic memory performance and object recognition processes in artists. These assumptions are supported by the behavioral data assessed in this study and complement previous findings showing increased parietal activations in non-artists compared to artists while drawing. However, due to the exploratory nature of the analysis, additional confirmatory studies will be needed.
Resumo:
Slovenia is considered to be one of the most successful Central and Eastern European countries undergoing the process of transition. It has a high GDP per capita (the highest in the Visegrad group) amounting to about 7200 US dollars (at the exchange rates pertaining during Ms. Stropnik's research). In 1994, a low rate of inflation, a low level of public debt and almost balanced public finances, were all positive elements. However, there is a darker side, for instance the dramatic increase in unemployment and (somewhat less dramatic) fall in production during the transition period. This analysis aimed to provide insights into what is actually happening at the household level, since households are the ultimate bearers of macroeconomic and social change. The final output totalled 166 pages in English and Slovenian, available also on disc. The income concept used by Ms. Stropnik is that of the disposable (monetary) household income, i.e. the cash income of all household members - including social security transfers and family benefits, and the net sum of taxes and social security contributions - plus the equivalent of domestic production, used in the household. Non-monetary income sources, such as household own production, benefits in kind, subsidies for goods and services, and fringe benefits, were not taken into account. The concept of relative and objective poverty was followed. Poverty means having less than others in society, it is a state of relative deprivation. Objective aspects of the situation, e.g. command over resources (i.e. the household income) and the relative position of the household in the income distribution, determine who is poor and who is not. Changes in household composition - an increase in the number of pensioners, unemployed and self-employed, concomitant with a large decrease in the number of employees - obviously played a part in the changing structure of household income sources during this period. The overall decrease in the share of wages and salaries from primary employment in 1993 is to be observed in all income deciles. On the other hand, the importance of salaries gained from secondary employment has increased in all deciles. The lower seven deciles experienced a sharp rise in the share of social benefits in the period 1988-1993, mostly because of the increase in the number of persons entitled to claim unemployment benefits. In Slovenia, income inequality has increased considerably during the 1988-1993 period. To make matters worse, the large increase in income inequality occurred in a period of falling real incomes. In 1983 the bottom decile disposed of 3.8 percent and the top decile disposed of 23.4 percent of total monetary income in Slovenia, whereas by 1993 the same statistics revealed 3.1 percent and 18.9 percent respectively. Unemployment greatly increases the risk of living in poverty. In 1993, 35 per cent of all unemployed persons in Slovenia were living in the lowest income quintile. Ms. Stropnik found certain features that were specific to Slovenia and not shared by most countries in transition. For example, the relative income position of pensioners has improved. Retirement did not increase the risk of poverty in 1993 as much as it did in 1983 and 1988. Also, it appears that children have not been particularly hard-hit by the transition upheavals. The incidence of poverty amongst children has not increased in the period 1983-1993. Children were also fairly evenly distributed across income quintiles. In 1983, 11.8 percent of households with children aged 18 or less were poor. In 1993, this figure was 8.4 per cent. On the other hand, poor households with children were, in comparison with other households of the same type, poorer in 1993 than in 1983. Ms. Stropnik also analysed the impact of social transfers. Her conclusion was that the level of social transfers prevented them from being successful in alleviating poverty. Family policy transfers (child allowances, child tax allowances, subsidised child care) did, however, contribute to the lowering of income inequality between families with and without children, and amongst families with different numbers of children. Ms. Stropnik is determined that the results of her research be used in the creation of social policy aimed at helping the poor. She quotes Piachaud approvingly: "If the term 'poverty' carries with it the implication and moral imperative that something should be done about it, then the study of poverty is only ultimately justifiable if it influences individual and social attitudes and actions."
Resumo:
Panel 4: Transnational Memory of Mass Violence Anne Waehrens, University of Copenhagen/Danish Institute for International Studies, Denmark: “Is There a Shared European memory? Holocaust Remembrance in the European Parliament after 1989" Download paper (login required) Ran Zwigenberg, City University of New York: “The Hiroshima-Auschwitz Peace March and the Globalization of Victimhood” Download paper (login required) Mark Zaurov, University of Hamburg, Germany: "The Current Situation of Human Rights for Deaf People with Respect to the Deaf Holocaust" Download paper (login required) Chair: Natalya Lazar and Jody Manning, Clark UniversityComment: Ken McLean, Clark University