866 resultados para Core Sets


Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis is settled within the STOCKMAPPING project, which represents one of the studies that were developed in the framework of RITMARE Flagship project. The main goals of STOCKMAPPING were the creation of a genomic mapping for stocks of demersal target species and the assembling of a database of population genomic, in order to identify stocks and stocks boundaries. The thesis focuses on three main objectives representing the core for the initial assessment of the methodologies and structure that would be applied to the entire STOCKMAPPING project: individuation of an analytical design to identify and locate stocks and stocks boundaries of Mullus barbatus, application of a multidisciplinary approach to validate biological methods and an initial assessment and improvement for the genotyping by sequencing technique utilized (2b-RAD). The first step is the individuation of an analytical design that has to take in to account the biological characteristics of red mullet and being representative for STOCKMAPPING commitments. In this framework a reduction and selection steps was needed due to budget reduction. Sampling areas were ranked according the individuation of four priorities. To guarantee a multidisciplinary approach the biological data associated to the collected samples were used to investigate differences between sampling areas and GSAs. Genomic techniques were applied to red mullet for the first time so an initial assessment of molecular protocols for DNA extraction and 2b-RAD processing were needed. At the end 192 good quality DNAs have been extracted and eight samples have been processed with 2b-RAD. Utilizing the software Stacks for sequences analyses a great number of SNPs markers among the eight samples have been identified. Several tests have been performed changing the main parameter of the Stacks pipeline in order to identify the most explicative and functional sets of parameters.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The development of High-Integrity Real-Time Systems has a high footprint in terms of human, material and schedule costs. Factoring functional, reusable logic in the application favors incremental development and contains costs. Yet, achieving incrementality in the timing behavior is a much harder problem. Complex features at all levels of the execution stack, aimed to boost average-case performance, exhibit timing behavior highly dependent on execution history, which wrecks time composability and incrementaility with it. Our goal here is to restitute time composability to the execution stack, working bottom up across it. We first characterize time composability without making assumptions on the system architecture or the software deployment to it. Later, we focus on the role played by the real-time operating system in our pursuit. Initially we consider single-core processors and, becoming less permissive on the admissible hardware features, we devise solutions that restore a convincing degree of time composability. To show what can be done for real, we developed TiCOS, an ARINC-compliant kernel, and re-designed ORK+, a kernel for Ada Ravenscar runtimes. In that work, we added support for limited-preemption to ORK+, an absolute premiere in the landscape of real-word kernels. Our implementation allows resource sharing to co-exist with limited-preemptive scheduling, which extends state of the art. We then turn our attention to multicore architectures, first considering partitioned systems, for which we achieve results close to those obtained for single-core processors. Subsequently, we shy away from the over-provision of those systems and consider less restrictive uses of homogeneous multiprocessors, where the scheduling algorithm is key to high schedulable utilization. To that end we single out RUN, a promising baseline, and extend it to SPRINT, which supports sporadic task sets, hence matches real-world industrial needs better. To corroborate our results we present findings from real-world case studies from avionic industry.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The aim of this work is to provide a precise and accurate measurement of the 238U(n,gamma) reaction cross-section. This reaction is of fundamental importance for the design calculations of nuclear reactors, governing the behaviour of the reactor core. In particular, fast neutron reactors, which are experiencing a growing interest for their ability to burn radioactive waste, operate in the high energy region of the neutron spectrum. In this energy region inconsistencies between the existing measurements are present up to 15%, and the most recent evaluations disagree each other. In addition, the assessment of nuclear data uncertainty performed for innovative reactor systems shows that the uncertainty in the radiative capture cross-section of 238U should be further reduced to 1-3% in the energy region from 20 eV to 25 keV. To this purpose, addressed by the Nuclear Energy Agency as a priority nuclear data need, complementary experiments, one at the GELINA and two at the n_TOF facility, were scheduled within the ANDES project within the 7th Framework Project of the European Commission. The results of one of the 238U(n,gamma) measurement performed at the n_TOF CERN facility are presented in this work, carried out with a detection system constituted of two liquid scintillators. The very accurate cross section from this work is compared with the results obtained from the other measurement performed at the n_TOF facility, which exploit a different and complementary detection technique. The excellent agreement between the two data-sets points out that they can contribute to the reduction of the cross section uncertainty down to the required 1-3%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

During the last few decades an unprecedented technological growth has been at the center of the embedded systems design paramount, with Moore’s Law being the leading factor of this trend. Today in fact an ever increasing number of cores can be integrated on the same die, marking the transition from state-of-the-art multi-core chips to the new many-core design paradigm. Despite the extraordinarily high computing power, the complexity of many-core chips opens the door to several challenges. As a result of the increased silicon density of modern Systems-on-a-Chip (SoC), the design space exploration needed to find the best design has exploded and hardware designers are in fact facing the problem of a huge design space. Virtual Platforms have always been used to enable hardware-software co-design, but today they are facing with the huge complexity of both hardware and software systems. In this thesis two different research works on Virtual Platforms are presented: the first one is intended for the hardware developer, to easily allow complex cycle accurate simulations of many-core SoCs. The second work exploits the parallel computing power of off-the-shelf General Purpose Graphics Processing Units (GPGPUs), with the goal of an increased simulation speed. The term Virtualization can be used in the context of many-core systems not only to refer to the aforementioned hardware emulation tools (Virtual Platforms), but also for two other main purposes: 1) to help the programmer to achieve the maximum possible performance of an application, by hiding the complexity of the underlying hardware. 2) to efficiently exploit the high parallel hardware of many-core chips in environments with multiple active Virtual Machines. This thesis is focused on virtualization techniques with the goal to mitigate, and overtake when possible, some of the challenges introduced by the many-core design paradigm.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The temporospatial controlled delivery of growth factors is crucial to trigger the desired healing mechanisms in target tissues. The uncontrolled release of growth factors has been demonstrated to cause severe side effects in its surrounding tissues. Thus, the first working hypothesis was to tune and optimize a newly developed multiscale delivery platform based on a nanostructured silicon particle core (pSi) and a poly (dl-lactide-co-glycolide) acid (PLGA) outer shell. In a murine subcutaneous model, the platform was demonstrated to be fully tunable for the temporal and spatial control release of the payload. Secondly, a multiscale approach was followed in a multicompartment collagen scaffold, to selectively integrate different sets of PLGA-pSi loaded with different reporter proteins. The spatial confinement of the microspheres allowed the release of the reporter proteins in each of the layers of the scaffold. Finally, the staged and zero-order release kinetics enabled the temporal biochemical patterning of the scaffold. The last step of this PhD project was to test if by fully embedding PLGA microspheres in a highly structured and fibrous collagen-based scaffold (camouflaging), it was possible to prevent their early detection and clearance by macrophages. It was further studied whether such a camouflaging strategy was efficient in reducing the production of key inflammatory molecules, while preserving the release kinetics of the payload of the PLGA microspheres. Results demonstrated that the camouflaging allowed for a 10-fold decrease in the number of PLGA microspheres internalized by macrophages, suggesting that the 3D scaffold operated by cloaking the PLGA microspheres. When the production of key inflammatory cytokines induced by the scaffold was assessed, macrophages' response to the PLGA microspheres-integrated scaffolds resulted in a response similar to that observed in the control (not functionalized scaffold) and the release kinetic of a reporter protein was preserved.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nell'ambito delle nanostrutture, un ruolo primario è svolto dai punti quantici. In questo lavoro siamo interessati all'analisi teorica del processo di creazione dei punti quantici: esso può avvenire per eteroepitassia, in particolare secondo il metodo studiato da Stranski-Krastanov. Un film di Germanio viene depositato su un substrato di Silicio in modo coerente, cioè senza dislocazioni, e, a causa del misfit tra le maglie dei due materiali, c'è un accumulo di energia elastica nel film. A una certa altezza critica questa energia del film può essere ridotta se il film si organizza in isole (punti quantici), dove la tensione può essere rilassata lateralmente. L'altezza critica dipende dai moduli di Young (E, υ), dal misfit tra le maglie (m) e dalla tensione superficiali (γ). Il trasporto di materiale nel film è portato avanti per diffusione superficiale. Il punto focale nell'analisi delle instabilità indotte dal misfit tra le maglie dei materiali è la ricerca delle caratteristiche che individuano il modo di crescita più rapido dei punti quantici. In questo lavoro siamo interessati ad un caso particolare: la crescita di punti quantici non su una superficie piana ma sulla superficie di un nanofilo quantico a geometria cilindrica. L'analisi delle instabilità viene condotta risolvendo le equazioni all'equilibrio: a tal fine sono state calcolate le distribuzioni del tensore delle deformazioni e degli sforzo di un nanofilo core-shell con una superficie perturbata al primo ordine rispetto all'ampiezza della perturbazione. L'analisi è stata condotta con particolari condizioni al contorno ed ipotesi geometriche, e diverse scelte dello stato di riferimento del campo degli spostamenti. Risolto il problema elastico, è stata studiata l'equazione dinamica di evoluzione descrivente la diffusione di superficie. Il risultato dell'analisi di instabilità è il tasso di crescita in funzione del numero d'onda q, con diversi valori del raggio del core, spessore dello shell e modo normale n, al fine di trovare il più veloce modo di crescita della perturbazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Combinatorial Optimization is becoming ever more crucial, in these days. From natural sciences to economics, passing through urban centers administration and personnel management, methodologies and algorithms with a strong theoretical background and a consolidated real-word effectiveness is more and more requested, in order to find, quickly, good solutions to complex strategical problems. Resource optimization is, nowadays, a fundamental ground for building the basements of successful projects. From the theoretical point of view, Combinatorial Optimization rests on stable and strong foundations, that allow researchers to face ever more challenging problems. However, from the application point of view, it seems that the rate of theoretical developments cannot cope with that enjoyed by modern hardware technologies, especially with reference to the one of processors industry. In this work we propose new parallel algorithms, designed for exploiting the new parallel architectures available on the market. We found that, exposing the inherent parallelism of some resolution techniques (like Dynamic Programming), the computational benefits are remarkable, lowering the execution times by more than an order of magnitude, and allowing to address instances with dimensions not possible before. We approached four Combinatorial Optimization’s notable problems: Packing Problem, Vehicle Routing Problem, Single Source Shortest Path Problem and a Network Design problem. For each of these problems we propose a collection of effective parallel solution algorithms, either for solving the full problem (Guillotine Cuts and SSSPP) or for enhancing a fundamental part of the solution method (VRP and ND). We endorse our claim by presenting computational results for all problems, either on standard benchmarks from the literature or, when possible, on data from real-world applications, where speed-ups of one order of magnitude are usually attained, not uncommonly scaling up to 40 X factors.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gli ammassi di galassie sono gli oggetti gravitazionalmente legati più grandi dell’Universo. Questi emettono principalmente in banda X tramite bremsstrahlung. Una frazione mostra anche emissione radio diffusa da parte di elettroni relativistici che spiraleggiano nel campo magnetico. Si possono classificare tre tipi di emissione: alon, relitti e mini-aloni radio (MH). I MH sono sorgenti radio su scale di ≥ 200 – 500 kpc, osservate al centro di ammassi caratterizzati dalla presenze di cool-core (CC). L’origine dei MH non è ancora chiara. Gli elettroni relativistici che emettono in banda radio hanno tempi di vita radiativi di molto inferiori a quelli necessari per diffondere sulle scale dell’emissione diffusa. Quindi non sono semplicemente iniettati dalle galassie presenti negli ammassi ed è necessario un meccanismo di accelerazione “in-situ” nell’ICM. I MH testimoniano la presenza di meccanismi che canalizzano parte del budget energetico disponibile nei CC nell’ICM.Quindi lo studio è importante per comprendere la fisica dell’ICM e l’interazione fra le componenti non termiche e termiche. I MH si formano attraverso la riaccelerazione delle particelle relativistiche ad opera della turbolenza del gas. L’origine di questa turbolenza tuttavia non è ancora ben compresa. Gli ammassi CC sono caratterizzati da un picco della brillanza X nelle regioni centrali e da un drop della temperatura verso il centro accompagnata da aumento della densità del gas. Si ritiene che questo sia dovuto al raffreddamento del gas che quindi fluisce nelle zone centrali. Recenti osservazioni in X risultan inconsistenti con il modello classico di CF, suggerendo la presenza di una sorgente di riscaldamento del gas su scale del core degli ammassi. Recentemente Zhuravleva (2014) hanno mostrato che il riscaldamento dovuto alla turbolenza prodotta dall'AGN centrale è in grado di bilanciare il processo di raffreddamento. Abbiamo assunto che la turbolenza responsabile del riscaldamento del gas è anche responsabile dell’accelerazione delle particelle nei MH. Nell’ambito di questo scenario ci si aspetta una correlazione tra la potenza del cooling flow, PCF, che è una misura del tasso di energia emessa dal gas che raffredda nei CC, e la luminosità radio, che è una frazione dell’energia della turbolenza che è canalizzata nell’accelerazione delle particelle. In questo lavoro di tesi abbiamo utilizzato il più grande campione disponibile di MH, allo scopo di studiare la connessione fra le proprietà dei MH e quelle del gas termico nei core degli ammassi che li ospitano. Abbiamo analizzato i dati di 21 ammassi e ricavato i parametri fisici all’interno del raggio di cooling e del MH. Abbiamo ricavato la correlazione fra luminosità radio, e PCF. Abbiamo trovato che le due quantità correlano in modo quasi-lineare confermando i risultati precedenti. Tale correlazione suggerisce uno stretto legame fra le proprietà del gas nei CC e l’origine dei MH.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La geometria euclidea risulta spesso inadeguata a descrivere le forme della natura. I Frattali, oggetti interrotti e irregolari, come indica il nome stesso, sono più adatti a rappresentare la forma frastagliata delle linee costiere o altri elementi naturali. Lo strumento necessario per studiare rigorosamente i frattali sono i teoremi riguardanti la misura di Hausdorff, con i quali possono definirsi gli s-sets, dove s è la dimensione di Hausdorff. Se s non è intero, l'insieme in gioco può riconoscersi come frattale e non presenta tangenti e densità in quasi nessun punto. I frattali più classici, come gli insiemi di Cantor, Koch e Sierpinski, presentano anche la proprietà di auto-similarità e la dimensione di similitudine viene a coincidere con quella di Hausdorff. Una tecnica basata sulla dimensione frattale, detta box-counting, interviene in applicazioni bio-mediche e risulta utile per studiare le placche senili di varie specie di mammiferi tra cui l'uomo o anche per distinguere un melanoma maligno da una diversa lesione della cute.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi si pone l'obiettivo di esplorare alcuni aspetti di uno dei settori più in crescita in questi anni (e nei prossimi) in ambito informatico: \textbf{Internet of Things}, con un occhio rivolto in particolar modo a quelle che sono le piattaforme di sviluppo disponibili in questo ambito. Con queste premesse, si coglie l'occasione per addentrarsi nella scoperta della piattaforma realizzata e rilasciata da pochi mesi da uno dei colossi del mercato IT: Microsoft. Nel primo capitolo verrà trattato Internet of Things in ambito generale, attraverso una panoramica iniziale seguita da un'analisi approfondita dei principali protocolli sviluppati per questa tecnologia. Nel secondo capitolo verranno elencate una serie di piattaforme open source disponibili ad oggi per lo sviluppo di sistemi IoT. Dal terzo capitolo verrà incentrata l'attenzione sulle tecnologie Microsoft, in particolare prima si tratterà Windows 10 in generale, comprendendo \emph{UWP Applications}. Di seguito, nel medesimo capitolo, sarà focalizzata l'attenzione su Windows IoT Core, esplorandolo dettagliatamente (Windows Remote Arduino, Modalità Headed/Headless, etc.). Il capitolo a seguire concernerà la parte progettuale della tesi, comprendendo lo sviluppo del progetto \textbf{Smart Parking} in tutte le sue fasi (dei Requisiti fino ad Implementazione e Testing). Nel quinto (ed ultimo) capitolo, saranno esposte le conclusioni relative a Windows IoT Core e i suoi vantaggi/svantaggi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo elaborato viene presentata l'analisi cinematica delle regioni centrali di NGC 6441, uno degli ammassi globulari più massivi (M ~10^6 Msol) della nostra Galassia. L'ammasso è stato selezionato, insieme ad altri 18, all'interno dell'ESO Large Program “Unveiling the kinematics in the core of high-density globular clusters with SINFONI" (PI: Ferraro) per cercare evidenze di buchi neri di massa intermedia (IMBH), la cui esistenza è ancora controversa. Poichè la misura della dispersione di velocità da spettri integrati può essere affetta dalla contaminazione di poche stelle brillanti, in questo lavoro si sono misurate le velocità radiali (RV) di stelle individuali, utilizzando lo spettrografo IFU SINFONI dell'ESO, dotato di un sistema di ottiche adattive. Sono state misurate le RV di 709 stelle giganti nei primi 17" dal centro, da cui è stato estratto un sotto-campione di alta qualità di circa 200 stelle. Queste misure sono state poi combinate con un campione di RV nelle regioni più esterne dell'ammasso, ottenute con gli spettrografi multi-oggetto KMOS e FLAMES dell'ESO. Tali dati sono stati utilizzati per il calcolo del profilo di dispersione di velocità e per la ricerca di rotazione lungo l'intera estensione radiale nell'ammasso. I risultati ottenuti sembrano escludere sia l'esistenza di un IMBH, che la presenza di forte rotazione interna. Inoltre hanno evidenziato una significativa decrescita della dispersione di velocita` nelle regioni centrali (parzialmente confermata anche da misure di moti propri ottenute con HST), che potrebbe suggerire la presenza di anisotropia tangenziale nel centro del sistema. Un simile comportamento (sebbene di minore entita`) e’ stato evidenziato in altri ammassi, suggerendo che potrebbe trattarsi di una caratteristica comune in questi sistemi stellari.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Extended cluster radio galaxies show different morphologies com- pared to those found isolated in the field. Indeed, symmetric double radio galaxies are only a small percentage of the total content of ra- dio loud cluster galaxies, which show mainly tailed morphologies (e.g. O’Dea & Owen, 1985). Moreover, cluster mergers can deeply affect the statistical properties of their radio activity. In order to better understand the morphological and radio activity differences of the radio galaxies in major mergeing and non/tidal-merging clusters, we performed a multifrequency study of extended radio galax- ies inside two cluster complexes, A3528 and A3558. They belong to the innermost region of the Shapley Concentration, the most massive con- centration of galaxy clusters (termed supercluster) in the local Universe, at average redshift z ≈ 0.043. We analysed low frequency radio data performed at 235 and 610 MHz with Giant Metrewave Radio Telescope (GMRT) and we combined them with proprietary and literature observations, in order to have a wide frequency range (150 MHz to 8.4 GHz) to perform the spectral analysis. The low frequency images allowed us to carry out a detailed study of the radio tails and diffuse emission found in some cases. The results in the radio band were also qualitatively compared with the X-ray information coming from XMM-Newton observations, in order to test the interaction between radio galaxies and cluster weather. We found that the brightest central galaxies (BCGs) in the A3528 cluster complex are powerful and present substantial emission from old relativistic plasma characterized by a steep spectrum (α > 2). In the light of observational pieces of evidence, we suggest they are possible re-started radio galaxies. On the other hand, the tailed radio galaxies trace the host galaxy motion with respect to the ICM, and our find- ings is consistent with the dynamical interpretation of a tidal interaction (Gastaldello et al. 2003). On the contrary, the BCGs in the A3558 clus- ter complex are either quiet or very faint radio galaxies, supporting the hypothesis that clusters mergers quench the radio emission from AGN.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La programmazione aggregata è un paradigma che supporta la programmazione di sistemi di dispositivi, adattativi ed eventualmente a larga scala, nel loro insieme -- come aggregati. L'approccio prevalente in questo contesto è basato sul field calculus, un calcolo formale che consente di definire programmi aggregati attraverso la composizione funzionale di campi computazionali, creando i presupposti per la specifica di pattern di auto-organizzazione robusti. La programmazione aggregata è attualmente supportata, in modo più o meno parziale e principalmente per la simulazione, da DSL dedicati (cf., Protelis), ma non esistono framework per linguaggi mainstream finalizzati allo sviluppo di applicazioni. Eppure, un simile supporto sarebbe auspicabile per ridurre tempi e sforzi d'adozione e per semplificare l'accesso al paradigma nella costruzione di sistemi reali, nonché per favorire la ricerca stessa nel campo. Il presente lavoro consiste nello sviluppo, a partire da un prototipo della semantica operazionale del field calculus, di un framework per la programmazione aggregata in Scala. La scelta di Scala come linguaggio host nasce da motivi tecnici e pratici. Scala è un linguaggio moderno, interoperabile con Java, che ben integra i paradigmi ad oggetti e funzionale, ha un sistema di tipi espressivo, e fornisce funzionalità avanzate per lo sviluppo di librerie e DSL. Inoltre, la possibilità di appoggiarsi, su Scala, ad un framework ad attori solido come Akka, costituisce un altro fattore trainante, data la necessità di colmare l'abstraction gap inerente allo sviluppo di un middleware distribuito. Nell'elaborato di tesi si presenta un framework che raggiunge il triplice obiettivo: la costruzione di una libreria Scala che realizza la semantica del field calculus in modo corretto e completo, la realizzazione di una piattaforma distribuita Akka-based su cui sviluppare applicazioni, e l'esposizione di un'API generale e flessibile in grado di supportare diversi scenari.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Abstract The aim of this study was to assess the effects of a series of different surface coated quantum dots (QDs) (organic, carboxylated [COOH] and amino [NH(2)] polytethylene glycol [PEG]) on J774.A1 macrophage cell viability and to further determine which part of the QDs cause such toxicity. Cytotoxic examination (MTT assay and LDH release) showed organic QDs to induce significant cytotoxicity up to 48 h, even at a low particle concentration (20 nM), whilst both COOH and NH(2) (PEG) QDs caused reduced cell viability and cell membrane permeability after 24 and 48 h exposure at 80 nM. Subsequent analysis of the elements that constitute the QD core, core/shell and (organic QD) surface coating showed that the surface coating drives QD toxicity. Elemental analysis (ICP-AES) after 48 h, however, also observed a release of Cd from organic QDs. In conclusion, both the specific surface coating and core material can have a significant impact on QD toxicity.