960 resultados para Sistemi Multi-Agente, Sistemi ad Eventi, MAS, EBS, Kafka, JADE, TuCSoN


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sommario Il progetto descritto in questo documento consiste nella realizzazione di una prima applicazione pratica di uno specifico studio di ricerca rivolto al ripristino di reti wireless in scenari post-calamità naturali. In principio è stata descritta un’ampia analisi delle problematiche di rete che si vengono a creare in seguito ad eventi catastrofici. Successivamente, analizzando le varie tecniche e tecnologie oggetto di studio di diversi gruppi di ricerca, si è scelto di collaborare con il progetto STEM-Mesh, essendo ancora in fase sperimentale, il quale affronta il problema di ristabilire la connettività di rete in questi particolari scenari, attraverso l’utilizzo di tecnologie Cognitive Radio (CR), mobilità controllata e principi di reti auto-organizzanti. Di questo primo approccio pratico sono state poi descritte le fasi di progettazione, implementazione e testing. Nella fase di progettazione sono state studiate le componenti hardware e software che rispettassero il più possibile i requisiti e le caratteristiche dei dispositivi “staminali” STEM-Node cuore del progetto STEM-Mesh, ovvero dei dispositivi wireless altamente auto-riconfiguranti ed auto-organizzanti che possono diventare dispositivi sostituivi ai nodi compromessi in una rete, riconfigurandosi appunto in base alle funzionalità interrotte. Nella fase di implementazione si è passati alla stesura del codice, in Python e Wiring, abilitante il dispositivo STEM-Node. Infine nella fase di testing si è verificato che i risultati fossero quelli desiderati e che il sistema realizzato funzionasse come previsto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis investigates two distinct research topics. The main topic (Part I) is the computational modelling of cardiomyocytes derived from human stem cells, both embryonic (hESC-CM) and induced-pluripotent (hiPSC-CM). The aim of this research line lies in developing models of the electrophysiology of hESC-CM and hiPSC-CM in order to integrate the available experimental data and getting in-silico models to be used for studying/making new hypotheses/planning experiments on aspects not fully understood yet, such as the maturation process, the functionality of the Ca2+ hangling or why the hESC-CM/hiPSC-CM action potentials (APs) show some differences with respect to APs from adult cardiomyocytes. Chapter I.1 introduces the main concepts about hESC-CMs/hiPSC-CMs, the cardiac AP, and computational modelling. Chapter I.2 presents the hESC-CM AP model, able to simulate the maturation process through two developmental stages, Early and Late, based on experimental and literature data. Chapter I.3 describes the hiPSC-CM AP model, able to simulate the ventricular-like and atrial-like phenotypes. This model was used to assess which currents are responsible for the differences between the ventricular-like AP and the adult ventricular AP. The secondary topic (Part II) consists in the study of texture descriptors for biological image processing. Chapter II.1 provides an overview on important texture descriptors such as Local Binary Pattern or Local Phase Quantization. Moreover the non-binary coding and the multi-threshold approach are here introduced. Chapter II.2 shows that the non-binary coding and the multi-threshold approach improve the classification performance of cellular/sub-cellular part images, taken from six datasets. Chapter II.3 describes the case study of the classification of indirect immunofluorescence images of HEp2 cells, used for the antinuclear antibody clinical test. Finally the general conclusions are reported.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo della tesi è esplorare gli aspetti fondamentali che riguardano la programmazione asincrona, in particolare in JavaScript, analizzando le librerie e i metodi piu` diffusi per risolvere problemi tipici di asincronicità. Il motivo dello studio di JavaScript è il grande utilizzo di tale linguaggio per la costruzione delle moderne web-app. Per la realizzazione di questo elaborato si è partiti dallo studio dell’evoluzione del web, dal Web 1.0 al web 2.0 e dall’evoluzione delle web app in questo contesto, successivamente si è raffinata la ricerca allo studio più specifico di JavaScript e, di conseguenza, ai suoi costrutti ed ai suoi stili di programmazione, come la programmazione asincrona e la programmazione ad eventi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni si è assistito nel panorama mondiale ad un notevole ed importante cambiamento nell’asset della produzione dell’energia elettrica. L’aumentare del costo nell'estrazione dei combustibili fossili ed il conseguente impatto ambientale che questi hanno nell'atmosfera ha influito notevolmente sullo sviluppo e sulla diffusione della tecnologia fotovoltaica. L’evoluzione di questa tecnologia ha permesso di raggiungere la “grid parity”, ossia l’uguaglianza tra il costo di 1 kWh prodotto dal fotovoltaico con 1 kWh prodotto da fonti fossili, per molte aree del pianeta. Tale tecnologia non è recente, già negli anni ‘60 si svilupparono i primi studi a riguardo, ma negli ultimi anni ha subito notevoli migliorie che l’hanno portata ad essere competitiva nel settore dell’energia elettrica. Il presente lavoro di tesi riporta una rassegna delle celle solari a base di silicio, a partire dal silicio monocristallino, al silicio poli e multi cristallino, fino ad arrivare a celle a film sottile o celle costituite da materiali multi-fase contenenti strutture quantiche e nanocristalli di Si. Negli ultimi anni tutti gli studi si stanno concentrando su un nuovo tipo di fotovoltaico, quello di terza generazione, il cui scopo è quello di ottenere dispositivi che, ad un prezzo molto contenuto dovuto ad un utilizzo di materiali economici come i Si-NCs (nano cristalli di silicio), possano garantire elevate efficienze in modo tale che la tecnologia fotovoltaica sia in grado di affermarsi definitivamente nel settore dell’energia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I complessi intrusivi alcalini, e i loro prodotti di alterazione, costituiscono una delle principali risorse di materie prime ad alto valore economico. Il magmatismo alcalino è di solito associato a fenomeni di rifting continentale che può essere legato o ad un’incipiente divergenza di placche litosferiche (Rift dell’Africa Orientale) o ad eventi distensivi post-collisionali. La caratterizzazione petrografica, geochimica e geocronologia di questi complessi sono prerequisiti essenziali per ogni progetto di prospezione mineraria. In Italia uno dei complessi alcalini più conosciuti è il Plutone Oligocenico della Valle del Cervo (Biella). La petrografia e la composizione degli elementi maggiori e in traccia dei diversi litotipi che lo compongono sono conosciuti nella letteratura geologica. Le datazioni radiometriche disponibili, tuttavia, sono limitate a dati Rb-Sr su separati di biotite e a più recenti dati U-Pb su zircone separato dal piccolo nucleo granitico del Plutone Oligocenico della Valle del Cervo. In entrambi i casi sono state ottenute età radiometriche di circa 30 Ma. Questo lavoro di tesi si basa sull’analisi degli isotopi U-Pb di zirconi separati dalla sienite e dal monzogranito a megacristalli di ortoclasio che costituiscono gran parte del Plutone Oligocenico della Valle del Cervo. Dopo una caratterizzazione petrografica e geochimica dei campioni scelti si è proceduto alla separazione degli zirconi tramite i metodi di routine che includono separazione gravimetrica, magnetica e liquidi pesanti. I rapporti isotopici U-Pb degli zirconi sono stati determinati presso l’Istituto di Geoscienze e Georisorse, Unità di Pavia, usando la tecnica di spettrometria di massa accoppiata ad una microsonda ad ablazione laser (LA ICP-MS). Le età U-Pb medie determinate per la sienite (33 Ma) e per il monzogranito a megacristalli di ortoclasio (29 Ma) sono da considerarsi età magmatiche relative alla cristallizzazione dei fusi che diedero origine a queste rocce.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le Associazioni Non Profit giocano un ruolo sempre più rilevante nella vita dei cittadini e rappresentano un'importante realtà produttiva del nostro paese; molto spesso però risulta difficile trovare informazioni relative ad eventi, attività o sull'esistenza stessa di queste associazioni. Per venire in contro alle esigenze dei cittadini molte Regioni e Province mettono a disposizione degli elenchi in cui sono raccolte le informazioni relative alle varie organizzazioni che operano sul territorio. Questi elenchi però, presentano spesso grossi problemi, sia per quanto riguarda la correttezza dei dati, sia per i formati utilizzati per la pubblicazione. Questi fattori hanno portato all'idea e alla necessità di realizzare un sistema per raccogliere, sistematizzare e rendere fruibili le informazioni sulle Associazioni Non Profit presenti sul territorio, in modo che questi dati possano essere utilizzati liberamente da chiunque per scopi diversi. Il presente lavoro si pone quindi due obiettivi principali: il primo consiste nell'implementazione di un tool in grado di recuperare le informazioni sulle Associazioni Non Profit sfruttando i loro Siti Web; questo avviene per mezzo dell'utilizzo di tecniche di Web Crawling e Web Scraping. Il secondo obiettivo consiste nel pubblicare le informazioni raccolte, secondo dei modelli che ne permettano un uso libero e non vincolato; per la pubblicazione e la strutturazione dei dati è stato utilizzato un modello basato sui principi dei linked open data.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La stima della frequenza di accadimento di eventi incidentali di tipo random da linee e apparecchiature è in generale effettuata sulla base delle informazioni presenti in banche dati specializzate. I dati presenti in tali banche contengono informazioni relative ad eventi incidentali avvenuti in varie tipologie di installazioni, che spaziano dagli impianti chimici a quelli petrolchimici. Alcune di queste banche dati risultano anche piuttosto datate, poiché fanno riferimento ad incidenti verificatisi ormai molto addietro negli anni. Ne segue che i valori relativi alle frequenze di perdita forniti dalle banche dati risultano molto conservativi. Per ovviare a tale limite e tenere in conto il progresso tecnico, la linea guida API Recommended Pratice 581, pubblicata nel 2000 e successivamente aggiornata nel 2008, ha introdotto un criterio per determinare frequenze di perdita specializzate alla realtà propria impiantistica, mediante l’ausilio di coefficienti correttivi che considerano il meccanismo di guasto del componente, il sistema di gestione della sicurezza e l’efficacia dell’attività ispettiva. Il presente lavoro di tesi ha lo scopo di mettere in evidenza l’evoluzione dell’approccio di valutazione delle frequenze di perdita da tubazione. Esso è articolato come descritto nel seguito. Il Capitolo 1 ha carattere introduttivo. Nel Capitolo 2 è affrontato lo studio delle frequenze di perdita reperibili nelle banche dati generaliste. Nel Capitolo 3 sono illustrati due approcci, uno qualitativo ed uno quantitativo, che permettono di determinare le linee che presentano priorità più alta per essere sottoposte all’attività ispettiva. Il Capitolo 4 è dedicato alla descrizione della guida API Recomended Practice 581. L’applicazione ad un caso di studio dei criteri di selezione delle linee illustrati nel Capitolo 3 e la definizione delle caratteristiche dell’attività ispettiva secondo la linea guida API Recomended Practice 581 sono illustrati nel Capitolo 5. Infine nel Capitolo 6 sono rese esplicite le considerazioni conclusive dello studio effettuato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi nasce da un'attività di ricerca approfondita su alcune tecnologie innovative e all'avanguardia nell'ambito del mobile computing e dell'Internet of Things. Tra queste il focus principale è orientato allo studio del Bluetooth Low Energy, nuova specifica di Bluetooth caratterizzata principalmente da un consumo di energia assai ridotto. In particolare, si è approfondito il suo funzionamento nel caso dei beacon, piccoli dispositivi che permettono una localizzazione mediante l'invio di un segnale BLE. Inoltre è stata analizzata la possibilità di interazione con Android, poiché oggigiorno non si può evitare di pensare a come queste tecnologie possano interfacciarsi con il mondo degli smartphone e dei tablet. Come conseguenza di tale attività di ricerca è stato analizzato un caso di studio che permettesse di applicare le tecnologie studiate e la loro interazione. Si è pensato quindi a un piccolo sistema distribuito per schermi adattativi (capaci di modificare i contenuti visualizzati in relazione ad eventi esterni) affinché ogni schermo mostrasse dinamicamente l'orario delle lezioni di ciascuno studente all'avvicinarsi di quest'ultimo, e solo per il tempo di permanenza nei pressi dello schermo. Si è quindi progettato e sviluppato un prototipo, e infine durante il testing si sono potute verificare le attuali potenzialità di queste tecnologie e trarre conclusioni sulla possibilità della loro futura diffusione e di impiego in contesti differenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I dati riportati in letteratura relativi alla struttura degli organi linfoidi dei Cetacei sono scarsi, talvolta discordanti e riferiti solo ad alcune specie. Per questo motivo è stato condotto il presente studio che ha utilizzato il tursiope (Tursiops truncatus) come specie di riferimento. In particolare, in tre soggetti di tursiope è stata analizzata, mediante l’ausilio di specifici software di analisi dell’immagine, la struttura dei seguenti organi linfoidi: timo, milza e linfonodi. Il timo, analogamente a quanto si osserva negli altri Mammiferi, si presenta come organo lobulato. In ciascun lobulo è possibile individuare due zone: la corticale e la midollare. A differenza di quanto si osserva nell’Uomo, è interessante sottolineare come nella midollare di ciascun lobulo non sia mai stata osservata la componente fibrillare. E’ possibile ipotizzare che tale differenza sia dovuta ad eventi connessi con l’organogenesi del timo. Nel tursiope il rapporto cortico/midollare non mostra differenze rispetto a quanto si osserva in altri Mammiferi. La milza del tursiope mostra caratteristiche strutturali simili a quelle osservate in altri Mammiferi. Nel tursiope, rispetto ad altri Mammiferi (Equidi, Ruminanti, Suidi e Carnivori), la quantità di polpa bianca, sul totale della polpa splenica, appare decisamente inferiore (5% vs 30%). Dal momento che le dimensioni della milza non sono particolarmente evidenti, anche la polpa rossa, se rapportata alle dimensioni dell’animale, non si presenta abbondante come in altre specie. Tale dato indica come la milza del tursiope, analogamente a quanto si osserva nell’Uomo e nei Roditori, non svolge alcuna funzione di deposito del sangue. I linfonodi di tursiope sono, tra gli organi linfoidi esaminati, quelli che mostrano le maggiori differenze strutturali rispetto a quelli di numerosi altri Mammiferi (eccezion fatta per il maiale). I noduli linfatici ed il tessuto internodulare sono, infatti, posti sia nella parte superficiale che in quella profonda del linfonodo. Tale aspetto non consente di identificare la zona paracorticale e di definire una precisa delimitazione topografica tra corticale e midollare. Il rapporto tra noduli linfatici e tessuto internodulare indica come nel linfonodo di tursiope sia più diffuso il tessuto internodulare che, a differenza del nodulo linfatico (area B-competente), contiene anche territori T-competenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sulla base di analisi pluviometriche, stima delle LSPP e tempi di ritorno, si è proceduto a creare le mappe di Pericolosità dell'area del Bacino del Torrente Ravone, Bologna, Quartiere Saragozza. Segue l'analisi degli edifici esposti e la loro vulnerabilità ad eventi con Tr noto, creazione di mappe di danno potenziale secondo normativa per arrivare a realizzare la carta del rischio idraulico. Si è utilizzato il Modello INSYDE per i calcoli.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi di laurea è uno studio magmatologico, sedimentologico e morfostrutturale dei depositi dell’eruzione del Vesuvio del 1944, con particolare riferimento ai depositi di valanghe ardenti associati ad essa. Lo studio è stato affrontato utilizzando metodologie petrografiche, di chimica dei minerali e geotermo-barometriche al fine di ricavare informazioni sul sistema magmatico e sulla dinamica eruttiva nel corso dell’eruzione. I dati petrochimici e l’utilizzo di modelli geotermo-barometrici, unitamente alle informazioni dalla letteratura, indicano che il fattore di trigger che ha determinato il passaggio dalla iniziale effusione di colate laviche alle successive intense fasi di attività esplosiva ultrastromboliana è rappresentato dalla risalita di magma meno evoluto e più ricco in volatili dalla camera magmatica profonda (11-22 km) verso quella più superficiale (circa 3 km) dove ha interagito con il magma lì presente. Durante queste fasi a maggiore esplosività si è avuto sulla parte sommitale del cono un rapido accumulo di materiale ad elevata temperatura e l’instaurarsi di condizioni di overloading dei fianchi con aumento dell’angolo di pendio e conseguente instabilità. Ciò ha verosimilmente determinato la generazione di flussi di valanghe ardenti per rimobilizzazione sin-deposizionale del materiale piroclastico da caduta, probabilmente in seguito ad eventi sismici come elementi di innesco. I flussi di valanghe ardenti del 1944 sono stati interpretati come flussi granulari secchi, in base ai dati sedimentologici e vulcanologici raccolti nel corso dell’attività di terreno, rendendo possibile l’applicazione dei modelli elaborati da Castioni (2015) per la stima della velocità massima del flusso e degli assi maggiore e minore del deposito corrispondente. Sono state ricavate velocità che variano da un minimo di circa 4 m/s ad un massimo di circa 16 m/s in un range che è tipico di flussi granulari in ambiente vulcanico. Le variazioni della velocità sono state messe in relazione con la morfologia del pendio, il tipo di materiale coinvolto nel processo di rimobilizzazione e l’organizzazione interna del flusso, evidenziando in particolare come le maggiori lunghezze siano raggiunte dai flussi che hanno la possibilità di scorrere su pendii più omogenei e con più ridotte variazioni dell'angolo di pendio. La definizione di valori di velocità per i flussi di valanghe ardenti dell'eruzione del 1994 fornisce un ulteriore elemento utile per la valutazione della pericolosità vulcanica del Vesuvio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El almacenamiento y tratamiento de señales digitales es un campo muy importante de la informática. Dichas señales contienen información valiosa que ha de ser extrada y transformada para poder ser utilizada. En la presente tesis doctoral se han creado métodos para almacenar, procesar y recuperar información de las regiones contenidas en una imagen, en especial en imágenes de gran tamaño. Como base del trabajo se ha diseñado una estructura de datos de tipo grafo para poder almacenar todas las regiones contenidas en una imagen. En esta estructura de datos se pueden guardar tanto los descriptores de bajo nivel de las regiones como las relaciones estructurales entre las distintas regiones de la imagen. En los sistemas de almacenamiento de imágenes es una práctica habitual distribuir las imágenes para mejorar el rendimiento. Más allá de este tipo de distribución, una característica distintiva y novedosa de la estructura de datos creada en la presente investigación es que puede funcionar de forma distribuida de manera que una imagen grande puede ser dividida en varias subimagenes, y dichas sub-imágenes pueden ser almacenadas de forma separada en varios servidores. También se han adaptado algunos métodos y algoritmos pertenecientes a la Morfología Matemática para trabajar directamente sobre la estructura de datos distribuida. De esta manera, se pueden procesar todas las sub-imágenes de una misma imagen sin necesidad de reconstruir la imagen inicial. Finalmente, haciendo uso de la estructura de datos y de los métodos desarrollados se ha creado un prototipo de sistema multi-agente capaz de almacenar y procesar imágenes grandes. Este prototipo permite realizar consultas para recuperar información perteneciente a regiones de una imagen almacenada en el sistema sin necesidad de volver a ser procesada. En la experimentación realizada, resumida en los resultados presentados, se muestra que la división y distribución de una imagen en varias sub-imágenes reduce los tiempos de almacenamiento, procesamiento y recuperación de la información.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el campo de la biomedicina se genera una inmensa cantidad de imágenes diariamente. Para administrarlas es necesaria la creación de sistemas informáticos robustos y ágiles, que necesitan gran cantidad de recursos computacionales. El presente artículo presenta un servicio de cloud computing capaz de manejar grandes colecciones de imágenes biomédicas. Gracias a este servicio organizaciones y usuarios podrían administrar sus imágenes biomédicas sin necesidad de poseer grandes recursos informáticos. El servicio usa un sistema distribuido multi agente donde las imágenes son procesadas y se extraen y almacenan en una estructura de datos las regiones que contiene junto con sus características. Una característica novedosa del sistema es que una misma imagen puede ser dividida, y las sub-imágenes resultantes pueden ser almacenadas por separado por distintos agentes. Esta característica ayuda a mejorar el rendimiento del sistema a la hora de buscar y recuperar las imágenes almacenadas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo recoge una revisión de los modelos para la simulación dinámica del crecimiento y desarrollo de los pastos y su utilización con animales en pastoreo. Los modelos son herramientas para la toma de decisiones en la explotación ganadera y para la investigación. Un modelo dinámico es la representación matemática de un sistema pastoral que evoluciona en el tiempo forzado por un conjunto de variables conductoras. La simulación es el proceso de ejecución de un modelo por el cual se obtiene unos resultados sobre el estado de cada componente. Los principales componentes de los modelos son: el clima o meteorología, el suelo, la vegetación, los animales y el gestor o tomador de decisiones. En este artículo se presentan los principales procesos modelados sobre el crecimiento y desarrollo de la vegetación herbácea y leñosa, y también algunos referentes a la ingesta de los animales. El desarrollo de modelos es un proceso iterativo nunca concluso, este tipo de modelos trata de explicar el comportamiento del sistema y por tanto parte de la variabilidad que presenta no llega a ser explicada por el modelo al ser una simplificación del sistema real. Estos modelos de simulación han ido evolucionando desde simples relaciones matemáticas a complejos sistemas de ecuaciones diferenciales que tiene una representación sobre el territorio, llegándose a los modelos multi-agente, donde confluyen en el mismo espacio diferentes tomadores de decisiones, tipos de vegetación y animales. Los modelos son posibles por la existencia de un mejor conocimiento y descripción de los componentes y procesos que aparecen en los sistemas agrosilvopastorales.