616 resultados para P2P, Bilanciamento, Traffico, Reti, GGrid


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi di Laurea Magistrale ha lo scopo di studiare sperimentalmente il comportamento a fatica dei calcestruzzi rinforzati con fibre macro-sintetiche (Macro Synthetic Fiber Reinforced Concrete, MSFRC). Sono condotte prove cicliche di flessione su tre punti al fine di caratterizzare il comportamento dei calcestruzzi fibrorinforzati in regime fessurato nel caso di fatica ad alto numero di cicli (High Cycle Fatigue, HCF). Oltre a prove di fatica sono condotte anche prove monotone a flessione al fine di ottenere la caratterizzazione meccanica del materiale determinandone i principali parametri di frattura; i risultati di tali prove sono utili anche a definire la procedura di prova definitiva da adottare durante i test di fatica. Le testimonianze presenti in letteratura sul comportamento a fatica degli FRC rinforzati con fibre sintetiche sono molto limitate, specialmente nel caso di fatica ad alto numero di cicli; inoltre le prove cicliche, a differenza delle prove monotone, non sono prove standardizzate e quindi definite dalla normativa. Nel corso della presente campagna sperimentale si cercherà quindi di definire una procedura per poter eseguire in maniera stabile le prove di flessione, monotone e di fatica, su campioni prismatici di calcestruzzo fibrorinforzato. L’idea alla base della campagna sperimentale oggetto di questa tesi è quella di riprodurre, mediante prove di fatica, le usuali condizioni di esercizio a cui sono sottoposte, durante la loro vita utile, strutture come pavimentazioni stradali o industriali; infatti il traffico stradale o il transito di macchinari possono indurre su strutture del genere dei carichi ripetuti nel tempo tali da provocarne il collasso per fatica. La presente tesi è articolata in otto capitoli nei quali verranno evidenziate le principali proprietà, sia meccaniche che fisiche, del materiale composito oggetto dello studio, saranno definite le procedure dei test eseguiti e verranno discussi i risultati derivanti da essi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Real living cell is a complex system governed by many process which are not yet fully understood: the process of cell differentiation is one of these. In this thesis work we make use of a cell differentiation model to develop gene regulatory networks (Boolean networks) with desired differentiation dynamics. To accomplish this task we have introduced techniques of automatic design and we have performed experiments using various differentiation trees. The results obtained have shown that the developed algorithms, except the Random algorithm, are able to generate Boolean networks with interesting differentiation dynamics. Moreover, we have presented some possible future applications and developments of the cell differentiation model in robotics and in medical research. Understanding the mechanisms involved in biological cells can gives us the possibility to explain some not yet understood dangerous disease, i.e the cancer. Le cellula è un sistema complesso governato da molti processi ancora non pienamente compresi: il differenziamento cellulare è uno di questi. In questa tesi utilizziamo un modello di differenziamento cellulare per sviluppare reti di regolazione genica (reti Booleane) con dinamiche di differenziamento desiderate. Per svolgere questo compito abbiamo introdotto tecniche di progettazione automatica e abbiamo eseguito esperimenti utilizzando vari alberi di differenziamento. I risultati ottenuti hanno mostrato che gli algoritmi sviluppati, eccetto l'algoritmo Random, sono in grado di poter generare reti Booleane con dinamiche di differenziamento interessanti. Inoltre, abbiamo presentato alcune possibili applicazioni e sviluppi futuri del modello di differenziamento in robotica e nella ricerca medica. Capire i meccanismi alla base del funzionamento cellulare può fornirci la possibilità di spiegare patologie ancora oggi non comprese, come il cancro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni si è assistito al considerevole aumento della disponibilità di dati GPS e della loro precisione, dovuto alla diffusione e all’evoluzione tecnologica di smartphone e di applicazioni di localizzazione. Il processo di map-matching consiste nell’integrare tali dati - solitamente una lista ordinata di punti, identificati tramite coordinate geografiche ricavate mediante un sistema di localizzazione, come il GPS - con le reti disponibili; nell’ambito dell’ingegneria dei trasporti, l’obiettivo è di identificare il percorso realmente scelto dall’utente per lo spostamento. Il presente lavoro si propone l’obiettivo di studiare alcune metodologie di map-matching per l’identificazione degli itinerari degli utenti, in particolare della mobilità ciclabile. Nel primo capitolo è esposto il funzionamento dei sistemi di posizionamento e in particolare del sistema GPS: ne sono discusse le caratteristiche, la suddivisione nei vari segmenti, gli errori di misurazione e la cartografia di riferimento. Nel secondo capitolo sono presentati i vari aspetti del procedimento di map-matching, le sue principali applicazioni e alcune possibili classificazioni degli algoritmi di map-matching sviluppati in letteratura. Nel terzo capitolo è esposto lo studio eseguito su diversi algoritmi di map-matching, che sono stati testati su un database di spostamenti di ciclisti nell’area urbana di Bologna, registrati tramite i loro smartphone sotto forma di punti GPS, e sulla relativa rete. Si analizzano altresì i risultati ottenuti in un secondo ambiente di testing, predisposto nell’area urbana di Catania, dove sono state registrate in modo analogo alcune tracce di prova, e utilizzata la relativa rete. La comparazione degli algoritmi è eseguita graficamente e attraverso degli indicatori. Vengono inoltre proposti e valutati due algoritmi che forniscono un aggiornamento di quelli analizzati, al fine di migliorarne le prestazioni in termini di accuratezza dei risultati e di costo computazionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli odierni sviluppi delle reti stradali nel territorio italiano e l’aumento della propensione all’utilizzo del veicolo hanno portato ad una continua ricerca nello stesso ambito volta sì a mantenere alti i livelli prestazionali e di sicurezza sulla rete stradale ma anche ad aprirsi ad uno scenario ecosostenibile, dato il continuo scarseggiare di materie prime per proseguire con le usuali tecniche di produzione. In tutti i campi riguardanti l’ambito delle costruzioni civili, che siano esse strutturali o infrastrutturali, numerose sono state le tecnologie introdotte per la realizzazione di materiali sostenibili ma anche e soprattutto il recupero di materiale di scarto, andando così incontro oltre che a una costruzione sostenibile anche ad un recupero di ciò che sarebbe destinato a discariche, ufficiali o abusive che siano. Nell’ottica dell’introduzione di “nuovi” materiali una posizione di rispetto interessa gli Pneumatici Fuori Uso (PFU) il cui recupero sotto forma di granulato e di polverino in gomma costituiscono, nell’ambito delle pavimentazioni stradali, una notevole opportunità di riutilizzo all’interno dei conglomerati bituminosi. Il presente lavoro sperimentale è stato svolto nell’ottica di analizzare dapprima le caratteristiche delle pavimentazioni drenanti, del polverino di gomma da PFU e dell’interazione tra i due, a supporto delle sperimentazioni effettuate sulle miscele realizzate in laboratorio. In particolare, sfruttando la tecnologia dry, che permette l’inserimento del polverino nella fase di miscelazione degli aggregati, dopo un’attenta analisi preliminare della composizione delle miscele da realizzare e il successivo confezionamento dei provini e loro addensamento, si è proceduto all’esecuzione di diverse prove al termine delle quali sono state analizzate le differenze meccaniche e reologiche tra miscele ottenute con aggiunta di polverino e miscele prive di PFU.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The our reality is characterized by a constant progress and, to follow that, people need to stay up to date on the events. In a world with a lot of existing news, search for the ideal ones may be difficult, because the obstacles that make it arduous will be expanded more and more over time, due to the enrichment of data. In response, a great help is given by Information Retrieval, an interdisciplinary branch of computer science that deals with the management and the retrieval of the information. An IR system is developed to search for contents, contained in a reference dataset, considered relevant with respect to the need expressed by an interrogative query. To satisfy these ambitions, we must consider that most of the developed IR systems rely solely on textual similarity to identify relevant information, defining them as such when they include one or more keywords expressed by the query. The idea studied here is that this is not always sufficient, especially when it's necessary to manage large databases, as is the web. The existing solutions may generate low quality responses not allowing, to the users, a valid navigation through them. The intuition, to overcome these limitations, has been to define a new concept of relevance, to differently rank the results. So, the light was given to Temporal PageRank, a new proposal for the Web Information Retrieval that relies on a combination of several factors to increase the quality of research on the web. Temporal PageRank incorporates the advantages of a ranking algorithm, to prefer the information reported by web pages considered important by the context itself in which they reside, and the potential of techniques belonging to the world of the Temporal Information Retrieval, exploiting the temporal aspects of data, describing their chronological contexts. In this thesis, the new proposal is discussed, comparing its results with those achieved by the best known solutions, analyzing its strengths and its weaknesses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo lavoro è stato quello di realizzare un'app, in collaborazione con l'Università degli Studi di Roma Tor Vergata, che fosse di supporto nello stabilire l'ecostenibilità del pesce comprato da potenziali acquirenti. In modo particolare, per ecosostenibilità dell'acquisto del pesce intendiamo principalmente due fattori: - lunghezza minima del pesce pescato; - attenzione posta sul pescare ed acquistare pesce nel giusto periodo dell'anno. Col primo aspetto, intendiamo porre l'attenzione sul fatto che ogni esemplare di pesce deve essere di una certa lunghezza minima per essere pescato e poi messo in vendita mentre col secondo fattore intendiamo l'evitamento della pesca di certe specie di pesce qualora si trovino nella loro stagione riproduttiva. Pertanto, compito fondamentale dell'app presentata in questa tesi è quello di stimare la lunghezza di un pesce acquistato mediante una fotografia scattata allo stesso tramite uno smartphone e di verificare se esso sia stato venduto nella giusta stagione, preoccupandosi poi non solo di informare di conseguenza l'utente ma anche di salvare ed inviare una segnalazione riguardo l'esito dell'operazione a seguito di un'attenta raccolta di dati. Vedremo nel corso di questo documento quali siano stati tutti i passaggi di sviluppo di questa app e quali aspetti abbiano richiesto una maggiore attenzione per mantenere sia una semplicità d'uso nei confronti dell'utente sia un'implementazione rapida ma efficiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I Big Data hanno forgiato nuove tecnologie che migliorano la qualità della vita utilizzando la combinazione di rappresentazioni eterogenee di dati in varie discipline. Occorre, quindi, un sistema realtime in grado di computare i dati in tempo reale. Tale sistema viene denominato speed layer, come si evince dal nome si è pensato a garantire che i nuovi dati siano restituiti dalle query funcions con la rapidità in cui essi arrivano. Il lavoro di tesi verte sulla realizzazione di un’architettura che si rifaccia allo Speed Layer della Lambda Architecture e che sia in grado di ricevere dati metereologici pubblicati su una coda MQTT, elaborarli in tempo reale e memorizzarli in un database per renderli disponibili ai Data Scientist. L’ambiente di programmazione utilizzato è JAVA, il progetto è stato installato sulla piattaforma Hortonworks che si basa sul framework Hadoop e sul sistema di computazione Storm, che permette di lavorare con flussi di dati illimitati, effettuando l’elaborazione in tempo reale. A differenza dei tradizionali approcci di stream-processing con reti di code e workers, Storm è fault-tolerance e scalabile. Gli sforzi dedicati al suo sviluppo da parte della Apache Software Foundation, il crescente utilizzo in ambito di produzione di importanti aziende, il supporto da parte delle compagnie di cloud hosting sono segnali che questa tecnologia prenderà sempre più piede come soluzione per la gestione di computazioni distribuite orientate agli eventi. Per poter memorizzare e analizzare queste moli di dati, che da sempre hanno costituito una problematica non superabile con i database tradizionali, è stato utilizzato un database non relazionale: HBase.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro ha lo scopo di presentare l’implementazione e la valutazione di un’applicazione Android che permetta la riproduzione di uno streaming auto-adattante conforme allo standard DASH sfruttando le funzionalità offerte dal player ”ExoPLayer” a cui viene aggiunta la funzionalità di caching e condivisione dei relativi segmenti tramite WiFi-Direct. Questo al fine di raggiungere diversi obiettivi come la riduzione dell’utilizzo di reti mobili, l’aumento della qualità e/o una riproduzione più fluida. Si è inoltre sviluppato un simulatore in C++ che permette di valutare il comportamento dell’applicazione, l’algoritmo usato per la scelta dei segmenti, e i vantaggi correlati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state impiegate le librerie grafiche OpenGL ES 2 per eseguire calcoli paralleli sulla GPU del Raspberry Pi. Sono stati affrontati e discussi concetti riguanrdati il calcolo parallelo, stream processing, GPGPU e le metriche di valutazione di algoritmi paralleli. Sono inoltre descritte le potenzialita e le limitazioni derivanti dall'impiego di OpenGL per implementare algoritmi paralleli. In particolare si e fatto riferimento all'algoritmo Seam Carving per il restringimento di immagini, realizzando e valutando una implementazione parallela di questo sul Raspberry Pi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Implementazione sequenziale e parallela dell'algoritmo Evolution Constructed feature per il riconoscimento di oggetti in immagini. Analisi dei risultati ottenuti dall'algoritmo tramite la precision e la recall. Confronto dei tempi di esecuzione delle due versioni dell'algoritmo al fine di valutare gli effettivi guadagni ottenuti tramite la parallelizzazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Internet è la rete globale a cui si può avere accesso in modo estremamente facile, consentendo praticamente a chiunque di inserire i propri contenuti in tempi rapidi, a costi quasi nulli e senza limitazioni geografiche. Il progresso tecnologico e la maggiore disponibilità della banda larga, uniti alle nuove modalità di fruizione ed ai nuovi format, hanno portato ben il 70% degli web users a vedere video online regolarmente. La popolarità dei servizi di streaming video è cresciuta rapidamente, tanto da registrare dei dati di traffico impressionanti negli ultimi due anni. Il campo applicativo della tesi è Twitch, il più celebre servizio di streaming che è riuscito ad imporsi come quarto sito negli Stati Uniti per traffico Internet: un dato sorprendente se pensiamo che si occupa solo di videogiochi. Il fenomeno Twitch è destinato a durare, lo dimostrano i 970 milioni di dollari investiti da Amazon nel 2014 per acquistare la piattaforma, diventata così una sussidiaria di Amazon. L'obiettivo della tesi è stato lo studio di mercato della piattaforma, attraverso il recupero e l'analisi delle informazioni reperibili in letteratura, nonché attraverso estrapolazione di dati originari mediante le API del sito. Si è proceduto all’analisi delle caratteristiche del mercato servito, in termini di segmentazione effettiva, rivolta alla messa in evidenza della possibile dipendenza dai comportamenti dei player, con particolare attenzione alla possibile vulnerabilità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In these last years, systems engineering has became one of the major research domains. The complexity of systems has increased constantly and nowadays Cyber-Physical Systems (CPS) are a category of particular interest: these, are systems composed by a cyber part (computer-based algorithms) that monitor and control some physical processes. Their development and simulation are both complex due to the importance of the interaction between the cyber and the physical entities: there are a lot of models written in different languages that need to exchange information among each other. Normally people use an orchestrator that takes care of the simulation of the models and the exchange of informations. This orchestrator is developed manually and this is a tedious and long work. Our proposition is to achieve to generate the orchestrator automatically through the use of Co-Modeling, i.e. by modeling the coordination. Before achieving this ultimate goal, it is important to understand the mechanisms and de facto standards that could be used in a co-modeling framework. So, I studied the use of a technology employed for co-simulation in the industry: FMI. In order to better understand the FMI standard, I realized an automatic export, in the FMI format, of the models realized in an existing software for discrete modeling: TimeSquare. I also developed a simple physical model in the existing open source openmodelica tool. Later, I started to understand how works an orchestrator, developing a simple one: this will be useful in future to generate an orchestrator automatically.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The article focuses on the current situation of Spanish case law on ISP liability. It starts by presenting the more salient peculiarities of the Spanish transposition of the safe harbours laid down in the E-Commerce Directive. These peculiarities relate to the knowledge requirement of the hosting safe harbour, and to the safe harbour for information location tools. The article then provides an overview of the cases decided so far with regard to each of the safe harbours. Very few cases have dealt with the mere conduit and the caching safe harbours, though the latter was discussed in an interesting case involving Google’s cache. Most cases relate to hosting and linking safe harbours. With regard to hosting, the article focuses particularly on the two judgments handed down by the Supreme Court that hold an open interpretation of actual knowledge, an issue where courts had so far been split. Cases involving the linking safe harbour have mainly dealt with websites offering P2P download links. Accordingly, the article explores the legal actions brought against these sites, which for the moment have been unsuccessful. The new legislative initiative to fight against digital piracy – the Sustainable Economy Bill – is also analyzed. After the conclusion, the article provides an Annex listing the cases that have dealt with ISP liability in Spain since the safe harbours scheme was transposed into Spanish law.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La nostra proposta presenta alcuni aspetti e risultati di un progetto dell'Università di Berna che si occupa delle conseguenze del pensionamento sulle competenze plurilingui di immigrati italiani nella Svizzera tedesca. Rifacendoci a De Bot (2007), che ha definito come “language related major life events” i momenti nella vita rilevanti per mutamenti delle competenze linguistiche, ipotizziamo che il pensionamento possa costituire un punto di svolta nella biografia linguistica di migranti (ma non solo) anche se finora mancano gli studi sull’argomento. Nel caso delle persone prese in considerazione il pensionamento rappresenta un momento fondamentale, quasi paragonabile, per le conseguenze che implica, al momento della migrazione. Se quest'ultima è stata, nella maggior parte dei casi, caratterizzata dalla ricerca di lavoro, la nuova fase della vita dopo il pensionamento comporta mutamenti nelle reti sociali e ha conseguenze anche per l'uso delle lingue. Un punto centrale della ricerca è la domanda di come i migranti affrontino questo momento all’interno della situazione diglossica della Svizzera tedesca, in cui lo svizzero tedesco è stato imparato attraverso il contatto strumentale e accanto ad esso si è mantenuta la lingua d'origine (cfr.Berruto 1991). La metodologia applicata consiste in due fasi: nella prima si utilizzano questionari per ottenere informazioni generali sui dati demografici e sulla situazione sociale, e per elicitare autovalutazioni delle competenze linguistiche. Nella seconda si effettuano interviste semiguidate per ottenere informazioni più approfondite sulla vita e sulle biografie linguistiche. Per ottenere dati relativi alle competenze linguistiche, viene inoltre utilizzato un test di competenza dello svizzero tedesco, sviluppato all’interno del progetto sulla base del SOPI (cfr.Kenyon 2000).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Content providers from the music industry argue that peer-to-peer (P2P) networks such as KaZaA, Morpheus, iMesh, or Audiogalaxy are an enormous threat to their business. They furthermore blame these networks for their recent decline in sales figures. For this reason, an empirical investigation was conducted during a period of 6 weeks on one of the most popular files-sharing systems, in order to determine the quantity and quality of pirated music songs shared. We present empirical evidence as to what extent and in which quality music songs are being shared. A number of hypotheses are outlined and were tested. We studied, among other things, the number of users online and the number of flies accessible on such networks, the free riding problem, and the duration per search request. We further tested to see if there are any differences in the accessibility of songs based on the nationality of the artist, the language of the song, and the corresponding chart position. Finally, we outline the main hurdles users may face when downloading illegal music and the probability of obtaining high quality music tracks on such peer-to-peer networks.