902 resultados para cubiche legge di gruppo su una cubica punti di ordine 2punti di ordine 3 punti razionali di ordine finitoNagell-Lutz


Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La vongola Chamelea gallina è un mollusco appartenente alla famiglia Veneridae avente un'ampia distribuzione nel Mediterraneo. L’animale vive su fondali sabbiosi o sabbiosi – fangosi, con distribuzione aggregata, in prossimità della costa, a bassa profondità da 0 a 15metri. Nel presente studio è stata stimata sia la biomassa di Chamelea gallina espressa in kg/mq che la distribuzione di taglia, per valutare l’accrescimento della specie. L’accrescimento della vongola, così come per altre specie fossorie è influenzato da fattori biotici e abiotici, come la temperatura, lo stato trofico delle acque, la natura dei sedimenti ed infine la densità. Lo scopo di questa tesi è stato quello di monitorare l’attività di pesca delle vongole nel Compartimento di Rimini e raccogliere gli elementi conoscitivi esistenti a fine di ottimizzare la gestione della risorsa. A tal fine sono state realizzate a Rimini due campagne di pesca nel mese di Luglio e Dicembre 2014, utilizzando una draga idraulica di tipo commerciale conforme agli standard previsti dalla legge. Il campionamento è stato effettuato su 9 transetti perpendicolari alla costa con stazioni a 0,25-0,50-0,75 e proseguendo 1 Miglio qualora nei campioni vi sia ancora la presenza di vongole. A fine di valutare la frazione di individui con taglia inferiore a quella commerciale (25mm), all’interno della draga è stato posto un retino campionatore. Il materiale contenuto nella draga è stato selezionato al vibro-vaglio installato a bordo, attrezzato con griglie aventi fori del diametro di 19mm di apertura. Tutte le vongole trattenute dal vaglio sono state analizzate per ottenere una distribuzione di taglia. I risultati acquisiti nel corso della presente indagine hanno evidenziato una generale situazione di sofferenza per la taglia commerciale. In particolare sono state catturate molte vongole della prima maturità sessuale (14mm). Tutto ciò potrebbe essere proprio un’indicazione di banco in ricostituzione e ripresa dopo una situazione di crisi. Per quanto riguarda le forme giovanili i risultati ottenuti dalle due campagne di pesca indicano una notevole differenza di densità dei banchi di Chamelea gallina. Tali risultati sono stati ottenuti con il software ImageJ, il quale è in grado di rilevare la larghezza massima delle singole vongole. Infine sono stati registrati i valori di biomassa espressi in kg/mq, evidenziando una discreta oscillazione di valori tra le stazioni campionate. Infatti in entrambi i campionamenti le stazioni situate all’ interno degli strati più costieri presentano nella maggior parte dei casi valori, sia in biomassa che in numero, maggiori rispetto a quelle di largo. Concludendo, l’insieme dei dati raccolti ha evidenziato la necessità di urgenti misure di controllo e regolamentazione della risorsa, dei parametri eco-ambientali e della pesca esercitata, al fine di acquisire quelle informazioni utili per avviare un corretto piano di gestione della risorsa.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’esperimento CMS a LHC ha raccolto ingenti moli di dati durante Run-1, e sta sfruttando il periodo di shutdown (LS1) per evolvere il proprio sistema di calcolo. Tra i possibili miglioramenti al sistema, emergono ampi margini di ottimizzazione nell’uso dello storage ai centri di calcolo di livello Tier-2, che rappresentano - in Worldwide LHC Computing Grid (WLCG)- il fulcro delle risorse dedicate all’analisi distribuita su Grid. In questa tesi viene affrontato uno studio della popolarità dei dati di CMS nell’analisi distribuita su Grid ai Tier-2. Obiettivo del lavoro è dotare il sistema di calcolo di CMS di un sistema per valutare sistematicamente l’ammontare di spazio disco scritto ma non acceduto ai centri Tier-2, contribuendo alla costruzione di un sistema evoluto di data management dinamico che sappia adattarsi elasticamente alle diversi condizioni operative - rimuovendo repliche dei dati non necessarie o aggiungendo repliche dei dati più “popolari” - e dunque, in ultima analisi, che possa aumentare l’“analysis throughput” complessivo. Il Capitolo 1 fornisce una panoramica dell’esperimento CMS a LHC. Il Capitolo 2 descrive il CMS Computing Model nelle sue generalità, focalizzando la sua attenzione principalmente sul data management e sulle infrastrutture ad esso connesse. Il Capitolo 3 descrive il CMS Popularity Service, fornendo una visione d’insieme sui servizi di data popularity già presenti in CMS prima dell’inizio di questo lavoro. Il Capitolo 4 descrive l’architettura del toolkit sviluppato per questa tesi, ponendo le basi per il Capitolo successivo. Il Capitolo 5 presenta e discute gli studi di data popularity condotti sui dati raccolti attraverso l’infrastruttura precedentemente sviluppata. L’appendice A raccoglie due esempi di codice creato per gestire il toolkit attra- verso cui si raccolgono ed elaborano i dati.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L'obiettivo di questa Tesi di laurea è di creare un applicativo che informi gli utenti sulle reti circostanti, in particolare sulla qualità del segnale, sulle zone in cui la rete mobile è carente e sui punti d'accesso aperti. Per l'implementazione del servizio, è stato adottato un modello di business, il Crowdsourcing, per raccogliere informazioni sui sistemi di connessione, affinché qualsiasi utente dotato di Smartphone possa aggiungere elementi al dataset.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Dopo aver introdotto i concetti di Software Defined Networking, il protocollo Openflow ed il software di emulazione di reti Mininet, vengono mostrati lo svolgimento ed i risultati di una serie di test effettuati su reti emulate, mettendo in pratica i concetti precedentemente introdotti. Infine si sono utilizzate le conoscenze apprese per sviluppare una rete distribuita su più piattaforme Mininet.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Presentazione di un'applicazione per Windows Phone in grado di contare il numero dei passi effettuati e stimare la distanza percorsa. Tale stima viene effettuata sulla base della lunghezza del passo calcolata istante per istante tramite un algoritmo in base all'altezza di una persona e alla frequenza di passo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questa tesi si pone l’obiettivo di effettuare un’analisi aggiornata sulla recente evoluzione del Cloud Computing e dei nuovi modelli architetturali a sostegno della continua crescita di richiesta di risorse di computazione, di storage e di rete all'interno dei data center, per poi dedicarsi ad una fase sperimentale di migrazioni live singole e concorrenti di macchine virtuali, studiandone le prestazioni a livello di risorse applicative e di rete all’interno della piattaforma open source di virtualizzazione QEMU-KVM, oggi alla base di sistemi cloud-based come Openstack. Nel primo capitolo, viene effettuato uno studio dello stato dell’arte del Cloud Computing, dei suoi attuali limiti e delle prospettive offerte da un modello di Cloud Federation nel futuro immediato. Nel secondo capitolo vengono discusse nel dettaglio le tecniche di live migration, di recente riferimento per la comunità scientifica internazionale e le possibili ottimizzazioni in scenari inter e intra data center, con l’intento di definire la base teorica per lo studio approfondito dell’implementazione effettiva del processo di migrazione su piattaforma QEMU-KVM, che viene affrontato nel terzo capitolo. In particolare, in quest’ultimo sono descritti i principi architetturali e di funzionamento dell'hypervisor e viene definito il modello di progettazione e l’algoritmo alla base del processo di migrazione. Nel quarto capitolo, infine, si presenta il lavoro svolto, le scelte configurative e progettuali per la creazione di un ambiente di testbed adatto allo studio di sessioni di live migration concorrenti e vengono discussi i risultati delle misure di performance e del comportamento del sistema, tramite le sperimentazioni effettuate.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Viene proposto un metodo completo di autocalibrazione degli intrinseci della telecamera utilizzando una singola vista, sfruttando i punti di fuga riconosciuti nell'immagine. La metodologia è suddivisa in quattro fasi fondamentali: estrazione dei segmenti dall’immagine, clusterizzazione dei segmenti, stima di un punto di fuga da ogni cluster e determinazione dei punti di fuga ortogonali. Viene fornita un nuova metodologia per la determinazione dei punti di fuga, dai cluster di segmenti identificati. Inoltre vengono proposti degli approcci euristici che favoriscono la selezione della terna corretta di punti di fuga ortogonali. L’approccio proposto è completamente modulare e sufficientemente flessibile per poter essere adattato a esigenze diverse. Le prestazioni dell’approccio vengono valutate confrontando altre due proposte alternative, a cui viene sottoposto il medesimo set di immagini, ognuna dotata di diverse caratteristiche. I risultati di questi esperimenti evidenziano la bontà dell’approccio proposto.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La struttura di gruppo è una delle strutture algebriche più semplici e importanti della matematica. Un gruppo si può descrivere in vari modi: uno dei più interessanti è la presentazione per generatori e relazioni. Sostanzialmente presentare un gruppo per generatori e relazioni significa dire quali specifiche ”regole di calcolo” e semplificazione valgono nel gruppo in considerazione oltre a quelle che derivano dagli assiomi di gruppo. Questo porta in particolare alla definizione di gruppo libero. Un gruppo libero non ha regole di calcolo oltre quelle derivanti dagli assiomi di gruppo. Ogni gruppo è un quoziente di un gruppo libero su un appropriato insieme di generatori per un sottogruppo normale, generato dalle relazioni. In questa tesi si ricordano le definizioni più importanti ed elementari della teoria dei gruppi e si passa in seguito a discutere il gruppo libero e le presentazioni di gruppi con generatori e relazioni, dando alcuni esempi. La tesi si conclude illustrando l’algoritmo di Coxeter e Todd, per enumerare le classi laterali di un sottogruppo quando si ha un gruppo presentato per generatori e relazioni.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro di tesi ha l’obiettivo di sviluppare uno strumento di aiuto alla diagnosi tumorale basato sull’analisi dell’impedenza a diverse frequenze. L’impedenza di un tessuto è intesa come l’opposizione che esso offre nell’essere attraversato da un’eccitazione in corrente o in tensione, pertanto lo strumento prevede l’applicazione di una tensione mediante elettrodi e la conseguente lettura della corrente. Da un’analisi delle tecniche utilizzate per individuare l’impedenza si è scelta un’eccitazione sinusoidale e si è quindi progettata una catena analogica di acquisizione del segnale. Si è utilizzato un microcontrollore per l’elaborazione dei dati e per inserire sistemi di controllo nel circuito . Sono stati realizzati inoltre elettrodi ad hoc per lo strumento al fine di soddisfare esigenze di dimensioni e di adattamento al progetto circuitale. Per validare il dispositivo sono state realizzate prove in laboratorio al fine di ricercare l’accuratezza delle misure, inoltre sono previsti dei test sperimentali su pazienti a breve .

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente elaborato ha come oggetto la progettazione e lo sviluppo di una soluzione Hadoop per il Calcolo di Big Data Analytics. Nell'ambito del progetto di monitoraggio dei bottle cooler, le necessità emerse dall'elaborazione di dati in continua crescita, ha richiesto lo sviluppo di una soluzione in grado di sostituire le tradizionali tecniche di ETL, non pi�ù su�fficienti per l'elaborazione di Big Data. L'obiettivo del presente elaborato consiste nel valutare e confrontare le perfomance di elaborazione ottenute, da un lato, dal flusso di ETL tradizionale, e dall'altro dalla soluzione Hadoop implementata sulla base del framework MapReduce.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Negli ultimi due decenni i microcanali hanno un'ampia gamma di applicazioni pratiche in ambiti specializzati, come le micropompe, l’ingegneria biomedica, la microfluidica, ecc. Quindi il miglioramento della capacità di scambio termico è molto significativo e, per questo motivo, è interessante studiare come influisce sullo scambio termico la variazione della geometria dei microcanali. Per descrivere le prestazioni associate ad una superficie di scambio termico ci si riferisce a dei parametri adimensionali. Ad esempio, si possono utilizzare numero di Poiseuille fRe e numero di Nusselt Nu, a cui sono associate, rispettivamente, le prestazioni in termini di attrito meccanico e di scambio termico convettivo della superficie. E si vedrà il comportamento termoidraulico al variare di parametri geometrici come il fattore di forma ed il raggio di curvatura degli spigoli della sezione attraverso simulazioni effettuate tramite FlexPDE. L’ottimizzazione delle sezioni di microcanali attraverso i Performance Evaluation Criteria (PEC) è basata su un’analisi condotta dal punto di vista della prima legge della termodinamica: l'ottimizzazione della funzione obiettivo è il suo unico scopo. Ma non ha tenuto conto dell’entropia generata nello scambiatore, che varia dopo l’ottimizzazione. Poiché l’entropia prodotta da un generico sistema termodinamico è direttamente legata alle perdite per irreversibilità nello stesso, quindi coincide l’efficienza del sistema dal punto di vista termodinamico. Per questo motivo, Bejan propone una procedura di ottimizzazione basata sulla seconda legge della termodinamica, in cui anche l’entropia è trattata come una funzione obiettivo che dovrà essere sempre minimizzata. Dopo una prima fase di analisi dal punto di vista fisico, il modello è stato applicato a casi concreti, in cui funzione obiettivo e numero di generazione entropica sono stati espressi in dipendenza dell’incognita geometrica da valutare.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Oggetto di questa tesi di laurea è la progettazione di una nuova scuola primaria in Via Bidente, località Villaggio Primo Maggio a Rimini. La tesi parte da un progetto preliminare, elaborato dall’ufficio tecnico del Comune di Rimini, sulla base del quale, nel settembre 2013, è stato indetto un appalto integrato con procedura aperta per l’affidamento sia della progettazione esecutiva che della realizzazione della scuola. L’intervento si era reso necessario poiché la vecchia scuola non era più in grado di far fronte alle esigenze del quartiere, investito da un intenso sviluppo che ne aveva aumentato sensibilmente gli abitanti e quindi la popolazione scolastica. La tesi ha assunto gli obiettivi e i dimensionamenti fissati dal Bando di gara: quindici aule, sei laboratori, palestra, biblioteca, mensa, sala insegnanti, area verde, parcheggio, pista ciclopedonale. Per definire le strategie di progetto da adottare, è stata effettuata un’analisi dell’area dalla quale sono emerse esigenze e criticità del quartiere. A scala urbana la viabilità e la fruibilità del lotto risultano inadeguate, e per correggerle, si è prevista la realizzazione di una nuova pista ciclabile e di un parcheggio. Inoltre professionisti esperti e di comprovata esperienza in materia hanno condotto studi approfonditi ed attente valutazioni di carattere ambientale, riguardanti l’inquinamento elettromagnetico, acustico ed atmosferico. Per limitare l'inquinamento acustico a cui la scuola risulterebbe esposta, è stata prevista la realizzazione di alcuni tratti di barriere fonoassorbenti lungo il perimetro dell’area di progetto al fine di proteggerla dalle fonti di rumore maggiormente impattanti. Al centro delle strategie progettuali c’è il bambino, che diventa il vero committente, ossia il soggetto di cui soddisfare esigenze e desideri. Si è cercato quindi di realizzare un ambiente confortevole e sicuro in cui i bambini si sentano a proprio agio. A scala architettonica si è pensata a una distribuzione degli spazi che permetta di sfruttare a pieno le potenzialità degli ambienti attraverso una collocazione delle funzioni su tre diverse fasce longitudinali: servizi nella zona nord, connettivo e aule a sud. Inoltre è stato studiato uno schema distributivo in linea con le esigenze dei nuovi modelli pedagogici, in particolare: aule e laboratori adattabili, spazi per l’apprendimento di gruppo sia all’interno che all’esterno dell’edificio, i cui spazi di distribuzione sono dimensionati per poter ospitare anche funzioni didattiche. Ogni scelta adottata vuol far si che tutto l’edificio diventi fonte di insegnamento per i bambini, una sorta di paesaggio dell’apprendimento.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’analisi della postura e del movimento umano costituiscono un settore biomedico in forte espansione e di grande interesse dal punto di vista clinico. La valutazione delle caratteristiche della postura e del movimento, nonché delle loro variazioni rispetto ad una situazione di normalità, possono essere di enorme utilità in campo clinico per la diagnosi di particolari patologie, così come per la pianificazione ed il controllo di specifici trattamenti riabilitativi. In particolare è utile una valutazione quantitativa della postura e del movimento che può essere effettuata solo utilizzando metodologie e tecnologie ‘ad hoc’. Negli ultimi anni la diffusione di sensori MEMS e lo sviluppo di algoritmi di sensor fusion hanno portato questi dispositivi ad entrare nel mondo della Motion Capture. Queste piattaforme multi-sensore, comunemente chiamate IMU (Inertial Measurement Unit), possono rappresentare l’elemento base di una rete sensoriale per il monitoraggio del movimento umano.