998 resultados para Documentazione installazione banco prova analisi dati


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Valutazione di software open source per la simulazione di banchi di flussaggio stazionari. Analisi dei risultati e confronto con dati sperimentali e con dati ottenuti da un software commerciale. Il toolbox usato è OpenFOAM.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tramite il presente lavoro di tesi si intende effettuare un’analisi specifica su sedimenti provenienti dalla Pialassa Piomboni, una Zona Umida di Interesse Comunitario dal delicato equilibrio ed in continua evoluzione, che fin dalla sua nascita ha sempre assunto un ruolo di importanza sia ecologico-naturale che socio-economica, vista la posizione che la pone a metà tra il Canale Candiano, il Porto di Ravenna, la zona industriale e il mare Adriatico. Oltre ad arricchire il database di dati, l’obiettivo principale dello studio è ottenere una nuova informazione per la valutazione dello stato di qualità dei sedimenti con un’indagine ancora più specifica: si analizza la distribuzione che i metalli pesanti assumono in relazione alle diverse frazioni e caratteristiche del materiale presente tramite estrazioni sequenziali, effettuate secondo la procedura ufficiale per l’analisi di questi tipi di suoli, recentemente approvata e standardizzata a livello europeo dalla BCR (European Community Bureau of Reference) e migliorata da esperimenti interlaboratorio (Rauret et al., 1999). Attraverso attacchi con reagenti sempre più forti, si valuta a quale frazione del sedimento (scambiabile, riducibile o ossidabile) i metalli risultino maggiormente associati, valutandone mobilità e disponibilità in relazione a cambiamenti di condizioni fisiche e chimiche in cui si trova il materiale, come il variare di pH e degli equilibri ossido-riduttivi. E’ stato inoltre elaborato un inquadramento dal punto di vista geochimico, considerando i livelli di concentrazione di fondo degli elementi già naturalmente presenti in zona. Le concentrazioni totali sono infine stati confrontati con il Manuale ICRAM (2007), che fornisce linee guida per la valutazione della qualità dei sedimenti e la loro movimentazione, per poterne ipotizzare l’eventuale destino, scelta spesso problematica nella gestione di sedimenti in ambito portuale. In sintesi, questo lavoro si inserisce all’interno di un ampio progetto di gestione, approfondendo la letteratura scientifica presente sui criteri di analisi di qualità dei sedimenti e sulle problematiche di diffusione, trasporto e destino finale dei contaminanti nell’ambiente, verificando l’applicazione della procedura analitica di estrazione sequenziale, metodologicamente complessa e soggetta a migliorie e modifiche, riconsiderata in tempi recenti per la sua efficacia e per i vantaggi che comporta grazie all’acquisizione di dati ad alto contenuto di informazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Raccolta e analisi dei dati relativi alla valutazione dell'accessibilità Web dei siti istituzionali delle Camere di Commercio Industria Artigianato e Agricoltura italiane.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi fornisce una panoramica delle principali metodologie di analisi dei dati utilizzando il software open source R e l’ambiente di sviluppo integrato (IDE) RStudio. Viene effettuata un’analisi descrittiva e quantitativa dei dati GICS, tassonomia industriale che cataloga le principali aziende per il processo di gestione e ricerca degli asset di investimento. Sono stati studiati i principali settori del mercato USA considerando il fatturato, le spese per il lobbying e tre indici che misurano il grado di collegamento fra industrie. Su questi dati si sono svolte delle analisi quantitative e si sono tentati alcuni modelli nell’ambito della regressione lineare semplice e multipla. Tale studio ha il compito di verificare eventuali interazioni fra le variabili o pattern di comportamento strategico societario durante il periodo 2007 - 2012, anni di rinnovo e miglioramento delle regolamentazioni in materia di lobbying negli Stati Uniti. Più nello specifico vengono presi in esame tre settori: IT, Health Care e Industrial dove viene studiato l’andamento del reddito medio e la spesa media in attività di lobbying dei settori. I risultati ottenuti mostrano l’utilità dei pacchetti di R per l’analisi dei dati: vengono individuati alcuni andamenti che, se confermati da ulteriori e necessarie analisi, potrebbero essere interessanti per capire non solo i meccanismi impliciti nell’attività di lobbying ma anche comportamenti anomali legati a questa attività.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo di questo elaborato è di analizzare e progettare un sistema in grado di supportare la definizione dei dati nel formato utilizzato per definire in modo formale la semantica dei dati, ma soprattutto nella complessa e innovativa attività di link discovery. Una attività molto potente che, tramite gli strumenti e le regole del Web Semantico (chiamato anche Web of Data), permette data una base di conoscenza sorgente ed altre basi di conoscenza esterne e distribuite nel Web, di interconnettere i dati della base di conoscenza sorgente a quelli esterni sulla base di complessi algoritmi di interlinking. Questi algoritmi fanno si che i concetti espressi sulla base di dati sorgente ed esterne vengano interconnessi esprimendo la semantica del collegamento ed in base a dei complessi criteri di confronto definiti nel suddetto algoritmo. Tramite questa attività si è in grado quindi di aumentare notevolmente la conoscenza della base di conoscenza sorgente, se poi tutte le basi di conoscenza presenti nel Web of Data seguissero questo procedimento, la conoscenza definita aumenterebbe fino a livelli che sono limitati solo dalla immensa vastità del Web, dando una potenza di elaborazione dei dati senza eguali. Per mezzo di questo sistema si ha l’ambizioso obiettivo di fornire uno strumento che permetta di aumentare sensibilmente la presenza dei Linked Open Data principalmente sul territorio nazionale ma anche su quello internazionale, a supporto di enti pubblici e privati che tramite questo sistema hanno la possibilità di aprire nuovi scenari di business e di utilizzo dei dati, dando una potenza al dato che attualmente è solo immaginabile.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell’era dell’informazione in cui viviamo, ogni persona viene sdoppiata in due entità: oltre alla parte reale e materiale vi è un alterego fatto di dati ed informazioni che vive nei database e nei server che compongono il web. Il collegamento tra le due parti è dato dagli account e dalle chiavi di autenticazione, che si presumono essere segrete. Al giorno d’oggi ogni persona possiede almeno un account, sia esso una web mail, un profilo su un social network o l’account di online banking. Quasi la totalità di questi sistemi effettua l’autenticazione dell’utente tramite l’immissione di una password, e la sicurezza di quest’ultima è essenziale per la protezione delle informazioni personali, dei dati bancari e della propria identità. Col passare del tempo le informazioni personali che diamo in custodia al web crescono sempre più velocemente e diventano sempre più personali e delicate, ma purtroppo l’importanza che viene data alla sicurezza informatica non cresce di pari passo sia da parte degli utenti, sia da parte dei fornitori dei servizi web. Questa tesi ha come scopo quello di portare il lettore ad avere più coscienza rispetto alle tematiche della sicurezza informatica e di esporre in modo chiaro e semplice alcune delle problematiche che riguardano la sicurezza dei sistemi di autenticazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il punto di partenza del presente lavoro di ricerca terminologica è stato il soggiorno formativo presso la Direzione generale della Traduzione (DGT) della Commissione Europea di Lussemburgo. Il progetto di tirocinio, ovvero l’aggiornamento e la revisione di schede IATE afferenti al dominio finanziario, e gli aspetti problematici riscontrati durante la compilazione di tali schede hanno portato alla definizione della presente tesi. Lo studio si prefigge di analizzare la ricezione della terminologia precipua della regolamentazione di Basilea 3, esaminando il fenomeno della variazione linguistica in corpora italiani e tedeschi. Nel primo capitolo si descrive brevemente l’esperienza di tirocinio svolto presso la DGT, si presenta la banca dati IATE, l’attività terminologica eseguita e si illustrano le considerazioni che hanno portato allo sviluppo del progetto di tesi. Nel secondo capitolo si approfondisce il dominio investigato, descrivendo a grandi linee la crisi finanziaria che ha portato alla redazione della nuova normativa di Basilea 3, e si presentano i punti fondamentali degli Accordi di Basilea 3. Il terzo capitolo offre una panoramica sulle caratteristiche del linguaggio economico-finanziario e sulle conseguenze della nuova regolamentazione dal punto di vista linguistico, sottolineando le peculiarità della terminologia analizzata. Nel quarto capitolo si descrivono la metodologia seguita e le risorse utilizzate per il progetto di tesi, ovvero corpora ad hoc in lingua italiana e tedesca per l’analisi dei termini e le relative schede terminologiche. Il quinto capitolo si concentra sul fenomeno della variazione linguistica, fornendo un quadro teorico dei diversi approcci alla terminologia, cui segue l’analisi dei corpora e il commento dei risultati ottenuti; si considerano quindi le riflessioni teoriche alla luce di quanto emerso dalla disamina dei corpora. Infine, nell'appendice sono riportate le schede terminologiche IATE compilate durante il periodo di tirocinio e le schede terminologiche redatte a seguito dell’analisi del presente elaborato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel presente lavoro di tesi, partendo dall’Inventario del Dissesto della Regione Emilia – Romagna sono stati individuati i fenomeni di colata rapida di detrito che hanno interessato l’Appennino Bolognese negli ultimi anni. Si tratta di fenomeni rapidi, altamente pericolosi e ancora poco studiati. Ad ogni evento individuato è stata associata la precipitazione di innesco, caratterizzandola in termini di durata (D) e intensità (I) al fine di confrontarla con le soglie probabilistiche bayesiane proposte da Berti et al. (2012). Nella maggior parte dei casi è stato verificato che gli eventi considerati ricadono al di sopra delle soglie considerate come limite accettabile. Successivamente è stato applicato il metodo fisicamente basato SHALSTAB (SHALlow STABility model. Montgomery & Dietricht, 1994) al fine di valutarne la capacità previsionale al variare dei dati di input. Ne è emerso che tale metodo risulta fortemente influenzato dalla topografia. Dai dati esaminati, è stato dedotto che i fenomeni di colata rapida si sono innescati in seguito a eventi di pioggia fortemente transitori, pertanto l’applicazione del metodo SHALSTAB, che presuppone flusso allo stato stazionario mal si adatta a riprodurre questi casi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo lavoro di tesi si intende fornire un'analisi in chiave quantomeccanica di una serie di caratteristiche della molecola di idrogeno ionizzata. Il fatto che l'equazione di Schrödinger per l'elettrone sia nel caso di H2+ risolvibile in maniera esatta rende questo sistema fisico un prezioso banco di prova per qualsiasi metodo di approssimazione. Il lavoro svolto in questa trattazione consisterà proprio nella risoluzione dell'equazione d'onda per l'elettrone nel suo stato fondamentale, dapprima in maniera esatta poi mediante LCAO, e successivamente nell'analisi dei risultati ottenuti, che verranno dapprima discussi e interpretati in chiave fisica, e infine messi a confronto per la verifica della bontà dell'approssimazione. Il metodo approssimato fornirà approssimazioni relative anche al primo stato elettronico eccitato; anche questo verrà ampiamente discusso, e ci si soffermerà in particolare sulla caratterizzazione di orbitali di "legame" e di "antilegame", e sul loro rapporto con la stabilità dello ione molecolare.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’esperimento CMS a LHC ha raccolto ingenti moli di dati durante Run-1, e sta sfruttando il periodo di shutdown (LS1) per evolvere il proprio sistema di calcolo. Tra i possibili miglioramenti al sistema, emergono ampi margini di ottimizzazione nell’uso dello storage ai centri di calcolo di livello Tier-2, che rappresentano - in Worldwide LHC Computing Grid (WLCG)- il fulcro delle risorse dedicate all’analisi distribuita su Grid. In questa tesi viene affrontato uno studio della popolarità dei dati di CMS nell’analisi distribuita su Grid ai Tier-2. Obiettivo del lavoro è dotare il sistema di calcolo di CMS di un sistema per valutare sistematicamente l’ammontare di spazio disco scritto ma non acceduto ai centri Tier-2, contribuendo alla costruzione di un sistema evoluto di data management dinamico che sappia adattarsi elasticamente alle diversi condizioni operative - rimuovendo repliche dei dati non necessarie o aggiungendo repliche dei dati più “popolari” - e dunque, in ultima analisi, che possa aumentare l’“analysis throughput” complessivo. Il Capitolo 1 fornisce una panoramica dell’esperimento CMS a LHC. Il Capitolo 2 descrive il CMS Computing Model nelle sue generalità, focalizzando la sua attenzione principalmente sul data management e sulle infrastrutture ad esso connesse. Il Capitolo 3 descrive il CMS Popularity Service, fornendo una visione d’insieme sui servizi di data popularity già presenti in CMS prima dell’inizio di questo lavoro. Il Capitolo 4 descrive l’architettura del toolkit sviluppato per questa tesi, ponendo le basi per il Capitolo successivo. Il Capitolo 5 presenta e discute gli studi di data popularity condotti sui dati raccolti attraverso l’infrastruttura precedentemente sviluppata. L’appendice A raccoglie due esempi di codice creato per gestire il toolkit attra- verso cui si raccolgono ed elaborano i dati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni Internet ha cambiato le modalità di creazione e distribuzione delle informazioni turistiche. Un ruolo fondamentale viene ricoperto dalle piattaforme di social media, tecnologie che permettono ai consumatori di condividere le proprie esperienze ed opinioni. Diventa necessario, quindi, comprendere i cambiamenti in queste tecnologie e nel comportamento dei viaggiatori per poter applicare strategie di marketing di successo. In questo studio, utilizzando Opinion Finder, un software spesso impiegato nel campo dell'opinion mining, si esamineranno da un punto di vista qualitativo i post e commenti estratti da alcuni profili degli enti di promozione turistica nazionale in Europa, dividendo l'analisi per fattori che possono influenzare il sentimento degli utenti. Attraverso i risultati ottenuti, si può dimostrare che l'analisi delle opinioni e del sentimento si presenta come un ottimo strumento per evidenziare possibili fenomeni utili per la pianificazione di strategie di marketing per gli enti. Studi futuri potrebbero migliorare la valutazione di questi dati attraverso la creazione di un corpus di apprendimento per il software che contenga testi relativi al mondo del turismo e permettendo ad Opinion Finder di incrementare la validità della classificazione del sentimento, contestualizzando le espressioni in maniera corretta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi si propone di realizzare una caratterizzazione del polimero ABS ottenuto con tecnica Fused Deposition Modeling in modo da ottenere dati utili alla realizzazione di parti strutturali tramite rapid prototyping.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’analisi del movimento ha acquisito, soprattutto negli ultimi anni, un ruolo fondamentale in ambito terapeutico e riabilitativo. Infatti una dettagliata analisi del movimento di un paziente permette la formulazione di diagnosi dettagliate e l’adozione di un adeguato trattamento terapeutico. Inoltre sistemi di misura del movimento sono utilizzati anche in ambito sportivo, ad esempio come strumento di supporto per il miglioramento delle prestazioni e la prevenzione dell’infortunio. La cinematica è la branca della biomeccanica che si occupa di studiare il movimento, senza indagare le cause che lo generano e richiede la conoscenza delle variabili cinematiche caratteristiche. Questa tesi si sviluppa nell’ambito dell’analisi della cinematica articolare per gli arti inferiori durante il cammino, mediante l’utilizzo di Unità di Misura Magnetico-Inerziali, o IMMU, che consistono nella combinazione di sensori inerziali e magnetici. I dati in uscita da accelerometri, giroscopi e magnetometri vengono elaborati mediante un algoritmo ricorsivo, il filtro di Kalman, che fornisce una stima dell’orientamento del rilevatore nel sistema di riferimento globale. Lo scopo di questa tesi è quello di ottimizzare il valore del guadagno del filtro di Kalman, utilizzando un algoritmo open-source implementato da Madgwick. Per ottenere il valore ottimale è stato acquisito il cammino di tre soggetti attraverso IMMU e contemporaneamente tramite stereofotogrammetria, considerata come gold standard. Il valore del guadagno che permette una vicinanza maggiore con il gold standard viene considerato il valore ottimale da utilizzare per la stima della cinematica articolare.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell’ambito del nuoto, la scelta della strumentazione è legata all’ambiente, il metodo più utilizzato per analizzare il movimento degli atleti, ancora oggi, è quello dell’analisi video, che utilizza videocamere subacquee. L’analisi video in acqua ha diversi limiti: presenta errori legati alla turbolenza e alla rifrazione aria/acqua, necessità di elevati tempi sia per la calibrazione sia per l’elaborazione dei dati, non consente un feedback in tempo reale e quindi non fornisce informazioni immediate all’allenatore e ha costi elevati. Da qui la necessità di investigare altri metodi. Il metodo alternativo proposto, per la prima volta da Oghi et al. nel 2000 utilizza i sensori inerziali (IMU- Inertial Measurements Units) che possono essere indossati dall’atleta, previa impermeabilizzazione. Non sono invasivi e non limitano eccessivamente il movimento, non richiedono un setup di calibrazione complesso e hanno costi ridotti. Per questo elaborato sono stati stimati i parametri che vengono tipicamente utilizzati dagli allenatori per valutare le performance degli atleti durante l’allenamento: parametri temporali legati alle fasi della bracciata e la velocità istantanea. Sono state effettuate prove sul campo, presso il Laboratorio di Biomeccanica della Scuola di Farmacia, Biotecnologie e Scienze Motorie, situato nella palestra Record del CUSB di Bologna.