1000 resultados para Queste


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tema di questo lavoro sono i cedimenti indotti dallo scavo di gallerie superficiali in terreni coesivi sotto falda. In questi casi la velocità di avanzamento dello scavo v e la permeabilità del mezzo k influenzano molto l'evoluzione della consolidazione. Le ipotesi di risposta non drenata o drenata del mezzo saturo, comunemente adottate, sono valide solo per rapporto v/k estremamente alto o basso. Nei casi intermedi, analisi numeriche accoppiate che tengano conto del processo di consolidazione durante lo scavo sono indispensabili. Ciò nonostante, queste sono molto rare in letteratura viste le notevoli difficoltà teoriche e numeriche ad esse associate. Proprio per non incrementare ulteriormente tali difficoltà, si è deciso di adottare modelli costitutivi semplici quali: il modello elastico perfettamente plastico con criterio di resistenza alla Mohr Coulomb e il Modified Cam Clay. Dopo un' introduzione sulla risposta del terreno nell'intorno dello scavo al variare del modello costitutivo, è stato svolto uno studio parametrico del processo di consolidazione. Ci si è, successivamente, concentrati sulla capacità dei tre modelli costitutivi di predire l'andamento dei cedimenti, mediante confronto con le soluzioni empiriche proposte in letteratura. Infine, sono state effettuate una serie di simulazioni 3D accoppiate passo-passo con il programma agli elementi finiti Abaqus al variare della permeabilità del mezzo e del rivestimento installato, supposto infinitamente permeabile o impermeabile. È emerso che per v/k<100 o v/k>100000 non è necessario esaminare nel dettaglio la dipendenza dal tempo della risposta del suolo e si possono ottenere risultati affidabili assumendo condizioni drenate o non drenate, rispettivamente. Nei casi intermedi, invece, le condizioni sono da ritenersi transienti e l'unico modo per effettuare correttamente le analisi dei cedimenti e lo studio della stabilità del fronte è mediante analisi numeriche 3D idromeccaniche accoppiate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni i documenti web hanno attratto molta attenzione, poiché vengono visti come un nuovo mezzo che porta quello che sono le esperienze ed opinioni di un individuo da una parte all'altra del mondo, raggiungendo quindi persone che mai si incontreranno. Ed è proprio con la proliferazione del Web 2.0 che l’attenzione è stata incentrata sul contenuto generato dagli utenti della rete, i quali hanno a disposizione diverse piattaforme sulle quali condividere i loro pensieri, opinioni o andare a cercarne di altrui, magari per valutare l’acquisto di uno smartphone piuttosto che un altro o se valutare l’opzione di cambiare operatore telefonico, ponderando quali potrebbero essere gli svantaggi o i vantaggi che otterrebbe modificando la sia situazione attuale. Questa grande disponibilità di informazioni è molto preziosa per i singoli individui e le organizzazioni, che devono però scontrarsi con la grande difficoltà di trovare le fonti di tali opinioni, estrapolarle ed esprimerle in un formato standard. Queste operazioni risulterebbero quasi impossibili da eseguire a mano, per questo è nato il bisogno di automatizzare tali procedimenti, e la Sentiment Analysis è la risposta a questi bisogni. Sentiment analysis (o Opinion Mining, come è chiamata a volte) è uno dei tanti campi di studio computazionali che affronta il tema dell’elaborazione del linguaggio naturale orientato all'estrapolazione delle opinioni. Negli ultimi anni si è rilevato essere uno dei nuovi campi di tendenza nel settore dei social media, con una serie di applicazioni nel campo economico, politico e sociale. Questa tesi ha come obiettivo quello di fornire uno sguardo su quello che è lo stato di questo campo di studio, con presentazione di metodi e tecniche e di applicazioni di esse in alcuni studi eseguiti in questi anni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’avanzamento tecnologico degli ultimi anni ha portato ad un aumento sostanziale dei dati generati giornalmente. L’analisi di queste ingenti quantità di dati si è rivelata essere troppo complessa per i sistemi tradizionali ed è stato pertanto necessario sviluppare nuovi approcci basati sul calcolo distribuito. I nuovi strumenti sviluppati in seguito a queste nuove necessità sono framework di calcolo parallelo basati sul paradigma del MapReduce, un modello di programmazione sviluppato da Google, e sistemi di gestione di basi di dati fluidi, in grado di trattare rapidamente grandi quantità di dati non strutturati. Lo scopo alla base di entrambi è quello di costruire sistemi scalabili orizzontalmente e utilizzabili su hardware di largo consumo. L’utilizzo di questi nuovi strumenti può comunque portare alla creazione di sistemi poco ottimizzati e di difficile gestione. Nathan Marz propone un’architettura a livelli che utilizza i nuovi strumenti in maniera congiunta per creare sistemi semplici e robusti: questa prende il nome di Lambda-Architecture. In questa tesi viene introdotto brevemente il concetto di Big Data e delle nuove problematiche ad esso associate, si procede poi ad illustrare i principi su cui si basano i nuovi strumenti di calcolo distribuito sviluppati per affrontarle. Viene poi definita l’Architettura Lambda di Nathan Marz, ponendo particolare attenzione su uno dei livelli che la compone, chiamato Batch Layer. I principi della Lambda Architecture sono infine applicati nella costruzione di un Batch Layer, utilizzato per l’analisi e la gestione di dati climatici con fini statistici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni la produzione di materiale ceramico si è spostata su formati di grandi dimensioni. Questo processo è stato possibile grazie allo sviluppo di nuove tecnologie adeguate alla produzione di lastre in grès porcellanato con spessore sempre più ridotto e in formati sempre più grandi. Molte aziende si sono quindi orientate alla produzione delle grandi lastre servendosi di queste nuove tecnologie innovative, proprio perché questi prodotti sono risultati essere particolarmente versatili. Come le piastrelle di formato tradizionale, anche questi grandi formati devono essere certificati con il marchio CE, quindi devono essere eseguite delle prove di caratterizzazione delle loro caratteristiche fisiche-meccaniche. Tuttavia, cambiando notevolmente le dimensioni, per queste grandi lastre si possono introdurre anche nuovi test di prova per determinare nuove caratteristiche, come ad esempio la possibilità di flettersi per adattarsi alla forma della superficie dove vengono collocate (facciate di edifici, rivestimenti di gallerie autostradali, etc.). Di conseguenza nasce l’esigenza di valutare questi nuovi parametri, tra cui il raggio di curvatura è particolarmente rilevante per valutare appunto la flessibilità della lastra. Nel presente lavoro di tesi sono state svolte prove di caratterizzazione delle proprietà fisiche-meccaniche di piastrelle ceramiche di grande formato. I campioni sono stati sottoposti a prove per la determinazione della freccia e del raggio di curvatura sotto il peso proprio e a rottura nelle configurazioni fronte e retro. Dall’analisi dei dati sperimentali sono state dedotte conclusioni in merito alla possibile dipendenza della freccia e del raggio di curvatura dalle caratteristiche dei campioni. Oltre alle prove di determinazione della freccia e conseguente raggio di curvatura, a completamento del lavoro sperimentale svolto sono state eseguite anche prove di assorbimento di acqua e di analisi d’immagine per determinare la porosità totale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi ha lo scopo di determinare una correlazione tra lo spostamento laterale e la riduzione di resistenza a trazione per le connessioni di tipo holdown per pareti in legno massiccio XLam. Per raggiungere questo obiettivo è stata condotta un’indagine sperimentale, nella quale sono state eseguite prove cicliche a trazione in controllo di spostamento assiale, con imposizione di uno spostamento a taglio iniziale. Sono state eseguite inoltre prove monotone combinate, caratterizzate da contemporaneo spostamento a taglio e assiale legati da rapporto diverso per ogni tipologia di prova. Si è ricavata una legge di danno che correla lo spostamento laterale alla riduzione di resistenza assiale: per scorrimenti entro 15 mm il danno è contenuto (10%), ma arrivando a 30-45mm la riduzione di resistenza è del 20%. Mettendo insieme invece le monotone ottenute variando il suddetto rapporto di velocità si è definito un dominio di resistenza. La seconda parte verte sulla modellazione numerica in OpenSEES delle connessioni come molle di un materiale isteretico, tarate sulla base delle curve sperimentali cicliche ottenute. Queste sono state poi utilizzate per la modellazione di una parete a molle disaccoppiate, che considera solo la resistenza a trazione per hold-down e a taglio per angolari (sottostima resistenza reale). Una seconda modellazione a molle accoppiate considera la resistenza in entrambe le direzioni: questo sovrastima la resistenza globale reale, poiché non tiene conto della contemporanea applicazione del carico nelle due direzioni. E’ stata quindi applicata la suddetta legge di danno attraverso un procedimento iterativo che in base agli spostamenti laterali riduce la resistenza assiale e riesegue l’analisi con i parametri corretti, per rivalutare spostamenti e resistenze: la progettazione attuale sovradimensiona gli angolari, il collasso della struttura avviene per rottura non bilanciata, con hold-down plasticizzati e angolari in campo elastico (meccanismo di rocking).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’oggetto di studio di questa tesi sono le piattaforme e-learning: programmi informatici che permettono di creare e gestire corsi di insegnamento attraverso internet. Innanzitutto viene fatta un’introduzione al concetto di e-learning, definendone le principali caratteristiche. Successivamente sono state delineate le peculiarità di dodici piattaforme tra le più diffuse: Edmodo, Ilias, Sakai,Dokeos, Schoology, Chamilo, Claroline, eFront, Atutor, Docebo, Moodle, Blackboard. Per ciascuna di esse viene fatto un inquadramento storico e geografico, definendo dove, quando, grazie a chi sono state sviluppate e il loro livello di diffusione globale. Vengono definite alcune caratteristiche tecniche quali: il tipo di licenza, il supporto fornito agli utenti, l’accessibilità dei contenuti erogati da ciascun programma, gli strumenti dedicati alla didattica, gli aspetti social e di comunicazione. Queste informazioni sono state utilizzate nel capitolo finale per eseguire un confronto, in modo da capire quali piattaforme risultano essere migliori a soddisfare le esigenze di Enti di Formazione a livello universitario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I Big Data hanno forgiato nuove tecnologie che migliorano la qualità della vita utilizzando la combinazione di rappresentazioni eterogenee di dati in varie discipline. Occorre, quindi, un sistema realtime in grado di computare i dati in tempo reale. Tale sistema viene denominato speed layer, come si evince dal nome si è pensato a garantire che i nuovi dati siano restituiti dalle query funcions con la rapidità in cui essi arrivano. Il lavoro di tesi verte sulla realizzazione di un’architettura che si rifaccia allo Speed Layer della Lambda Architecture e che sia in grado di ricevere dati metereologici pubblicati su una coda MQTT, elaborarli in tempo reale e memorizzarli in un database per renderli disponibili ai Data Scientist. L’ambiente di programmazione utilizzato è JAVA, il progetto è stato installato sulla piattaforma Hortonworks che si basa sul framework Hadoop e sul sistema di computazione Storm, che permette di lavorare con flussi di dati illimitati, effettuando l’elaborazione in tempo reale. A differenza dei tradizionali approcci di stream-processing con reti di code e workers, Storm è fault-tolerance e scalabile. Gli sforzi dedicati al suo sviluppo da parte della Apache Software Foundation, il crescente utilizzo in ambito di produzione di importanti aziende, il supporto da parte delle compagnie di cloud hosting sono segnali che questa tecnologia prenderà sempre più piede come soluzione per la gestione di computazioni distribuite orientate agli eventi. Per poter memorizzare e analizzare queste moli di dati, che da sempre hanno costituito una problematica non superabile con i database tradizionali, è stato utilizzato un database non relazionale: HBase.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“Immaginate di potervi rilassare a casa in una giornata d’estate tenendo le finestre aperte per lasciare passare la brezza ma senza essere disturbati dai rumori della città, oggi è possibile”. Quello che voglio fare attraverso questa tesi è di studiare la fattibilità per la realizzazione di una finestra che permetta il passaggio dell’aria ma non dei rumori. L’idea di questa particolare finestra silenziosa mi è stata fornita dallo studio fatto dal professor Sang-Hoon Kim del Mokpo National University maritime e dal professor Seong-Hyun Lee del Korea Institute of Machinery and Materials in Corea del Sud. Essi hanno utilizzato i metamateriali acustici per risolvere il problema dell’inquinamento sonoro in città. Queste finestre hanno il vantaggio di tenere i rumori fuori dalla nostra abitazione ma permettere il passaggio dell’aria attraverso dei fori aventi dimensioni e posizioni adeguate da garantire questo particolare fenomeno. I principi su cui si basano queste finestre sono: la diffrazione e i risonatori di Helmholtz, che analizzeremo nel dettaglio nei capitoli 1 e 2 di questa tesi. Dopo aver analizzato i due principi attraverso simulazione fatte mediante il programma COMSOL multiphysics, sono passata all’analisi della finestra vera e propria: ovvero alla realizzazione delle dimensioni adeguate dei risonatori di Helmholtz utilizzati, alle dimensioni dei rispettivi fori d’ingresso e alla combinazione di questi risonatori per ricavare la miglior finestra silenziosa, che trattenesse al suo esterno il maggior numero di dB.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Poiché nell’ultimo decennio i dispositivi mobile assumono un ruolo sempre più determinante nello svolgimento della vita stessa, nel corso del tempo si sono ricercate e sviluppate app per facilitare le più svariate operazioni quotidiane. Visto la vastità del mercato degli smartphone, nel tempo sono stati sviluppati vari sistemi operativi in grado di governare queste piattaforme. Per una azienda, tuttavia, gestire i costi di implementazione di una stessa app in ambienti differenti risulta più oneroso che gestire i costi di una sola in grado di operare nei diversi sistemi operativi. Quest’ultimo tipo di app viene comunemente denominato app multipiattaforma. Un modo per implementare questo genere di applicazioni vede come strumento di utilizzo Visual Studio, noto IDE. Nel caso specifico Visual Studio ha integrato il progetto Apache Cordova per le creazione di applicativi multipiattaforma. In questo elaborato di tesi tramite i due strumenti appena introdotti si sono sviluppate due differenti app, al fine di valutarne le performance in termini di tempo. La prima app propone la risoluzione di un noto problema di calcolo combinatorio conosciuto con il nome di Knapsack, ovvero il problema dello zaino. La seconda cerca invece di digitalizzare una semplice espressione matematica contenuta in un’immagine e di fornirne quindi il risultato. Dai dati ottenuti si possono operare confronti per determinare la validità dello strumento di sviluppo, mettendo in luce anche possibili evoluzioni di queste due app.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'identificazione di un blazar è molto difficile, questo è un oggetto molto particolare e che ha un'attività molto ricca. Nella pratica l'identificazione di un blazar avviene confrontando la sua emissione in banda radio con la sua emissione in banda gamma, che sono entrambe proprie dei blazar. Il problema è che non si dispone di un telescopio in grado di rivelare con estrema precisione entrambe le bande, quindi si procede utilizzando i dati radio provenienti da un dato radiotelescopio e i dati in banda gamma provenienti da un altro telescopio. Quando le emissioni nelle due bande presentano, ad esempio, una variabilità simultanea, l'identificazione è certa. Ma questa minoranza di casi non è molto frequente e quindi spesso si procede con un'analisi probabilistica basata sulle posizioni delle sorgenti. Il lancio di Fermi nel 2008 ha portato ad un fortissimo aumento del numero di sorgenti gamma note e, fra queste, la maggior parte sono blazar. Una significativa frazione di queste sorgenti Fermi (circa il 30%) rimane non identificata. In questo lavoro vengono inizialmente caratterizzate le proprietà radio dei blazar e in particolare dei blazar gamma noti finora. In seguito verrà approfondita l'analisi delle sorgenti Fermi non identificate per stabilire una possibile compatibilità con le proprietà dei blazar e quindi per cercare di capire se queste sorgenti possano essere a loro volta dei blazar non ancora riconosciuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si è studiato uno dei principali processi nelle stelle responsabili della nucleosintesi degli elementi pesanti dopo il 56Fe, il processo-s. In particolare sono state illustrate le sorgenti di neutroni che alimentano questo processo e si è analizzata la reazione 22Ne (α,n) 25Mg. Per costruire un valido modello matematico di questo processo è necessario conoscere in maniera accurata il reaction rate di questa reazione. Conseguentemente è necessario conoscere la sezione d'urto di tale reazione in maniera molto accurata. Sono stati condotti diversi esperimenti nel tentativo di valutare la sezione d'urto per via diretta, facendo collidere un fascio di particelle α su un campione di 22Ne. Queste rilevazioni hanno dato esiti non soddisfacenti nell'intervallo di energie riguardanti il processo-s, in quanto, a causa di disturbi dovuti al fondo di raggi cosmici e alla barriera Coulombiana, non è stato possibile osservare risonanze per valori di energie delle particelle α minori di (832± 2) keV. Per colmare la mancanza di dati sperimentali si è deciso di studiare gli stati eccitati del nucleo composto 26Mg tramite la reazione inversa 25Mg+n alle facility n_TOF, situata al CERN, e GELINA al IRMM. Le misure effettuate hanno mostrato diverse risonanze al di sotto di (832±2) keV, compatibili con le spin-parità di 22Ne e α. In seguito è stato stimato il loro contributo al reaction rate e i risultati hanno mostrato che per temperature tipiche di stelle massive il contributo di queste risonanze è trascurabile ma risulta di grande rilevanza alle temperature tipiche delle stelle appartenenti al ramo asintotico delle giganti (AGB).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ogni giorno vengono generati grandi moli di dati attraverso sorgenti diverse. Questi dati, chiamati Big Data, sono attualmente oggetto di forte interesse nel settore IT (Information Technology). I processi digitalizzati, le interazioni sui social media, i sensori ed i sistemi mobili, che utilizziamo quotidianamente, sono solo un piccolo sottoinsieme di tutte le fonti che contribuiscono alla produzione di questi dati. Per poter analizzare ed estrarre informazioni da questi grandi volumi di dati, tante sono le tecnologie che sono state sviluppate. Molte di queste sfruttano approcci distribuiti e paralleli. Una delle tecnologie che ha avuto maggior successo nel processamento dei Big Data, e Apache Hadoop. Il Cloud Computing, in particolare le soluzioni che seguono il modello IaaS (Infrastructure as a Service), forniscono un valido strumento all'approvvigionamento di risorse in maniera semplice e veloce. Per questo motivo, in questa proposta, viene utilizzato OpenStack come piattaforma IaaS. Grazie all'integrazione delle tecnologie OpenStack e Hadoop, attraverso Sahara, si riesce a sfruttare le potenzialita offerte da un ambiente cloud per migliorare le prestazioni dell'elaborazione distribuita e parallela. Lo scopo di questo lavoro e ottenere una miglior distribuzione delle risorse utilizzate nel sistema cloud con obiettivi di load balancing. Per raggiungere questi obiettivi, si sono rese necessarie modifiche sia al framework Hadoop che al progetto Sahara.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ogni giorno, l'utente di smartphon e tablet, spesso senza rendersene conto, condivide, tramite varie applicazioni, un'enorme quantità di informazioni. Negli attuali sistemi operativi, l'assenza di meccanismi utili a garantire adeguatamente l'utente, ha spinto questo lavoro di ricerca verso lo sviluppo di un inedito framework.È stato necessario uno studio approfondito dello stato dell'arte di soluzioni con gli stessi obiettivi. Sono stati esaminati sia modelli teorici che pratici, con l'analisi accurata del relativo codice. Il lavoro, in stretto contatto con i colleghi dell'Università Centrale della Florida e la condivisione delle conoscenze con gli stessi, ha portato ad importanti risultati. Questo lavoro ha prodotto un framework personalizzato per gestire la privacy nelle applicazioni mobili che, nello specifico, è stato sviluppato per Android OS e necessita dei permessi di root per poter realizzare il suo funzionamento. Il framework in questione sfrutta le funzionalità offerte dal Xposed Framework, con il risultato di implementare modifiche al sistema operativo, senza dover cambiare il codice di Android o delle applicazioni che eseguono su quest’ultimo. Il framework sviluppato controlla l’accesso da parte delle varie applicazioni in esecuzione verso le informazioni sensibili dell’utente e stima l’importanza che queste informazioni hanno per l’utente medesimo. Le informazioni raccolte dal framework sulle preferenze e sulle valutazioni dell’utente vengono usate per costruire un modello decisionale che viene sfruttato da un algoritmo di machine-learning per migliorare l’interazione del sistema con l’utente e prevedere quelle che possono essere le decisioni dell'utente stesso, circa la propria privacy. Questo lavoro di tesi realizza gli obbiettivi sopra citati e pone un'attenzione particolare nel limitare la pervasività del sistema per la gestione della privacy, nella quotidiana esperienza dell'utente con i dispositivi mobili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I semiconduttori organici presentano proprietà che consentono la produzione di dispositivi impensabili fino a pochi anni fa: sono flessibili, leggeri e robusti, ed inoltre facili ed economici da depositare. La loro capacità di rivelare direttamente la radiazione ionizzante, convertendola in segnale elettrico, li pone come ottimi candidati per una nuova generazione di rivelatori a stato solido per raggi X, utilizzabili in situazioni e luoghi prima inaccessibili a quelli inorganici, o addirittura comodamente indossabili. Tuttavia i fenomeni di fotogenerazione e raccolta di carica in questi materiali non sono ancora completamente compresi. Ottimali per lo studio di queste ed altre proprietà intrinseche sono le forme di impacchettamento a cristallo singolo. Questa tesi analizza e confronta i segnali elettrici di campioni di cristalli singoli di TIPS-pentacene quando esposti a flussi crescenti di radiazione visibile e di raggi X a diversi voltaggi, proponendo dei modelli per la loro interpretazione. Viene inoltre riportato un confronto con le stesse misure effettuate su un campione dello stesso materiale in forma di film sottile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sviluppare e manutenere applicativi destinati a differenti piattaforme è un’opzione esclusiva di quelle entità capaci di sostenere costi molto alti per la realizzazione di queste applicazioni. Questo esclude gli sviluppatori indipendenti, che spesso realizzano prodotti in totale autonomia; le start-up, che hanno l’esigenza di sviluppare un’idea di business avendo a disposizione budget estremamente ridotti; le piccole aziende, alle quali viene così preclusa la possibilità di competere con player più importanti. Questo tipo di emergenze rende lo sviluppo cross-platform una soluzione interessante per la realizzazione delle applicazioni mobili, abbattendo i costi di sviluppo e permettendo di raggiungere più velocemente un pubblico più ampio. C'è quindi sempre maggiore interesse, da parte degli sviluppatori, per gli strumenti di sviluppo cross-platform. Per catturare l’attenzione degli sviluppatori è necessario che lo strumento sia dotato di buona stabilità, che offra un ambiente di sviluppo confortevole, una buona user experience, facilità di aggiornamento, tempi di sviluppo contenuti e possibilità di immissione delle applicazioni su diversi ecosistemi software. L’idea alla base di questa Tesi di laurea è valutare i pro e i contro di uno di questi framework cross-platform e compararlo con le tecnologie native. Il framework scelto è Ionic per via della sua popolarità tra gli sviluppatori e della ridotta bibliografia scientifica a riguardo. Molte ricerche scientifiche valutano le prestazioni di uno o più framework cross-platform rispetto ad una soluzione nativa, tuttavia è raro un confronto tra un framework e più soluzioni native. Per questo, oltre a valutare i pro e i contro del framework, verrà anche effettuata una comparazione tra gli applicativi nativi per Android e iOS e le controparti sviluppate attraverso Ionic, permettendo di identificare eventuali differenze di performance e aiutare gli sviluppatori nelle scelte tecnologiche.