763 resultados para Scorrimenti traslativi, Marnoso Arenacea, analisi a ritroso, analisi di stabilità


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato prevede lo studio delle catene anaforiche con l’obiettivo di indagare le meccaniche che guidano la scelta della ripresa, in rapporto alle caratteristiche dell’antecedente. Nel primo capitolo sarà presentato il fenomeno dell’anafora e della catena anaforica. Quindi prima di tutto sarà illustrato che cos’è un referente testuale e quando viene attivato e in seguito il focus si sposterà sulla ripresa anaforica, distinguendo anafora coreferenziale, non coreferenziale e anafore particolari. La parte finale poi sarà dedicata a un confronto tra anafora, deissi testuale e deissi situazionale. Il secondo capitolo verterà sull’anafora con identità di referente, e presenterà due importanti studi che si propongono di indagare i meccanismi che guidano la selezione della ripresa: quelli di Givòn e di Berretta. Quindi si partirà dal concetto di topicalità per arrivare al principio innovativo introdotto da Givòn, la continuità tematica (topic continuity). Successivamente sarà presentato il modello di analisi di Berretta, che si basa sullo studio di catene anaforiche “difficili”, ovvero costituite da antecedenti di rango topicale basso, opponendosi al metodo di Givòn basato su catene “facili”, con antecedenti umani, singolari e nel ruolo di soggetto. Nel terzo capitolo, invece, verrà introdotta la parte sperimentale dell’elaborato: l’annotazione di un testo per lo studio delle catene anaforiche. In questo capitolo sarà presentato nel dettaglio il modello di analisi adottato, ovvero un modello integrato che comprende le variabili considerate sia da Givòn sia da Berretta. Il procedimento di marcatura prevede l’annotazione manuale di tutti gli antecedenti (soggetti e non soggetti, umani e non umani, in ruolo sintattico topicale e non topicale) e le rispettive riprese, oltre alle unità testuali quali capitolo, paragrafo e frase. Il quarto e ultimo capitolo, invece, rappresenta l’analisi empirica dei dati estratti dal testo annotato. In questa sezione, sotto forma di tabelle e grafici, saranno presentati i dati considerando diverse variabili e correlazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi ha come obiettivo un confronto tra giornalismo sportivo italiano e inglese sul tema dei Mondiali di calcio svoltisi nell'estate del 2014 in Brasile. Attraverso l'analisi di quindici articoli presi da alcuni dei quotidiani più letti in Italia e nel Regno Unito, vedremo come in due nazioni così appassionate di calcio si scrive di questo sport, in particolare in occasione di un evento di interesse transnazionale, sottolinenando affinità e differenze tra due lingue apparentemente lontane tra loro ma che scopriremo avere molti punti in comune.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente studio ha analizzato e seguito il monitoraggio ambientale relativo al progetto di adeguamento con caratteristiche autostradali della SP46 Rho-Monza. Più precisamente il progetto dii riqualificazione prevede la realizzazione di nuove infrastrutture, ma anche l’ammodernamento di quelle già esistenti. Più precisamente è stata quindi prevista l’analisi degli interventi eseguiti e delle tecnologie utilizzate per il monitoraggio ambientale presso i comuni di Milano e Paderno Dugnano: realizzazione di perforazioni a distruzione di nucleo, la messa in opera di piezometri a tubo aperto nei fori di sondaggio realizzati, l’esecuzione di rilevazioni chimico-fisiche sulla falda intercettata dai piezometri realizzati. Tramite questo studio è stato così possibile ricostruire il livello freatimetrico della falda direttamente interessata dal progetto di riqualificazione della SP46 ed intercettata dai piezometri. In secondo luogo oltre alla ricostruzione della soggiacenza della falda, è stato valutato l’impatto antropico sulla qualità delle acque sotterranee della falda stessa, grazie alla determinazione di parametri chimico-fisici e ad analisi di laboratorio su campioni di acqua prelevati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questa tesi, in base all'analisi di atti di convegni e workshop, lettura di libri e articoli pubblicati in siti Web, in materie di gamification, è per prima cosa, spiegare il concetto della gamification, partendo da alcune definizioni date da ricercatori e progettisti di videogiochi, cercando di capire sia i fattori positivi, sia i fattori negativi. Si vogliono elencare e spiegare gli elementi di gioco che compongono la gamification, con particolare attenzione alle meccaniche, come punti, distintivi, premi e dinamiche, come competenza, espressione di sè, status sociale, elementi collegati tra di loro, analizzando quali meccaniche originano certe dinamiche. Si cercherà anche di analizzare la gamification sotto gli aspetti psicologici e di User Experience che innescano le motivazioni intrinseche ed estrinseche delle persone, le prime azionate dalle meccaniche, le seconde azionate dalle dinamiche della gamification e l'importanza di ciò nella progettazione di applicazioni gamificate. Si vogliono esaminare ed illustrare in generale, progetti i quali adottano tecniche di gamification, che spaziano dal fitness fino ad attività di marketing per capire i benefici riscontrati. Si vuole inoltre scoprire se ci sono dei validi presupposti per sviluppare App gamificate per smarphone, che sfruttino alcune specifiche tecniche dei dispositivi mobili come, connettività, il GPS ed i sensori come ad esempio, l'accelerometro ed altre tecnologie come il lettore NFC, QR-code. Infine, come caso di studio, saranno testate tre app per smarphone, Foursquare, tramite la quale un utente può consultare e lasciare consigli sui luoghi nelle sue vicinanze, Swarm, tramite la quale un utente oltre ad effettuare il check-in in un luogo, può vedere se ci sono amici nelle vicinanze e Waze, tramite la quale un utente può inviare ed apprendere informazioni relative al traffico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un'applicazione web user-friendly di supporto ai ricercatori per l'esecuzione efficiente di specifici tasks di ricerca e analisi di articoli scientifici

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sviluppo e analisi di un dataset campione, composto da circa 3 mln di entry ed estratto da un data warehouse di informazioni riguardanti il consumo energetico di diverse smart home.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi si basa sull'analisi del database pubblico ReconX, il quale costituisce lo stato dell'arte della ricostruzione in silico del metabolismo umano. Il modello che se ne può estrarre è stato impiegato per simulazioni di metabolismo cellulare in condizioni di ossigeno variabile, valutando l'impatto della carenza di ossigeno sulle reazioni e su i pathways metabolici. Le tecniche impiegate appartengono alla systems biology e sono di tipo bioinformatico e riguardano flux balance analysis e flux variability analysis. I risultati trovati vengono quindi confrontati con la letteratura di settore. E' stato inoltre possibile estrarre dei sotto network dal modello principale, analizzando la rete di connessioni esistente fra i metaboliti e fra le reazioni separatamente. Viene estratto e studiato anche il network di interazione fra pathways, su cui è introdotta una misura ad hoc per valutare la forza di connessione fra i vari processi. Su quest'ultimo network viene anche effettuata un'analisi di tipo stocastico, mostrando che tecniche di tipo markoviano possono essere applicate per indagini diverse da quelle più in uso basate sui flussi. Infine viene mostrata una possibile soluzione per visualizzare graficamente i network metabolici così costituiti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi vengono analizzati i diversi aspetti della domotica. Uno sguardo sulla storia, sulle caratteristiche sia funzionali che strutturali. Viene analizzato l'impatto che questa ha sull'uomo e sul suo stile di vita. Vengono messe a confronto Google ed Apple, nello specifico per quel che riguarda la loro risposta alla smart home: Nest ed HomeKit, sia a livello funzionale che di codice. In seguito all'analisi di API e documentazioni è emerso che entrambe le aziende offrono pressoché le medesime funzionalità, ma con piccole particolarità che fanno la differenza, dando inizio così ad una battaglia per il primato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo sviluppo di un incendio all’interno di depositi di liquidi infiammabili costituisce uno scenario particolarmente critico a causa della rilevanza delle conseguenze che ne possono scaturire. L’incendio causato dalla formazione di grandi pozze sviluppatesi a seguito di forature dei contenitori e il rapido coinvolgimento di tutto lo stoccaggio rappresentano uno scenario di incendio tipico di queste realtà. Si ha quindi la necessità di adottare provvedimenti atti a garantire specifici obiettivi di sicurezza tramite l’introduzione di misure antincendio. La prevenzione incendi, sino al 2007, era basata esclusivamente su norme di tipo prescrittivo, in base alle quali si definivano le misure di sicurezza secondo un criterio qualitativo. Successivamente l’ingegneria antincendio si è sempre più caratterizzata da approcci basati su analisi di tipo prestazionale, in grado di dimostrare il raggiungimento dell’obiettivo di sicurezza sulla base del comportamento reale d’incendio ottenuto mediante un’accurata simulazione del fuoco che ragionevolmente può prodursi nell'attività. La modellazione degli incendi è divenuta possibile grazie allo sviluppo di codici di fluidodinamica computazionale (CFD), in grado di descrivere accuratamente l’evoluzione delle fiamme. Il presente studio si inserisce proprio nell’ambito della modellazione CFD degli incendi, eseguita mediante il software Fire Dynamics Simulator (FDS). L’obiettivo dell’elaborato è studiare l’azione dell’impianto di spegnimento a schiuma sullo sviluppo di un incendio di pozza in un deposito di liquidi infiammabili, in termini di riduzione della potenza termica rilasciata dal fuoco, al fine di determinare le temperature massime raggiunte, in corrispondenza delle quali valutare il comportamento di resistenza strutturale degli edifici. Il presente lavoro è articolato in 6 capitoli. Dopo il Capitolo 1, avente carattere introduttivo, vengono richiamati nel Capitolo 2 i principali concetti della chimica e fisica degli incendi. Nel Capitolo 3 vengono esaminate le normative intese ad unificare l’approccio ingegneristico alla sicurezza antincendio. Il Capitolo 4 fornisce una dettagliata descrizione del software di calcolo, FDS - Fire Dynamics Simulator, adoperato per la modellazione dell’incendio. Nel Capitolo 5 si procede alla progettazione prestazionale che conduce alla determinazione della curva naturale d'incendio in presenza degli impianti di spegnimento automatici. Infine nel Capitolo 6 si riportano le considerazioni conclusive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel lavoro di tesi è stato studiato il problema del tuning di un data warehouse, in particolare la tecnica maggiormente utilizzata in ambito aziendale, ovvero la creazione degli aggregati. Inoltre, è stato progettato e implementato uno strumento che generi automaticamente l'insieme di viste che meglio risolve il carico di lavoro basato sulle analisi di business più frequenti su quella specifica base di dati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni sono state sviluppate varie soluzioni tecniche per la progettazione sismica di strutture. Questa ricerca sviluppa un metodo di confronto basato sull'analisi di costi di costruzione e danni causati dal sisma. Il metodo viene applicato al caso di studio della scuola di Bisignano (CO, Italia). L'edificio è stato progettato conformemente alle NTC 2008 con approccio tradizionale e combinando il contributo di dissipatori viscosi e dissipazione isteretica. Le strutture vengono poi analizzate sotto diverse condizioni sismiche al fine di calcolare i costi di riparazione attesi e comprendere quale soluzione tecnica risulti più economicamente vantaggiosa a parità di azione sismica di progetto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obbiettivo del lavoro è la messa a punto di membrane polimeriche nanoporose funzionalizzate con la N-metil-D-glucamina (NMDG), per la rimozione dell’arsenico dalle acque. Al fine di ottenere membrane con proprietà di filtro molecolare selettivo, si è deciso di sfruttare la capacità della NMDG di chelare selettivamente gli ossianioni dell’arsenico. La NMDG è stata funzionalizzata in maniera da ottenere due monomeri: metacrilato della N-metil-D-glucammina e 4-vinilbenzil-N-metil-D-glucammina, sui quali è stata effettuata una sililazione dei gruppi ossidrilici della glucammina in maniera da ottenere composti liquidi e quindi adatti al processo produttivo delle membrane. Con l’obbiettivo di ottenere un elevata area superficiale la morfologia della membrana è stata controllata mediante imprinting di nanoparticelle di silice colloidale. La cattura del arsenico da parte delle membrane polimeriche è stata valutata mediante analisi di assorbimento atomico a seguito dell’attacco acido con HF 5% che rimuove le particelle di silice ed i gruppi protettori.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

analisi dell'approccio semplificato e introduzione ad un nuovo approccio, considerando le tensioni sui condensatori e le correnti sulle induttanze non più costanti. determinazione e analisi dei ripple di corrente sulle induttanze e tensioni sulle capacità. confronto fra i risultati teorici del nuovo approccio e quelli ottenuti attraverso le simulazioni effettuate con Simulink. analisi di funzionamento e dimensionamento dei componenti