806 resultados para analisi di abbondanzasistemi binari


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato prevede lo studio delle catene anaforiche con l’obiettivo di indagare le meccaniche che guidano la scelta della ripresa, in rapporto alle caratteristiche dell’antecedente. Nel primo capitolo sarà presentato il fenomeno dell’anafora e della catena anaforica. Quindi prima di tutto sarà illustrato che cos’è un referente testuale e quando viene attivato e in seguito il focus si sposterà sulla ripresa anaforica, distinguendo anafora coreferenziale, non coreferenziale e anafore particolari. La parte finale poi sarà dedicata a un confronto tra anafora, deissi testuale e deissi situazionale. Il secondo capitolo verterà sull’anafora con identità di referente, e presenterà due importanti studi che si propongono di indagare i meccanismi che guidano la selezione della ripresa: quelli di Givòn e di Berretta. Quindi si partirà dal concetto di topicalità per arrivare al principio innovativo introdotto da Givòn, la continuità tematica (topic continuity). Successivamente sarà presentato il modello di analisi di Berretta, che si basa sullo studio di catene anaforiche “difficili”, ovvero costituite da antecedenti di rango topicale basso, opponendosi al metodo di Givòn basato su catene “facili”, con antecedenti umani, singolari e nel ruolo di soggetto. Nel terzo capitolo, invece, verrà introdotta la parte sperimentale dell’elaborato: l’annotazione di un testo per lo studio delle catene anaforiche. In questo capitolo sarà presentato nel dettaglio il modello di analisi adottato, ovvero un modello integrato che comprende le variabili considerate sia da Givòn sia da Berretta. Il procedimento di marcatura prevede l’annotazione manuale di tutti gli antecedenti (soggetti e non soggetti, umani e non umani, in ruolo sintattico topicale e non topicale) e le rispettive riprese, oltre alle unità testuali quali capitolo, paragrafo e frase. Il quarto e ultimo capitolo, invece, rappresenta l’analisi empirica dei dati estratti dal testo annotato. In questa sezione, sotto forma di tabelle e grafici, saranno presentati i dati considerando diverse variabili e correlazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi ha come obiettivo un confronto tra giornalismo sportivo italiano e inglese sul tema dei Mondiali di calcio svoltisi nell'estate del 2014 in Brasile. Attraverso l'analisi di quindici articoli presi da alcuni dei quotidiani più letti in Italia e nel Regno Unito, vedremo come in due nazioni così appassionate di calcio si scrive di questo sport, in particolare in occasione di un evento di interesse transnazionale, sottolinenando affinità e differenze tra due lingue apparentemente lontane tra loro ma che scopriremo avere molti punti in comune.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente studio ha analizzato e seguito il monitoraggio ambientale relativo al progetto di adeguamento con caratteristiche autostradali della SP46 Rho-Monza. Più precisamente il progetto dii riqualificazione prevede la realizzazione di nuove infrastrutture, ma anche l’ammodernamento di quelle già esistenti. Più precisamente è stata quindi prevista l’analisi degli interventi eseguiti e delle tecnologie utilizzate per il monitoraggio ambientale presso i comuni di Milano e Paderno Dugnano: realizzazione di perforazioni a distruzione di nucleo, la messa in opera di piezometri a tubo aperto nei fori di sondaggio realizzati, l’esecuzione di rilevazioni chimico-fisiche sulla falda intercettata dai piezometri realizzati. Tramite questo studio è stato così possibile ricostruire il livello freatimetrico della falda direttamente interessata dal progetto di riqualificazione della SP46 ed intercettata dai piezometri. In secondo luogo oltre alla ricostruzione della soggiacenza della falda, è stato valutato l’impatto antropico sulla qualità delle acque sotterranee della falda stessa, grazie alla determinazione di parametri chimico-fisici e ad analisi di laboratorio su campioni di acqua prelevati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sviluppo e analisi di un dataset campione, composto da circa 3 mln di entry ed estratto da un data warehouse di informazioni riguardanti il consumo energetico di diverse smart home.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo sviluppo di un incendio all’interno di depositi di liquidi infiammabili costituisce uno scenario particolarmente critico a causa della rilevanza delle conseguenze che ne possono scaturire. L’incendio causato dalla formazione di grandi pozze sviluppatesi a seguito di forature dei contenitori e il rapido coinvolgimento di tutto lo stoccaggio rappresentano uno scenario di incendio tipico di queste realtà. Si ha quindi la necessità di adottare provvedimenti atti a garantire specifici obiettivi di sicurezza tramite l’introduzione di misure antincendio. La prevenzione incendi, sino al 2007, era basata esclusivamente su norme di tipo prescrittivo, in base alle quali si definivano le misure di sicurezza secondo un criterio qualitativo. Successivamente l’ingegneria antincendio si è sempre più caratterizzata da approcci basati su analisi di tipo prestazionale, in grado di dimostrare il raggiungimento dell’obiettivo di sicurezza sulla base del comportamento reale d’incendio ottenuto mediante un’accurata simulazione del fuoco che ragionevolmente può prodursi nell'attività. La modellazione degli incendi è divenuta possibile grazie allo sviluppo di codici di fluidodinamica computazionale (CFD), in grado di descrivere accuratamente l’evoluzione delle fiamme. Il presente studio si inserisce proprio nell’ambito della modellazione CFD degli incendi, eseguita mediante il software Fire Dynamics Simulator (FDS). L’obiettivo dell’elaborato è studiare l’azione dell’impianto di spegnimento a schiuma sullo sviluppo di un incendio di pozza in un deposito di liquidi infiammabili, in termini di riduzione della potenza termica rilasciata dal fuoco, al fine di determinare le temperature massime raggiunte, in corrispondenza delle quali valutare il comportamento di resistenza strutturale degli edifici. Il presente lavoro è articolato in 6 capitoli. Dopo il Capitolo 1, avente carattere introduttivo, vengono richiamati nel Capitolo 2 i principali concetti della chimica e fisica degli incendi. Nel Capitolo 3 vengono esaminate le normative intese ad unificare l’approccio ingegneristico alla sicurezza antincendio. Il Capitolo 4 fornisce una dettagliata descrizione del software di calcolo, FDS - Fire Dynamics Simulator, adoperato per la modellazione dell’incendio. Nel Capitolo 5 si procede alla progettazione prestazionale che conduce alla determinazione della curva naturale d'incendio in presenza degli impianti di spegnimento automatici. Infine nel Capitolo 6 si riportano le considerazioni conclusive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel lavoro di tesi è stato studiato il problema del tuning di un data warehouse, in particolare la tecnica maggiormente utilizzata in ambito aziendale, ovvero la creazione degli aggregati. Inoltre, è stato progettato e implementato uno strumento che generi automaticamente l'insieme di viste che meglio risolve il carico di lavoro basato sulle analisi di business più frequenti su quella specifica base di dati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro è iniziato con uno studio teorico delle principali tecniche di classificazione di immagini note in letteratura, con particolare attenzione ai più diffusi modelli di rappresentazione dell’immagine, quali il modello Bag of Visual Words, e ai principali strumenti di Apprendimento Automatico (Machine Learning). In seguito si è focalizzata l’attenzione sulla analisi di ciò che costituisce lo stato dell’arte per la classificazione delle immagini, ovvero il Deep Learning. Per sperimentare i vantaggi dell’insieme di metodologie di Image Classification, si è fatto uso di Torch7, un framework di calcolo numerico, utilizzabile mediante il linguaggio di scripting Lua, open source, con ampio supporto alle metodologie allo stato dell’arte di Deep Learning. Tramite Torch7 è stata implementata la vera e propria classificazione di immagini poiché questo framework, grazie anche al lavoro di analisi portato avanti da alcuni miei colleghi in precedenza, è risultato essere molto efficace nel categorizzare oggetti in immagini. Le immagini su cui si sono basati i test sperimentali, appartengono a un dataset creato ad hoc per il sistema di visione 3D con la finalità di sperimentare il sistema per individui ipovedenti e non vedenti; in esso sono presenti alcuni tra i principali ostacoli che un ipovedente può incontrare nella propria quotidianità. In particolare il dataset si compone di potenziali ostacoli relativi a una ipotetica situazione di utilizzo all’aperto. Dopo avere stabilito dunque che Torch7 fosse il supporto da usare per la classificazione, l’attenzione si è concentrata sulla possibilità di sfruttare la Visione Stereo per aumentare l’accuratezza della classificazione stessa. Infatti, le immagini appartenenti al dataset sopra citato sono state acquisite mediante una Stereo Camera con elaborazione su FPGA sviluppata dal gruppo di ricerca presso il quale è stato svolto questo lavoro. Ciò ha permesso di utilizzare informazioni di tipo 3D, quali il livello di depth (profondità) di ogni oggetto appartenente all’immagine, per segmentare, attraverso un algoritmo realizzato in C++, gli oggetti di interesse, escludendo il resto della scena. L’ultima fase del lavoro è stata quella di testare Torch7 sul dataset di immagini, preventivamente segmentate attraverso l’algoritmo di segmentazione appena delineato, al fine di eseguire il riconoscimento della tipologia di ostacolo individuato dal sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obbiettivo del lavoro è la messa a punto di membrane polimeriche nanoporose funzionalizzate con la N-metil-D-glucamina (NMDG), per la rimozione dell’arsenico dalle acque. Al fine di ottenere membrane con proprietà di filtro molecolare selettivo, si è deciso di sfruttare la capacità della NMDG di chelare selettivamente gli ossianioni dell’arsenico. La NMDG è stata funzionalizzata in maniera da ottenere due monomeri: metacrilato della N-metil-D-glucammina e 4-vinilbenzil-N-metil-D-glucammina, sui quali è stata effettuata una sililazione dei gruppi ossidrilici della glucammina in maniera da ottenere composti liquidi e quindi adatti al processo produttivo delle membrane. Con l’obbiettivo di ottenere un elevata area superficiale la morfologia della membrana è stata controllata mediante imprinting di nanoparticelle di silice colloidale. La cattura del arsenico da parte delle membrane polimeriche è stata valutata mediante analisi di assorbimento atomico a seguito dell’attacco acido con HF 5% che rimuove le particelle di silice ed i gruppi protettori.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

analisi dell'approccio semplificato e introduzione ad un nuovo approccio, considerando le tensioni sui condensatori e le correnti sulle induttanze non più costanti. determinazione e analisi dei ripple di corrente sulle induttanze e tensioni sulle capacità. confronto fra i risultati teorici del nuovo approccio e quelli ottenuti attraverso le simulazioni effettuate con Simulink. analisi di funzionamento e dimensionamento dei componenti

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'analisi di fase del segnale si presenta appropriata e di notevole efficacia per l'individuazione di attivazioni in fibrillazione atriale, in quanto permette la valutazione di come queste si generano e si propagano. Dopo aver ottenuto i dati relativi alle attivazioni, è possibile ricostruire delle mappe di fase atriale che possono essere utilizzate dal clinico per individuare i punti in cui cauterizzare. In questo lavoro di tesi sono stati utilizzati i segnali endocavitari atriali acquisiti con un catetere a contatto di nuova generazione per ottenere gli istanti di attivazione nelle diverse zone della camera atriale. I risultati dell'algoritmo messo a punto e testato su segnali in ritmo sinusale, sono stati confrontati con le performance di due metodi riportati in letteratura, evidenziando prestazioni migliori che potrebbero portare alla costruzione accurata delle mappe di fase e quindi ad una precisa localizzazione delle aree da cauterizzare durante la procedura di ablazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi sono stati descritti i principali metodi numerici per la risoluzione di sistemi non lineari. Tali metodi sono stati analizzati sia dal punto di vista teorico (analisi di convergenza locale) che pratico (algoritmo e implementazione).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La prima parte della tesi presenta una breve introduzione della storia dei videogiochi e del processo di localizzazione, seguita da un approfondimento sui metodi di traduzione dei localizzatori e sugli asset da tradurre. La seconda parte presenta un'analisi di parte della traduzione ufficiale del gioco online World of Warcraft.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’introduzione della tomografia computerizzata nelle applicazioni oncologiche è stata rivoluzionaria per la diagnostica delle immagini di molti organi e apparati, superando i limiti della radiologia convenzionale. Questa tecnica rappresenta, infatti, un efficace strumento nella diagnosi e caratterizzazione di numerosi tumori, in quanto questo tipo di applicazione perfusionale amalgama informazioni di natura morfologica, tipiche della TC tradizionale, con studi funzionali sui tessuti in esame. Tuttavia, diversi problemi, tra cui la mancanza di un protocollo standard sia durante la fase di acquisizione dei dati, sia durante la fase di elaborazione dei dati, costituiscono un ostacolo per la trasposizione in clinica della TCp. In questo lavoro di Tesi si è trattato principalmente della modalità di analisi dei dati: ad oggi, infatti, non è ancora stato formulato un protocollo che stabilisca in modo univoco una tecnica di analisi delle mappe perfusionali risultanti dall’elaborazione delle immagini TCp. In particolare, si è tentato di affiancare ai classici metodi di analisi di immagini noti in letteratura un ulteriore tecnica che si basa sull’analisi voxel-by-voxel della regione d’interesse su più slice e non solo su quella di riferimento. Questo studio è stato fortemente motivato dall’elevato grado di eterogeneità che caratterizza molti tessuti neoplastici. A tal proposito, l’elaborato mira ad analizzare in modo qualitativo le mappe perfusionali di slice adiacenti a quella di riferimento e a verificare se queste possano restituire informazioni aggiuntive che risultino indispensabili ai fini della formulazione di una corretta diagnosi e scelta del piano terapeutico da applicare al paziente.