895 resultados para plagio, software, leggi, università, test, verifiche, analisi, confronto, metodi di individuzazione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi due decenni i microcanali hanno un'ampia gamma di applicazioni pratiche in ambiti specializzati, come le micropompe, l’ingegneria biomedica, la microfluidica, ecc. Quindi il miglioramento della capacità di scambio termico è molto significativo e, per questo motivo, è interessante studiare come influisce sullo scambio termico la variazione della geometria dei microcanali. Per descrivere le prestazioni associate ad una superficie di scambio termico ci si riferisce a dei parametri adimensionali. Ad esempio, si possono utilizzare numero di Poiseuille fRe e numero di Nusselt Nu, a cui sono associate, rispettivamente, le prestazioni in termini di attrito meccanico e di scambio termico convettivo della superficie. E si vedrà il comportamento termoidraulico al variare di parametri geometrici come il fattore di forma ed il raggio di curvatura degli spigoli della sezione attraverso simulazioni effettuate tramite FlexPDE. L’ottimizzazione delle sezioni di microcanali attraverso i Performance Evaluation Criteria (PEC) è basata su un’analisi condotta dal punto di vista della prima legge della termodinamica: l'ottimizzazione della funzione obiettivo è il suo unico scopo. Ma non ha tenuto conto dell’entropia generata nello scambiatore, che varia dopo l’ottimizzazione. Poiché l’entropia prodotta da un generico sistema termodinamico è direttamente legata alle perdite per irreversibilità nello stesso, quindi coincide l’efficienza del sistema dal punto di vista termodinamico. Per questo motivo, Bejan propone una procedura di ottimizzazione basata sulla seconda legge della termodinamica, in cui anche l’entropia è trattata come una funzione obiettivo che dovrà essere sempre minimizzata. Dopo una prima fase di analisi dal punto di vista fisico, il modello è stato applicato a casi concreti, in cui funzione obiettivo e numero di generazione entropica sono stati espressi in dipendenza dell’incognita geometrica da valutare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato analizza alcuni dei principali metodi di estrazione del contenuto di un'immagine digitale, descrivendone il funzionamento. É possibile consultare un'ampia quantità di test effettuati su 7 dataset con caratteristiche eterogenee al fine di valutarne le performance a seconda dei casi di utilizzo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi svolto propone diversi argomenti di geometria la cui costruzione è stata fatta con il software GeoGebra. Propone anche alcuni metodi di integrazione numerica realizzati con esso e anche un modo di approssimare la superficie di rotazione di una funzione sfruttando tali metodi. Gli argomenti trattati spaziano da quelli classici della geometria euclidea a temi affrontati più recentemente esaminando sia oggetti rappresentabili sul piano sia nello spazio tridimensionale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato intende proporre un’analisi della figura dell’interprete in un corpus di sei film appartenenti al cinema del XXI secolo, con l’obiettivo di analizzare la possibile proiezione della professione nell'opinione pubblica. Si cercherà dunque di fornire un’analisi dell’immagine proiettata dai personaggi che fanno da interpreti nei film selezionati, con lo scopo di determinare se tale immagine contribuisce a diffondere verosimilmente la professione dell’interprete o se, al contrario, risulta poco plausibile e poco fedele alla realtà. I film analizzati nel presente elaborato sono: Lost in Translation, The Interpreter, Ogni cosa è Illuminata, Il Grande Capo, Desert Flower, The Tourist. I criteri di selezione che hanno portato alla scelta dei film che costituiscono il corpus di riferimento sono: realizzazione e data di uscita dei film a partire dall'anno 2000, ambito geografico –Europa, Stati Uniti e Gran Bretagna-, ed infine maggiori incassi al botteghino. Nelle conclusioni tratte dall'analisi del corpus di film si presta speciale attenzione ai seguenti elementi: • La tipologia del personaggio degli interpreti che compaiono nei film presi in esame: se personaggio centrale, secondario o occasionale • Il metraggio totale della presenza dell’interprete sullo schermo (in minuti) • La tipologia dell’interprete: se professionista o ad hoc • L’età dell’interprete • Il sesso dell’interprete

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al giorno d'oggi è diventato necessario conoscere varie lingue visto che viviamo ormai in un mondo sempre più interconnesso. L'inglese è diventata la lingua dominante, ma quali sono i rischi che ne derivano? E' veramente necessario utilizzare una "lingua terza" anche tra locutori di lingue della stessa famiglia? In Europa soprattutto, sembra che il multilinguismo sia diventato un ostacolo più che una ricchezza e c'è sempre più la tendenza ad accettare l'imposizione dell'inglese.Tuttavia ci sono metodi di didattica linguistica come l'"intercomprensione" che potrebbero permettere di riscoprire l'importanza delle famiglie linguistiche. Ciò permetterebbe di rivalutare e valorizzare le proprie radici culturali (attraverso la lingua) che rischiano di andare perdute per via di una massificazione culturale provocata dall'inglese. Pertanto questa tesi partirà da un'analisi complessiva delle lingue nel mondo (ecolinguistica, teorie di Louis-Jean Calvet), arriverà ad analizzare la situazione nell'Unione Europea e il ruolo dell'inglese giungendo infine a proporre l'intercomprensione (nello specifico il metodo EuRom5) come possibile mezzo di salvaguardia delle lingue nella loro diversità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dall'inizio del nuovo millennio lo sviluppo di tecnologie nel campo del mobile computing, della rete internet, lo sviluppo dell'Internet of things e pure il cloud computing hanno reso possibile l'innovazione dei metodi di lavoro e collaborazione. L'evoluzione del mobile computing e della realtà aumentata che sta avvenendo in tempi più recenti apre potenzialmente nuovi orizzonti nello sviluppo di sistemi distribuiti collaborativi. Esistono oggi diversi framework a supporto della realtà aumentata, Wikitude, Metaio, Layar, ma l'interesse primario di queste librerie è quello di fornire una serie di API fondamentali per il rendering di immagini 3D attraverso i dispositivi, per lo studio dello spazio in cui inserire queste immagini e per il riconoscimento di marker. Questo tipo di funzionalità sono state un grande passo per quanto riguarda la Computer Graphics e la realtà aumentata chiaramente, però aprono la strada ad una Augmented Reality(AR) ancora più aumentata. Questa tesi si propone proprio di presentare l'ideazione, l'analisi, la progettazione e la prototipazione di un sistema distribuito situato a supporto della collaborazione basato su realtà aumentata. Lo studio di questa applicazione vuole mettere in luce molti aspetti innovativi e che ancora oggi non sono stati approfonditi né tanto meno sviluppati come API o forniti da librerie riguardo alla realtà aumentata e alle sue possibili applicazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi è analizzato il caso di sensori con uscita in frequenza e periodo, si traduce in ultima analisi nella capacità di misurare con precisione un intervallo temporale. La rivelazione del tempo risulta essere lo stadio fondamentale da cui deriva la risoluzione dell'intero sistema di misura. Nella realtà, la questione della simultaneità cioè individuare con assoluta precisione due eventi che si verificano contemporaneamente, in un determinato istante t, è un problema piuttosto complesso: le difficoltà sono correlate soprattutto alle limitazioni fisiche intrinseche degli strumenti di misura. E' utile allora fornire un'analisi sui principi e le tecniche alla base della misura di intervalli temporali, detta Time Interval Measurement (TIM). Lo scopo della tesi è studiare i vari metodi per realizzare TDC lineari digitali, facendo un'analisi critica e ed evidenziando pro e contro che i vari approcci presentano, attingendo e analizzando criticamente informazioni dalle varie fonti riportate in bibliografia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coniato negli anni‘90 il termine indica lo scavare tra i dati con chiara metafora del gold mining, ossia la ricerca dell’oro. Oggi è sinonimo di ricerca di informazione in vasti database, ed enfatizza il processo di analisi all’interno dei dati in alternativa all’uso di specifici metodi di analisi. Il data mining è una serie di metodi e tecniche usate per esplorare e analizzare grandi set di dati, in modo da trovare alcune regole sconosciute o nascoste, associazioni o tendenze.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi 20 anni il progresso tecnologico ha segnato un profondo cambiamento in svariati ambiti tra i quali quello della Sanità in cui hanno preso vita apparecchiature diagnostiche, cosiddette “digitali native”, come la Tomografia Computerizzata (TC), la Tomografia ad Emissione di Positroni (PET), la Risonanza Magnetica Nucleare (RMN), l’Ecografia. A differenza delle diagnostiche tradizionali, come ad esempio la Radiologia convenzionale, che forniscono come risultato di un esame un’immagine bidimensionale ricavata dalla semplice proiezione di una struttura anatomica indagata, questi nuovi sistemi sono in grado di generare scansioni tomografiche. Disporre di immagini digitali contenenti dati tridimensionali rappresenta un enorme passo in avanti per l’indagine diagnostica, ma per poterne estrapolare e sfruttare i preziosi contenuti informativi occorrono i giusti strumenti che, data la natura delle acquisizioni, vanno ricercati nel mondo dell’Informatica. A tal proposito il seguente elaborato si propone di presentare un software package per la visualizzazione, l’analisi e l’elaborazione di medical images chiamato 3D Slicer che rappresenta un potente strumento di cui potersi avvalere in differenti contesti medici. Nel primo capitolo verrà proposta un’introduzione al programma; Seguirà il secondo capitolo con una trattazione più tecnica in cui verranno approfondite alcune funzionalità basilari del software e altre più specifiche; Infine nel terzo capitolo verrà preso in esame un intervento di endoprotesica vascolare e come grazie al supporto di innovativi sistemi di navigazione chirurgica sia possibile avvalersi di 3D Slicer anche in ambiente intraoperatorio

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Descrizione e analisi del movimento di piattaforme multirotore tramite modellazione e simulazione computazionale. In particolare è stata analizzata l’attitudine di un quadricottero privo di sistema di controllo automatico. Per la scrittura e l’implementazione degli algoritmi risolutivi è stato utilizzato l’ambiente Matlab. Il codice realizzato permette, dopo successiva introduzione di alcune variabili realative a velivolo ed assetto, di ottenere l’evoluzione di parametri di volo che descrivono lo stato del drone nel tempo attraverso una progressiva integrazione numerica. In questo modo è possibile simulare teoricamente qualunque modello di quadricottero conoscendo i suoi parametri costruttivi, ottenendo così una modellazione preliminare da lanciare nel simulatore. Nella tesi viene utilizzato un unico modello realizzato in CAD Solidworks da cui sono stati ricavati i dati necessari. La tesi si compone di una trattazione semplificata di fattibilità di manovre semplici di un multirotore di tipo quadricottero con un approccio di Eulero-Newton ed, in seguito, in presenza di un carico sospeso tramite cavo considerato inestensibile, si sono analizzate delle evoluzioni nel tempo con un’approccio questa volta lagrangiano. Infine vengono trattati brevemente osservazioni conclusive e possibili sviluppi di questo lavoro di tesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’esperimento LHCb al CERN di Ginevra è stato appositamente progettato per effettuare misure di precisione nel settore della fisica del sapore, per verificare la validità delle previsioni del Modello Standard. Il Modello Standard descrive le trasformazioni dello stato di flavour dei quark secondo lo schema di mixing compendiato nella matrice unitaria di Cabibbo-Kobayashi-Maskawa. La verifica dell’unitarietà della matrice di mixing è dunque uno dei campi d’indagine più importanti nella fisica delle particelle. I modelli teorici che estendono il Modello Standard prevedono infatti meccanismi alternativi a quello CKM per la trasformazione del flavour che implicherebbero una violazione della unitarietà. Allo scopo di studiare la dinamica del flavour l’esperimento LHCb realizza misure della violazione della simmetria di coniugazione di carica e parità CP. Le misure di violazione della simmetria CP permettono di determinare i valori dei parametri complessi della matrice CKM (modulo e fase). Esse si basano sulla misura delle asimmetrie di decadimento di stati coniugati di carica di mesoni costituiti da quark charm (mesoni D) e beauty (mesoni B) in stati finali costituiti da particelle scelte opportunamente. Di particolare importanza in questo programma di ricerca è la misura della fase del termine Vub della matrice CKM, denominata γ. Scopo della tesi è lo studio dei metodi di misura della fase γ. La tesi è organizzata in quattro capitoli. Nei primi tre capitoli sono state poste le basi teoriche per la comprensione della fenomenologia delle interazioni deboli e della sua descrizione nel Modello Standard. È stata discussa in dettaglio la dinamica del sistema dei mesoni neutri e la violazione della simmetria CP dovuta sia al decadimento sia alla oscillazione. Dopo l’inquadramento teorico, nel quarto e ultimo capitolo, sono stati presentati i tre modelli teorici generalmente utilizzati per la misura della fase γ e impiegati dagli esperimenti dedicati alla fisica del flavour. I metodi proposti sono quelli più importanti, che fino ad oggi hanno consentito di misurare γ. Al momento LHCb ha ottenuto la migliore misura di γ, con un errore relativo del 13%, combinando le tre metodologie di analisi. Si prevede che l’esperimento LHCb possa migliorare significativamente la precisione di misura raccogliendo nel prossimo futuro un campione di eventi di dimensione un’ordine di grandezza maggiore dell’attuale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli anni la funzione dei social network è cambiata molte volte. Alle origini i social network erano uno strumento di connessione tra amici, ora sono siti internet in cui le persone mettono informazioni e quando un social network ha milioni di utenti, diventa un’incredibile sorgente di dati. Twitter è uno dei siti internet più visitati, e viene descritto come “the SMS of internet”, perchè è un social network che permette ai suoi utenti di inviare e leggere messaggi corti, di 140 caratteri, chiamati “tweets”. Con il passare del tempo Twitter `e diventato una fonte fondamentale di notizie. Il suo grande numero di utenti permette alle notizie di espandersi nella rete in modo virale. Molte persone hanno cercato di analizzare il potere dei tweet, come il contenuto positivo o negativo, mentre altri hanno cercato di capire se avessero un potere predittivo. In particolare nel mondo finanziario, sono state avviate molte ricerche per verificare l’esistenza di una effettiva correlazione tra i tweets e la fluttuazione del mercato azionario. L’effettiva presenza di tale relazione unita a un modello predittivo, potrebbe portare allo sviluppo di un modello che analizzando i tweets presenti nella rete, relativi a un titolo azionario, dia informazioni sulle future variazioni del titolo stesso. La nostra attenzione si è rivolata alla ricerca e validazione statistica di tale correlazione. Sono stati effettuati test su singole azioni, sulla base dei dati disponibili, poi estesi a tutto il dataset per vedere la tendenza generale e attribuire maggior valore al risultato. Questa ricerca è caratterizzata dal suo dataset di tweet che analizza un periodo di oltre 2 anni, uno dei periodi più lunghi mai analizzati. Si è cercato di fornire maggior valore ai risultati trovati tramite l’utilizzo di validazioni statistiche, come il “permutation test”, per validare la relazione tra tweets di un titolo con i relativi valori azionari, la rimozione di una percentuale di eventi importanti, per mostrare la dipendenza o indipendenza dei dati dagli eventi più evidenti dell’anno e il “granger causality test”, per capire la direzione di una previsione tra serie. Sono stati effettuati anche test con risultati fallimentari, dai quali si sono ricavate le direzioni per i futuri sviluppi di questa ricerca.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Solitamente il concetto di difficoltà è piuttosto soggettivo, ma per un matematico questa parola ha un significato diverso: anche con l’aiuto dei più potenti computer può essere impossibile trovare la soluzione di un sudoku, risolvere l’enigma del commesso viaggiatore o scomporre un numero nei suoi fattori primi; in questo senso le classi di complessità computazionale quantificano il concetto di difficoltà secondo le leggi dell’informatica classica. Una macchina quantistica, però, non segue le leggi classiche e costituisce un nuovo punto di vista in una frontiera della ricerca legata alla risoluzione dei celebri problemi del millennio: gli algoritmi quantistici implementano le proprietà straordinarie e misteriose della teoria dei quanti che, quando applicate lucidamente, danno luogo a risultati sorprendenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato ha lo scopo di fornire una panoramica sul movimento punk siberiano, nato e sviluppatosi a cavallo fra il 1984 e il 1991. L'analisi della poetica di alcuni fra i musicisti principali del cosiddetto "sibpunk" e la traduzione delle loro canzoni più significative costituiscono una prospettiva inusuale e interessante per osservare la Siberia negli anni della Perestrojka.