405 resultados para Analisi Discriminante, Teoria dei Network, Cross-Validation, Validazione.
Resumo:
La documentazione tecnica ha assunto un ruolo fondamentale per i produttori sia per rispondere agli obblighi di legge (v. Direttiva Macchine 2006/42/CE) sia come strumento di marketing. Dato l’alto grado di ripetitività dei manuali di istruzioni e le numerose lingue di destinazione, per la loro traduzione è indispensabile l’uso dei CAT tool. In questo contesto, la presente tesi si pone l’obiettivo di individuare una serie di elementi linguistici che possano fornire informazioni sulla qualità dei testi di partenza in italiano e su cui si possa intervenire per migliorarli, nell’ottica di ottimizzare l’uso dei CAT tool e ridurre il costo delle traduzioni. L’idea alla base del progetto è infatti che le caratteristiche dei testi originali influiscano in maniera fondamentale sulla qualità del risultato finale, così come sul costo del servizio di traduzione. I contenuti sono suddivisi in cinque capitoli. Nel primo capitolo si analizzano gli studi sulla leggibilità dei testi, sulla semplificazione del linguaggio e sui linguaggi specialistici. Nel secondo capitolo si presenta il funzionamento dei CAT tool e si approfondiscono gli aspetti rilevanti per l’ottimizzazione del loro uso nella traduzione dei manuali di istruzioni. Nel terzo capitolo si combinano le conoscenze acquisite nei primi due capitoli e si propone un metodo di revisione dei manuali da sottoporre a traduzione. Tale revisione ha lo scopo di agevolare i CAT tool nel riconoscimento della somiglianza tra le frasi e di permettere di conseguenza un lavoro di traduzione a costi inferiori, senza però perdere di vista la qualità finale del manuale e la sua leggibilità e chiarezza. Nel quarto capitolo si espone l’applicazione pratica del metodo e si analizzano e discutono i risultati ottenuti. Nel quinto capitolo si traggono le conclusioni finali sul metodo proposto e i relativi risultati. Si propongono inoltre argomenti di riflessione e discussione che suggeriscono nuovi scenari e prospettive.
Resumo:
La tesi tratta dell'analisi e della riprogettazione dei processi in un'azienda di global service. Vengono pertanto illustrati le principali metodologie e teorie riguardanti il process management e gli strumenti di supporto più utilizzati per la modellazione dei processi. Viene inoltre presentato il caso riguardante l'azienda ACR SpA, in cui si è eseguita la riprogettazione dei processi critici al fine di migliorare sensibilmente i principali parametri di performance del sistema. Tale riprogettazione è stata finalizzata all'introduzione di un sistema di document management all'interno delle principali funzioni aziendali, grazie a cui si è potuto razionalizzare e automatizzare i processi ritenuti critici ottenendo una sensibile riduzione dei relativi lead time e costi di processo, quantificata attraverso KPI definiti ad hoc. In conclusione la tesi ha permesso di illustrare con un caso pratico l'applicazione degli strumenti di business process reengineering, evidenziandone i pregi e ribadendo l'importanza della continua ricerca di efficienza all'interno dei processi di business aziendali.
Resumo:
La tesi si pone l’obiettivo di valutare l’efficienza in termini di sicurezza stradale e di gradimento per l’utenza di una pista ciclabile esistente all’interno dell’area urbana del comune di Bologna. La ricerca è nata dalla necessità di avere degli strumenti di analisi che permettano di migliorare e potenziare le infrastrutture ciclabili. Essendo noto che il conducente di un velocipede durante la guida scansiona con lo sguardo l’ambiente che lo circonda, cercando informazioni significative per la posizione spaziale e temporale in cui si trova, per progettare ciclabili sicure diventa fondamentale conoscere quali elementi dell’ambiente sono maggiormente guardati e considerati dagli utenti. La Tangenziale delle Biciclette è un' infrastruttura ciclabile di recente realizzazione; importante dunque è studiarne le criticità, in modo da rendere le viabilità ciclabile su di essa più fluida e rapida possibile. Il campo prova su cui sono stati effettuati i test è quindi il tratto "Tangenziale Nord-Ovest delle Biciclette". La sperimentazione si è articolata in due parti: inizialmente sono state effettuate indagini preliminari sul campo prova, nello specifico sono stati distribuiti questionari di gradimento ad un totale di 50 utenti ciclabili. In un secondo momento invece sono stati eseguiti in loco test tramite la strumentazione Mobile Eye, cioè un dispositivo per il rilievo in continuo dello sguardo dei conducenti durante la guida. Mediante lo studio combinato dei risultati acquisiti dai questionari e dai video del Mobile Eye è stato possibile dedurre alcune criticità che compromettono la fluidità della viabilità ciclabile. L'ultimo paragrafo della tesi è dedicato all'elenco di alcune soluzioni strutturali che potrebbero rendere queste criticità meno impattanti.
Resumo:
La tesi tratta l'analisi della sicurezza delle piste ciclabili di Bologna, mediante tecnologie innovative quali Mobile Eye e Video V-Box. Si trattano due percorsi: "Sabotino" e "Sant'Orsola", comprendenti ciascuno due itinerari alternativi, uno ciclabile e uno no. In prima fase, si sono somministrati dei questionari di gradimento ad un campione composto da 50 utenti per percorso. I questionari sono composti da una parte generale e da una specifica dell'itinerario. Dall'analisi dei risultati delle interviste, eseguita esclusivamente per il percorso "Sabotino", è stato possibile evidenziare le criticità segnalate dai ciclisti. Sono state poi condotte, esclusivamente nel tratto Nord-Ovest della tangenziale delle biciclette, indagini sperimentali con Mobile Eye, con lo scopo di conoscere quali elementi stradali sono maggiormente guardati e considerati dall'utente e con Video V-Box, in grado di fornire posizione, velocità puntuale e accelerazione. A tali sperimentazioni hanno partecipato 17 utenti, ignari dello scopo del test. Ottenuti i dati, sono stati analizzati i risultati provenienti da V-Box quindi analizzate le velocità in prossimità delle intersezioni significative. Dal confronto dei risultati provenienti dai questionari e dai test sperimentali è stato possibili giundere a delle conclusioni.
Resumo:
Nel presente elaborato è stato studiato l'effetto prodotto dall'inserimento di interstrati di rinforzo tra strati legati di una pavimentazione. Si è realizzato un confronto tra due pavimentazioni, una rinforzata e l'altra di controllo, mediante il software di calcolo OLCRACK, aventi le medesime caratteristiche geometriche e gli stessi materiali. In questo modo è stato possibile osservare l'effetto della griglia di rinforzo nel contrastare e ritardare il fenomeno del reflective cracking. Parallelamente è stata effettuata un'indagine sperimentale in laboratorio su travetti bi-strato rinforzati con due tipologie differenti di griglie. I risultati hanno evidenziato l'importanza del ricoprimento sulla griglia, poiché i travetti più spessi hanno dato una risposta migliore alla vita a fatica. In più è stata osservata l'importanza della resistenza a trazione della griglia nell'incremento dei cicli a rottura dei provini.
Resumo:
Nella tesi inizialmente ho introdotto qualche nozione principale della teoria dei giochi; in seguito ho analizzato e approfondito l'equilibrio di Nash attraverso degli esempi come il dilemma del prigioniero. Ho studiato qualche tipologia di gioco come l'induzione a ritroso e infine nell'ultimo capitolo ho inserito tre esempi che possono essere studiati e affrontati con l'equilibrio di Nash.
Resumo:
Log4Shell è una vulnerabilità scoperta nel 2021 che affliggeva il popolare sistema di log Log4J. Permetteva di utilizzare le richieste verso Log4J per eseguire codice arbitrario su un dispositivo che lo utilizza permettendo di accedere a dati riservati. A questa vulnerabilità è stato assegnato un punteggio CVSS di 10 (il massimo). Questa tesi è il completamento di un progetto di tirocinio svolto presso il CINECA in cui si sfrutta il SIEM IBM QRadar per tracciare i log, a cui si accede tramite le sue API da uno script scritto in Phyton per rilevare i tentativi di sfruttamento di questa vulnerabilità e tra questi quale è andato a buon fine.
Resumo:
L'obiettivo di questa tesi è di fornire un'introduzione alla teoria dei q-analoghi in ambito combinatorio e alcune sue applicazioni allo studio di problemi legati a successioni numeriche. Lo scopo di questa teoria è quello di ricavare informazioni e proprietà aggiuntive su alcuni oggetti matematici discreti attraverso una loro generalizzazione di tipo polinomiale. In particolare sono proposti alcuni risultati legati al conteggio delle permutazioni di insiemi e multiinsiemi, delle partizioni di interi e dei cammini di Dyck.
Resumo:
L'elaborato illustra le basi teoriche di funzionamento di un motore endotermico ad accensione comandata e gli interventi fatti sui suoi parametri caratteristici per aumentarne le prestazioni, con riferimento ai motori impiegati nelle competizioni sportive.
Resumo:
Oggi si sta assistendo sempre più ad un consumo maggiore di energia, proveniente soprattutto da fonti fossili. Tuttavia, occorre evidenziare l’aspetto negativo correlato a tutto questo: l’incremento del rilascio di gas ad effetto serra, responsabili del fenomeno del surriscaldamento globale. La Carbon Capture, Utilisation and Storage (CCUS) è stata riconosciuta come tecnologia strategica per raggiungere l’obiettivo dell’azzeramento delle emissioni entro il 2050. Lo scopo della tesi è effettuare la valutazione delle conseguenze dei rilasci accidentali di CO2 dagli impianti di cattura, esprimendole in termini di distanze di danno per l’uomo e per le apparecchiature. Dopo il Capitolo 1, dal carattere introduttivo e in cui si spiega il perché si renda necessaria la cattura della CO2, il Capitolo 2 fornisce i valori di pericolosità della CO2 relativi agli effetti tossici e termici, in termini di concentrazioni e temperature soglia; inoltre, illustra i codici DNV PHAST, NIST FDS e Ansys FLUENT, utilizzati per effettuare la valutazione delle conseguenze. A seguire, il Capitolo 3 presenta un impianto di cattura della CO2 assunto come caso di studio, fornendo la descrizione del funzionamento dell’impianto e riportandone i documenti principali, quali il PFD e la mappa del layout. Inoltre, vengono individuati gli scenari di rilascio e sono specificate le condizioni ambientali considerate ai fini della modellazione della dispersione. Il Capitolo 4 riporta i risultati ottenuti dalle simulazioni effettuate con i software di modellazione illustrati nel Capitolo 2, effettuando un’analisi comparativa delle distanze di danno, corredata di un’ampia discussione. Il Capitolo 5, infine, riporta le considerazioni conclusive del lavoro di tesi e delinea alcuni possibili sviluppi futuri delle indagini.
Resumo:
In questa tesi si è studiato un corpus di importanti testi della letteratura Italiana utilizzando la teoria dei network. Le misure topologiche tipiche dei network sono state calcolate sui testi letterari, poi sono state studiate le loro distribuzioni e i loro valori medi, per capire quali di esse possono distinguere un testo reale da sue modificazioni. Inoltre si è osservato come tutti i testi presentino due importanti leggi statistiche: la legge di Zipf e quella di Heaps.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
L’obiettivo di questa tesi è l’analisi e la modellizzazione dei flussi dispersi statorici nelle macchine multifase utilizzando la teoria dei vettori di spazio multipli. L’analisi ed il calcolo del coefficiente di auto induzione di dispersione statorica nei vari spazi è cruciale nella progettazione e nel controllo delle macchine elettriche multifase in quanto, per esempio, essa limita il ripple di corrente quando la macchina non è alimentata con una tensione perfettamente sinusoidale. Il fine è pertanto di giungere alla scrittura di un’equazione che leghi il generico vettore di spazio dei flussi dispersi ai vettori di spazio delle correnti che alimentano la macchina elettrica tramite una costante che contenga i coefficienti di auto e mutua induzione di dispersione in cava degli avvolgimenti statorici.
Resumo:
Da oltre mezzo secolo i parchi di divertimento sono strutture complesse e altamente organizzate, entro cui si muovono migliaia di persone quotidianamente; in cui l'elettrificazione, la manutenzione, la sicurezza (sia come safety sia come security) non possono essere lasciate all'improvvisazione. Fra i diversi modelli matematici con cui è possibile rappresentare un parco di divertimenti i grafi si adattano bene a rappresentare l'organizzazione "geografica" delle attrazioni e dei sentieri che le collegano. Fortunatamente la teoria dei grafi si presta anche molto bene all'impostazione e risoluzione dei problemi di ottimizzazione, fornendo quindi uno strumento privilegiato per miglioramenti strutturali nella direzione sia del risparmio economico, sia della fruizione ottimale delle strutture. In questa tesi ho analizzato un aspetto particolare dei grafi associati a quattro parchi d'attrazione: le distanze reciproche tra attrazioni e in particolare la collocazione dei "centri", cioè di vertici del grafo per cui la massima distanza da altri vertici sia minima. I calcoli sono stati eseguiti adattando un'implementazione esistente in Matlab dell'algoritmo di Dijkstra, utilizzando in ingresso le matrici di adiacenza dei grafi. Dopo un capitolo dedicato ai richiami essenziali di teoria dei grafi, il capitolo due traccia una breve storia dei parchi d'attrazione concentrandosi sui quattro che sono l'oggetto di questo studio. Il terzo capitolo, fulcro teorico della tesi, descrive la sperimentazione riportata nel capitolo quattro.
Resumo:
Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.