1000 resultados para Analisi Layout,simulazione,ottimizzazione,analisi dei flussi,magazzino
Resumo:
Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perché le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.
Resumo:
In questo elaborato che conclude il Corso di Laurea in Astronomia vengono presentate le classificazioni spettrali di Harvard e di Yerkes, osservando anche i motivi per cui storicamente assumono il loro aspetto. Vengono poi analizzati i processi fisici che danno forma agli spettri permettendo di caratterizzarli gli uni dagli altri. In conclusione vengono osservate le tecniche osservative necessarie all'analisi dei dati.
Resumo:
L'allungamento controllato monofocale viene eseguito nel caso di discrepanze della lunghezza degli arti. Il dispositivo Rekrea, ideato e realizzato dall'azienda Citieffe, viene utilizzato per lo svolgimento di tale trattamento. La stabilità del sistema di fissazione esterna è un fattore cruciale per il successo di un trattamento di allungamento osseo ma difficile da raggiungere in quanto dipendente da numerose variabili. Nello specifico, questo lavoro di tesi verte sullo studio del comportamento meccanico dei singoli morsetti Small e Standard e dell'innovativa configurazione Tandem impiegati in due contesti clinici particolari: i pazienti acondroplasici ed il trattamento di allungamento di tibia. A seguito di una iniziale ricerca bibliografica, sono state pianificate e svolte delle prove meccaniche di diverse configurazioni per caratterizzare il comportamento di tali dispositivi. Attraverso un'analisi dei risultati ottenuti è stato evidenziato quanto il singolo morsetto Small conferisca un'elevata rigidezza del costrutto e permetta di ridurre la distanza morsetto - analogo osseo. In più è stato evidenziato come la configurazione Tandem sia risultata un buon sostituto del morsetto Sandwich ed in particolare, come l'utilizzo di tre viti ossee conferisca una maggiore rigidezza del costrutto.
Resumo:
Il mondo della moda è in continua e costante evoluzione, non solo dal punto di vista sociale, ma anche da quello tecnologico. Nel corso del presente elaborato si è studiata la possibilità di riconoscere e segmentare abiti presenti in una immagine utilizzando reti neurali profonde e approcci moderni. Sono state, quindi, analizzate reti quali FasterRCNN, MaskRCNN, YOLOv5, FashionPedia e Match-RCNN. In seguito si è approfondito l’addestramento delle reti neurali profonde in scenari di alta parallelizzazione e su macchine dotate di molteplici GPU al fine di ridurre i tempi di addestramento. Inoltre si è sperimentata la possibilità di creare una rete per prevedere se un determinato abito possa avere successo in futuro analizzando semplicemente dati passati e una immagine del vestito in questione. Necessaria per tali compiti è stata, inoltre, una approfondita analisi dei dataset esistenti nel mondo della moda e dei metodi per utilizzarli per l’addestramento. Il presente elaborato è stato svolto nell’ambito del progetto FA.RE.TRA. per il quale l'Università di Bologna svolge un compito di consulenza per lo studio di fattibilità su reti neurali in grado di svolgere i compiti menzionati.
Resumo:
La presente tesi, redatta durante un tirocinio presso l’azienda Automobili Lamborghini S.p.a., ha come fine ultimo la descrizione di attività volte all’evoluzione dell’ente Training Center facente parte dell’area industriale. L’ente Training center è responsabile dell'organizzazione, dell'erogazione e del monitoraggio della formazione incentrata sulle cosiddette technical skills utili per il miglioramento o il rafforzamento delle competenze e delle conoscenze tecniche degli operatori. La prima attività descritta ha lo scopo di creare un database contenente tutte le competenze che ogni operatore deve possedere per poter lavorare autonomamente su una determinata stazione di lavoro al fine di individuare il gap di competenze. L’analisi condotta ha come obiettivi: la pianificazione strategica della forza lavoro, la mappatura dell’intera organizzazione, l’implementazione (ove necessario) di nuovi training, l’aumento della produttività, e l’aumento della competitività aziendale. In seguito, è stata svolta un’analisi delle matrici di flessibilità, ovvero delle matrici che forniscono informazioni su quanti blue collars sono in grado di lavorare su determinate stazioni e in quale ruolo (operatore in training, operatore autonomo o operatore specializzato e quindi in grado di assumere il ruolo di trainer). Studiando tali matrici sono state identificate delle regole che rendono il processo di training on the job il più efficace ed efficiente possibile con o scopo, da una parte di evitare eccessive ore di training e quindi eccessivo dispendio economico, dall’altra, quello di riuscire a coprire tutte le stazioni considerando i picchi di assenteismo della forza lavoro. Infine, si è rivelata necessaria l’implementazione di un nuovo training, il “train the tutor”, ovvero un percorso di formazione riservato ai dipendenti potenzialmente in grado di insegnare attività in cui loro sono specializzati ad operatori in training.
Resumo:
I Phase-Locked Loops sono circuiti ancora oggi utilizzati per la generazione di segnali coerenti in frequenza e in fase con i segnali in ingresso, motivo per cui sono uno degli strumenti della radio scienza per la ricostruzione dei segnali scambiati con le sonde e nascosti dal rumore accumulato nel tragitto che separa le sonde stesse dalle stazioni di tracking a terra. Questa tesi illustra l'implementazione di un PLL digitale linearizzato in Matlab e Simulink in una nuova veste rispetto al modello implementato durante l'attività di tirocinio curricolare, al fine di migliorarne le prestazioni per bassi carrier-to-noise density ratios. Il capitolo 1 si compone di due parti: la prima introduce all'ambito nel quale si inserisce il lavoro proposto, ossia la determinazione d'orbita; la seconda illustra i fondamenti della teoria dei segnali. Il capitolo 2 è incentrato sull'analisi dei Phase-Locked Loops, partendo da un'introduzione teorica e approdando all'implementazione di un modello in Simulink. Il capitolo 3, infine, mostra i risultati dell'applicazione del modello implementato in Simulink nell'analisi dei segnali di una missione realmente svolta.
Resumo:
Tesi riguardante il rebranding che vuole ottenere, tramite l'analisi di due casi studio (due aziende operanti nel mercato B2B), delle linee guida e suggerimenti per superare le problematiche principali di questo processo. L'analisi dei casi studio è stata fatta tramite interviste interne all'azienda, ricerche online e materiale proprio delle aziende. Le linee guida saranno formulate sulla base delle difficoltà affrontate da queste due aziende sia nel fornire servizi sia prodotti fisici.
Resumo:
Background L’identificazione degli eventi temporali permette nell’analisi del movimento di valutare la qualità del gesto motorio e si offre in aiuto alla formulazione di diagnosi cliniche, valutazioni di un percorso riabilitativo e in ambito ortopedico per la creazione di protesi. L’uso sempre più diffuso dei sensori inerziali nell’analisi del movimento ha portato alla nascita di numerosi algoritmi per identificare gli eventi temporali; tuttavia, molti di questi sono stati sviluppati per la ricerca dei gate event sull’analisi del cammino, mentre non sono molti quelli dedicati allo studio dell’arto superiore, dove il reaching è il task motorio più studiato. Obiettivo tesi Proporre un metodo per l’identificazione degli eventi temporali su movimento di reaching con l’uso di soli sensori inerziali. Metodo All’interno del progetto Neurograsp, che è uno studio di analisi del movimento di reaching condotto presso il Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione Guglielmo Marconi sono stati considerati i dati relativi alla stereofotogrammetria e ai sensori inerziali. L’analisi ha riguardato tre soggetti sani destrorsi. È stato considerato il sistema di stereofotogrammetria come gold standard con cui si sono rilevati gli eventi temporali ricercati del task motorio e successivamente si è implementato un metodo per identificare gli stessi eventi temporali tramite l’uso dei soli sensori inerziali. L’analisi è terminata con il confronto dei risultati. Risultati Si sono effettuate le analisi dei risultati in termini di classificazione dei times individuati dall’algoritmo come corretti, falsi positivi o falsi negativi e sulla quantificazione dell’errore assoluto sui valori identificati correttamente.
Resumo:
La colonna vertebrale è uno dei principali siti per lo sviluppo delle metastasi ossee. Esse modificano le proprietà meccaniche della vertebra indebolendo la struttura e inducendo l’instabilità spinale. La medicina in silico e i modelli agli elementi finiti (FE) hanno trovato spazio nello studio del comportamento meccanico delle vertebre, permettendo una valutazione delle loro proprietà meccaniche anche in presenza di metastasi. In questo studio ho validato i campi di spostamento predetti da modelli microFE di vertebre umane, con e senza metastasi, rispetto agli spostamenti misurati mediante Digital Volume Correlation (DVC). Sono stati utilizzati 4 provini da donatore umano, ognuno composto da una vertebra sana e da una vertebra con metastasi litica. Per ogni vertebra è stato sviluppato un modello microFE omogeneo, lineare e isotropo basato su sequenze di immagini ad alta risoluzione ottenute con microCT (voxel size = 39 μm). Sono state imposte come condizioni al contorno gli spostamenti ottenuti con la DVC nelle fette prossimali e distali di ogni vertebra. I modelli microFE hanno mostrato buone capacità predittive degli spostamenti interni sia per le vertebre di controllo che per quelle metastatiche. Per range di spostamento superiori a 100 μm, il valore di R2 è risultato compreso tra 0.70 e 0.99 e il valore di RMSE% tra 1.01% e 21.88%. Dalle analisi dei campi di deformazione predetti dai modelli microFE sono state evidenziate regioni a maggior deformazione nelle vertebre metastatiche, in particolare in prossimità delle lesioni. Questi risultati sono in accordo con le misure sperimentali effettuate con la DVC. Si può assumere quindi che il modello microFE lineare omogeneo isotropo in campo elastico produca risultati attendibili sia per le vertebre sane sia per le vertebre metastatiche. La procedura di validazione implementata potrebbe essere utilizzata per approfondire lo studio delle proprietà meccaniche delle lesioni blastiche.
Resumo:
L'Electron-Ion Collider è un futuro acceleratore di particelle che approfondirà la nostra conoscenza riguardo l'interazione forte tramite la collisione di elettroni con nuclei e protoni. Uno dei progetti attualmente considerati per la costruzione del rivelatore, il dual-radiator RICH, prevede l'impiego di due radiatori Cherenkov, sui quali verranno montati dei fotorivelatori per rilevare l'emissione della luce Cherenkov e risalire alla massa delle particelle. L'opzione di base per questi rivelatori sono i sensori al silicio SiPM. Questo lavoro di tesi si basa sullo studio delle prestazioni di un prototipo per l'acquisizione dei dati rilevati dai SiPM che sfrutta l'effetto termoelettrico per raffreddare la zona in cui sono situati i sensori. L'analisi dei dati acquisiti ha portato alla conclusione che le prestazioni del prototipo sono confrontabili con quelle misurate all'interno di una camera climatica quando si trovano alla stessa temperatura.
Resumo:
Nonostante la consapevolezza sulle condizioni non ottimali della qualità dell'aria sia sempre più diffusa, a molte persone risulta ancora insidioso comprendere il significato dei dati sull'argomento tramite la sola rappresentazione grafica. L'obbiettivo di questo progetto è quello di presentare, tramite un'applicazione web interattiva, le informazioni sull'inquinamento atmosferico in maniera più semplice e coinvolgente. La strategia scelta è la Sonificazione: un processo che trasforma un dato di qualsiasi natura in un suono che ne rispecchia le caratteristiche. Su questa base, vengono approfondite le problematiche dell'inquinamento, le metodologie di rappresentazione e le debolezze di queste ultime. Dopo essere entrato in dettaglio sul funzionamento della Sonificazione e sulle sue applicazioni, il volume segue lo sviluppo del sistema in tutte le sue fasi: l'analisi dei requisiti, la scelta delle tecnologie, l'implementazione e i test. L'elaborato presta particolare attenzione a spiegare in dettaglio la realizzazione della traccia audio di Sonificazione, l'elemento più importante di tutto l'applicativo.
Resumo:
L’elaborato si è sviluppato all'interno dell’azienda System Logistics S.p.A. di Fiorano Modenese, leader nel settore del material handling e dell’intralogistica. Il focus dell'elaborato è sulla progettazione di un piano di campionamento indicizzato secondo il livello di qualità accettabile. Successivamente ad una presentazione più approfondita dell’azienda e dei prodotti offerti, si passa all’introduzione teorica dei temi dell’intralogistica e della qualità. Questo permette di comprendere il contesto operativo più generale in cui si inserisce il progetto. Infatti, la parte centrale è dedicata alla presentazione delle origini, degli obiettivi e della metodologia del progetto, in particolare, anticipando le procedure che si sono poste come basi strutturali della progettazione. La parte finale descrive il processo statistico che ha portato all’ottenimento del nuovo piano di campionamento e la sua applicazione empirica ai componenti più critici della navetta del LogiMate, il più recente prodotto dell’azienda. In quest’ultima fase si pone il focus sul processo di raccolta e analisi dei dati presentando, in particolare, un’analisi comparativa rispetto alla situazione iniziale dal punto di vista del rischio e un’analisi effettuata con le Carte di Controllo sul processo produttivo di un fornitore. L’esposizione è realizzata anche mediante grafici, ottenuti principalmente attraverso il supporto di Excel e Minitab, al fine illustrare in modo più agevole ed esplicito i risultati ottenuti.
Resumo:
Le app mobile sono sempre più pervasive nella vita quotidiana delle persone: gli smartphone hanno rivoluzionato il modo di interagire degli utenti con le varie organizzazioni. Che sia per l'accesso al proprio conto corrente, per la visualizzazione delle notizie quotidiane o per il semplice svago, gli utenti usano sempre più il mondo mobile come canale privilegiato per la fruizione dei contenuti digitali. Il sempre maggior successo delle applicazioni mobile ha sempre più spostato l'attenzione dei malintenzionati sugli smartphone, che sono diventati così uno degli obiettivi più popolari per i cyberattacchi: ciò comporta nuove sfide per le organizzazioni al fine di garantire la sicurezza di dati e sistemi. Risulta fondamentale per un organizzazione in particolare mantenere un controllo sulle proprie applicazioni mobile: configurazioni errate, errori di programmazione, inclusione di librerie software vulnerabili o malevoli e la presenza di credenziali cablate nel codice o nelle configurazioni rappresentano un notevole rischio per la confidenzialità, l'integrità e disponibilità di dati e sistemi. Se risulta fondamentale nello sviluppo un approccio che utilizzi i principi della Security by Design, risulta ancora più importante un presidio costante sulle applicazioni e la costruzione di un ciclo di vita del software sicuro (SSDLC). A tal fine la proposta del progetto di tesi riguarda l'analisi delle principali minacce e vulnerabilità delle applicazioni mobile e lo sviluppo di uno strumento di analisi dei pacchetti mobile (su piattaforma Android o iOS) al fine di identificare possibili rischi prima della pubblicazione dei pacchetti sugli store ufficiali.
Resumo:
Al fine di produrre alimenti di origine animale in grado di soddisfare le richieste del consumatore da un punto di vista del valore nutrizione e della conservabilità del prodotto, si ricorre, in fase di formulazione dei mangimi, all’aggiunta di additivi tecnologici che possano stabilizzare il mangime, preservandolo dall’ossidazione lipidica. Lo scopo di questo lavoro di tesi è stato quello di valutare l’effetto antiossidante dell’olio essenziale di Rosmarinus officinalis, aggiunto a tre tipologie di olio (olio di lino, olio di salmone ed olio di germe di grano), confrontandolo con 3 additivi sintetici (il butilidrossianisolo (BHA), il butilidrossitoluene (BHT) e l’etossichina). Al fine di valutare l’effetto degli antiossidanti, i campioni di olio di controllo e quelli addizionati con i vari antiossidanti sono stati sottoposti a termossidazione in stufa a 60°C e campionati a 0, 7, 15 e 30 giorni. La stabilità ossidativa dei diversi oli è stata valutata mediante analisi compositive (acidi grassi totali e steroli totali) ed analisi dei composti primari (numero di perossidi) e secondari (composti volatili) dell’ossidazione.
Resumo:
Le intersezioni stradali, sono le aree individuate da tre o più tronchi stradali (archi) che convergono in uno stesso punto, nonchè dai dispositivi e dagli apprestamenti atti a consentire ed agevolare le manovre per il passaggio da un tronco all'altro. Rappresentano punti critici della rete viaria per effetto delle mutue interferenze tra le diverse correnti di traffico durante il loro attraversamento. Si acuiscono pertanto, nella loro "area di influenza", i problemi legati alla sicurezza e quelli relativi alla regolarità ed efficienza della circolazione. Dalla numerosità dei fattori da cui dipende la configurazione di un incrocio (numero e tipo di strade, entità dei flussi, situazioni locali, ecc.) deriva una ancor più vasta gamma di tipologie e di schemi. La rotatoria, come particolare configurazione di intersezione a raso, è lo schema che viene considerato nel presente lavoro di tesi, sia nei suoi caratteri essenziali e generali, sia nel particolare di una intersezione che, nel Comune di Bologna, è stata realizzata in luogo dell'intersezione semaforizzata precedente.