628 resultados para studio implementazione modelli continui deflusso


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il mercato azionario è sempre stato caso di studio, soprattutto per la sua complessità, e la difficolta di predirne il comportamento. I fattori in gioco sono davvero tanti, dalla politica ai problemi aziendali stessi. Pur sapendo che il mondo finanziario è un mondo complicato, permette però possibilità di guadagno elevate. Nel documento vengono descritti alcuni approcci utilizzati per eseguire delle predizioni, dai metodi più classici come la regressione, fino all'utilizzo di reti neurali. Vengono infatti descritti tre modelli che sfruttano le caratteristiche della LSTM, e un modello che sfrutta l'architettura Transformer, proposto recentemente,

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato vuole guidare il lettore lungo l’itinerario che ha previsto la cura e il rilascio di un’applicazione web a tema di e-learning. Greenwich, questo il nome della piattaforma, vuole essere un efficiente strumento di supporto online alla didattica del corso di Basi di Dati dell’Università di Bologna. Lo scopo primario dell’applicazione web è, infatti, quello di fornire agli studenti un mezzo per eseguire query mongoDB in maniera semplice, mirata e su richiesta del docente. Salvo un’approfondita ricerca culturale riguardante il contesto in cui si sviluppa l’applicazione, l’obiettivo primario della trattazione rimane quello di descrivere in modo ordinato i momenti impattanti che hanno segnato, passo dopo passo, le fasi di crescita di Greenwich, raggruppati in tre macro fasi caratteristiche: progettazione, implementazione e validazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'obiettivo di questo elaborato di tesi è la modellazione grafica delle cabine di pilotaggio di due elicotteri civili: si prevede una futura implementazione del modello di volo completo sul simulatore FlightGear. I due velivoli presi in considerazione sono stati sviluppati dall'azienda AgustaWestland e sono denominati AW109 e AW139. I modelli di volo sono composti da una parte grafica e dal modello dinamico del volo. La presente tesi si occupa del primo aspetto. Il lavoro di tesi è iniziato con una fase preliminare di ricerca che ha richiesto lo studio di come i modelli dinamici di volo siano implementati nel simulatore FlightGear; è stato, inoltre, approfondito l'utilizzo del linguaggio di markup XML necessario a descrivere il funzionamento e le caratteristiche dei velivoli in FlightGear. Ha fatto seguito la fase di scrittura dei file XML, facendo riferimento a modelli di elicotteri preesistenti e all'effettiva modellazione degli strumenti di bordo, attraverso il programma CAD Blender. Nella fase finale sono stati studiati e posizionati i vari strumenti principali di bordo, consultando i manuali degli elicotteri e ottenendo delle cabine di pilotaggio del tutto simili a quelle reali dei velivoli considerati. Gli sviluppi futuri di questo lavoro prevedono l'integrazione dei modelli grafici qui implementati nel modello di volo completo dei due elicotteri presi in considerazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo documento illustra la progettazione e lo sviluppo di un’applicazione Android in ambito aziendale. L’idea è stata concepita dall’azienda Vettore Rinascimento, la quale richiesta era d’implementare un’applicazione per la gestione di liste di prelievo in magazzini di strutture mediche. Lo scopo è di rendere il lavoro manuale più efficiente e affidabile aumentando così le prestazioni dei dipendenti. La tesi analizza le fasi tipiche di sviluppo di un software ovvero: l’analisi dei requisiti, la progettazione, la realizzazione e il collaudo. Durante ciascuna fase saranno analizzate anche le scelte progettuali e implementative. La discussione non si limiterà al solo sviluppo di un’applicazione mobile: siccome il prodotto sviluppato non sarà un software stand-alone, verrà anche spiegato il funzionamento del server preesistente e dello sviluppo di un’api per caricare e salvare i dati. Si presenterà inoltre il prodotto finale con tutte le sue features, alcune delle più interessanti sono la sua capacità di funzionare sia online che offline, di adattarsi a ogni tipo di magazzino, previa configurazione, e di poter scannerizzare i codici a barre degli articoli da prelevare con la fotocamera del dispositivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Worldwide LHC Computing Grid (WLCG) è una collaborazione internazionale costituita da decine di centri di calcolo distribuiti globalmente, la cui missione consiste nell'elaborazione delle grandi quantità di dati prodotti dai maggiori esperimenti di Fisica delle Alte Energie, in particolare quelli al CERN di Ginevra. Uno di questi centri di calcolo è ospitato presso il CNAF dell'Istituto Nazionale di Fisica Nucleare a Bologna, che contribuisce anche allo sviluppo di middleware per la gestione dell'infrastruttura. Molti componenti di tale middleware, che hanno funzionalità e scopi diversi, richiedono un servizio di autorizzazione versatile e compatibile con i meccanismi di autenticazione attualmente in uso, basati su token OAuth 2.0 e su certificati VOMS Proxy. In questa tesi si analizzerà l'architettura e l'implementazione di un proof-of-concept di un sistema di autorizzazione che soddisfi queste necessità, enfatizzando l'integrazione delle tecniche di autenticazione citate. Per dimostrare la sua versatilità, verrà illustrato il processo di interfacciamento con un componente middleware attualmente in sviluppo al CNAF. Il risultato finale ottenuto è un sistema che rispetta i vincoli richiesti e si integra facilmente con servizi eterogenei.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro di questa tesi è stato implementare su Matlab un algoritmo numerico che permettesse di determinare la posizione di un utilizzatore mediante misure GPS. In particolare, dopo un'introduzione al sistema GPS e alla navigazione GPS, è stato analizzato il contenuto dei LOG di ESEO e si è proceduto all'implementazione dell'algoritmo sul calcolatore. Lo scopo ultimo della tesi è stato verificare l'accuratezza di tale algoritmo, mediante il calcolo degli errori con le posizioni reali e mediante una verifica tramite calcolo del range geometrico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I Phase-Locked Loops sono circuiti ancora oggi utilizzati per la generazione di segnali coerenti in frequenza e in fase con i segnali in ingresso, motivo per cui sono uno degli strumenti della radio scienza per la ricostruzione dei segnali scambiati con le sonde e nascosti dal rumore accumulato nel tragitto che separa le sonde stesse dalle stazioni di tracking a terra. Questa tesi illustra l'implementazione di un PLL digitale linearizzato in Matlab e Simulink in una nuova veste rispetto al modello implementato durante l'attività di tirocinio curricolare, al fine di migliorarne le prestazioni per bassi carrier-to-noise density ratios. Il capitolo 1 si compone di due parti: la prima introduce all'ambito nel quale si inserisce il lavoro proposto, ossia la determinazione d'orbita; la seconda illustra i fondamenti della teoria dei segnali. Il capitolo 2 è incentrato sull'analisi dei Phase-Locked Loops, partendo da un'introduzione teorica e approdando all'implementazione di un modello in Simulink. Il capitolo 3, infine, mostra i risultati dell'applicazione del modello implementato in Simulink nell'analisi dei segnali di una missione realmente svolta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’idea di focalizzare la tesi sulla supply chain ed in particolare sulle tecniche lean per la sua ottimizzazione deriva dal fatto che si tratta di un nuovo modo di ragionare, di un approccio moderno perfettamente adattabile al contesto socio-economico attuale, teso ad accrescere la flessibilità e l’efficienza dell’impresa attraverso un ripensamento dell’intero flusso di creazione del valore. Verranno analizzate le caratteristiche generali di questo modello organizzativo, per poi addentrarsi nella sua applicazione ed infine i vantaggi e gli eventuali svantaggi che le organizzazioni devono affrontare per implementare operativamente le tecniche lean. L’analisi effettuata nella tesi è strutturata come segue: La parte iniziale del primo capitolo definisce il concetto generale di supply chain sottolineando il contesto di riferimento in cui oggi operano le attività produttive. Vengono poi riportati l’accezione e il valore della supply chain management e le sue problematiche annesse di gestione e controllo. Nella seconda parte del capitolo vengono analizzati e descritti i modelli letterari esistenti utili per descrivere, impostare e classificare una supply chain. Il secondo capitolo, dopo una breve esposizione storica che descrive le origini della metodologia lean production, è orientato alla raccolta delle definizioni e alle loro differenti visioni tratte dal mondo della letteratura. Segue una parte più analitica, dove vengono analizzati in maniera dettagliata gli obiettivi, gli strumenti ed i principi che la filosofia lean prevede. Nel terzo capitolo viene approfondita la VSM, uno degli strumenti di principale importanza secondo le logiche della lean manufacturing. Vengono analizzati gli step necessari per una corretta implementazione, illustrando prima la simbologia internazionale necessaria per una sua comprensione e realizzazione e poi definiti gli step da applicare non solo per una semplice realizzazione, ma per l’ottenimento di una value stream map in ottica lean.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le criticità sorte in seguito alla diffusione della Pandemia da Covid-19, a partire dal 2020, sono numerose. In tal senso, all’interno della logistica, rivestono un ruolo molto rilevante i numerosi ritardi nelle consegne, che trovano maggiore evidenza nelle spedizioni via mare. Pertanto, l’adozione di strategie volte ad aumentare la resilienza delle catene di approvvigionamento, rendendole in grado di resistere alle criticità del presente e alle possibili evoluzioni del futuro, diventa sempre più importante. L’obiettivo del presente studio è l’individuazione di una strategia che permetta di rispondere alle criticità legate ai ritardi nelle consegne dei materiali, per ridurre i problemi da essi causati. L’azienda in cui questo studio è stato svolto è la Ducati Motor Holding S.p.A., produttrice di motocicli. Infatti, nelle aziende manifatturiere, il ritardo nell’arrivo dei componenti determina delle conseguenze nella produzione ed eventuali ritardi nella consegna del prodotto finito. Per fronteggiare queste difficoltà, il metodo individuato consiste nell’analisi dei dati storici relativi ai ritardi rilevati e nella previsione dei ritardi futuri, utilizzando le tecniche di previsione basate sulle serie storiche. L’individuazione del numero di giorni di ritardo previsti viene utilizzata per determinare ogni mese il margine di copertura ottimale con cui effettuare gli ordini ai fornitori, in modo da evitare problemi nella produzione. Questo margine di copertura è definito dinamico, poiché non è fissato tutto l’anno per un medesimo materiale, ma varia ogni mese in base alle previsioni effettuate, garantendo così la flessibilità necessaria per rispondere alle contingenze esterne. In questo modo, riducendo i ritardi nelle consegne e, di conseguenza, i ritardi nella produzione, si ottiene un risparmio economico in termini di costi da sostenere, considerando i costi di stoccaggio e i costi di recupero delle moto incomplete.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo studio che verrà presentato in questo lavoro di tesi riguarda la caratterizzazione di Silicon PhotoMultiplier (SiPM): essi sono sensori a semiconduttore che sono stati proposti per la realizzazione del layer Time-Of-Flight (TOF) del nuovo esperimento proposto ad LHC, ALICE 3. Sono stati testati sensori diversi, sia in termini di casa di fabbricazione (FBK o HPK), sia in termini di struttura; in particolare, i modelli a disposizione di produzione FBK sono singoli SPAD, singoli SiPM e mini-array di SiPM, mentre i modelli HPK sono tutti singoli SiPM. La caratterizzazione è avvenuta mediante misure di corrente e capacità del sensore al variare della tensione (curve IV e curve CV); l'obiettivo primario è studiare e confrontare tali andamenti, in modo da poter selezionare i sensori con caratteristiche simili per la costruzione del layer del TOF. Si è osservato che sensori della stessa casa produttrice e con la stessa struttura interna esibiscono comportamenti quasi sovrapponibili, dimostrando in generale una ottima uniformità.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo sviluppo di fibrosi epatica si associa caratteristicamente a un eccesso di produzione e reticolazione della matrice extracellulare del tessuto, che causa un progressivo aumento del modulo elastico e della viscosità dell’organo – che a loro volta determinano ipertensione portale e insufficienza funzionale. Modelli avanzati che riproducano in vitro il microambiente epatico sono cruciali per lo studio della patogenesi del fenomeno e per la valutazione di adeguate terapie future. Un esempio chiaro di questa strategia viene presentato in un recente lavoro di ricerca, nel quale Cacopardo et al. propongono una strategia basata sull’utilizzo di tipi differenti di idrogel, con proprietà elastiche e viscosità variabili, per studiare la meccano-dinamica in un ambiente di coltura tridimensionale. Idrogel di carichi di cellule sono dunque stati differenzialmente reticolati mediante transglutaminasi microbica, utilizzando un metodo citocompatibile originale che consenta l’esposizione delle cellule a un ambiente con proprietà meccaniche che variano nel tempo. Per la coltura dei costrutti 3D è stato inoltre utilizzato un bioreattore che si è dimostrato utile anche per monitorare nel tempo le proprietà meccaniche dei costrutti cellulari. I risultati hanno mostrato che una maggiore “solidità” della matrice è coerente con l’aumento dello stress cellulare. Il metodo proposto si è dimostrato quindi in grado di imitare efficacemente il microambiente meccanico associato alla fibrosi epatica e in evoluzione nel tempo e, di conseguenza, potrebbe fornire nuove informazioni sui processi fisiopatologici correlati e suggerire più efficaci strategie terapeutiche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel modo in cui oggigiorno viene intrapresa la ricerca, l’interdisciplinarità assume una posizione di sempre maggior rilievo in pressoché ogni ambito del sapere. Questo è particolarmente evidente nel campo delle discipline STEM (Scienza, Tecnologia, Ingegneria, Matematica), considerando che i problemi a cui esse fanno fronte (si pensi agli studi sul cambiamento climatico o agli avanzamenti nel campo dell’intelligenza artificiale) richiedono la collaborazione ed integrazione di discipline diverse. Anche nella ricerca educativa, l’interdisciplinarità ha acquisito negli ultimi anni una notevole rilevanza ed è stata oggetto di riflessioni teoriche e di valutazioni sulle pratiche didattiche. Nell’ampio contesto di questo dibattito, questa tesi si focalizza sull’analisi dell’interdisciplinarità tra fisica e matematica, ma ancora più nel dettaglio sul ruolo che la matematica ha nei modelli fisici. L’aspetto che si vuole sottolineare è l’esigenza di superare una concezione banale e semplicistica, sebbene diffusa, per la quale la matematica avrebbe una funzione strumentale rispetto alla fisica, a favore invece di una riflessione che metta in luce il ruolo strutturale della formalizzazione matematica per l’avanzamento della conoscenza in fisica. Per fare ciò, si prende in esame il caso di studio dell’oscillatore armonico attraverso due lenti diverse che mettono in luce altrettanti temi. La prima, quella dell’anchor equation, aiuterà a cogliere gli aspetti fondamentali del ruolo strutturale della matematica nella modellizzazione dell’oscillatore armonico. La seconda, quella degli epistemic games, verrà utilizzata per indagare materiale didattico, libri di testo e tutorial, per comprendere come diverse tipologie di risorse possano condurre gli studenti ad intendere in modi diversi la relazione di interdisciplinarità tra fisica e matematica in questo contesto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il processo di sviluppo di un’applicazione comprende più fasi, ognuna strettamente correlata alle altre. Una delle fasi di questo processo è il rilascio del software, che consiste nel rendere disponibile agli utenti l’applicazione caricandone l’eseguibile su un server, sul quale verrà poi eseguita. Per un’azienda di sviluppo software è particolarmente importante automatizzare e standardizzare il processo di rilascio del software, allo scopo di renderlo più veloce e di diminuire il tempo che intercorre fra una modifica e il momento in cui questa viene effettivamente resa disponibile per gli utenti, ottimizzando infine l’impegno degli sviluppatori. La presente tesi descrive l’implementazione di un sistema di Continuous Integration e Continuous Deliveliry scalabile su una software house con più di 900 dipendenti suddivisi in decine di team, ognuno dei quali ha in carico lo sviluppo di vari software. Le applicazioni realizzate dai team sono generalmente microservizi in esecuzione all’interno di container su piattaforma Kubernetes. Sono state quindi valutate le varie alternative per la realizzazione di questo sistema, analizzandone pro e contro, scegliendo infine GitLab per la parte di Continuous Integration e ArgoCD per la parte di Continuous Deployment. Nei vari capitoli viene quindi analizzata l’infrastruttura esistente e vengono illustrati i vantaggi e svantaggi delle varie soluzioni considerate. Per i due software selezionati viene invece descritto il lavoro svolto, con dettagli sul funzionamento del sistema e la configurazione necessaria per il corretto funzionamento dell’intero processo. La soluzione realizzata effettua build, test, code validation e deploy delle applicazioni seguendo un pattern GitOps, con un repository git contenente la configurazione attuale delle applicazioni, permettendo rollback in caso di problematiche e garantendo un alto livello di sicurezza attraverso il mantenimento dello storico della configurazione e della versione delle applicazioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'elaborato descrive l'esperienza di tirocinio svolta nell'azienda Vertiv, dove è stato chiesto di realizzare un simulatore per il calcolo della degradazione delle batterie nella partecipazione al Grid Support. Nella prima parte viene illustrato il panorama energetico attuale, descrivendo il funzionamento generale di un sistema elettrico. Successivamente vengono descritti i gruppi di continuità e le loro modalità di funzionamento. A questo si collega la descrizione dei prodotti dell'azienda che verranno considerati nel simulatore. Vengono descritti i servizi di Grid Support che un cliente può scegliere al fine di ottenere un uso ottimale dell'energia elettrica, e quindi un risparmio, e quelli che aiutano la rete a bilanciare le variazioni di frequenza. Vi è inoltre una descrizione delle batterie, le loro caratteristiche e i parametri fondamentali di questa modalità di immagazzinamento dell'energia. Vengono riportate le principali tipologie delle batterie al Litio, essendo queste quelle utilizzate all'interno del simulatore. L'ultimo capitolo riguarda la descrizione del simulatore; vengono riportate le caratteristiche delle batterie considerate, divise a seconda del fornitore. Il simulatore è diviso in due parti, una chiamata "Frequency Regulation", l'altra "Peak Shaving". Nella prima vengono mostrati i dati di input che possono essere cambiati, la degradazione delle batterie collegata ai servizi FFR e FCR-D, i possibili guadagni che un cliente potrebbe ottenere nel momento in cui firma un contratto per partecipare ad un programma di variazione della frequenza, a seconda del mercato elettrico scelto. Nella seconda i dati di input, la degradazione delle batterie e i possibili risparmi associati al servizio Peak Shaving. Infine vengono riportati degli scenari di esempio per mostrare come un ipotetico cliente possa giocare con i dati di input e confrontare i risultati ottenuti allo scopo di ottenere la miglior soluzione possibile.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La segmentazione prevede la partizione di un'immagine in aree strutturalmente o semanticamente coerenti. Nell'imaging medico, è utilizzata per identificare, contornandole, Regioni di Interesse (ROI) clinico, quali lesioni tumorali, oggetto di approfondimento tramite analisi semiautomatiche e automatiche, o bersaglio di trattamenti localizzati. La segmentazione di lesioni tumorali, assistita o automatica, consiste nell’individuazione di pixel o voxel, in immagini o volumi, appartenenti al tumore. La tecnica assistita prevede che il medico disegni la ROI, mentre quella automatica è svolta da software addestrati, tra cui i sistemi Computer Aided Detection (CAD). Mediante tecniche di visione artificiale, dalle ROI si estraggono caratteristiche numeriche, feature, con valore diagnostico, predittivo, o prognostico. L’obiettivo di questa Tesi è progettare e sviluppare un software di segmentazione assistita che permetta al medico di disegnare in modo semplice ed efficace una o più ROI in maniera organizzata e strutturata per futura elaborazione ed analisi, nonché visualizzazione. Partendo da Aliza, applicativo open-source, visualizzatore di esami radiologici in formato DICOM, è stata estesa l’interfaccia grafica per gestire disegno, organizzazione e memorizzazione automatica delle ROI. Inoltre, è stata implementata una procedura automatica di elaborazione ed analisi di ROI disegnate su lesioni tumorali prostatiche, per predire, di ognuna, la probabilità di cancro clinicamente non-significativo e significativo (con prognosi peggiore). Per tale scopo, è stato addestrato un classificatore lineare basato su Support Vector Machine, su una popolazione di 89 pazienti con 117 lesioni (56 clinicamente significative), ottenendo, in test, accuratezza = 77%, sensibilità = 86% e specificità = 69%. Il sistema sviluppato assiste il radiologo, fornendo una seconda opinione, non vincolante, adiuvante nella definizione del quadro clinico e della prognosi, nonché delle scelte terapeutiche.