594 resultados para Modelli termici IGBT
Resumo:
La tesi analizza il fenomeno dell'Equity Crowdfunding con particolare attenzione alle strategie di disinvestimento. Si basa sull'analisi di un campione di 100 progetti finanziati sulla piattaforma Crowdcube. Il crowdfunding è un meccanismo di finanziamento collettivo che nasce fondamentalmente dall’esigenza di piccoli progetti di reperire capitale per essere sviluppati. Si sviluppa mediante l’ausilio di piattaforme informatiche, che fungono da tramite tra le parti interessate, permettendo ai promotori di lanciare i progetti e presentarli al pubblico, ed ai potenziali investitori di informarsi riguardo le diverse opportunità ed eventualmente partecipare alle iniziative. Si crea in questo modo una community virtuale, che si muove attraverso meccanismi differenti rispetto ai classici canali di finanziamento, e offre nuove opportunità agli ideatori di progetti così come agli investitori. Esistono diversi modelli di crowdfunding, che si differenziano per le rispettive finalità, le modalità di raccolta fondi e le forme di compenso. In particolare, risulta importante soffermarsi sull’equity crowdfunding, che si distingue dagli altri modelli in quanto raccoglie denaro che viene impiegato direttamente nel capitale di rischio dell’azienda finanziata. È il modello che attualmente riscuote maggior successo in termini di quote raccolte. La ricompensa è di tipo economico e si realizza attraverso il disinvestimento della quota di partecipazione, entro una data finestra temporale e secondo le modalità delineate inizialmente dal promotore del progetto. Le modalità di disinvestimento sono dette “exit strategies” e consistono negli obiettivi che i promotori dei progetti si propongono di realizzare dopo aver lanciato ed amministrato per un certo intervallo temporale i propri business, e sono rilevanti per gli investitori in quanto rappresentano il meccanismo attraverso il quale essi si aspettano un guadagno dall’investimento effettuato.
Resumo:
La pianificazione e la gestione dei processi è diventata un elemento critico a causa della crescente complessità delle attività all’interno delle organizzazioni. Nell’era dell’impresa digitale, la gestione dei processi di businesss viene coadiuvata mediante l’utilizzo di sistemi software che sono in grado di gestire una grande quantità di informazioni ovvero i sistemi BPM. Il Business Performance Management è una disciplina gestionale che si occupa di descrivere e gestire i processi di business di una organizzazione. L’obiettivo della seguente tesi è verificare se il modello del processo realizzato precedentemente all’implementazione del sistema reale possa permettere una più dettagliata analisi del sistema e anticipare relative problematiche che talvolta si evincono solamente durante il mero sviluppo. Inoltre si vuole verificare se il modello realizzato in fase di discussione di un nuovo progetto cliente possa poi migliorare anche lo scambio di informazioni nel team di sviluppo. A supporto di questa tesi è stato sviluppato un caso di studio reale in una società di gestione del risparmio specializzata in fondi di investimento immobiliare. Inizialmente si è proceduto con una prima fase di raccolta dei requisiti dell’applicativo che si è conclusa con la realizzazione dei modelli creati utilizzando due linguaggi che sono il Business Process Model and Notation (BPMN) e il Decision Model and Notation (DMN); il medesimo applicativo è stato successivamente implementato seguendo i modelli realizzati. I tempi globali di sviluppo del sistema e la migliore comprensione del modello da parte del team di sviluppo hanno fatto evincere l’utilità della modellazione a fronte di maggiori giornate uomo. Inoltre è stata riscontata maggiore manutenibilità complessiva del sistema.
Resumo:
Agent-oriented programming (AOP) è un paradigma di programmazione che concepisce un software come insieme di agenti che possiedono caratteristiche di autonomia, proattività e che sono in grado di comunicare con altri agenti. Sebbene sia stato impiegato soprattutto nell'ambito dell'intelligenza artificiale questo tipo di programmazione si rivela utile per lo sviluppo di sistemi distribuiti riuscendo a gestire agilmente problemi di concorrenza. Lo scopo di questa tesi è analizzare le caratteristiche del paradigma e dei software basati su agenti, utilizzando come caso di studio Sarl, un linguaggio general-purpose molto recente. La parte principale del lavoro consiste nella descrizione dei modelli teorici che hanno portato alla nascita della programmazione ad agenti, in particolare del modello BDI, e dei principali framework per lo sviluppo di sistemi multi-agente.
Resumo:
La salvaguardia e conservazione del Patrimonio Artistico ed Architettonico rappresentano un aspetto imprescindibile di ogni cultura, e trovano le loro fondamenta nella coscienza e conoscenza dei Beni. Il rilievo è l’operazione basilare per acquisire una conoscenza rigorosa di un oggetto nella sua geometria e in altre sue caratteristiche. Le finalità delle operazioni di rilevamento sono molteplici, dall’archiviazione a scopo di documentazione fino all’indagine conservativa volta alla diagnostica e alla progettazione di interventi. I modelli digitali, introdotti dallo sviluppo tecnologico degli ultimi decenni, permettono una perfetta conoscenza del bene, non necessitano di contatto diretto durante la fase di rilevamento e possono essere elaborati secondo le esigenze del caso. Le tecniche adottate nel Reverse Engineering si differenziano per il tipo di sensore utilizzato: quelle fotogrammetriche utilizzano sensori di tipo “passivo” e trovano oggi largo impiego nel settore dei Beni Culturali grazie agli strumenti di Structure from Motion, mentre strumenti basati su sensori di tipo “attivo” utilizzano Laser o proiezione di luce strutturata e sono in grado di rilevare con grande precisione geometrie anche molto complesse. La costruzione del modello della fontana del Nettuno e della torre Garisenda di Bologna costituiscono un valido esempio di applicazione delle tecniche di rilievo digitale, e dimostrano la validità delle stesse su oggetti di diversa dimensione in due diversi ambiti applicativi: il restauro e il monitoraggio. Gli sviluppi futuri del Reverse Engineering in questo ambito sono molteplici, e la Geomatica rappresenta senza dubbio una disciplina fondamentale per poterli realizzare.
Resumo:
Il Modello di Hopfield è un tentativo di modellizzare il comportamento di una memoria associativa come proprietà emergente di un network costituito da unità a due stati interagenti tra loro, e costituisce un esempio di come gli strumenti della meccanica statistica possano essere applicati anche al campo delle reti neurali. Nel presente elaborato viene esposta l'analogia tra il Modello di Hopfield e il Modello di Ising nel contesto delle transizioni di fase, applicando a entrambi i modelli la teoria di campo medio. Viene esposta la dinamica a temperatura finita e ricavata e risolta l'equazione di punto a sella per il limite di non saturazione del Modello di Hopfield. Vengono inoltre accennate le principali estensioni del Modello di Hopfield.
Resumo:
Questa tesi è incentrata sullo studio e la determinazione del flusso neutronico della facility nTOF (neutron Time Of Flight) del CERN di Ginevra nel corso della campagna sperimentale del 2016. L'esperimento è finalizzato alla misura della sezione d'urto della reazione di cattura neutronica da parte degli isotopi dispari di gadolinio, 155Gd e 157Gd. In particolare l'analisi verrà condotta in modo da ottenere dati sperimentali nello spettro di energie da neutroni termici (10-2 eV) a 1.0 eV e migliorare i dati già esistenti per energie fino a 1.0 MeV. Dopo aver ricordato le motivazioni scientifiche e tecnologiche che sono alla base del progetto di ricerca, si descrivono le caratteristiche della facility nTOF e si trattano i fondamenti delle reazioni nucleari e le tecniche del tempo di volo, di misura di flusso e di cattura utilizzate nel corso dell'esperimento. Nella parte finale del lavoro si presentano i dati sperimentali acquisiti sul flusso neutronico, la cui accurata conoscenza è fondamentale per la misura di sezioni d'urto di reazioni indotte da neutroni. I risultati ottenuti sono quindi stati elaborati e confrontati con i dati precedenti per poter essere validati e per poter verificare eventuali discrepanze. Dalle analisi dei dati si deduce come la precisione ottenuta sulla determinazione del flusso sia ottimale per i successivi studi che verranno condotti sulla sezione d'urto degli isotopi dispari di gadolinio.
Resumo:
Lo scopo di questo lavoro è quello di analizzare i dati raccolti dal Large Area Telescope a bordo del satellite Fermi con l'obiettivo di ricavare il flusso di raggi-γ, di energia compresa tra 100 MeV e 300 GeV, prodotti dal Blazar PKS B1424-418 in un periodo compreso tra l'1 Gennaio 2012 e il 4 Settembre 2016. Secondo alcuni modelli questo blazar potrebbe essere infatti la prima sorgente di Ultra High Energy Cosmic Ray associata sperimentalmente all'emissione di neutrini. L'analisi dei dati è effettuata tramite il pacchetto di software Fermi Science Tools.
Modellistica di accensione per candele ad arco elettrico in motori a combustione interna alternativi
Resumo:
Nel panorama mondiale di contenimento delle emissioni inquinanti in atmosfera é divenuto sempre più importante limitare la parte derivante dai motori a combustione interna: l'utilizzo di motori GDI a carica stratificata e di ricircolo dei gas di scarico (EGR) sono esempi di tecnologie pensate proprio in tale ottica. Sia la presenza di un ambiente magro che di EGR nel cilindro, come anche l'aumento della pressione nel cilindro per l'incremento della pressione di sovralimentazione o del rapporto di compressione, hanno lo svantaggio di limitare la velocità di combustione e rendere più sfavorevoli le condizioni di accensione della miscela; in questo scenario diviene di fondamentale importanza il miglioramento dei sistemi di accensione, la creazione di modelli volti a simularli e la comprensione dei fenomeni che ne stanno alla base. Il seguente lavoro di tesi si inserisce proprio in questo contesto, indagando le varie fasi di cui si compone il fenomeno dell'accensione e le relazioni che legano le variabili di interesse fisico, verificate sulla base di evidenze sperimentali. Successivamente vengono analizzati i principali modelli d'accensione che sono stati proposti e implementati in codici computazionali fluidodinamici; l'analisi mette in luce le differenze, i punti di forza e le semplificazioni introdotte in ognuno di essi, in modo da poterli valutare criticamente. La suddetta analisi é anche utile per introdurre il modello frutto del lavoro del gruppo di ricerca dell'Università di Bologna; ci si concentra particolarmente su quest'ultimo poiché un obiettivo di questo lavoro di tesi é stato proprio l'implementazione e l'utilizzo del modello in un codice fluidodinamico tridimensionale quale CONVERGE CFD. L'implementazione é stata poi validata attraverso simulazioni su una geometria reale di un motore a combustione interna ad elevate prestazioni, confrontando i risultati ottenuti con il nuovo modello rispetto ai dati sperimentali sulla combustione.
Resumo:
Nell'ambito dei motori ad accensione comandata, la comprensione del processo di accensione e delle prime fasi di sviluppo del kernel è di primaria importanza per lo studio dell'intero processo di combustione, dal momento che questi determinano lo sviluppo successivo del fronte di fiamma. Dal punto di vista fisico, l'accensione coinvolge un vasto numero di fenomeni di natura molto complessa, come processi di ionizzazione e passaggio di corrente nei gas: molti di questi avvengono con tempi caratteristici che ne impediscono la simulazione tramite le attuali tecniche CFD. Si rende pertanto necessario sviluppare modelli semplificati che possano descrivere correttamente il fenomeno, a fronte di tempi di calcolo brevi. In quest'ottica, il presente lavoro di tesi punta a fornire una descrizione accurata degli aspetti fisici dell'accensione, cercando di metterne in evidenza gli aspetti principali e le criticità. A questa prima parte di carattere prettamente teorico, segue la presentazione del modello di accensione sviluppato presso il DIN dell'Università di Bologna dal Prof. Bianche e dall'Ing. Falfari e la relativa implementazione tramite il nuovo codice CONVERGE CFD: la validazione è infine condotta riproducendo un caso test ben noto il letteratura, che mostrerà un buon accordo tra valori numerici e sperimentali a conferma della validità del modello.