914 resultados para Bioingegneria, Modelli matematici, Sistema cardiovascolare, Modello di Guyton, Contropulsazione esterna


Relevância:

100.00% 100.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I viaggi e gli studi compiuti in Croazia, Montenegro e Bosnia Erzegovina in occasione della Tesi di Laurea hanno costituito l’occasione per comprendere quanto sia consistente il retaggio di Roma antica sulla sponda orientale dell’Adriatico. Nello stesso tempo si è potuto constatare che, per diversi motivi, dal punto di vista prettamente scientifico, la ricchezza di questo patrimonio archeologico aveva sino allora trovato soltanto poche occasioni di studio. Da qui la necessità di provvedere a un quadro completo e generale relativo alla presenza romana in un territorio come quello della provincia romana di Dalmatia che, pur considerando la sua molteplicità geografica, etnica, economica, culturale, sociale e politica, ha trovato, grazie all’intervento di Roma, una sua dimensione unitaria, un comune denominatore, tanto da farne una provincia che ebbe un ruolo fondamentale nella storia dell’Impero. Il lavoro prende le mosse da una considerazione preliminare e generale, che ne costituisce quasi lo spunto metodologico più determinante: la trasmissione della cultura e dei modelli di vita da parte di Roma alle altre popolazioni ha creato un modello in virtù del quale l’imperialismo romano si è in certo modo adattato alle diverse culture incontrate ed assimilate, dando vita ad una rete di culture unite da elementi comuni, ma anche profondamente diversificate per sintesi originali. Quella che pare essere la chiave di lettura impiegata è la struttura di un impero a forma di “rete” con forti elementi di coesione, ma allo stesso tempo dotato di ampi margini di autonomia. E questo a cominciare dall’analisi dei fattori che aprirono il cammino dell’afflusso romano in Dalmatia e nello stesso tempo permisero i contatti con il territorio italico. La ricerca ne analizza quindi i fattori:il diretto controllo militare, la costruzione di una rete viaria, l’estensione della cittadinanza romana, lo sviluppo della vita locale attraverso la formazione di una rete di municipi, i contatti economici e l’immigrazione di genti romanizzate. L’analisi ha posto in evidenza una provincia caratterizzata da notevoli contraddizioni, che ne condizionarono – presso entrambi i versanti del Velebit e delle Alpi Dinariche – lo sviluppo economico, sociale, culturale e urbanistico. Le profonde differenze strutturali tra questi due territori rimasero sempre presenti: la zona costiera divenne, sotto tutti i punti di vista, una sorta di continuazione dell’Italia, mntre quella continentale non progredì di pari passo. Eppure l’influenza romana si diffuse anche in questa, così che essa si pote conformare, in una certa misura, alla zona litoranea. Come si può dedurre dal fatto che il severo controllo militare divenne superfluo e che anche questa regione fu dotata progressivamente di centri amministrati da un gruppo dirigente compiutamente integrato nella cultura romana. Oltre all’analisi di tutto ciò che rientra nel processo di acculturazione dei nuovi territori, l’obiettivo principale del lavoro è l’analisi di uno degli elementi più importanti che la dominazione romana apportò nei territori conquistati, ovvero la creazione di città. In questo ambito relativamente periferico dell’Impero, qual è il territorio della provincia romana della Dalmatia, è stato dunque possibile analizzare le modalità di creazione di nuovi centri e di adattamento, da parte di Roma, ai caratteri locali dell’insediamento, nonché ai condizionamenti ambientali, evidenziando analogie e differenze tra le città fondate. Prima dell’avvento di Roma, nessuna delle regioni entrate a far parte dei territori della Dalmatia romana, con la sola eccezione della Liburnia, diede origine a centri di vero e proprio potere politico-economico, come ad esempio le città greche del Mediterraneo orientale, tali da continuare un loro sviluppo all’interno della provincia romana. In altri termini: non si hanno testimonianze di insediamenti autoctoni importanti che si siano trasformati in città sul modello dei centri provinciali romani, senza aver subito cambiamenti radicali quali una nuova pianificazione urbana o una riorganizzazione del modello di vita locale. Questo non significa che la struttura politico-sociale delle diverse tribù sia stata cambiata in modo drastico: almeno nelle modeste “città” autoctone, nelle quali le famiglie appaiono con la cittadinanza romana, assieme agli ordinamenti del diritto municipale, esse semplicemente continuarono ad avere il ruolo che i loro antenati mantennero per generazioni all’interno della propria comunità, prima della conquista romana. Il lavoro mette compiutamente in luce come lo sviluppo delle città nella provincia abbia risentito fortemente dello scarso progresso politico, sociale ed economico che conobbero le tribù e le popolazioni durante la fase pre-romana. La colonizzazione greca, troppo modesta, non riuscì a far compiere quel salto qualitativo ai centri autoctoni, che rimasero sostanzialmente privi di concetti basilari di urbanistica, anche se è possibile notare, almeno nei centri costieri, l’adozione di tecniche evolute, ad esempio nella costruzione delle mura. In conclusione questo lavoro chiarisce analiticamente, con la raccolta di un’infinità di dati (archeologici e topografici, materiali ed epigrafici, e desunti dalle fonti storiche), come la formazione della città e l’urbanizzazione della sponda orientale dell’adriatico sia un fenomeno prettamente romano, pur differenziato, nelle sue dinamiche storiche, quasi caso per caso. I dati offerti dalla topografia delle città della Dalmatia, malgrado la scarsità di esempi ben documentati, sembrano confermare il principio della regolarità degli impianti urbani. Una griglia ortogonale severamente applicata la si individua innanzi tutto nelle città pianificate di Iader, Aequum e, probabilmente, anche a Salona. In primis nelle colonie, quindi, ma non esclusivamente. Anche numerosi municipi sviluppatisi da insediamenti di origine autoctona hanno espresso molto presto la tendenza allo sviluppo di un sistema ortogonale regolare, se non in tutta l’area urbana, almeno nei settori di più possibile applicazione. Ne sono un esempio Aenona, Arba, Argiruntum, Doclea, Narona ed altri. La mancanza di un’organizzazione spaziale regolare non ha tuttavia compromesso l’omogeneità di un’attrezzatura urbana tesa alla normalizzazione, in cui i componenti più importanti, forum e suoi annessi, complessi termali, templi dinastici e capitolia, si avviano a diventare canonici. Le differenze più sensibili, che pure non mancano, sembrano dipendere dalle abitudini delle diverse etnie, dai condizionamenti topografici e dalla disponibilità finanziaria dei notabili. Una città romana non può prendere corpo in tutta la sua pienezza solo per la volontà del potere centrale. Un progetto urbanistico resta un fatto teorico finché non si realizzano le condizioni per cui si fondano due fenomeni importantissimi: uno socio-culturale, che consiste nell’emergenza di una classe di notabili “fortunati” desiderosi di dare a Roma dimostrazioni di lealtà, pronti a rispondere a qualsiasi sollecitazione da parte del potere centrale e addirittura ad anticiparlo; l’altro politico-amministrativo, che riguarda il sistema instaurato da Roma, grazie al quale i suddetti notabili possono godere di un certo potere e muoversi in vista della promozione personale nell’ambito della propria città. Aiuti provenienti dagli imperatori o da governatori provinciali, per quanto consistenti, rimangono un fatto non sistematico se non imprevedibile, e rappresentano comunque un episodio circoscritto. Anche se qualche città risulta in grado di costruire pecunia publica alcuni importanti edifici del quadro monumentale, il ruolo del finanziamento pubblico resta relativamente modesto. Quando la documentazione epigrafica esiste, si rivela che sono i notabili locali i maggiori responsabili della costruzione delle opere pubbliche. Sebbene le testimonianze epigrafiche siano scarse e, per la Dalmatia non sia possibile formulare un quadro completo delle committenze che favorirono materialmente lo sviluppo architettonico ed artistico di molti complessi monumentali, tuttavia è possibile osservare e riconoscere alcuni aspetti significativi e peculiari della provincia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si basa su una serie di lavori precedenti, volti ad analizzare la correlazione tra i modelli AUML e le reti di Petri, per riuscire a fornire una metodologia di traduzione dai primi alle seconde. Questa traduzione permetterà di applicare tecniche di model checking alle reti così create, al fine di stabilire le proprietà necessarie al sistema per poter essere realizzato effettivamente. Verrà poi discussa un'implementazione di tale algoritmo sviluppata in tuProlog ed un primo approccio al model checking utilizzando il programma Maude. Con piccole modifiche all'algoritmo utilizzato per la conversione dei diagrammi AUML in reti di Petri, è stato possibile, inoltre, realizzare un sistema di implementazione automatica dei protocolli precedentemente analizzati, verso due piattaforme per la realizzazione di sistemi multiagente: Jason e TuCSoN. Verranno quindi presentate tre implementazioni diverse: la prima per la piattaforma Jason, che utilizza degli agenti BDI per realizzare il protocollo di interazione; la seconda per la piattaforma TuCSoN, che utilizza il modello A&A per rendersi compatibile ad un ambiente distribuito, ma che ricalca la struttura dell'implementazione precedente; la terza ancora per TuCSoN, che sfrutta gli strumenti forniti dalle reazioni ReSpecT per generare degli artefatti in grado di fornire una infrastruttura in grado di garantire la realizzazione del protocollo di interazione agli agenti partecipanti. Infine, verranno discusse le caratteristiche di queste tre differenti implementazioni su un caso di studio reale, analizzandone i punti chiave.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Satellite SAR (Synthetic Aperture Radar) interferometry represents a valid technique for digital elevation models (DEM) generation, providing metric accuracy even without ancillary data of good quality. Depending on the situations the interferometric phase could be interpreted both as topography and as a displacement eventually occurred between the two acquisitions. Once that these two components have been separated it is possible to produce a DEM from the first one or a displacement map from the second one. InSAR DEM (Digital Elevation Model) generation in the cryosphere is not a straightforward operation because almost every interferometric pair contains also a displacement component, which, even if small, when interpreted as topography during the phase to height conversion step could introduce huge errors in the final product. Considering a glacier, assuming the linearity of its velocity flux, it is therefore necessary to differentiate at least two pairs in order to isolate the topographic residue only. In case of an ice shelf the displacement component in the interferometric phase is determined not only by the flux of the glacier but also by the different heights of the two tides. As a matter of fact even if the two scenes of the interferometric pair are acquired at the same time of the day only the main terms of the tide disappear in the interferogram, while the other ones, smaller, do not elide themselves completely and so correspond to displacement fringes. Allowing for the availability of tidal gauges (or as an alternative of an accurate tidal model) it is possible to calculate a tidal correction to be applied to the differential interferogram. It is important to be aware that the tidal correction is applicable only knowing the position of the grounding line, which is often a controversial matter. In this thesis it is described the methodology applied for the generation of the DEM of the Drygalski ice tongue in Northern Victoria Land, Antarctica. The displacement has been determined both in an interferometric way and considering the coregistration offsets of the two scenes. A particular attention has been devoted to investigate the importance of the role of some parameters, such as timing annotations and orbits reliability. Results have been validated in a GIS environment by comparison with GPS displacement vectors (displacement map and InSAR DEM) and ICEsat GLAS points (InSAR DEM).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi decenni la Politica Agricola Comune (PAC) è stata sottoposta a diverse revisioni, più o meno programmate, che ne hanno modificato gli obiettivi operativi e gli strumenti per perseguirli. In letteratura economica agraria sono state eseguite diverse ricerche che affrontano analisi ex-ante sui possibili impatti delle riforme politiche, in particolare al disaccoppiamento, riguardo all’allocazione dei terreni alle diverse colture e all’adozione di tecniche di coltivazione più efficienti. Ma tale argomento, nonostante sia di grande importanza, non è stato finora affrontato come altri temi del mondo agricolo. Le principali lacune si riscontrano infatti nella carenza di analisi ex-ante, di modelli che includano le preferenze e le aspettative degli agricoltori. Questo studio valuta le scelte di investimento in terreno di un’azienda agricola di fronte a possibili scenari PAC post-2013, in condizioni di incertezza circa le specifiche condizioni in cui ciascuno scenario verrebbe a verificarsi. L’obiettivo è di ottenere indicazioni utili in termini di comprensione delle scelte di investimento dell’agricoltore in presenza di incertezza sul futuro. L’elemento maggiormente innovativo della ricerca consiste nell’applicazione di un approccio real options e nell’interazione tra la presenza di diversi scenari sul futuro del settore agricolo post-2013, e la componente di incertezza che incide e gravita su di essi. La metodologia adottata nel seguente lavoro si basa sulla modellizzazione di un’azienda agricola, in cui viene simulato il comportamento dell’azienda agricola in reazione alle riforme della PAC e alla variazione dei prezzi dei prodotti in presenza di incertezza. Mediante un modello di Real Option viene valutata la scelta della tempistica ottimale per investire nell’acquisto di terreno (caratterizzato da incertezza e irreversibilità). Dai risultati emerge come in presenza di incertezza all’agricoltore convenga rimandare la decisione a dopo il 2013 e in base alle maggiori informazioni disponibili eseguire l’investimento solo in presenza di condizioni favorevoli. La variazione dei prezzi dei prodotti influenza le scelte più dell’incertezza dei contributi PAC. Il Real Option sembra interpretare meglio il comportamento dell’agricoltore rispetto all’approccio classico del Net Present Value.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Tomografia Computerizzata (TC) perfusionale rappresenta attualmente una importante tecnica di imaging radiologico in grado di fornire indicatori funzionali di natura emodinamica relativi alla vascolarizzazione dei tessuti investigati. Le moderne macchine TC consentono di effettuare analisi funzionali ad una elevata risoluzione spaziale e temporale, provvedendo ad una caratterizzazione più accurata di zone di interesse clinico attraverso l’analisi dinamica della concentrazione di un mezzo di contrasto, con dosi contenute per il paziente. Tale tecnica permette potenzialmente di effettuare una valutazione precoce dell’efficacia di trattamenti antitumorali, prima ancora che vengano osservate variazioni morfologiche delle masse tumorali, con evidenti benefici prognostici. I principali problemi aperti in questo campo riguardano la standardizzazione dei protocolli di acquisizione e di elaborazione delle sequenze perfusionali, al fine di una validazione accurata e consistente degli indicatori funzionali nella pratica clinica. Differenti modelli matematici sono proposti in letteratura al fine di determinare parametri di interesse funzionale a partire dall’analisi del profilo dinamico del mezzo di contrasto in differenti tessuti. Questa tesi si propone di studiare, attraverso l’analisi e l’elaborazione di sequenze di immagini derivanti da TC assiale perfusionale, due importanti modelli matematici di stima della perfusione. In particolare, vengono presentati ed analizzati il modello del massimo gradiente ed il modello deconvoluzionale, evidenziandone tramite opportune simulazioni le particolarità e le criticità con riferimento agli artefatti più importanti che influenzano il protocollo perfusionale. Inoltre, i risultati ottenuti dall’analisi di casi reali riguardanti esami perfusionali epatici e polmonari sono discussi al fine di valutare la consistenza delle misure quantitative ottenute tramite i due metodi con le considerazioni di natura clinica proposte dal radiologo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella presente analisi si è avuta l’eccezionale disponibilità di dati longitudinali su molti individui (6000studenti frequentanti le scuole superiori bolognesi). Per ottenere un modello che al meglio spiegasse e riproducesse l’andamento degli esiti scolastici (promozione alla classe successiva) tenendo conto del percorso scolastico nel tempo, si è scelto il modello a curva latente condizionato. La variabile risposta è combinazione lineare dell’esito di fine anno (Promosso/Non promosso); riassume, per ogni studente/anno scolastico, classe frequentata ed esito finale. Le variabili esplicative sono state selezionate tra le informazioni disponibili per gli individui. Vengono presentati alcuni dati aggregati, poi descritti i dati individuali che entreranno nel modello, evidenziando la composizione degli studenti. La prima fase è la stima del modello logistico, con specificazione delle criticità, che hanno indotto alla scelta successiva del modello dipendente dal tempo. Dopo la descrizione della metodologia principale utilizzata, la teoria del conditionalLCM, e la selezione degli indicatori di fitting, viene delineata la procedura di stima, e raggiunto il modello ottimale. Le variabili significative per spiegare l’andamento delle promozioni individuali nel tempo risultano: cittadinanza (italiani con risultati significativamente migliori degli stranieri), sesso (ragazze con percorso scolastico mediamente migliore dei ragazzi: la differenza risulta però significativa soltanto negli istituti tecnici e professionali), tipologia di scuola frequentata (studenti del liceo con risultati significativamente migliori di chi frequenta altri tipi di istituto). I risultati risultano fortemente dipendenti dai dati impiegati, specie riguardo al limite territoriale. Precedenti analisi evidenziavano una forte differenziazione dei risultati scolastici tra studenti del nord e del sud Italia, oltre che tra studenti dei comuni maggiormente popolati e studenti dei comuni di provincia. Sarebbe interessante disporre di dati individuali analoghi a quelli qui utilizzati, ma riferiti all’intero territorio nazionale, oppure ad un zona maggiormente vasta dell’Italia, onde saggiare l’entità dell’influenza sul percorso scolastico,ed in particolare sulla regolarità, della differenza territoriale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro tratta la progettazione di un intervento tecnologico e organizzativo in grado di guidare la creazione di un ecosistema di imprese per un distretto commerciale: Centergross (Funo d’Argelato, Bologna). Tale lavoro è stato preparato durante un periodo di Stage della durata di cinque mesi effettuato presso Epoca S.r.l (Bologna) a seguito della necessità, riscontrata dalla direzione del distretto, di ripensare il proprio modello di business. L’obiettivo del progetto di intervento di Epoca è quello di supportare il distretto in questa fase di cambiamento, da “condominio” di imprese autonome a ecosistema, grazie all’identificazione e alla realizzazione di strumenti organizzativi e tecnologici che possano costruire opportunità di sinergie, aumentare la completezza dell’offerta e sfruttare economie di scopo. Per questo è stato realizzato un nuovo sistema informatico (social network e applicazione mobile) in grado di supportare la strategia ed evolvere con essa. La tesi si struttura in tre parti. Nella prima parte, attraverso un’indagine della letteratura di riferimento, si sono indagati i principali modelli di cambiamento organizzativo e il ruolo dei sistemi informativi all’interno delle organizzazione. Un approfondimento circa gli approcci, i processi e la gestione del cambiamento in relazione all’introduzione di un nuovo sistema informativo all’interno delle organizzazioni con riferimento alle tematiche del Business Process Reengineering. La seconda parte è dedicata all’evoluzione del Web con la rivoluzione culturale causata dagli strumenti del web partecipativo, semantico e potenziato: social network e applicazione mobile nello specifico; e all’approccio di progettazione: il Design Thinking. Una tecnica che si prefigge di: trovare il miglior fit fra obiettivi, risorse e tecnologie disponibili; favorire lo sviluppo di nuove idee innovative entrando in empatia con il contesto del problema proponendo soluzioni centrate sui bisogni degli utenti. L’ultima parte del lavoro consiste nella descrizione del caso. Vengono presentate la fase di analisi della situazione attuale e i successivi step di progettazione del sistema informatico: la definizione dei prototipi, la popolazione del database, il modello di dominio, le interfacce utente e le esperienze di navigazione all’interno della piattaforma software proposta. L’approccio prevede che il progetto proceda per iterazioni successive e un adattamento continuo alle esigenze del cliente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fornisce una breve trattazione di due tipi di modelli matematici applicabili nel campo dell'epidemologia, prendendo spunto da un articolo del biologo matematico A. Korobeinikov, "Lyapunov function and global properties for SEIR and SEIS epidemic models".

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le scelte di asset allocation costituiscono un problema ricorrente per ogni investitore. Quest’ultimo è continuamente impegnato a combinare diverse asset class per giungere ad un investimento coerente con le proprie preferenze. L’esigenza di supportare gli asset manager nello svolgimento delle proprie mansioni ha alimentato nel tempo una vasta letteratura che ha proposto numerose strategie e modelli di portfolio construction. Questa tesi tenta di fornire una rassegna di alcuni modelli innovativi di previsione e di alcune strategie nell’ambito dell’asset allocation tattica, per poi valutarne i risvolti pratici. In primis verificheremo la sussistenza di eventuali relazioni tra la dinamica di alcune variabili macroeconomiche ed i mercati finanziari. Lo scopo è quello di individuare un modello econometrico capace di orientare le strategie dei gestori nella costruzione dei propri portafogli di investimento. L’analisi prende in considerazione il mercato americano, durante un periodo caratterizzato da rapide trasformazioni economiche e da un’elevata volatilità dei prezzi azionari. In secondo luogo verrà esaminata la validità delle strategie di trading momentum e contrarian nei mercati futures, in particolare quelli dell’Eurozona, che ben si prestano all’implementazione delle stesse, grazie all’assenza di vincoli sulle operazioni di shorting ed ai ridotti costi di transazione. Dall’indagine emerge che entrambe le anomalie si presentano con carattere di stabilità. I rendimenti anomali permangono anche qualora vengano utilizzati i tradizionali modelli di asset pricing, quali il CAPM, il modello di Fama e French e quello di Carhart. Infine, utilizzando l’approccio EGARCH-M, verranno formulate previsioni sulla volatilità dei rendimenti dei titoli appartenenti al Dow Jones. Quest’ultime saranno poi utilizzate come input per determinare le views da inserire nel modello di Black e Litterman. I risultati ottenuti, evidenziano, per diversi valori dello scalare tau, extra rendimenti medi del new combined vector superiori al vettore degli extra rendimenti di equilibrio di mercato, seppur con livelli più elevati di rischio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro svolto ha come scopo l’implementazione e la validazione di un modello di cambiamento di fase mediante l’utilizzo del codice commerciale Comsol Multiphysics, che permette la modellazione e la risoluzione di equazioni matematiche che governano ambienti multifisici. La validazione dei modelli sviluppati è stata effettuata mediante confronto sia con soluzioni analitiche di riferimento, sia con soluzioni numeriche ottenute utilizzando il codice commerciale ProCAST, sviluppato appositamente per simulazioni di processi fusori I problemi analizzati hanno riguardato lo scambio termico sia in regime di sola conduzione, sia in presenza di convezione naturale all’interno di un materiale in cambiamento di fase solido-liquido. È stato considerato sia il caso di sostanze pure, quindi con un’unica temperatura di cambiamento di fase, sia il caso di leghe metalliche, la cui transizione di fase avviene in un intervallo di temperatura.  

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo della tesi è stato quello di indagare il complesso problema della vulnerabilità sismica dei ponte in muratura ad arco utilizzando modelli semplificati. Dopo una descrizione dei materiali da costruzione impiegati nella realizzazione e dei principali elementi dei un ponti in muratura, si è indirizzato lo studio di un ponte ad arco situato nel comune di San Marcello Pistoiese. Viene mostrato un modello numerico che permette di descrivere il comportamento strutturale del ponte sotto azione sismica e di valutare la capacità di carico del ponte sottoposto ad una azione trasversale. In un secondo momento viene descritta la realizzazione di un modello in scala del ponte, che è stato sottoposto a prove distruttive effettuate per valutare la capacità di carico del ponte rispetto ad un ipotetica azione orizzontale. Si è cercato poi di inquadrare il problema in un modello teorico che faccia riferimento all'analisi limite. Esso descrive un cinematismo di collasso a telaio che prende spunto dal quadro fessurativo del modello in muratura. Infine sono stati presentati modelli FEM numerici in ordine di complessità crescente, cercando di inquadrare il comportamento meccanico del prototipo del ponte. Tre tipi di modelli sono rappresentati: un telaio incernierato alle estremità costituito da elementi beam con resistenza alla flessione . Il secondo tipo è costituito da una reticolare equivalente che mima lo schema del ponte ed è formato solo da bielle. Infine, il terzo tipo cerca di descrivere l'intero modello con elementi tridimensionali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi nasce come risultato di un'esperienza di stage svolta presso l'ufficio Pianificazione e Risk Management in Cassa di Risparmio di Cento; l'obiettivo di questo lavoro è la descrizione dell'analisi da me svolta per la ricostruzione del metodo di determinazione del tasso interno di trasferimento adottato in questa banca. A questo studio è stata aggiunta una sezione legata all'analisi e all'implementazione di due modelli stocastici per l'evoluzione dei tassi di interesse (modello di Vasicek e modello CIR).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le reti veicolari, anche dette VANET, sono da tempo oggetto di studio. Durante il periodo di ricerca svolto presso l'Università della California Los Angeles (UCLA) è stato possibile studiare i protocolli adatti allo scambio di contenuti fra i veicoli secondo il paradigma del Named Data Networking (NDN). Il Named Data Networking rappresenta un nuovo modello di comunicazione per il reperimento dei contenuti all'interno della rete. Nelle VANET ogni veicolo è potenzialmente un fornitore di contenuti, oltre che un richiedente. L'infrastruttura di riferimento posta all'interno del campus universitario permette il reperimento di dati necessario allo studio del problema, non solo da un punto di vista pratico ma anche da un punto di vista teorico. Infatti, data la tipologia dei test e le difficoltà intrinseche che essi comportano, l'attività di simulazione svolge un ruolo importante per lo sviluppo e lo studio del protocollo all'interno delle reti veicolari. L'attività di ricerca svolta si articola nei seguenti aspetti: introduzione al nuovo paradigma di comunicazione: principi del Named Data Networking, funzionamento di NDN, reti veicolari, applicabilità di NDN alle VANET; modelli di mobilità per le reti veicolari: linee guida per la costruzione di un modello di mobilità, situazione attuale dei modelli disponibili, simulatori di rete, strumenti utilizzati e il loro funzionamento; attività di simulazione: pianificazione e implementazione di diverse tipologie di scenari di reti veicolari; analisi dei dati raccolti dalla fase precedente: vengono elaborati i dati raccolti e si cerca di catturarne gli aspetti più significativi. L'obiettivo è quello di condurre uno studio di fattibilità sull'applicazione di NDN alle reti mobili, in particolare alle reti veicolari in ambito urbano. Al momento in cui è iniziata la collaborazione con il gruppo di ricerca del Network Research Lab di UCLA, era da poco stata rilasciata la prima versione di NDN contenente l'estensione pensata per il veicolare, quindi non erano presenti in letteratura studi condotti per questo tipo di scenari. Lo scopo è quello di estrarre informazioni e ricavarne significative indicazioni sulle prestazioni del sistema.