1000 resultados para Modello organizzativo e funzionale, Unità Complesse di Cure Primarie.
Resumo:
La tesi affronta il problema di Finanza Matematica dell'asset allocation strategica che consiste nel processo di ripartizione ottimale delle risorse tra diverse attività finanziarie presenti su un mercato. Sulla base della teoria di Harry Markowitz, attraverso passaggi matematici rigorosi si costruisce un portafoglio che risponde a dei requisiti di efficienza in termini di rapporto rischio-rendimento. Vengono inoltre forniti esempi di applicazione elaborati attraverso il software Mathematica.
Resumo:
Nella prima parte di questo progetto di tesi, ho analizzato tutte le nozioni teoriche rilevanti in merito alla teoria della transizione. Il primo concetto condiviso in questa trattazione è quello di transizione. Nella parte finale del capitolo, il focus si sposta sul ruolo, in una generica transizione, delle nicchie. Lo strumento centrale in questa struttura sono gli esperimenti di transizione, i quali forniscono un approccio alternativo ai progetti di innovazione classica che sono incentrati nell'ottenimento di soluzioni a breve termine. Vi è dunque una forte relazione tra nicchia e sperimentazione. Infine la trattazione si concentra sul tema dello Strategic Niche Management. Nel secondo capitolo, analizzo il tema della sostenibilità inserita in un contesto universitario. Questa sezione si focalizza sulle strategie di alto livello richieste per dare avvio alla transizione universitaria verso la sostenibilità, identificando gli ostacoli e gli elementi portanti, e definendo una vision al fine di concretizzarla. Il capitolo guida, passo per passo, le università che tentano di mettere in pratica il proprio obiettivo e la vision di sviluppo sostenibile. Una delle problematiche principali per stimare gli sforzi verso la sostenibilità nelle università è costituita in modo particolare dagli strumenti di valutazione. Per questo motivo, è stata sviluppata la valutazione grafica della sostenibilità nell'università (GASU). Al fine di riassumere quanto detto fin qui ed avere un quadro generale più chiaro dell'organizzazione di un campus universitario che mira a diventare sostenibile, ho utilizzato lo strumento gestionale della SWOT Analysis. Negli ultimi due capitoli, infine, analizzo nel dettaglio il modello Green Office. La teorizzazione di questo modello e l'elaborazione dei 6 principi del Green Office sono state effettuate da rootAbility. Le seguenti pagine presentano 3 casi studio di come i 6 principi dei Green Office sono stati adattati alle 3 unità di sostenibilità guidate da studenti e supportate da staff qualificato. L'oggetto della trattazione sono i principali GO affermatisi nei Paesi Bassi. A seguito dell'introduzione del modello relativo al Green Office e dell'illustrazione degli esempi presi in esame, è stato sfruttato lo strumento della feasibility analysis al fine di giudicare se l'idea di business sia praticabile. Il mezzo con cui ho condotto l'analisi sotto riportata è un questionario relativo al modello di Green Office implementato, nel quale viene chiesto di valutare gli aspetti relativi alla organizational feasibility e alla financial feasibility. Infine nella sezione finale ho considerato i Green Office come fossero un unico movimento. L'analisi mira a considerare l'impatto globale del Green Office Movement nei sistemi universitari e come, a seguito del loro consolidarsi nella struttura accademica, possano divenire prassi comune. La struttura proposta contiene elementi sia da il SNM (Strategic Niche Management) che dal TE (Transition Experiment).
Resumo:
L'obiettivo di questo lavoro di tesi è quello di implementare un codice di calcolo, attraverso l'algoritmo di Lubachevsky-Stillinger, in modo da poter prevedere la frazione volumetrica occupata dalle particelle solide che costituiscono il grain negli endoreattori a propellente solido. Particolare attenzione verrà rivolta al problema dell'impacchettamento sferico random (Random-Close Packing) che tale algoritmo cerca di modellare, e le ipotesi per cui tale modellazione può essere applicata al tipo di problema proposto. Inoltre saranno descritte le procedure effettuate per l'ottenimento dei risultati numerici delle simulazioni e la loro motivazione, oltre ai limiti del modello utilizzato e alle migliorie apportate per un'esecuzione più efficiente e veloce.
Resumo:
All’interno di questo elaborato di tesi verrà proposto un Modello di Valutazione e Selezione delle Iniziative commerciali, costruito nel corso dell’esperienza di stage presso la società Astaldi. Nella parte iniziale del lavoro, verranno presentati dei concetti teorici che costituiscono il presupposto e la base per la costruzione del Modello. Il background di riferimento è quello di un’azienda che lavora nel mondo delle costruzioni, sviluppando progetti complessi a livello internazionale. Nel primo capitolo, dopo una breve introduzione sul Project Management, si prenderà in esame l’ambiente multiproject, un ambiente nel quale gran parte delle aziende si trova ad operare e nel quale opera anche l’Astaldi. Successivamente, partendo da queste considerazioni legate all’ambiente multi-progetto, verranno descritte le potenzialità ed i vantaggi di un approccio Project Portfolio Management, come evoluzione naturale del Project Management. Nell’ambito del Project Portfolio Management, verrà analizzata l’importanza del processo di selezione dei progetti per la costruzione del portafoglio e le relative tecniche di selezione. Nel secondo capitolo verranno presentate le Misure e gli Indicatori di performance definiti in letteratura. Verranno anche introdotti dei possibili Indicatori di Valutazione, la cui misurazione è particolarmente legata al Project Life Cycle: questi verranno fatti propri all’interno del Modello presentato che darà come output, proprio un Indicatore di Valutazione ex-ante del progetto. Nel terzo capitolo verrà illustrata la società Astaldi al fine di comprendere il più possibile il contesto in cui e per cui si è costruito tale Modello. Nel quarto ed ultimo capitolo sarà analizzato il Modello stesso, descrivendo le modalità con cui è stato realizzato, le modalità operative per la sua applicazione ed alcuni esempi esplicativi del suo utilizzo.
Resumo:
Le malattie neurodegenerative sono caratterizzate da aggregazione proteica, dipendente dalla perdita della usuale struttura fisiologica funzionale delle proteine coinvolte, a favore di conformazioni tossiche (patologiche). Il modello corrente descrive questi cambiamenti conformazionali come eventi rari e ritiene che non esista una sola conformazione patogena, ma che tali possibili conformazioni siano piuttosto eterogenee. La caratterizzazione di queste strutture è, di conseguenza, difficile con le tradizionali tecniche in bulk che permettono di studiare solo la conformazione media e non rendono possibile il riconoscimento delle caratteristiche dei conformeri individuali. Lo sviluppo delle tecniche di singola molecola ha permesso di studiare in modo approfondito le conformazioni possibili. In questo lavoro la spettroscopia di forza di singola molecola basata sull'AFM viene applicata a PrP (proteina responsabile delle encefalopatie spongiformi trasmissibili). Si studiano gli equilibri conformazionali del monomero e quelli di costrutti oligomerici, allo scopo di caratterizzare gli step iniziali dei processi aggregativi. Nel corso di questo lavoro di tesi è stato, in particolare, sviluppato un sistema di analisi dati, al fine di studiare in modo quantitativo le distribuzioni di eventi ottenute. Grazie a tale strumento è stato possibile riconoscere i segnali di unfolding della conformazione nativa del monomero e notare come essa sia presente anche in costrutti oligomerici, ad indicare come questo ripiegamento sia stabile anche in presenza di più monomeri ravvicinati. Si è osservato l'effetto del pH sulla stabilità di tale struttura, notando come pH acidi destabilizzino il ripiegamento nativo. Inoltre si è studiato il ruolo dell'orientazione dei monomeri nella formazione di strutture dimeriche. Monomeri e oligomeri di PrP sono stati descritti come proteine parzialmente strutturate il cui panorama energetico contiene molti minimi locali, dando origine a parecchie conformazioni transienti.
Resumo:
In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.
Resumo:
Il Mar Ionio è una delle zone tettonicamente più attive del Mediterraneo e per questo rappresenta un’area ottimale per studiare i rapporti tra sedimentazione e tettonica. Più del 90% dei sedimenti quaternari del Mar Ionio sono costituiti da unità torbiditiche messe in posto da sismi, in particolare, uno di questi depositi è definito “Homogenite” oppure “HAT” (Homogenite/Augias Turbidite), riferibile al terremoto/tsunami di Creta del 365 d.C.. In questo contesto, l’analisi delle associazioni a foraminiferi bentonici all’interno delle unità torbiditiche può fornire utili indicazioni riguardo ai paleoambienti di provenienza del sedimento. Lo scopo della tesi è studiare le associazioni a foraminiferi presenti all’interno del sondaggio CQ14_01, prelevato nel Mar Ionio a 3793 m di profondità, nel prisma di accrezione calabro e che presenta una successione riferibile alla HAT dello spessore di circa 7 m. All’interno della HAT, le analisi micropaleontologiche hanno evidenziato la presenza di una cospicua quantità di foraminiferi bentonici di dimensioni comprese tra 63 e 125 µm, costituite principalmente da specie presenti in un ampio intervallo batimetrico e subordinatamente da taxa tipici di piattaforma interna (principalmente Patellina corrugata, Spirillina vivipara e Rosalina spp.). La presenza di una quantità relativamente abbondante di taxa di piattaforma interna suggerisce che sia stata l'onda di ritorno dello tsunami a innescare la torbidite, mentre l'onda di andata avrebbe prodotto la rimobilizzazione del sedimento di piattaforma. Un simile modello di innesco delle torbiditi legate a tsunami è stato elaborato per spiegare alcune torbiditi messe in posto a seguito dell'evento sismico di Tohoku-Oki del 2011 (Arai et al., 2013). Lo studio eseguito in questa Tesi suggerisce che l’analisi delle associazioni a foraminiferi in depositi torbiditici può costituire uno strumento utile per determinare i paleoambenti di provenienza dei fossili e probabilmente anche per ricostruire le modalità di innesco e di messa in posto dei flussi torbiditici.
Resumo:
Sviluppo di un modello di ottimizzazione per lo scheduling dei veicoli elettrici in car sharing dell'Università di Bologna.
Resumo:
La conoscenza e la determinazione dell’equazione cinetica è indispensabile per lo studio, la progettazione e l’ottimizzazione di qualsiasi reattore chimico. Normalmente l’analisi cinetica viene eseguita con reattori che operano in maniera quanto più prossima a condizioni ideali in modo da rendere più facile e meno affetta da errori l’interpretazione dei risultati sperimentali. In fotocatalisi è invece di fatto impossibile realizzare, anche in presenza di una perfetta miscelazione, un sistema ideale in cui si abbia un’uniforme distribuzione di tutti i parametri che influenzano la velocità di reazione. Infatti in un reattore fotocatalitico il campo di radiazione è intrinsecamente non uniforme poiché l’assorbimento della radiazione e quindi la sua attenuazione sono necessari per l’attivazione della reazione. Pertanto l’impossibilità di realizzare un sistema fotocatalitico che operi in condizioni quanto più possibile prossime all’idealità e l’incapacità di misurare sperimentalmente i valori locali di velocità di reazione e di velocità di assorbimento dei fotoni possono rendere complessa una corretta analisi cinetica. In questo lavoro vengono studiate le modalità con cui condurre comunque una rigorosa analisi cinetica di un sistema fotocatalitico slurry, nel quale il fotocalizzatore è disperso come polvere fine in sospensione nella soluzione reagente. La reazione studiata è quella di mineralizzazione dell’acido formico. Sono stati impiegati due reattori con geometrie ed illuminazioni differenti: un reattore piano illuminato con luci LED ed un reattore anulare con lampada lineare fluorescente blacklight. È stata verificata la validità di una particolare equazione cinetica, che tiene conto dell’effetto non lineare della velocità specifica (cioè per unità di massa di catalizzatore) di assorbimento dei fotoni e delle concentrazioni del reagente, dell’ossigeno e del fotocatalizzatore. Sono state inoltre determinate le condizioni critiche che possono portare ad errori nell’analisi cinetica ed è stata dimostrata l’utilità di un modello matematico che tiene conto dei bilanci di energia raggiante, di materia nonché del campo di moto. Il modello matematico, in cui compare un solo parametro aggiustabile (il tempo caratteristico di reazione od equivalentemente la costante cinetica), è in grado di riprodurre molto soddisfacentemente i risultati sperimentali in tutte le diverse condizioni operative: diversa geometria di reattore, diversa illuminazione, differente spessore ottico, diverse contrazioni di substrato e di fotocatalizzatore. Infine è stato mostrato come l’equazione cinetica ad una sola costante cinetica, che è stata adottata, descriva meglio la cinetica della reazione fotocatalitica in esame di altre equazioni a due o più costanti cinetiche spesso utilizzate in fotocatalisi e basate sulla teoria di Langmuir-Hinshelwood, a dimostrazione di un diverso meccanismo di reazione.
Resumo:
L'isolamento gravitazionale delle sonde dello spazio profondo durante le loro fasi di crociera ed i loro esigui livelli di vibrazioni, le rendono la migliore collocazione possibile per mini-laboratori automatici di fisica fondamentale da installare su di esse come strumenti scientifici. Date le note difficoltà di misurazione della costante di gravitazione universale, probabilmente dovute alla collocazione terrestre dei laboratori, si propone di dedicare un mini-laboratorio alla misurazione del valore locale ed istantaneo della costante G ed alla sua stabilità spazio-temporale durante il moto della sonda. La misurazione di G nel mini-laboratorio può essere effettuata rilasciando con attuatori elettrostatici, senza velocità relativa, due masse campione, preferibilmente due sfere d’oro da 1Kg, a distanza di 1 mm, e monitorando il loro libero moto, dominato dall’attrazione gravitazionale reciproca, con un sensore di spostamento laser interferometrico multicanale. Dopo il congiungimento le masse dovrebbero essere riposizionate e rilasciate nuovamente per una misurazione quasi continua della costante. Un meccanismo dorrebbe invece bloccare le masse durante le fasi dinamiche della sonda. Un sensore di spostamento interferometrico a fibre ottiche, FPS3010 della Attocube, appariva adatto ed un esperimento è stato realizzato per provarlo in un apparato simulante il mini-laboratorio. In una campana del vuoto isolata dalle vibrazioni, due cilindri in tungsteno da 1Kg sono stati sospesi orizzontante tramite micro-Dyneema a piastre in allumino movimentate da nanoposizionatori piezoelettrici dotati di encoder ottico nanometrico. Il sensore ha monitorato il moto radiale dei cilindri, le cui basi combacianti sono state posizionate a distanze di separazione variabili da 10 micron a 5000 micron. Malgrado il rumore meccanico ed una sorgente ignota di errore sistematico, un moto attrattivo è stato riscontrato differenzialmente o direttamente in molte misurazioni e nessuna ha mostrato un moto repulsivo. In alcune misurazioni è direttamente visibile la rotazione dell’asse di oscillazione dei cilindri sospesi. Il sensore si è comportato egregiamente.
Resumo:
Una tracciato anormale della rotula può provocare dolore anteriore al ginocchio dopo un’artroplastica e può condurre al fallimento dell’intervento stesso. È importante quindi valutare questo tracciato sia intra che post-operatoriamente, anche per validare disegni protesici innovativi e supportare il chirurgo per le più critiche decisioni chirurgiche al momento dell’impianto. Ad oggi però le valutazioni in-vivo della cinematica femoro-rotulea sono poche e poco attendibili; è per questi motivi che abbiamo deciso di analizzare l’articolazione con la tecnica video-fluoroscopica, appositamente adattata allo scopo di tale studio, a sei mesi di follow-up dall’intervento. Per lo studio abbiamo esaminato, tramite video-fluoroscopia 3D, sette pazienti che hanno subito l’impianto di una protesi totale al ginocchio con ricopertura della rotula. Successivamente le immagini sono state elaborate con un apposito software per ricostruire la cinematica 3D, e sono stati ottenuti i grafici per ogni grado di libertà dell’articolazione. Dall’analisi dei risultati, la tecnica utilizzata è risultata fattibile ed affidabile, infatti dai grafici si nota come la normale cinematica delle articolazioni studiate sia stata ripristinata. Questo studio, oltre a validare l’applicazione della tecnica video-fluoroscopica all’articolazione femoro-rotulea oltre che a quella tibio-femorale, dopo un confronto con i dati derivanti dalla navigazione chirurgica, ha consentito di validare anche questa tecnica intra-operatoria. Questo risultato potrà condurre ad una maggiore precisione nell’allineamento delle componenti protesiche da parte del chirurgo, con conseguente riduzione del rischio di fallimento dell’impianto.
Resumo:
L'obiettivo di questo lavoro di tesi è realizzare e validare un modello del propulsore Allison 250 c18 realizzato in Simulink. In particolare utilizzando i dati provenienti da prove sperimentali effettuate al banco prova del laboratorio di Propulsione e macchine della Scuola di Ingegneria e Archittetura vengono dapprima create le mappe prestazionali dei singoli componenti. Esse sono poi implementate all'interno del modello in Simulink, realizzato con struttura modulare a blocchi permettendo il modellamento di ogni singolo componente del motore. Successivamente i dati provenienti dalle simulazioni sono confrontati con i dati sperimentali, riscontrando risultati soddisfacenti. In ultimo si riporta brevemente una descrizione della compilazione del modello da utilizzare in una interfaccia LabVIEW per verificarne il funzionamento del modello in real-time.
Resumo:
L'informatica, assieme alle sue innovazioni tecnologiche, offre al mondo d'oggi uno scenario in continuo sviluppo evolutivo che permette di facilitare alcune necessità dell'essere umano. Con la nascita di internet e dei nuovi dispositivi cellulari, la comunicazione è stata resa più malleabile e immediata. Tuttavia, le nuove tecnologie utilizzano infrastrutture complesse che non sempre sono ampiamente sfruttate a causa delle loro esigenze quali scalabilità, risposte in tempo reale, o tolleranza. Per far fronte a queste caratteristiche, una nuova tendenza del software è quella di fornire autonomia e pro-attività alle entità nel sistema in modo da incrementare la loro interazione. Queste caratteristiche permettono di responsabilizzare i soggetti rendendo il sistema auto-organizzato, con una migliore scalabilità,robustezza, e quindi riducendo le esigenze di calcolo di ciascuna entità. Lo studio dei sistemi auto-organizzanti è stato ispirato alla natura, e in particolare, ai sistemi biologici. Questi sistemi mostrano le caratteristiche interessanti per gli scenari pervasivi, poichè sono robusti e resistenti, in grado di adattarsi al contesto ambientale e quindi reagiscono a determinate modifiche che si verificano nell'ambiente comportandosi di conseguenza. L'ingegneria dell'auto-organizzazione ha il compito di simulare e testare questi comportamenti presentando uno schema progettuale completo che permetta di presentare soluzioni ricorrenti a problemi noti. Tale schema è definito in termini informatici design pattern. Le entità, definite agenti, per interagire e comunicare tra di loro hanno bisogno di coordinarsi tramite un modello specifico. Nel nostro caso è stato scelto TuCSoN, poichè riesce a separare uno spazio dedicato allo scambio di informazioni da uno spazio dedicato alle specifiche che permette di descrivere delle politiche di comportamento per sistemi MAS implementati nell'opportuno linguaggio di programmazione ReSpecT.
Resumo:
Il Diabete, modello paradigmatico delle malattie croniche, sta assumendo negli ultimi anni le proporzioni di una pandemia, che non ha intenzione di arrestarsi, ma del quale, con l’aumento dei fattori di rischio, aumentano prevalenza e incidenza. Secondo stime autorevoli il numero delle persone con diabete nel 2035 aumenterà fino a raggiungere i 382 milioni di casi. Una patologia complessa che richiede lo sforzo di una vasta gamma di professionisti, per ridurre in futuro in maniera significativa i costi legati a questa patologia e nel contempo mantenere e addirittura migliorare gli standard di cura. Una soluzione è rappresentata dall'impiego delle ICT, Information and Communication Technologies. La continua innovazione tecnologica dei medical device per diabetici lascia ben sperare, dietro la spinta di capitali sempre più ingenti che iniziano a muoversi in questo mercato del futuro. Sempre più device tecnologicamente avanzati, all’avanguardia e performanti, sono a disposizione del paziente diabetico, che può migliorare tutti processi della cura, contenendo le spese. Di fondamentale importanza sono le BAN reti di sensori e wearable device, i cui dati diventano parte di un sistema di gestione delle cure più ampio. A questo proposito METABO è un progetto ICT europeo dedicato allo studio ed al supporto di gestione metabolica del diabete. Si concentra sul miglioramento della gestione della malattia, fornendo a pazienti e medici una piattaforma software tecnologicamente avanzata semplice e intuitiva, per aiutarli a gestire tutte le informazioni relative al trattamento del diabete. Innovativo il Clinical Pathway, che a partire da un modello Standard con procedimenti semplici e l’utilizzo di feedback del paziente, viene progressivamente personalizzato con le progressive modificazioni dello stato patologico, psicologico e non solo. La possibilità di e-prescribing per farmaci e device, e-learning per educare il paziente, tenerlo sotto stretto monitoraggio anche alla guida della propria auto, la rendono uno strumento utile e accattivante.
Resumo:
I calibratori di attività sono strumenti molto importanti per la pratica, diagnostica e terapeutica, in medicina nucleare, perché permettono di associare ad un radiofarmaco una misura accurata dell’attività dell’isotopo in esso contenuto; questo è fondamentale in quanto l’attività della sorgente esprime la quantità di farmaco somministrata al paziente. In questo lavoro è stato sviluppato il modello Monte Carlo di un calibratore di attività ampiamente diffuso nei laboratori di radiofarmacia (Capintec CRC-15), utilizzando il codice Monte Carlo FLUKA. Per realizzare il modello si è posta estrema attenzione nel riprodurre al meglio tutti i dettagli delle componenti geometriche della camera e dei campioni delle sorgenti radioattive utilizzati. A tale scopo, la camera di ionizzazione di un calibratore è stata studiata mediante imaging TAC. Un’analisi preliminare è stata eseguita valutando il confronto tra l’andamento sperimentale dell’efficienza della camera in funzione dell’energia dei fotoni incidenti e quello ottenuto in simulazione. In seguito si è proceduto con la validazione: si sono studiati a questo proposito la risposta del calibratore in funzione dell’altezza della sorgente e i confronti tra i fattori relativi (rispetto ad una sorgente certificata di 137Cs) e le misure di confronto sono state eseguite con diverse sorgenti certificate di 133Ba, 68Ge-68Ga, 177Lu ed uno standard tarato internamente di 99mTc. In tale modo, si è ricoperto l'intero campo di interesse dei principali radionuclidi impiegati nelle applicazioni diagnostiche e terapeutiche di Medicina Nucleare. Il modello sviluppato rappresenta un importante risultato per l’eventuale determinazione di nuovi fattori di calibrazione o per un futuro studio relativo all’ottimizzazione della risposta del calibratore.