161 resultados para Conto de fadas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quadro legislativo europeo e nazionale e nuovi decreti della regione Emilia Romagna riguardanti le misure per il contenimento dei consumi energetici nell'edilizia. Analisi energetica di un edificio residenziale. Studio di alcuni interventi proposti al fine di incrementare le prestazioni energetiche dell'edificio, diminuendone le dispersioni verso l'ambiente esterno e/o migliorando il rendimento dell'impianto. Tali interventi sono volti alla riduzione dei consumi, sia economici sia di combustibile fossile, e al miglioramento delle condizioni di benessere termoigrometrico. Successiva analisi economica degli interventi, utilizzando come indici il VAN e il PBT e tenendo conto dell'Ecobonus. Relazione tra gli investimenti iniziali di cui necessitano tali interventi e la riduzione dell'indice di prestazione energetica ottenuta. Relazione tra gli investimenti iniziali necessari e i relativi valori di risparmio annuo monetario che si ottiene in seguito alla diminuzione di energia primaria e quindi di combustibile utilizzato per il riscaldamento e la produzione di acqua calda sanitaria. Confronto fra i vari interventi al fine di valutarne la convenienza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’idea di questa tesi è nata dalla volontà di verificare il lavoro svolto come oggetto di studio di illustri scienziati che si prefissero come traguardo la risoluzione di questo problema, che aveva come obiettivo la comprensione, la previsione e l’ottimizzazione dei fenomeni legati allo scambio termico convettivo attraverso le svariate geometrie di superficie. Gli steps per il raggiungimento dello scopo oggetto di questa tesi, pertanto, possono essere così riassunti: 1. definizione di una corretta metodologia di calcolo dei campi fluidodinamico e termico, per un condotto piano infinitamente lungo, in condizioni di completo sviluppo; 2. dimostrazione della fattibilità di un’ottimizzazione di tale geometria, tramite l’utilizzo del software Mathematica; 3. trovare l’andamento del numero di Nusselt e verificare se il risultato ottenuto coincide con il risultato che si trova in letteratura relativamente al caso studiato. Da quanto ottenuto mediante i calcoli realizzati con il software Mathematica possiamo concludere che l’andamento del numero di Nusselt, ottenuto tenendo conto delle condizioni al contorno di tipo T in un condotto con pareti piane infinitamente lungo, ci dimostrano che i calcoli precedentemente effettuati sono corretti in quanto corrispondo ai risultati presenti in letteratura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi "Analisi del ciclo di lavorazione e dei costi di trattamenti termici" è stata svolta in collaborazione con l'azienda PASELLO TRATTAMENTI TERMICI s.r.l. che si occupa di trattamenti termici dei metalli per conto terzi. L’obiettivo è svolgere l’analisi del ciclo di lavorazione e dei costi di due prodotti ricevuti in conto lavoro dall’azienda, confrontando i trattamenti termici di cementazione in atmosfera e a bassa pressione. Nel capitolo 1 sono descritti i tratti generali dell’azienda, le risorse produttive di cui dispone e come vengono gestite l’identificazione e la tracciabilità dei prodotti durante il processo produttivo. Nel capitolo 2 viene analizzato il ciclo di lavorazione in atmosfera di un prodotto del cliente Sarbo Spa, sottoposto al trattamento termico di cementazione in atmosfera. Dunque vengono descritti il trattamento termico e le caratteristiche principali dei pezzi. Allo stesso modo, nel capitolo 3, viene analizzato il ciclo di lavorazione in bassa pressione di un prodotto del cliente Seven Diesel Spa, sottoposto al trattamento termico di cementazione a bassa pressione. Nel capitolo 4 viene svolta l’analisi dei costi, secondo la logica “full costing”, tenendo distinti i due ordini e determinando il costo industriale. Vengono analizzati gli investimenti nelle due linee, i costi di ammortamento, i costi dei materiali di consumo, i costi di manodopera e i costi dei gas di processo, fino a determinare il costo totale di fornata per la cementazione in atmosfera e per la cementazione a bassa pressione, e quindi l’euro al chilo e al pezzo dei due ordini. Inoltre è quantificata l’incidenza dei costi in percentuale sul costo totale di fornata. Nella conclusione viene sottolineato il fatto che, nonostante l’investimento in una linea innovativa come quella a bassa pressione sia superiore rispetto a quello per la linea in atmosfera, se si considera l’intero processo produttivo, risulta più conveniente la cementazione in bassa pressione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Villa Adriana presenta un ampio spettro di possibili casi studio finalizzati ad approfondire il tema della documentazione e della catalogazione dei Beni Culturali. La diffusione della rete Internet ha oggi determinato la necessità di gestire le informazioni in forma distribuita. Nel settore dei B.C., per anni le informazioni relative agli stessi venivano riassunte in schede, “beni schedati” per l’appunto, in modo da facilitarne la consultabilità e l’organizzazione manuale. Nel primo periodo della informatizzazione il processo è stato perfettamente uguale: schede, unità di misura e campi rimasero gli stessi, ma digitalizzati. È chiaro che oggi un sistema del genere appare poco appropriato rispetto alle proprietà dei sistemi digitali, per consentirne lo studio e/o la fruizione. Quindi è nata l’esigenza di migliorare la gestione dei dati raccolti e aggiornare la scheda tenendo conto dell’esperienza sia di coloro che lavorano nel campo della catalogazione dei beni culturali sia di coloro che operano nelle Soprintendenze e nelle Università. Tutto ciò ha spinto il Ministero per i Beni e le Attività Culturali a pensare una soluzione al fine di creare un processo evolutivo dei cittadini. L’“innovazione tecnologica”, oltre ad essere un’implementazione di una nuova regola organizzativa, miglio9ra il supporto alla salvaguardia dei beni artistici e archeologici, mettendo a disposizione dei tecnici delle soprintendenze e delle forze dell’ordine strumenti che semplificano l’attività nella tutela del patrimonio culturale. È innegabile il fatto che oggi i nuovi “media” siano il fulcro di un “movimento” verso i modelli rinnovati di comunicazione della conoscenza che offrono le forme più rapide e immediate dell’offerta culturale. Il sistema informativo permette di incrociare le informazioni di carattere tecnico con i dati relativi alla conoscenza del bene e alla sua storia, mettendoli in relazione alla specifica area a cui si riferiscono.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, lo scenario di crescente competizione su cui si affaccia il mercato ha spinto le aziende a interessarsi sempre più frequentemente all’ingegneria della manutenzione, allo scopo di avvalersi di tecniche che permettano di pianificare strategie di manutenzione per i sistemi produttivi che siano efficaci nel minimizzare i costi di gestione garantendo prestazioni e livelli di sicurezza elevati. Le tecniche analitiche tipiche dell’ingegneria della manutenzione sono nate in settori industriali che richiedono elevati livelli di progresso tecnologico (aeronautico, nucleare), e si basano su ipotesi specifiche stringenti, che risultano limitanti nel panorama sempre più vasto ed eterogeneo in cui ne si richiede l’applicazione. D’altra parte, la rimozione di tali ipotesi rende necessario il ricorso a tecniche di risoluzione numeriche. In questa tesi si definisce un nuovo modello che permetta di caratterizzare un sistema di produzione tenendo conto di tutti i possibili aspetti di interesse nell’ambito dell’ingegneria della manutenzione. Inoltre, sono descritti gli algoritmi definiti per la risoluzione di tale modello.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo sviluppo sistematico di modelli subject-specific computerizzati per l’analisi di trattamenti personalizzati è attualmente una realtà. Infatti di recente sono state sviluppate molte tecnologie per la creazione di modelli virtuali ad elementi finiti, che ricreano accuratamente le geometrie specifiche del soggetto e tutte le proprietà fondamentali per ricreare le capacità motorie, basandosi su analisi d’immagine quantitative. Tuttavia, per determinare le forze agenti sul sistema, necessitiamo di una intera analisi di cammino, solitamente in combinazione con uno studio di simulazione di dinamica inversa. In questo elaborato, mi propongo di illustrare i procedimenti per creare un modello subject-specific partendo da dati di imaging (da tomografie computerizzate) di un paziente reale affetto da displasia congenita dell’anca, e gli strumenti che ci permettono di effettuare le simulazioni del modello, al fine di ottenere informazioni quantitative circa le grandezze che governano la dinamica del cammino del paziente. Il corpi rigidi del modello scheletrico saranno costruiti mediante la tecnica della segmentazione 3D, e verranno utilizzati per costruire un sistema articolato dotato di attuatori muscolo-tendinei e giunti articolari a due o tre gradi di libertà. Per conseguire questo obiettivo si farà uso del software, “NMSBuilder”, per poi inserirlo in un programma di simulazione di dinamica del movimento, “OpenSim”, che ci permetterà di calcolare forze muscolari, forze di contatto e momenti articolari del modello. Questi risultati saranno di fondamentale importanza per studiare riabilitazioni ad hoc per pazienti affetti da DCA che devono essere sottoposti ad artroprotesi totale. Lo scopo di questo studio sarà anche quello di analizzare la sensibilità delle previsioni dei modelli specifici durante la deambulazione tenendo conto delle incertezze nell'identificazione delle posizioni dei body-landmarks, della massima tensione muscolare e della geometria muscolo-tendinea.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato esplora l’attitudine delle organizzazioni nei confronti dei processi di business che le sostengono: dalla semi-assenza di struttura, all’organizzazione funzionale, fino all’avvento del Business Process Reengineering e del Business Process Management, nato come superamento dei limiti e delle problematiche del modello precedente. All’interno del ciclo di vita del BPM, trova spazio la metodologia del process mining, che permette un livello di analisi dei processi a partire dagli event data log, ossia dai dati di registrazione degli eventi, che fanno riferimento a tutte quelle attività supportate da un sistema informativo aziendale. Il process mining può essere visto come naturale ponte che collega le discipline del management basate sui processi (ma non data-driven) e i nuovi sviluppi della business intelligence, capaci di gestire e manipolare l’enorme mole di dati a disposizione delle aziende (ma che non sono process-driven). Nella tesi, i requisiti e le tecnologie che abilitano l’utilizzo della disciplina sono descritti, cosi come le tre tecniche che questa abilita: process discovery, conformance checking e process enhancement. Il process mining è stato utilizzato come strumento principale in un progetto di consulenza da HSPI S.p.A. per conto di un importante cliente italiano, fornitore di piattaforme e di soluzioni IT. Il progetto a cui ho preso parte, descritto all’interno dell’elaborato, ha come scopo quello di sostenere l’organizzazione nel suo piano di improvement delle prestazioni interne e ha permesso di verificare l’applicabilità e i limiti delle tecniche di process mining. Infine, nell’appendice finale, è presente un paper da me realizzato, che raccoglie tutte le applicazioni della disciplina in un contesto di business reale, traendo dati e informazioni da working papers, casi aziendali e da canali diretti. Per la sua validità e completezza, questo documento è stata pubblicato nel sito dell'IEEE Task Force on Process Mining.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi nasce in seguito all’esperienza di tirocinio svolta presso l’Arcispedale Santa Maria Nuova di Reggio Emilia. Fulcro di questo lavoro è lo sviluppo di un sistema di pianificazione della dose per il trattamento dei pazienti sottoposti a Molecular Radionuclide Therapy (MRT). Presso tale struttura ospedaliera è già stato sviluppato uno strumento che si appoggia all’ambiente di lavoro Matlab per il calcolo dosimetrico. Tale programma è chiamato VoxelMed. Si tratta di uno strumento di calcolo che lavora al così detto voxel-level, tecnica di sviluppo recente che permette il calcolo della dose assorbita all’interno di un paziente in modo più dettagliato rispetto ai metodi di calcolo basati unicamente sulla stima media per organo, tipicamente impiegati in dosimetria tradizionale. Parte del lavoro di tesi consiste nell’implementare nuove modalità di calcolo ed aggiungere ulteriori accorgimenti all’attuale versione di VoxelMed. In VoxelMed è stata poi integrata ex-novo una componente di calcolo di misure radiobiologiche, in particolare della BED. La dose assorbita non è infatti un parametro sufficiente per valutare gli effetti della radiazione sui tessuti, a parità di tipo ed energia della radiazione gli effetti possono essere molto variabili. La BED è il parametro che tiene conto della risposta del tessuto sano o cancerogeno alla radiazione. Parte del lavoro è stato svolto sperimentalmente, tramite misure con fantocci acquisiti o preparati ad hoc. In particolare si sono utilizzati diverse tipologie di fantocci, per effettuare protocolli di calibrazione dei sistemi di acquisizione, misure di curve di effetto di volume parziale e test finali di verifica. Per un ulteriore verifica delle prestazioni di calcolo si sono effettuate misurazioni su un gruppo di pazienti e si sono confrontati i risultati con quelli ottenuti dal software maggiormente utilizzato nella pratica clinica, OLINDA/EXM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel sistema nervoso centrale i neuroni comunicano l'uno con l'altro attraverso le connessioni sinaptiche e sono soggetti a centinaia di stimoli, ma hanno la capacità di distinguerli l'uno dall'altro. L'abilità delle sinapsi di interpretare questi cambiamenti morfologici e biochimici è detta \textit{plasticità sinaptica} e l'obiettivo di questa tesi è proprio studiare un modello per le dinamiche di questo affascinante processo, da un punto di vista prima deterministico e poi stocastico. Infatti le reazioni che inducono la plasticità sinaptica sono ben approssimate da equazioni differenziali non lineari, ma nel caso di poche molecole bisogna tener conto delle fluttuazioni e quindi sono necessari dei metodi di analisi stocastici. Nel primo capitolo, dopo aver introdotto gli aspetti fondamentali del sistema biochimico coinvolto e dopo aver accennato ai diversi studi che hanno approcciato l'argomento, viene illustrato il modello basato sull'aggregazione delle proteine (PADP) volto a spiegare la plasticità sinaptica. Con il secondo capitolo si introducono i concetti matematici che stanno alla base dei processi stocastici, strumenti utili per studiare e descrivere la dinamica dei sistemi biochimici. Il terzo capitolo introduce una giustificazione matematica riguardo la modellizzazione in campo medio e vede una prima trattazione del modello, con relativa applicazione, sui moscerini. Successivamente si applica il modello di cui sopra ai mammiferi e se ne studia nel dettaglio la dinamica del sistema e la dipendenza dai parametri di soglia che portano alle varie transizioni di fase che coinvolgono le proteine. Infine si è voluto osservare questo sistema da un punto di vista stocastico inserendo il rumore di Wiener per poi confrontare i risultati con quelli ottenuti dall'approccio deterministico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un problema fondamentale nello studio delle particelle elementari è disporre di misure più accurate possibile delle traiettorie che queste seguono all'interno dei rivelatori. La precisione di misura dei parametri di traccia è importante per poter descrivere accuratamente gli eventi e le interazioni che avvengono all'interno dei rivelatori. LHCb è un esempio di esperimento progettato con lo scopo di ottenere misure di precisione dei parametri della cinematica delle particelle per poter studiare la violazione delle simmetrie. Rivelatori come quello dell'esperimento LHCb utilizzano avanzate tecniche di tracciamento per individuare le traiettorie. Queste sono influenzate da fattori di rumore dovuti all'interazione tra le particelle e il materiale del rivelatore stesso. Nell'analisi delle misure effettuate quindi occorre tenere conto che sia la sensibilità del rivelatore che i fattori di rumore contribuiscono nella determinazione dell'incertezza sulla misura. Uno strumento matematico usato per ottenere precise stime dei parametri di traccia è il filtro di Kalman, che implementato su un campione di misure di una determinata grandezza, consente di minimizzare gli effetti dovuti a rumori statistici. In questo lavoro di tesi sono stati studiati la struttura e il funzionamento del rivelatore dell'esperimento LHCb e dei sistemi di tracciamento che lo caratterizzano e che ne costituiranno il futuro aggiornamento. Inoltre è stata analizzata l'azione del filtro di Kalman, implementandolo in una simulazione di tracciamento al calcolatore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi in oggetto è stata svolta presso la Galletti spa. L'obiettivo iniziale era quello di studiare un percorso all'interno dello stabilimento produttivo al fine di enfatizzare le peculiarità della produzione tenendo conto dei fattori riguardanti la sicurezza. E' stata inoltre realizzata, con l'aiuto di una agenzia di comunicazione, una piattaforma di comunicazione. Analizzando il processo produttivo è emersa un'ulteriore problematica: l'elevata quantità di work in progress stoccati a bordo linea. In particolare, in questa tesi è stata fatta un'analisi preliminare circa una linea di produzione. Sono stati analizzati, in termini di quantità, i prodotti che vengono assemblati in essa, e i codici dei semilavorati utili. In seguito sono state studiate le operazioni che vengono svolte in ogni postazione di lavoro e, in funzione del ciclo di lavoro gli sono stati assegnati i codici dei semilavorati. L'analisi si è conclusa studiando i consumi medi. Le prossime fasi dell'analisi prevedono lo studio dei volumi dei codici e di conseguenza la definizione delle aree di stoccaggio e lo studio dei lotti di produzione.