469 resultados para Approssimazione, interpolazione, polinomi,funzioni,regolarizzazione


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro si è tentato di fornire un metodo per la calibrazione di modelli numerici in analisi dinamiche spettrali. Attraverso una serie di analisi time history non lineari sono stati ottenuti gli spostamenti relativi orizzontali che nascono, in corrispondenza della connessione trave-pilastro di tipo attritivo, quando una struttura prefabbricata monopiano viene investita dalla componente orizzontale e verticale del sisma. Con un procedimento iterativo su varie analisi spettrali sono state calibrate delle rigidezze equivalenti che hanno permesso di ottenere, con buona approssimazione, gli stessi risultati delle analisi time history. Tali rigidezze sono state poi restituite in forma grafica. Per riprodurre gli spostamenti relativi orizzontali con un’analisi dinamica spettrale è quindi possibile collegare le travi ai pilastri con degli elementi elastici aventi rigidezza Kcoll. I valori di rigidezza restituiti da questo studio valgono per un’ampia gamma di prefabbricati monopiano (periodo proprio 0.20s < T < 2.00s) e tre differenti livelli di intensità sismica; inoltre è stata data la possibilità di considerare la plasticizzazione alla base dei pilastri e di scegliere fra due diverse posizioni nei confronti della rottura di faglia (Near Fault System o Far Fault System). La diminuzione di forza d’attrito risultante (a seguito della variazione dell’accelerazione verticale indotta dal sisma) è stata presa in considerazione utilizzando un modello in cui fra trave e pilastro è posto un isolatore a pendolo inverso (opportunamente calibrato per funzionare come semplice appoggio ad attrito). Con i modelli lineari equivalenti si riescono ad ottenere buoni risultati in tempi relativamente ridotti: è possibile così compiere delle valutazioni approssimate sulla perdita di appoggio e sulle priorità d’intervento in una determinata zona sismica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’oggetto di questa tesi riguarda la predisposizione un sistema di ausilio per non vedenti, basato su visione 3D, alla comunicazione in rete. Si è quindi sviluppata un’applicazione per dispositivi iOS che sia in grado di ricevere e interpretare i dati inviati da tale sistema. In particolare, questo lavoro si inserisce in un lavoro più ampio che ha l’obiettivo di fornire diverse modalità di interfacciamento con il sistema di rilevazione ostacoli per utenti ipovedenti e di sostituire le attuali tecnologie cablate con tecnologie wireless. Il seguente lavoro descrive i problemi emersi e le soluzioni adottate durante lo sviluppo del sistema, al fine di fornire un’adeguata documentazione a coloro che avranno intenzione di proseguire nell’ampliamento delle funzioni realizzabili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi è incentrata sullo studio e sulla progettazione di un dispositivo wireless di feedback tattile per un sistema di ausilio per non vedenti o ipovedenti. Il dispositivo composto da micro motori vibranti avvisa l'utente di imminenti ostacoli nel suo cammino. La rilevazione degli ostacoli è opera del visore, un sistema composto da una videocamera stereo, con elaborazione su FPGA, collegata ad un Odroid-U3. Viene trattato anche lo sviluppo di un'applicazione server, con relativa libreria di funzioni, che permette al visore di comunicare con dispositivi iOS esterni. Quest'ultima parte è avvenuta in collaborazione con il collega Luca Ranalli che si è occupato dell' App client per smartphone e tablet iOS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I bacini idrografici appenninici romagnoli rappresentano una fonte idropotabile di essenziale importanza per la Romagna, grazie alla regolazione stagionale svolta dall’invaso artificiale di Ridracoli. Nel presente elaborato si è implementato un modello per lo studio e la valutazione del regime idrologico dei bacini idrografici allacciati all’invaso, affrontando sia gli aspetti relativi alla miglior spazializzazione dei dati metereologici in ingresso al modello (in particolare in relazione alla stima della temperatura, fondamentale per la rappresentazione dei processi di evapotraspirazione e dei fenomeni di accumulo e scioglimento nevoso), sia gli aspetti di calibrazione dei parametri, confrontando le simulazioni ottenute a partire da diverse configurazioni del modello in termini di rappresentazione spaziale e temporale dei fenomeni. Inoltre si è eseguita una regionalizzazione del modello su due sezioni fluviali che sono al momento oggetto di indagini idrologiche, fornendo supporto alla valutazione della possibilità di realizzazione di una nuova opera di presa. A partire dai dati puntuali dei sensori termometrici disponibili si è ricercata la migliore tecnica di interpolazione della temperatura sull’area di studio, ottenendo una discreta precisione, con un errore in procedura di ricampionamento jack-knife raramente superiore al grado centigrado. La calibrazione del modello TUWien in approccio semi-distribuito, sia quando applicato a scala oraria sia quando applicato a scala giornaliera, ha portato a buoni risultati. La complessità del modello, dovuta in gran parte alla presenza di uno specifico modulo per la gestione di accumulo e scioglimento nivale, è stata ripagata dalle buone prestazioni delle simulazioni ottenute, sia sul periodo di calibrazione sia su quello di validazione. Tuttavia si è osservato che l’approccio semi-distribuito non ha portato benefici sostanziali rispetto a quello concentrato, soprattutto in relazione al forte aumento di costo computazionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si presenta la realizzazione di un data-set ad alta risoluzione (30 secondi d'arco) di precipitazioni mensili (per il periodo 1921-2014), per la regione del Trentino-Alto Adige. Esso è basato su una densa rete di stazioni con osservazioni di lunga durata, sottoposte ai necessari controlli di qualità. La tecnica di interpolazione si basa sull'assunzione che la configurazione spazio-temporale del campo di una variabile meteorologica su una certa area possa essere descritta con la sovrapposizione di due campi: i valori normali relativi a un periodo standard (1961-1990), ossia le climatologie, e le deviazioni da questi, ossia le anomalie. Le due componenti possono venire ricostruite tramite metodologie diverse e si possono basare su data-set indipendenti. Per le climatologie bisogna avere un elevato numero di stazioni (anche se disponibili per un lasso temporale limitato); per le anomalie viceversa la densità spaziale ha un rilievo minore a causa della buona coerenza spaziale della variabilità temporale, mentre è importante la qualità dei dati e la loro estensione temporale. L'approccio utilizzato per le climatologie mensili è la regressione lineare pesata locale. Per ciascuna cella della griglia si stima una regressione lineare pesata della precipitazione in funzione dell'altitudine; si pesano di più le stazioni aventi caratteristiche simili a quelle della cella stessa. Invece le anomalie mensili si ricavano, per ogni cella di griglia, grazie a una media pesata delle anomalie delle vicine stazioni. Infine la sovrapposizione delle componenti spaziale (climatologie) e temporale (anomalie) consente di ottenere per ogni nodo del grigliato una serie temporale di precipitazioni mensili in valori assoluti. La bontà dei risultati viene poi valutata con gli errori quadratici medi (RMSE) e i coefficienti di correlazione di Pearson delle singole componenti ricostruite. Per mostrare le potenziali applicazioni del prodotto si esaminano alcuni casi studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si affronta lo studio di piastre isotrope e laminate mediante metodo GDQ e si confrontano i risultati con quelli ottenuti, per le stesse tipologie di piastre, mediante metodo FEM. Lo scopo del lavoro e quello di certificare la maggior efficienza del software di calcolo DiQuMASPAB, basato su teorie in forma forte, rispetto ai tradizionali software di calcolo agli elementi finiti attualmente in commercio. Il confronto ha come obiettivo quello di evidenziare i punti deboli dal punto di vista dell'approssimazione delle soluzioni e del costo computazonale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elaborato fornisce una introduzione al modello di Ising, utilizzato nello studio delle transizioni di fase tra la fase ferromagnetica e quella paramagnetica dei materiali. Nella prima parte viene trattato il modello unidimensionale, di cui viene esposta la soluzione esatta attraverso l'utilizzo delle matrici di trasferimento, dimostrando quindi l'inesistenza di una transizione di fase a temperature finite non nulle. Vengono calcolate le funzioni termodinamiche e se ne dimostra l'indipendenza dalle condizioni al contorno nel limite termodinamico.Viene proposta infine una spiegazione qualitativa del comportamento microscopico, attraverso la lunghezza di correlazione. Nella seconda parte viene trattato il caso a due dimensioni. Inizialmente viene determinata la temperatura critica per reticoli quadrati, attraverso il riconoscimento della presenza di una relazione di dualita tra l'espansione per alte e per basse temperature della funzione di partizione. Successivamente si fornisce la soluzione esatta attraverso una versione modificata del procedimento, originariamente ideato da L.Onsager, di cui e proposta una traccia della dimostrazione. Viene infine brevemente discussa l'importanza che questo risultato ebbe storicamente nella fisica delle transizioni di fase.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro si propone di sviluppare una analogia formale tra sistemi dinamici e teoria della computazione in relazione all’emergenza di proprietà biologiche da tali sistemi. Il primo capitolo sarà dedicato all’estensione della teoria delle macchine di Turing ad un più ampio contesto di funzioni computabili e debolmente computabili. Mostreremo quindi come un sistema dinamico continuo possa essere elaborato da una macchina computante, e come proprietà informative quali l’universalità possano essere naturalmente estese alla fisica attraverso questo ponte formale. Nel secondo capitolo applicheremo i risultati teorici derivati nel primo allo sviluppo di un sistema chimico che mostri tali proprietà di universalità, ponendo particolare attenzione alla plausibilità fisica di tale sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il cervello umano è composto da una rete complessa, formata da fasci di assoni, che connettono le diverse aree cerebrali. Il fascio arcuato collega l’area imputata alla com- prensione del linguaggio con quella dedicata alla sua produzione. Il fascio arcuato è presente in entrambi gli emisferi cerebrali, anche se spesso è utilizzato prevalente- mente il sinistro. In questa tesi sono state valutate, in un campione di soggetti sani, le differenze tra fascio arcuato destro e sinistro, utilizzando la trattografia, metodica avanzata e non invasiva che permette la ricostruzione della traiettoria delle fibre con immagini RM (Risonanza Magnetica) pesate in diffusione. A questo scopo ho utilizzato un algoritmo probabilistico, che permette la stima di probabilità di connessione della fibra in oggetto con le diverse aree cerebrali, anche nelle sedi di incrocio con fibre di fasci diversi. Grazie all’implementazione di questo metodo, è stato possibile ottenere una ricostruzione accurata del fascio arcuato, an- che nell’emisfero destro dove è spesso critica, tanto da non essere possibile con altri algoritmi trattografici. Parametrizzando poi la geometria del tratto ho diviso il fascio arcuato in venti seg- menti e ho confrontato i parametri delle misure di diffusione, valutate nell’emisfero destro e sinistro. Da queste analisi emerge un’ampia variabilità nella geometria dell’arcuato, sia tra diversi soggetti che diversi emisferi. Nell’emisfero destro l’arcuato incrocia maggiormente fibre appartenenti ad altri fasci. Nell’emisfero sinistro le fibre dell’arcuato sono più compatte e si misura anche una maggiore connettività con altre aree del cervello coinvolte nelle funzioni linguistiche. Nella seconda fase dello studio ho applicato la stessa metodica in due pazienti con lesioni cerebrali, con l’obiettivo di testare il danno del fascio arcuato ipsilaterale alla lesione e stimare se nell’emisfero controlaterale si innescassero meccanismi di plastic- ità strutturale. Questa metodica può essere implementata, in un gruppo di pazienti omogenei, per identificare marcatori RM diagnostici nella fase di pianificazione pre- chirurgica e marcatori RM prognostici di recupero funzionale del linguaggio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diagnosi di neoplasia epiteliale maligna polmonare è legata tradizionalmente alla distinzione tra carcinoma a piccole cellule (small-cell lung cancer, SCLC) e carcinoma non-a piccole cellule del polmone (non-small-cell lung cancer, NSCLC). Nell’ambito del NSCLC attualmente è importante di-stinguere l’esatto istotipo (adenocarcinoma, carcinoma squamocellulare e carcinoma neuroendocrino) perchè l’approccio terapeutico cambia a seconda dell’istotipo del tumore e la chemioterapia si dimostra molto spesso inefficace. Attualmente alcuni nuovi farmaci a bersaglio molecolare per il gene EGFR, come Erlotinib e Gefitinib, sono utilizzati per i pazienti refrattari al trattamento chemioterapico tradizionale, che non hanno risposto a uno o più cicli di chemioterapia o che siano progrediti dopo questa. I test per la rilevazione di specifiche mutazioni nel gene EGFR permettono di utilizzare al meglio questi nuovi farmaci, applicandoli anche nella prima linea di trattamento sui pazienti che hanno una maggiore probabilità di risposta alla terapia. Sfortunatamente, non tutti i pazienti rispondono allo stesso modo quando trattati con farmaci anti-EGFR. Di conseguenza, l'individuazione di biomarcatori predittivi di risposta alla terapia sarebbe di notevole importanza per aumentare l'efficacia dei questi farmaci a target molecolare e trattare con farmaci diversi i pazienti che con elevata probabilità non risponderebbero ad essi. I miRNAs sono piccole molecole di RNA endogene, a singolo filamento di 20-22 nucleotidi che svolgono diverse funzioni, una delle più importanti è la regolazione dell’espressione genica. I miRNAs possono determinare una repressione dell'espressione genica in due modi: 1-legandosi a sequenze target di mRNA, causando così un silenziamento del gene (mancata traduzione in proteina), 2- causando la degradazione dello specifico mRNA. Lo scopo della ricerca era di individuare biomarcatori capaci di identificare precocemente i soggetti in grado di rispondere alla terapia con Erlotinib, aumentando così l'efficacia del farmaco ed evitan-do/riducendo possibili fenomeni di tossicità e il trattamento di pazienti che probabilmente non ri-sponderebbero alla terapia offrendo loro altre opzioni prima possibile. In particolare, il lavoro si è fo-calizzato sul determinare se esistesse una correlazione tra la risposta all'Erlotinib ed i livelli di espressione di miRNAs coinvolti nella via di segnalazione di EGFR in campioni di NSCLC prima dell’inizio della terapia. Sono stati identificati 7 microRNA coinvolti nel pathway di EGFR: miR-7, -21, 128b, 133a, -133b, 146a, 146b. Sono stati analizzati i livelli di espressione dei miRNA mediante Real-Time q-PCR in campioni di NSCLC in una coorte di pazienti con NSCLC metastatico trattati con Erlotinib dal 1° gennaio 2009 al 31 dicembre 2014 in 2°-3° linea dopo fallimento di almeno un ciclo di chemioterapia. I pazienti sottoposti a trattamento con erlotinib per almeno 6 mesi senza presentare progressione alla malattia sono stati definiti “responders” (n=8), gli altri “non-responders” (n=25). I risultati hanno mostrato che miR-7, -133b e -146a potrebbero essere coinvolti nella risposta al trat-tamento con Erlotinib. Le indagini funzionali sono state quindi concentrate su miR-133b, che ha mo-strato la maggiore espressione differenziale tra i due gruppi di pazienti. E 'stata quindi studiata la capacità di miR-133b di regolare l'espressione di EGFR in due linee di cellule del cancro del polmone (A549 e H1299). Sono stati determinati gli effetti di miR-133b sulla crescita cellulare. E’ stato anche analizzato il rapporto tra miR-133b e sensibilità a Erlotinib nelle cellule NSCLC. L'aumento di espressione di miR-133b ha portato ad una down-regolazione del recettore di EGF e del pathway di EGFR relativo alla linea cellulare A549. La linea cellulare H1299 era meno sensibili al miR-133b up-regulation, probabilmente a causa dell'esistenza di possibili meccanismi di resistenza e/o di com-pensazione. La combinazione di miR-133b ed Erlotinib ha aumentato l'efficacia del trattamento solo nella linea cellulare A549. Nel complesso, questi risultati indicano che miR-133b potrebbe aumentare / ripristinare la sensibilità di Erlotinib in una frazione di pazienti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro vuole sensibilizzare al problema socio-linguistico dell’insegnamento dell’italiano come lingua seconda: si mostra un panorama della situazione, partendo dall’insegnamento in sé, presentando le tecniche ed i metodi non finalizzati al mero insegnamento, ma anche all’accoglienza della famiglia e alla crescita serena del bambino appena arrivato; si passa, poi, alla descrizione del contesto in cui opera la didattica interculturale, un contesto che presenta varie problematicità, dal sofferto arrivo in una terra straniera, alla necessità di adattamento nel gruppo dei pari e nel sistema scolastico, sia dal punto sociale che dal punto di vista linguistico. Il soggetto di questa tesina sono i bambini, perché un mondo che funzioni bene deve saper ruotare attorno a loro. I protagonisti del "caso particolare" di cui si parla nel titolo sono due bambini cinesi arrivati in Italia da poco e dei quali viene raccontata la loro prima esperienza di studio dell'italiano nel loro nuovo Paese.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggigiorno qualsiasi persona, in possesso di un dispositivo mobile, utilizza applicazioni che spesso hanno bisogno di interagire con l’ambiente circostante utilizzandolo per svariate funzioni. L’obiettivo di questa tesi `è quello di fornire le informazioni di base che permettano di impostare un lavoro a sviluppo di rilevamento tempi in ambito motoristico indirizzato al settore ludico. La tesi si apre citando qualche aneddoto storico sulla nascita e introducendo l’ambiente attuale e parte della storia sull’evoluzione del rilevamento tempi. Saranno analizzate le componenti fondamentali dei sistemi attuali e verrà introdotta e approfondita la possibilità dello sviluppo di tecnologie per avere sistemi con costi contenuti agevolando il settore ludico. L’utilizzo di Tecnologie diverse e l’evoluzione tecnologica dei sistemi ci permettono, utilizzando schemi logici analizzati su sistemi già sviluppati, di riorganizzare e dare soluzioni per alcuni ambiti indirizzati in ambienti diversi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’internazionalizzazione dei contesti industriali e l’aumento della competizione sopravvenuti nel mondo contemporaneo hanno reso necessari diversi mutamenti nelle attività produttive e legate ai servizi, dalla diversificazione dei prodotti, alla riduzione dei lead time, alla razionalizzazione dei costi a tutti i livelli della supply chain, non solo relativamente alle materie prime e alla diminuzione dei prezzi di vendita, ma anche di tutti i costi indiretti, che assumono un peso importante. La rapidità nella sostituzione dei prodotti e la necessità di contenere al massimo i tempi di risposta spingono sempre più le aziende a rivedere la propria struttura in modo da eliminare gli sprechi. Le imprese operano in un ambiente molto complesso, di conseguenza si rende necessario il coinvolgimento non solo delle funzioni interne ad un’azienda, ma anche di quelle esterne, nell’ottimizzazione delle attività che producono valore e di quelle necessarie che non intervengono direttamente. Tra tutte queste attività si cerca, in questo elaborato, di porre un focus su quelle legate alla gestione delle scorte all’interno della supply chain e all’integrazione dei fornitori nella rete logistica aziendale. Verranno ripresi i concetti fondamentali della teoria di gestione delle scorte, e sarà esposto il percorso intrapreso dall’azienda Carpigiani Group, leader mondiale nella produzione e commercializzazione di macchine per la produzione di gelato artigianale ed “espresso”, di integrazione dei fornitori all’interno della catena di approvvigionamento, attraverso un sistema kanban di fornitura e politiche di approvvigionamento riconducibili al consignment stock, con il fine ultimo di ottimizzare i livelli di scorte a magazzino e di servire le linee produttive con efficacia ed efficienza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi ho inizialmente esposto cenni teorici sulle reazioni di fusione nucleare e le motivazioni che hanno spinto la comunità scientifica verso la ricerca di questa nuova fonte energetica. Ho descritto il progetto ITER nei suoi obiettivi e nei principi di funzionamento di un reattore di tipo Tokamak e di tutti i componenti principali dell'intero impianto. In primo piano, mi sono focalizzato sul sistema di raffreddamento primario ad acqua del Tokamak (TCWS), con una prima panoramica sui suoi sottosistemi descrivendo i loro obiettivi, quali asportazione di calore e sicurezza dell'impianto. Successivamente ho analizzato nello specifico i particolari tecnici dei principali sottosistemi quali i vari circuiti di asportazione primaria del calore (PHTS Loops) dei diversi componenti del Tokamak, il Vacuum Vessel, il First Wall Blanket, il Divertor e il Neutral Beam Injector; ho esaminato i processi di controllo della qualità e del volume del fluido refrigerante nei circuiti (CVCS); ed infine le funzioni e le caratteristiche dei sistemi di drenaggio e di riempimento dei circuiti con i propri serbatoi ordinari e di sicurezza, e del sistema di asciugatura del fluido refrigerante con le sue diverse modalità operative.