789 resultados para Macchina automatica, analisi dinamica di meccanismi, aumento di produttività


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella letteratura economica e di teoria dei giochi vi è un dibattito aperto sulla possibilità di emergenza di comportamenti anticompetitivi da parte di algoritmi di determinazione automatica dei prezzi di mercato. L'obiettivo di questa tesi è sviluppare un modello di reinforcement learning di tipo actor-critic con entropy regularization per impostare i prezzi in un gioco dinamico di competizione oligopolistica con prezzi continui. Il modello che propongo esibisce in modo coerente comportamenti cooperativi supportati da meccanismi di punizione che scoraggiano la deviazione dall'equilibrio raggiunto a convergenza. Il comportamento di questo modello durante l'apprendimento e a convergenza avvenuta aiuta inoltre a interpretare le azioni compiute da Q-learning tabellare e altri algoritmi di prezzo in condizioni simili. I risultati sono robusti alla variazione del numero di agenti in competizione e al tipo di deviazione dall'equilibrio ottenuto a convergenza, punendo anche deviazioni a prezzi più alti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel seguente elaborato di tesi è stato approfondito il tema dell’interoperabilità da software BIM a FEM nell’ambito degli edifici a parete in legno. L’utilizzo di programmi di Building Information Modeling si è affermato in maniera crescente nel mondo delle costruzioni. Infatti, la possibilità di costruire modelli tridimensionali della struttura, che associano ad ogni elemento presente nell’opera tutte le informazioni utili ai fini della sua, realizzazione (quali geometrie, costi, proprietà meccaniche, fasi d’impiego, ecc..) permette di accorciare notevolmente il tempo di progettazione e costruzione, diminuendo gli errori dovuti alla trasmissione dei dati tra le varie figure professionali. Nel campo delle costruzioni, l’elemento “parete in legno” non è ancora presente all’interno dei principali software BIM. Per questo motivo, è stato necessario, per lo svolgimento del presente progetto di tesi, uno studio dei principali parametri meccanici descrittivi del reale comportamento in opera delle pareti in legno. Tali parametri sono stati calcolati secondo i due principali metodi esistenti nell’ambito delle costruzioni in legno: il metodo fenomenologico e il metodo per componenti. Nel primo caso, l’influenza sul comportamento delle pareti da parte delle connessioni metalliche viene calcolata sotto forma di parametri meccanici equivalenti. Nel secondo metodo, invece, il comportamento in opera della parete risulta essere la conseguenza dell’interazione tra la rigidezza della parete stessa e quella delle connessioni, che vengono modellate come dei vincoli equivalenti. Al fine di validare i risultati ottenuti, si è proceduto ad applicare i parametri equivalenti a due casi studio. Il primo caso è rappresentato da una parete semplice (3.2m x 3.75m) sottoposta ad una forza concentrata in sommità. Successivamente è stato studiato il caso di un edificio a parete di legno di tre piani, sottoposto ai carichi di un edificio adibito a civile abitazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio del geomagnetismo è una disciplina che da sempre ha catturato l’attenzione e la curiosità dell’uomo. L’inesorabilità dell’azione magnetica è probabilmente la particolarità che ha destato maggior interesse e ha certamente turbato l’uomo-navigatore, che sin dal primo millennio doveva considerare l’influenza magnetica sull’orientamento della bussola, ben prima che fossero sviluppati modelli per comprenderne i meccanismi. Quali sono le modalità di generazione del campo geomagnetico, che influenza simultaneamente la vita di tutti? Quali modelli si possono elaborare per simulare un processo simile? L’obiettivo di questa tesi è quello di dare una risposta a queste domande, alla cui soluzione si giungerà passando dallo sviluppo della formulazione delle equazioni della Magnetoidrodinamica, che governano l’interazione tra il campo magnetico e il moto del fluido conduttore, fino alla presentazione di modelli che riproducono in modo realistico la genesi del campo. È stata approfondita la teoria della Geodinamo, riconosciuto il ruolo primario ricoperto dall’interazione tra le due zone del nucleo, di composizione chimica diversa e ricostruita l’evoluzione temporale delle linee di campo. Nell’ultima parte dell’elaborato è stata poi indagata la dinamica di inversione di polarità del campo geomagnetico. Grazie a numerose misure paleomagnetiche, è stata individuata una ventina di periodi di transizioni di polarità e sono state precisate le modalità di inversione con una rotazione dell’asse del dipolo, che in un determinato istante di tempo interseca il piano equatoriale. Nello stesso intervallo temporale, si registra un parziale azzeramento dell’intensità del campo misurato sulla superficie terrestre e una successiva stabilizzazione del valore che torna a essere quello iniziale ma con polarità invertita. L’analisi del modello di Rikitake ha evidenziato inoltre il comportamento caotico delle inversioni, con una forte dipendenza dalle condizioni iniziali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo dell' elaborato è quello di tracciare un quadro del fenomeno del branded entertainment e condurre un'analisi quantitativa e qualitativa di quattro programmi di Warner Bros. Discovery. Una prima fase è dedicata alla ricostruzione storica e normativa del branded entertainment, all'individuazione di una sua definizione e delle metodologie per la sua valutazione. La seconda parte del lavoro si concentra, invece, sugli aspetti pratici del fenomeno: i player che svolgono un ruolo nei processi produttivi, le modalità di creazione e produzione dei programmi e le tipologie di prodotti. L'ultima fase è interamente dedicata all'analisi quantitativa di quattro programmi branded di Warner Bros. Discovery e all'analisi qualitativa di uno di questi, per poterne valutare i risultati nel mercato televisivo italiano odierno.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli strumenti chirurgici sono importanti “devices” utilizzati come supporto indi-spensabile nella cura di pazienti negli ospedali. Essi sono caratterizzati da un intero ciclo di vita che inizia convenzionalmente nello “Store”, dove gli strumenti sterilizzati sono prelevati per essere utilizzati all’interno delle sale operatorie, e termina nuovamente nello “Store”, dove gli strumenti vengono immagazzinati per essere riutilizzati in un nuovo ciclo. Può accadere che le singole fasi del ciclo subiscano ritardi rispetto ai tempi previ-sti, non assicurando, pertanto, nelle sale operatorie, il corretto numero degli stru-menti secondo i tempi programmati. Il progetto che vado ad illustrare ha come obiettivo l’ottimizzazione del ciclo degli strumenti chirurgici all’interno di un nuovo ospedale, applicando i principi della Lean philosophy ed in particolare i metodi: “Poke Yoke, 5S e tracciabilità”. Per raggiungere tale scopo, il progetto è stato articolato come segue. In un primo momento si è osservato l’intero ciclo di vita degli strumenti nei due principali ospedali di Copenhagen (Hervel e Gentofte hospital). Ciò ha permesso di rilevare gli steps del ciclo, nonché di riscontrare sul campo i principali problemi relativi al ciclo stesso quali: bassa flessiblità, decentramento dei differenti reparti di cleaning e di store rispetto alle operation theatres ed un problema nel solleva-mento degli strumenti pesanti. Raccolte le dovute informazioni, si è passati alla fase sperimentale, in cui sono stati mappati due cicli di vita differenti, utilizzando tre strumenti di analisi: • Idef0 che consente di avere una visione gerarchica del ciclo; • Value stream Mapping che permette di evidenziare i principali sprechi del ciclo; • Simulator Tecnomatix che favorisce un punto di vista dinamico dell’analisi. Il primo ciclo mappato è stato creato con il solo scopo di mettere in risalto gli steps del ciclo e alcuni problemi rincontrati all’interno degli ospedali visitati. Il secondo ciclo, invece, è stato creato in ottica Lean al fine di risolvere alcuni tra i principali problemi riscontrati nei due ospedali e ottimizzare il primo ciclo. Si ricordi, infatti, che nel secondo ciclo le principali innovazioni introdotte sono state: l’utilizzo del Barcode e Rfid Tag per identificare e tracciare la posizione degli items, l’uso di un “Automatic and Retrievial Store” per minimizzare i tempi di inserimento e prelievo degli items e infine l’utilizzo di tre tipologie di carrello, per consentire un flessibile servizio di cura. Inoltre sono state proposte delle solu-zioni “Poke-Yoke” per risolvere alcuni problemi manuali degli ospedali. Per evidenziare il vantaggio del secondo ciclo di strumenti, è stato preso in consi-derazione il parametro “Lead time”e le due simulazioni, precedentemente create, sono state confrontate. Tale confronto ha evidenziato una radicale riduzione dei tempi (nonché dei costi associati) della nuova soluzione rispetto alla prima. Alla presente segue la trattazione in lingua inglese degli argomenti oggetto di ri-cerca. Buona lettura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato ha l'obiettivo di analizzare due testi di legge spagnoli, la "Ley de amnistía" del 1977 e la "Ley para la memoria histórica" del 2007 e la loro ricezione nelle politiche educative della Spagna. Il lavoro di ricerca, svolto nella città di Madrid, si è focalizzato soprattutto sull'analisi descrittiva di dieci manuali di storia utilizzati in due "Institutos de enseñanza secundaria" e sul commento delle interviste fatte a cinque docenti operanti in questi istituti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Scopo. Lo scopo di questo studio è esaminare il problema degli sprechi nelle moderne food supply chain, così da consentire una piena comprensione delle principali cause di inefficienza sistemica nell’industria alimentare e individuare potenziali opportunità di miglioramento. Approccio e Metodologia. Per raggiungere gli obiettivi prefissati la presente trattazione si propone di implementare una ricerca empirica basata sull’analisi di due realtà industriali operanti nel settore alimentare. Nello specifico verranno studiate due aziende integrate rispettivamente nel contesto economico italiano e in quello inglese e operanti a due stadi diversi e complementari della filiera alimentare, quello della produzione e quello della distribuzione. Questo studio incrociato consentirà, auspicabilmente, di portare alla luce quegli elementi chiave necessari per una lettura chiara ed esaustiva delle maggiori sfide che le moderne supply chain si trovano a dover affrontare, in una prospettiva di minimizzazione degli sprechi e di accrescimento del valore per il consumatore. Risultati. I risultati che si prevede di ottenere dall’implementazione di questo studio sono fondamentalmente quattro: 1.Piena comprensione del concetto di spreco nell’industria alimentare. 2.Identificazione dei principali fattori chiave che dovrebbero essere attentamente monitorati con lo scopo di conseguire un’efficace riduzione degli sprechi lungo la filiera alimentare. 3.Analisi critica di quelle che sono le più utilizzate pratiche manageriali e operative nelle moderne aziende alimentari. 4.Individuazione dei potenziali sviluppi che potrebbero essere implementati attraverso l’utilizzo delle più recenti ICT in termini di efficienza della supply chain. Valore della Ricerca. Seppure mediante un’analisi prevalentemente di tipo qualitativo, questa trattazione si prefigge di fornire un contributo nell’ambito del food supply chain management che, data la rilevanza del problema relativo agli sprechi, risulta oggi più attuale che mai. L’originalità di questo studio risiede principalmente nelle fonti dei dati che ne hanno costituito le fondamenta: da un lato la ricerca teorica sviluppata nel Regno Unito, dove lo studio della supply chain è ormai da decenni approfondito nelle più importanti Università; dall’altro la ricerca empirica sviluppata sia presso una delle più importanti e moderne aziende alimentari italiane, che presso uno dei più famosi logistics service provider a livello mondiale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I sistemi di versionamento moderni quali "git" o "svn" sono ad oggi basati su svariati algoritmi di analisi delle differenze (detti algoritmi di diffing) tra documenti (detti versioni). Uno degli algoritmi impiegati con maggior successo a tal proposito è il celebre "diff" di Unix. Tale programma è in grado di rilevare le modifiche necessarie da apportare ad un documento al fine di ottenerne un altro in termini di aggiunta o rimozione di linee di testo. L'insieme di tali modifiche prende nome di "delta". La crescente richiesta e applicazione dei documenti semi-strutturati (ed in particolar modo dei documenti XML) da parte della comunità informatica soprattutto in ambito web ha motivato la ricerca di algoritmi di diffing più raffinati che operino al meglio su tale tipologia di documenti. Svariate soluzioni di successo sono state discusse; algoritmi ad alte prestazioni capaci di individuare differenze più sottili della mera aggiunta o rimozione di testo quali il movimento di interi nodi, il loro riordinamento finanche il loro incapsulamento e così via. Tuttavia tali algoritmi mancano di versatilità. L'incapsulamento di un nodo potrebbe essere considerata una differenza troppo (o troppo poco) generale o granulare in taluni contesti. Nella realtà quotidiana ogni settore, pubblico o commerciale, interessato a rilevare differenze tra documenti ha interesse nell'individuarne sempre e soltanto un sottoinsieme molto specifico. Si pensi al parlamento italiano interessato all'analisi comparativa di documenti legislativi piuttosto che ad un ospedale interessato alla diagnostica relativa alla storia clinica di un paziente. Il presente elaborato di tesi dimostra come sia possibile sviluppare un algoritmo in grado di rilevare le differenze tra due documenti semi-strutturati (in termini del più breve numero di modifiche necessarie per trasformare l'uno nell'altro) che sia parametrizzato relativamente alle funzioni di trasformazione operanti su tali documenti. Vengono discusse le definizioni essenziali ed i principali risultati alla base della teoria delle differenze e viene dimostrato come assunzioni più blande inducano la non calcolabilità dell'algoritmo di diffing in questione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si studiano alcune proprietà fondamentali delle funzioni Zeta e L associate ad una curva ellittica. In particolare, si dimostra la razionalità della funzione Zeta e l'ipotesi di Riemann per due famiglie specifiche di curve ellittiche. Si studia poi il problema dell'esistenza di un prolungamento analitico al piano complesso della funzione L di una curva ellittica con moltiplicazione complessa, attraverso l'analisi diretta di due casi particolari.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è studiare l'espansione dinamica di due fermioni interagenti in una catena unidimensionale cercando di definire il ruolo degli stati legati durante l'evoluzione temporale del sistema. Lo studio di questo modello viene effettuato a livello analitico tramite la tecnica del Bethe ansatz, che ci fornisce autovalori ed autovettori dell'hamiltoniana, e se ne valutano le proprietà statiche. Particolare attenzione è stata dedicata alle caratteristiche dello spettro al variare dell'interazione tra le due particelle e alle caratteristiche degli autostati. Dalla risoluzione dell'equazione di Bethe vengono ricercate le soluzioni che danno luogo a stati legati delle due particelle e se ne valuta lo spettro energetico in funzione del momento del centro di massa. Si è studiato inoltre l'andamento del numero delle soluzioni, in particolare delle soluzioni che danno luogo ad uno stato legato, al variare della lunghezza della catena e del parametro di interazione. La valutazione delle proprietà dinamiche del modello è stata effettuata tramite l'utilizzo dell'algoritmo t-DMRG (time dependent - Density Matrix Renormalization Group). Questo metodo numerico, che si basa sulla decimazione dello spazio di Hilbert, ci permette di avere accesso a quantità che caratterizzano la dinamica quali la densità e la velocità di espansione. Da queste sono stati estratti i proli dinamici della densità e della velocità di espansione al variare del valore del parametro di interazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro è stato finalizzato all’analisi delle caratteristiche spettrali delle acque sia da dati in situ che telerilevati, attraverso l’implementazione di algoritmi semi-empirici e modelli bio-ottici dedicati. Inoltre prende in considerazione la correzione delle immagini ottiche per la mappatura delle concentrazioni del particellato sospeso per osservarne la distribuzione nelle acque costiere dell’Alto Adriatico. Le acque costiere sono caratterizzate da un'alta variabilità di proprietà ottiche che dipende dalle specifiche ambientali e stagionali, dai processi idrodinamici e dalle componenti che contiene. Lo studio della dinamica di dispersione del materiale totale sospeso, analizzato in questo lavoro, è stato possibile proprio grazie alle proprietà ottiche del particellato sospeso che, assieme alla clorofilla, è annoverato tra le sostanze otticamente attive. E’ stata svolta un’analisi pluriennale al fine di valutare quali fossero i diversi fattori che influenzano le dinamiche e la distribuzione del particellato sospeso presente nelle acque costiere nell’area prospiciente il delta del Po. La dinamica di dispersione del materiale sospeso in acque superficiali è modulato da variazioni spazio-temporali legate a diversi fattori, tra i quali sono stati considerati l’influenza dell’apporto fluviale del Po e il contributo derivante da diverse condizioni meteomarine. L’analisi effettuata e i risultati ottenuti sono un contributo preliminare a supporto di una gestione costiera, e può fornire una visuale d’insieme dei principali fattori che determinano la presenza di materiale sospeso nella regione costiera esaminata. Tali informazioni sono utili ad una gestione più informata al fine di ridurre gli impatti legati alla presenza di materiale sospeso nelle acque dell’area presa in esame. Le attività svolte sono incluse nel progetto CYAN IS WAS all’interno del programma esecutivo sulla cooperazione scientifica e tecnologica tra la Repubblica d’Italia e il Regno di Svezia per gli anni 2010-2013 e nell’ambito del progetto bandiera RITMARE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro che ho sviluppato presso l'unità di RM funzionale del Policlinico S.Orsola-Malpighi, DIBINEM, è incentrato sull'analisi dati di resting state - functional Magnetic Resonance Imaging (rs-fMRI) mediante l'utilizzo della graph theory, con lo scopo di valutare eventuali differenze in termini di connettività cerebrale funzionale tra un campione di pazienti affetti da Nocturnal Frontal Lobe Epilepsy (NFLE) ed uno di controlli sani. L'epilessia frontale notturna è una peculiare forma di epilessia caratterizzata da crisi che si verificano quasi esclusivamente durante il sonno notturno. Queste sono contraddistinte da comportamenti motori, prevalentemente distonici, spesso complessi, e talora a semiologia bizzarra. L'fMRI è una metodica di neuroimaging avanzata che permette di misurare indirettamente l'attività neuronale. Tutti i soggetti sono stati studiati in condizioni di resting-state, ossia di veglia rilassata. In particolare mi sono occupato di analizzare i dati fMRI con un approccio innovativo in campo clinico-neurologico, rappresentato dalla graph theory. I grafi sono definiti come strutture matematiche costituite da nodi e links, che trovano applicazione in molti campi di studio per la modellizzazione di strutture di diverso tipo. La costruzione di un grafo cerebrale per ogni partecipante allo studio ha rappresentato la parte centrale di questo lavoro. L'obiettivo è stato quello di definire le connessioni funzionali tra le diverse aree del cervello mediante l'utilizzo di un network. Il processo di modellizzazione ha permesso di valutare i grafi neurali mediante il calcolo di parametri topologici che ne caratterizzano struttura ed organizzazione. Le misure calcolate in questa analisi preliminare non hanno evidenziato differenze nelle proprietà globali tra i grafi dei pazienti e quelli dei controlli. Alterazioni locali sono state invece riscontrate nei pazienti, rispetto ai controlli, in aree della sostanza grigia profonda, del sistema limbico e delle regioni frontali, le quali rientrano tra quelle ipotizzate essere coinvolte nella fisiopatologia di questa peculiare forma di epilessia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le vene giugulari interne sembrano essere la via principale attraverso cui il sangue defluisce dal cervello verso il cuore, quando siamo in posizione supina. Nel 2008 il professor Paolo Zamboni ha scoperto che una diminuzione dell'attività giugulare può portare allo sviluppo di una condizione emodinamica chiamata CCSVI. Questa può causare ipossia, ritardi nella perfusione cerebrale e riduzione del drenaggio dei cataboliti, oltre ad un'attivazione infiammatoria delle piccole vene e dei tessuti vicini. Questa condizione è stata da subito associata alla sclerosi multipla e su questo argomento si sono dibattuti molti gruppi di ricerca. Inoltre, altre patologie sembrano essere associate alla CCSVI, come il morbo di Parkinson, l'Alzheimer e la sindrome di Meniere. Proprio quest'ultima è uno degli argomenti che attualmente interessa di più il gruppo di lavoro in cui mi sono inserita. Questa patologia comporta problemi uditivi, come sordità e tinnito, vertigini e nausea. Il gruppo Vascolar Disease Center (VDC) dell'Università di Ferrara ha previsto per l'anno 2015 uno studio multicentrico, in cui si cercherà di verificare la correlazione tra CCSVI e sindrome di Meniere. La mia tesi fa parte di un studio preliminare a quello multicentrico. All'inizio del lavoro mi sono dedicata ad un'analisi critica di un modello emodinamico per la quantificazione dei flussi sanguigni: il modello BMC, pubblicato nel 2013 dal gruppo VDC, effettuando in parallelo una ricerca bibliografica sullo stato dell'arte in materia. In seguito ho cominciato a studiare off-line diversi studi patologici e fisiologici, in modo da prendere confidenza con gli strumenti e con le metodologie da utilizzare. Sono stata poi coinvolta dal gruppo VDC per partecipare attivamente al miglioramento del protocollo legato al modello BMC. Infine ho analizzato, con due metodologie differenti, 35 studi effettuati su pazienti otorinolaringoiatrici. Con i risultati ottenuti ho potuto effettuare diverse analisi statistiche al fine di verificare l'equivalenza delle due metodologie. L'obiettivo ultimo era quello di stabilire quale delle due fosse la tecnica migliore da utilizzare, successivamente, nello studio multicentrico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nei capitoli I e II ho costruito rigorosamente le funzioni circolari ed esponenziali rispettivamente attraverso un procedimento analitico tratto dal libro Analisi Matematica di Giovanni Prodi. Nel III capitolo, dopo aver introdotto il numero di Nepero e come limite di una particolare successione monotona, ho calcolato i limiti notevoli dell'esponenziale e della sua inversa, che sono alla base del calcolo differenziale di queste funzioni, concludendo poi la sezione dimostrando l'irrazionalità del numero e, base dei logaritmi naturali. Nel capitolo successivo ho dato, delle funzioni circolari ed esponenziali, i rispettivi sviluppi in serie di Taylor ma solamente nel V capitolo potremo renderci veramente conto di come i risultati ottenuti siano fra loro dipendenti. In particolare verrà messa in evidenza come il legame del tutto naturale che si osserva fra le funzioni circolari e le funzioni esponenziali rappresenta le fondamenta di argomenti molto notevoli e pieni di significato, come l'estensione ai numeri complessi dell'esponenziale o le celebri identità di Eulero. L'ultimo capitolo vedrà come protagonista pi greco, così misterioso quanto affascinante, che per secoli ha smosso gli animi dei matematici intenzionati a volerne svelare la natura. Come per il numero di Nepero, non potrà mancare un paragrafo dedicato alla dimostrazione della sua non razionalità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo della tesi è studiare la dinamica di un random walk su network. Essa è inoltre suddivisa in due parti: la prima è prettamente teorica, mentre la seconda analizza i risultati ottenuti mediante simulazioni. La parte teorica è caratterizzata dall'introduzione di concetti chiave per comprendere i random walk, come i processi di Markov e la Master Equation. Dopo aver fornito un esempio intuitivo di random walk nel caso unidimensionale, tale concetto viene generalizzato. Così può essere introdotta la Master Equation che determina l'evoluzione del sistema. Successivamente si illustrano i concetti di linearità e non linearità, fondamentali per la parte di simulazione. Nella seconda parte si studia il comportamento di un random walk su network nel caso lineare e non lineare, studiando le caratteristiche della soluzione stazionaria. La non linearità introdotta simula un comportamento egoista da parte di popolazioni in interazioni. In particolare si dimostra l'esistenza di una Biforcazione di Hopf.