1000 resultados para Equazioni di convoluzione, funzioni plurisubarmoniche, funzioni di supporto.
Resumo:
La filosofia del lean thinking ha dimostrato in numerose occasioni, dalla sua nascita ad oggi, di poter apportare reali e consistenti benefici all’interno degli ambienti aziendali rivoluzionando a volte non solo il modo di produrre delle aziende ma anche quello di pensare, generando un profondo cambiamento culturale. La filosofia lean nasce come esigenza di riadattamento del sistema produttivo in contrapposizione a quello della mass production per questo molti dei testi di riferimento storici sul lean thinking citano prassi e casi aziendali che toccano esclusivamente l’ambito della produzione, tuttavia tale ambito rappresenta solamente uno dei tanti che si possono osservare in ambito aziendale. Successivamente si è compreso come il lean thinking rappresenti in realtà un sistema, composto da: principi, tecniche, metodi e strumenti in grado di garantire il miglioramento dei processi. Si tratta di fatto di un framework adattabile alle diverse funzioni aziendali e che per massimizzare la propria efficacia deve essere assimilato dall’intera organizzazione e non solo dall’ambiente produttivo. Negli anni infatti l’aggettivo “lean” è stato accostato agli ambiti più vari: lean sales, lean accounting, lean services, lean managment, lean organization, lean enterprise, lean office e molti altri. Tuttavia raramente ci si imbatte nel termine “lean warehousing” e ancora più raramente ci si imbatte in casi di applicazioni di strumenti lean in ambito logistico o a testi di riferimento che trattino l’argomento. In un mercato sempre più̀ competitivo è fondamentale per qualsiasi azienda avere una logistica efficiente e flessibile che consenta di offrire un alto livello di servizio per il cliente. Il magazzino rappresenta il punto di arrivo e di partenza per ogni flusso logistico e data la rilevanza che ancora oggi la sua funzione detiene per le aziende risulta fondamentale per il successo dell’interno sistema implementare anche in questa divisione la filosofia lean.
Resumo:
Nel cuore della Sicilia, a mille metri d’altezza, svetta, la città di Enna. Dalla storia millenaria, questa roccaforte naturale, ha dato protezione alle differenti dominazioni che si sono susseguite. In questa cittadina, dalla delicata armonia, si è attivato un processo di modernizzazione iniziato con il regime fascista, quando divenne da comune a provincia. Uno sviluppo controllato, anche se con relazioni urbane non proporzionate alla città, a completamento dell’acrocoro del monte. Con il dopoguerra, questa questa crescita futto della speculazione edilizia, che ha portato alla costruzione di grandi e alti edifici residenziali, andando a sgretolare la delicata bellezza della città, che piano piano è stata soppiantata da quella contemporanea. Negli anni ‘70, per un adeguamento funzionale della viabilità, è stato costruito un viadotto, nello storico accesso alla città: questo ha generato una ferita in essa, negando alla città tutto lo spazio al di sotto. La sfida progettuale è stata quindi, da una parte, quella di ridare un volto, un’aspetto urbano a questa parte di città che adesso vuol sembrare uno svincolo autostradale, dall’altra, quella di riappropriarsi dello spazio pubblico. L’intervento trasforma l’infrastruttura, in un’architettura generata dalla città e dalle sue giaciture, frammentando e delimitando lo spazio sotto il ponte, che si configura come una sequenza di spazi concatenati da un percorso. Osservando il viadotto come una struttura incompleta fatta di solo scheletro di pilastri e copertura, il progetto ne costituisce il tamponamento composto dai servizi: l’intervento rafforza e aumenta le funzioni di collegamento pedonale, connettendo le parti di città che in quest’area si trovano a quote differenti, portando il visitatore verso il centro storico.
Resumo:
La previsione ed il controllo dei grandi sistemi dinamici costituiscono due delle principali sfide della scienza contemporanea. Prima degli anni '90 la parola previsione indicava un singolo esperimento numerico, mentre negli ultimi vent'anni ha denotato un insieme di simulazioni/esperimenti. Sostanzialmente non si cerca più di trovare la traiettoria più realistica e verosimile ma si studia l'insieme delle previsioni e l'evolversi della loro distribuzione nel tempo per avere un'idea di quale sia la previsione più probabile. Un sistema dinamico è descritto, in un particolare istante temporale, da una variabile di stato. Esistono poi delle funzioni di stato che hanno come argomento una variabile di stato e mentre il sistema dinamico è in movimento, e dunque mentre le variabili di stato del sistema cambiano nel tempo, anche le funzioni di stato si evolvono. Il lavoro di Bernard Koopman (19/01/1900 - 18/08/1981) si è incentrato sullo studio di tale evoluzione. Koopman formalizzò il problema cercando di trovare un operatore che prendesse una funzione di stato e la "spingesse" in avanti nel tempo. Tale operatore venne chiamato Operatore di Koopman. Il legame sostanziale tra l'operatore di Koopman e il sistema dinamico in questione sta nel fatto che tale operatore agisce sullo spazio delle funzioni di stato del sistema. Inoltre si è scoperto che i suoi autovalori e le sue autofunzioni descrivono completamente il sistema dinamico che vi sta dietro. Questo elaborato introduce l'operatore di Koopman in relazione a sistemi dinamici e mostra come ricavare lo spettro di tale operatore a partire da dati di simulazione. Infine vengono studiate le proprietà spettrali dell'operatore di Koopman nel caso mono-dimensionale degli indici Niño-3 e viene fatta un'analisi dettagliata dei risultati numerici ottenuti, trovando una conferma teorica mediante l'utilizzo dei dischi di Gershgorin.
Resumo:
Nella presente tesi si studia il teorema di Jordan e se ne analizzano le sue applicazioni. La trattazione è suddivisa in tre capitoli e un'appendice di approfondimento sulla funzione di Vitali. Nel primo capitolo, inizialmente, vengono introdotte le funzioni a variazione totale limitata, provando anche una loro caratterizzazione. Poi sono definite le serie di Fourier e si pone attenzione al lemma di Riemann-Lebesgue e al teorema di localizzazione di Riemann. Infine sono enunciati alcuni criteri di convergenza puntale e uniforme. Nel secondo capitolo, viene enunciato e dimostrato il teorema di Jordan. Verrà introdotto, inizialmente, una generalizzazione del teorema della media integrale, necessario per la prova del teorema di Jordan. Il terzo capitolo è dedicato alle applicazione del teorema di Jordan. Infatti si dimostra che ogni serie di Fourier può essere integrata termine a termine su ogni intervallo compatto. Di tale applicazione se ne darà anche una formulazione duale. Infine, nell'appendice, viene costruita la funzione di Vitali e ne sono riportate alcune delle sue proprietà.
Resumo:
Lo scopo della tesi è dimostrare il teorema di Arnold-Liouville, il quale afferma che dato un sistema a n gradi di libertà, con n integrali primi del moto in involuzione, esiste una trasformazione canonica di variabili azione-angolo, attraverso la quale si può riscrivere il sistema in uno ad esso equivalente, ma dipendente solo dalle azioni. Per arrivare a questo risultato nel primo capitolo viene richiamata la nozione di sistema hamiltoniano, di flusso del sistema e delle sue proprietà, viene infine introdotta una operazione binaria tra funzioni, la parentesi di Poisson, evidenziando il suo legame con il formalismo hamiltoniano. Nel secondo capitolo si definisce inizialmente cos'è una trasformazione canonica di variabili, dimostrando poi alcuni criteri per la canonicità di queste, mediante la verifica di determinate condizione necessarie e sufficienti, con opportuni esempi di trasformazioni canoniche e non. Nel terzo capitolo si definisce cos'è un sistema hamiltoniano integrabile, facendone successivamente un esempio a un grado di libertà con il pendolo. Il procedimento svolto in questo esempio si vorrà poi estendere a un generico sistema a n gradi di libertà, dunque verrà enunciato e dimostrato il teorema di Arnold-Liouvill, il quale, sotto opportune ipotesi, permette di risolvere questo problema.
Resumo:
In questa tesi si definisce il problema della martingala, fondamentale in quanto la sua esistenza e unicità della soluzione coincidono con l'esistenza e unicità delle soluzioni deboli delle SDE. Nel Capitolo 1 vengono richiamate alcune nozioni di topologia negli spazi metrici, in particolare la nozione di tightness e il Teorema di Prokhorov. Nel Capitolo 2 vengono introdotte le equazioni differenziali stocastiche, con cenni a risultati di esistenza e unicità forte. Nel Capitolo 3 viene definito il problema della martingala, viene dimostrata la sua equivalenza con il problema delle soluzioni deboli; infine, vengono enunciati e dimostrati importanti risultati di esistenza e unicità.
Resumo:
Le interfacce cervello-macchina (BMIs) permettono di guidare devices esterni utilizzando segnali neurali. Le BMIs rappresentano un’importante tecnologia per tentare di ripristinare funzioni perse in patologie che interrompono il canale di comunicazione tra cervello e corpo, come malattie neurodegenerative o lesioni spinali. Di importanza chiave per il corretto funzionamento di una BCI è la decodifica dei segnali neurali per trasformarli in segnali idonei per guidare devices esterni. Negli anni sono stati implementati diversi tipi di algoritmi. Tra questi gli algoritmi di machine learning imparano a riconoscere i pattern neurali di attivazione mappando con grande efficienza l’input, possibilmente l’attività dei neuroni, con l’output, ad esempio i comandi motori per guidare una possibile protesi. Tra gli algoritmi di machine learning ci si è focalizzati sulle deep neural networks (DNN). Un problema delle DNN è l’elevato tempo di training. Questo infatti prevede il calcolo dei parametri ottimali della rete per minimizzare l’errore di predizione. Per ridurre questo problema si possono utilizzare le reti neurali convolutive (CNN), reti caratterizzate da minori parametri di addestramento rispetto ad altri tipi di DNN con maggiori parametri come le reti neurali ricorrenti (RNN). In questo elaborato è esposto uno studio esplorante l’utilizzo innovativo di CNN per la decodifica dell’attività di neuroni registrati da macaco sveglio mentre svolgeva compiti motori. La CNN risultante ha consentito di ottenere risultati comparabili allo stato dell’arte con un minor numero di parametri addestrabili. Questa caratteristica in futuro potrebbe essere chiave per l’utilizzo di questo tipo di reti all’interno di BMIs grazie ai tempi di calcolo ridotti, consentendo in tempo reale la traduzione di un segnale neurale in segnali per muovere neuroprotesi.
Resumo:
Studi recenti hanno evidenziato cambiamenti nei ritmi alpha (8-12 Hz) e theta (4-8 Hz) in vari processi modulatori top-down e di controllo cognitivo come la memoria di lavoro (WM, working memory) e la soppressione di distrattori. I compiti di WM richiedono attenzione interna sostenuta per dare priorità alle informazioni rilevanti a discapito di quelle interferenti che distraggono dall’obiettivo. I meccanismi di attenzione in tali compiti sono associati ad aumento di potenza alpha, che riflette la funzione inibitoria di tale ritmo, in regioni che elaborano informazioni distraenti, e ad aumento di potenza theta, soprattutto in regioni frontali, che riflette funzioni di controllo cognitivo per raggiungere l’obiettivo pur in presenza di interferenze. Questo lavoro è volto ad indagare gli effetti di distrattori acustici rispetto a distrattori visivi in un compito di visual WM. A tale scopo sono stati acquisiti ed elaborati i segnali EEG di 12 soggetti volontari mentre eseguivano un compito di visual WM, in cui la fase di retention (mantenimento in memoria delle informazioni codificate) veniva interrotta con la presentazione di distrattori di due modalità sensoriali differenti (visiva e acustica), per valutare le variazioni dell’attività cerebrale in termini di ritmi alpha e theta e le regioni coinvolte. Si è osservato un aumento maggiore di potenza alpha (principalmente posteriore) in presenza del distrattore acustico rispetto al visivo sia nella fase pre-distrattore che nella fase distrattore, statisticamente significativo nella fase distrattore. Si è osservato un aumento maggiore di potenza theta (principalmente frontale) in presenza del distrattore acustico rispetto al visivo in tutte le fasi del task, statisticamente significativo nella fase iniziale di retention e nella fase del distrattore. I risultati potrebbero indicare una maggiore necessità di controllo cognitivo e di protezione da stimoli interferenti in caso di distrattore acustico rispetto al visivo.
Resumo:
Sempre più negli ultimi anni si interagisce con i chatbot, software che simulano una conversazione con un essere umano utilizzando il linguaggio naturale. L’elaborato di tesi mira ad uno studio più approfondito della tematica, a partire da come tale tecnologia si è evoluta nel corso degli anni. Si procede analizzando le principali applicazioni dei bot, soffermandosi anche sui cambiamenti apportati dalla pandemia di Covid-19, ed evidenziando le principali ragioni che portano aziende e singoli al loro utilizzo. Inoltre, vengono descritti i diversi tipi di bot esistenti e viene analizzato il Natural Language Processing, ramo dell’Intelligenza Artificiale che mira alla comprensione del linguaggio naturale. Nei capitoli successivi viene descritto il progetto CartBot, un’applicazione di chat mobile per l’e-grocery, implementata come un chatbot che guida il cliente all’acquisto della spesa online. Vengono descritte le tecnologie utilizzate, con particolare riferimento al software di Google Dialogflow, che permette di sviluppare bot; inoltre viene analizzata come è stata effettuata la progettazione, sia lato front-end che back-end, allegando il flowchart, un diagramma di flusso realizzato per definire la sequenza di azioni e passaggi richiesti dal bot per effettuare l’acquisto. Infine, sono descritte le varie sottosezioni di CartBot, che riguardano la visualizzazione dei prodotti e il completamento dell’ordine, allegando screenshot dell’interfaccia finale ottenuta e inserendo il codice di alcune funzioni rilevanti.
Resumo:
Prevedere quanto e quando un cliente richiederà un determinato prodotto è da sempre una delle sfide più complicate che un’azienda deve affrontare. Una delle metodologie più utilizzate è il processo di Sales and Operations, costituito da 5 fasi. L’obiettivo di questo elaborato è illustrare la creazione del processo applicata a una famiglia di prodotti che andrà a sostituire molteplici altri codici prodotti dell’azienda Sherwin-Williams. Per la creazione si è interagito con varie funzioni della multinazionale, tra cui l’ufficio di supply chain, l’ufficio vendite e i vari uffici produzione degli stabilimenti europei. La creazione del processo si articola nelle 5 fasi classiche quindi: raccolta dati sulla domanda futura in cui sono stati individuati i consumi interni e le vendite ai clienti terzi dei prodotti; la creazione del piano di domanda e del piano di produzione iniziale, approvazione produzione delle quantità concordate e definizione delle politiche di gestione sia delle strutture clienti che dello stabilimento produttivo, infine, la fase di miglioramento e monitoraggio del processo. Nell’ultima fase tra le migliorie al processo si ridurrà il numero di codici univoci da gestire del 34%, verrà individuata la zona ottimale per l’ubicazione di un magazzino distributivo e si analizzerà l’aderenza alla schedulazione presso il reparto liquidi dello stabilimento con l’obiettivo di ridurre il Lead Time di produzione.
Resumo:
All’interno dell'elaborato verrà approfondito il Servizio Idrico Integrato, in particolare saranno descritti i processi di trattamento dell’acqua dalla captazione fino al rilascio in ambiente e introdotte le Autorità che regolano il Servizio Idrico con la relativa normativa. In particolare, oggetto di questa tesi è l’applicativo Geocall, implementato dalla Direzione Acqua del Gruppo Hera S.p.A. nel 2018, a supporto dei processi di Pronto Intervento e di Conduzione e Manutenzione delle reti e impianti idrici. In seguito alla descrizione delle modalità di gestione di questi processi da parte del Gruppo prima dell’implementazione di Geocall, la piattaforma, messa a confronto con gli strumenti a disposizione del Gruppo prima della sua introduzione, verrà approfondita nelle sue applicazioni e nelle sue funzionalità all’interno dei processi coinvolti dall’analisi, con l’obbiettivo di mettere in luce le differenze con le modalità di gestione passate e in particolare i vantaggi e gli eventuali svantaggi ottenuti con l’utilizzo del nuovo software.
Resumo:
Le aree poste in prossimità di rilevati arginali si trovano esposte ad un rischio idraulico residuale, associato a possibili eventi di piena eccezionali o al cedimento del sistema arginale. La previsione, mitigazione e prevenzione delle conseguenze connesse a questi possibili fenomeni, nonché la loro gestione in tempo reale, rappresentano sfide complesse per le autorità competenti. In questo contesto, l'obiettivo della presente attività di tesi è stato quello di predisporre una metodologia semplificata che, in caso di eventi di piena, potesse offrire una valutazione speditiva del volume esondabile da una ipotetica rotta arginale, senza ricorrere alla modellistica numerica per la quale sono richiesti dati e tempi non sempre disponibili. La metodologia proposta stima un idrogramma sintetico, associato al volume esondabile da una breccia arginale. Le variabili richieste in input sono: l’ipotetica posizione della rotta ed il carico idraulico su di essa (funzione dell’approfondimento della rotta stessa). Lo sviluppo si è basato su dati di scenari di allagamento (con tempo di ritorno 100 anni) associati a brecce analizzate sul fiume Reno mediante modellazione mono- e bi-dimensionale. Gli scenari di allagamento derivanti dagli idrogrammi sintetici sono stati quindi confrontati con le aree di allagamento conseguenti alle rotte precedentemente simulate, in modo da valutarne la corretta riproduzione. I risultati evidenziano una buona riproduzione delle dinamiche e dell’estensione massima degli allagamenti nel caso della stima dell’idrogramma di esondazione semplificato, facendo pertanto apparire la procedura proposta come un valido strumento a sostegno della gestione emergenziale.
Resumo:
L’ambito videoludico è in forte espansione, andando a coinvolgere diversi settori ed ambiti. Infatti, i videogiochi possono avere scopi diversi e più articolati oltre al semplice intrattenimento e questo è proprio l'obiettivo dei Serious Game. Questi hanno come scopo quello di insegnare qualcosa tramite il gameplay stesso e vengono quindi utilizzati nel contesto educativo e dell'apprendimento. In questo contesto, il volume di tesi presenta il design e l'implementazione di un prototipo di serious game sviluppato per uno scopo ben definito: supporto e potenziamento dell’attenzione visuospaziale, facendo concentrare per l’appunto l’attenzione del giocatore sulle sue azioni, combinando facoltà visive, riflessi e anche memoria. Il gioco è pensato per essere adatto a tutti i giocatori, ma è stato sviluppato con un'attenzione particolare agli studenti che soffrono di Disturbi Specifici dell’Apprendimento (DSA). Il progetto è stato infatti sviluppato con Develop-Player, una Spin-off dell’Università di Bologna in cui psicologi, neuropsicologi e logopedisti hanno individuato nuovi metodi per potenziare i meccanismi più profondi dell’apprendimento e collaborano con informatici esperti nelle tecnologie più avanzate per l’implementazione di nuove esperienze interattive.
Resumo:
In questa tesi è stata analizzata attraverso una modellazione numerica tramite Xbeach la batimetria delle coste di Cesenatico Ponente e la sua modifica dopo eventi meteomarini del clima tipico della durata di 12 ore. Verrà analizzata in primis l'area di studio attraverso la descrizione delle caratteristiche e delle opere presenti, si delineeranno quali funzioni vengono adottate nel modello e seguiranno poi le spiegazioni di tutti i passi svolti e quali parametri sono stati utilizzati per lanciare una simulazione. Infine, verranno mostrati e commentati i risultati più significativi.
Resumo:
In questa tesi abbiamo voluto studiare alcune delle proprietà e caratterizzazioni di questa classe di insiemi e di funzioni, nonchè alcune loro possibili applicazioni. Nel primo capitolo vengono analizzati gli insiemi convessi in R^n con le loro proprietà; se ne osserva la relazione con gli iperpiani e con l’inviluppo convesso dell’insieme stesso. Infine abbiamo studiato come la funzione distanza da un insieme caratterizzi gli insiemi convessi. Nel secondo capitolo abbiamo guardato invece le funzioni convesse, osservando alcuni esempi, per poi focalizzarci sulle proprietà generali e diverse possibili caratterizzazioni. In particolare abbiamo osservato come le cosiddette funzioni lisce si relazionano alla convessità. Nella sezione sulla dualità convessa abbiamo infine esaminato il caso di funzioni con codominio R esteso per studiare funzioni convesse semicontinue inferiormente, fino ad arrivare alla dualità. Nel terzo capitolo, vediamo una delle tante possibili applicazioni della teoria convessa, la teoria dei giochi. L’ultimo capitolo è molto breve e non vuole entrare nel merito di questa importante area della matematica, ma vuole solo far “vedere all’opera” alcune delle proprietà della teoria convessa precedentemente esposta.