99 resultados para Processo Decisionale Mercato Competizione Modello
Resumo:
La stesura del seguente elaborato di tesi è avvenuta simultaneamente all’inizio di un progetto Lean presso il plant produttivo, situato a Crevalcore (Bo), di Fonderie di Montorso Spa, azienda produttrice di getti in ghisa. Lo scopo del seguente elaborato è di descrivere l’implementazione di un progetto Lean in uno dei settori più antichi esistenti. Negli ultimi decenni, si è sentito molto parlare di Lean production in settori come quello dell’automotive ma, raramente, si sente parlare di lean thinking o kaizen in settori metalmeccanici. I processi produttivi tipici di una fonderia, infatti, sono difficilmente prevedibili e controllabili come può essere un processo di assemblaggio di componenti. Trasferire, dunque, un sistema di gestione della produzione, il Toyota Production System, nato in una linea di assemblaggio, in un settore con una grande quantità di vincoli di progettazione e produzione, è una sfida, una sfida necessaria per rispondere ad una situazione di estrema variabilità della domanda, in cui il mercato richiede i prodotti in maniera rapida e puntuale. Per rimanere, dunque, competitivi è necessario un cambiamento radicale, una rivisitazione di tutti i processi aziendali partendo dall’arrivo dell’ordine, alla spedizione dello stesso. Alla luce di ciò, nel corso della trattazione, sono state svolte analisi al fine di ridurre il Lead time di partenza da 18 a 4 settimane, ponendo molta attenzione al coinvolgimento delle persone, il vero motore del cambiamento. Le parole cardine di questo elaborato sono: standardizzazione dei processi, eliminazione dei colli di bottiglia, aumento della comunicazione tra le funzioni aziendali, prioritizzazione dei clienti e per ultimo, ma non per importanza, la valorizzazione del gemba.
Resumo:
A fianco ai metodi più tradizionali, fin ora utilizzati, le tecnologie additive hanno subito negli ultimi anni una notevole evoluzione nella produzione di componenti. Esse permettono un ampio di range di applicazioni utilizzando materiali differenti in base al settore di applicazione. In particolare, la stampa 3D FDM (Fused Deposition Modeling) rappresenta uno dei processi tecnologici additivi più diffusi ed economicamente più competitivi. Gli attuali metodi di analisi agli elementi finiti (FEM) e le tecnologie CAE (Computer-Aided Engineering) non sono in grado di studiare modelli 3D di componenti stampati, dal momento che il risultato finale dipende dai parametri di processo e ambientali. Per questo motivo, è necessario uno studio approfondito della meso struttura del componente stampato per estendere l’analisi FEM anche a questa tipologia di componenti. Lo scopo del lavoro proposto è di creare un elemento omogeneo che rappresenti accuratamente il comportamento di un componente realizzato in stampa 3D FDM, questo avviene attraverso la definizione e l’analisi di un volume rappresentativo (RVE). Attraverso la tecnica dell’omogeneizzazione, il volume definito riassume le principali caratteristiche meccaniche della struttura stampata, permettendo nuove analisi e ottimizzazioni. Questo approccio permette di realizzare delle analisi FEM sui componenti da stampare e di predire le proprietà meccaniche dei componenti a partire da determinati parametri di stampa, permettendo così alla tecnologia FDM di diventare sempre di più uno dei principali processi industriali a basso costo.
Resumo:
A differenza di quanto avviene nel commercio tradizionale, in quello online il cliente non ha la possibilità di toccare con mano o provare il prodotto. La decisione di acquisto viene maturata in base ai dati messi a disposizione dal venditore attraverso titolo, descrizioni, immagini e alle recensioni di clienti precedenti. É quindi possibile prevedere quanto un prodotto venderà sulla base di queste informazioni. La maggior parte delle soluzioni attualmente presenti in letteratura effettua previsioni basandosi sulle recensioni, oppure analizzando il linguaggio usato nelle descrizioni per capire come questo influenzi le vendite. Le recensioni, tuttavia, non sono informazioni note ai venditori prima della commercializzazione del prodotto; usando solo dati testuali, inoltre, si tralascia l’influenza delle immagini. L'obiettivo di questa tesi è usare modelli di machine learning per prevedere il successo di vendita di un prodotto a partire dalle informazioni disponibili al venditore prima della commercializzazione. Si fa questo introducendo un modello cross-modale basato su Vision-Language Transformer in grado di effettuare classificazione. Un modello di questo tipo può aiutare i venditori a massimizzare il successo di vendita dei prodotti. A causa della mancanza, in letteratura, di dataset contenenti informazioni relative a prodotti venduti online che includono l’indicazione del successo di vendita, il lavoro svolto comprende la realizzazione di un dataset adatto a testare la soluzione sviluppata. Il dataset contiene un elenco di 78300 prodotti di Moda venduti su Amazon, per ognuno dei quali vengono riportate le principali informazioni messe a disposizione dal venditore e una misura di successo sul mercato. Questa viene ricavata a partire dal gradimento espresso dagli acquirenti e dal posizionamento del prodotto in una graduatoria basata sul numero di esemplari venduti.
Resumo:
L’aumento del consumo di energia globale e le problematiche legate all’inquinamento stanno rendendo indispensabile lo spostamento verso fonti di energia rinnovabile. La digestione anaerobica rappresenta una possibile soluzione in quanto permette di produrre biogas da biomassa organica di scarto ma, l’ottimizzazione del processo risulta difficoltosa a causa delle numerose variabili chimiche, biologiche, fisiche e geometriche correlate. Nel presente elaborato, concentrandosi sulle problematiche relative alla miscelazione interna, è stata investigata la fluidodinamica interna di un reattore modello ottenuto tramite scale-down di un digestore anaerobico industriale che presentava problemi di sedimentazione di sostanza solida sul fondo del reattore. Tramite tecniche di diagnostica ottiche, è stato studiato il movimento del fluido, prima utilizzando acqua demineralizzata e poi una soluzione di gomma di xantano come fluido di processo, al fine di studiare il campo di moto medio interno al reattore. Le tecniche utilizzate sono la Particle Image Velocimetry (PIV) e la Planar Laser Induced Fluorescence (PLIF). Al fine di rendere il sistema investigato il più rappresentativo possibile del digestore industriale, è stato utilizzato come fluido di processo per alcune delle prove raccolte, una soluzione acquosa 1,0g/kg di gomma di xantano, le cui proprietà reologiche sono state investigate grazie ad un Reometro Anton Paar MCR 301.
Resumo:
Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.
Resumo:
Il presente elaborato di tesi è parte di un ampio progetto finalizzato alla realizzazione di uno scarpone da sci ottenuto per il 90% di materiale da riciclo di scarponi da sci a fine vita. L’obiettivo è di realizzare la progettazione del nuovo scarpone, e caratterizzarne le proprietà flessionali avvalendosi ti tecniche di simulazione numerica FEM validata attraverso Correlazione di Immagini Digitale. La caratterizzazione flessionale è realizzata con la prova del Flex Test, che consiste nell’imporre una flessione dorsale ad una protesi di gamba. Le prime simulazioni FEM di questo complesso modello hanno evidenziato delle criticità. La presente ricerca, si pone l’obiettivo di risolvere singolarmente questi problemi. Inizialmente, si è realizzata la blend polimerica dei materiali dello scafo e del gambetto dello scarpone. Si è effettuata la caratterizzazione meccanica del materiale, confrontandolo con il materiale vergine. Si è poi ricercato il modello costitutivo più adeguato di materiale iperelastico per il FEM. Successivamente, si è ottenuto il modello CAD della scarpetta attraverso l’approccio reverse engineering, con la tecnica della scansione 3D, la quale ha consentito di ottenere il file. STEP da aggiungere al modello FEM. La conoscenza della geometria effettiva ha consentito di realizzare il design della nuova scarpetta ottenuta da materiale riciclato. Infine, si è utilizzata la Correlazione di Immagini Digitali per studiare la cinematica della chiusura dei ganci dello scafo, e per studiare lo stato di deformazione residua a chiusura effettuata. Si è valutata l’influenza del piede della protesi, e della scarpetta, durante la chiusura dei ganci. In seguito, si è confrontato quanto ottenuto dalle evidenze sperimentali della DIC, con la simulazione agli elementi finiti. Si tratta di un approccio innovativo, che vede per la prima volta implementata la Correlazione di Immagini Digitali per realizzare la caratterizzazione meccanica di uno scarpone da sci.
Resumo:
Nella letteratura economica e di teoria dei giochi vi è un dibattito aperto sulla possibilità di emergenza di comportamenti anticompetitivi da parte di algoritmi di determinazione automatica dei prezzi di mercato. L'obiettivo di questa tesi è sviluppare un modello di reinforcement learning di tipo actor-critic con entropy regularization per impostare i prezzi in un gioco dinamico di competizione oligopolistica con prezzi continui. Il modello che propongo esibisce in modo coerente comportamenti cooperativi supportati da meccanismi di punizione che scoraggiano la deviazione dall'equilibrio raggiunto a convergenza. Il comportamento di questo modello durante l'apprendimento e a convergenza avvenuta aiuta inoltre a interpretare le azioni compiute da Q-learning tabellare e altri algoritmi di prezzo in condizioni simili. I risultati sono robusti alla variazione del numero di agenti in competizione e al tipo di deviazione dall'equilibrio ottenuto a convergenza, punendo anche deviazioni a prezzi più alti.
Resumo:
La seguente tesi studia il processo γγ → WW osservato per la prima volta dall’esperimento ATLAS nel 2017 facendo collidere due fasci di protoni con un’energia totale di 13 GeV. Grazie all’analisi dell’evento (in un dominio da 0 a 500 GeV in momento trasverso) è possibile misurare il valore (o trovare l’intervallo di confidenza) di determinati coefficienti associati alla lagrangiana in EFT. Si pensa infatti che questo evento, reso possibile anche dalla lagrangiana del Modello Standard, possa avvenire sfruttando teorie oltre il Modello Standard sull’accoppiamento quartico tra bosoni vettori, identificati da operatori di dimensione otto. Lo scopo ultimo dell’analisi è quello di trovare l’intervallo di confidenza all’interno del quale ci si aspetta di trovare questi coefficienti (associati agli operatori di dimensione otto), con livello di confidenza del 95%. Tali misurazioni sono estremamente importanti per la fisica teorica in quanto permettono di verificare la veridicità dei modelli teorici e accertarsi che questi ultimi siano compatibili con i dati. Lo scopo di questa tesi é antecedente alla misurazione e consiste, grazie alle simulazioni, nell’applicare dei processi di selezione e restringere il dominio delle distribuzioni dei dati (in momento trasverso), così da ottimizzare le misurazioni. E' stato trovato infatti che se si restringe il dominio del momento trasverso si riesce a misurare un più ampio e accurato range di valori per i coefficienti di EFT. Nello specifico questa tesi si é occupata di studiare alcuni di questi coefficienti (M), trovando la miglior regione per l’analisi ([180,500] GeV) e, per ogni coefficiente, il limite inferiore con un C.L. del 95%.
Resumo:
Il presente elaborato di tesi tratta della tematica relativa alla razionalizzazione del processo di pianificazione della produzione nell’azienda Schneider Electric Industrie Italia S.p.A. Tale progetto è nato dalla necessità aziendale di avere una schedulazione della produzione più standardizzata a seguito della crisi dei componenti e del loro difficile reperimento, in modo tale da ottenere un piano di produzione che, avviasse la produzione degli ordini producibili e ne monitorasse l’avanzamento con l’obiettivo di restituire ai clienti finali una data di consegna che fosse accurata. Per poter programmare e ottenere una sequenza di produzione ottimizzata si è deciso di applicare ad ogni linea di produzione diverse regole di carico e scegliere lo scenario migliore tra tutti quelli ottenuti. Per decidere quale fosse la schedulazione migliore sono stati calcolati diversi indici di prestazione e come parametro principale di scelta, in accordo con le priorità aziendali, si è data maggior importanza al metodo che fosse in grado di schedulare la produzione riducendo il numero di ordini in ritardo. Come risultato l’aspettativa era quella di trovare una regola di scheduling da poter applicare all’intero reparto di assemblaggio, per contro, a seguito dell’analisi effettuata, si è riscontrato che in funzione del portafoglio ordini specifico di ogni famiglia di prodotto esisteva, per ogni linea, un metodo diverso che andava a migliorare lo scenario attuale, minimizzando il numero di ordini in ritardo. Pertanto, senza congelare il piano di produzione in quanto si andrebbe a ridurre la flessibilità produttiva necessaria per rispondere prontamente ai cambiamenti dinamici del mercato, si è ottenuto che per schedulare la produzione è necessario applicare per ogni linea diversi metodi di scheduling, comparare tra di loro i risultati ottenuti e infine utilizzare quello che, a seconda del portafoglio ordini relativo a quella specifica linea, va migliorare le prestazioni di produzione.
Resumo:
Questa tesi tratterà principalmente la fase di studio preliminare e successivamente la progettazione del retrotreno di una moto supersportiva. Il lavoro centrale della tesi si è focalizzato quindi sul forcellone posteriore di questa nuova motocicletta. È stato dunque indispensabile valutare, definire e progettare anche altri componenti meccanici ad esso collegati come ad esempio lo schema sospensivo posteriore e l’ingombro dell’impianto di scarico. Alla base di questo progetto c’è la volontà di creare una moto supersportiva con cilindrata pari a 1000 cm3 e capace di erogare oltre 200 cv che possa essere venduta nel mercato europeo ad un prezzo concorrenziale. Per tale scopo sono state prese in considerazione e successivamente studiate in modo molto approfondito motociclette già in commercio capaci di rispettare tali vincoli progettuali. L’evoluzione naturale di tale studio si è fondata sulla valutazione delle diverse scelte progettuali e le diverse metodologie di produzione. Le motociclette sono state scansionate per intero per valutarne le geometrie fondamentali e successivamente è stato creato un modello dei componenti passando da una valutazione preliminare degli ingombri fino ad ottenere dei veri e propri componenti realizzabili attraverso le diverse tecnologie. Il componente è stato simulato attraverso analisi FEM seguendo una procedura standard all’interno dell’azienda che ha permesso di evidenziare le geometrie critiche che successivamente sono state migliorate alla luce di tali risultati. Per ottenere un buon prodotto a livello di leggerezza e proprietà meccaniche si è scelto come materiale la lega di alluminio da fonderia che in futuro sarà anche utilizzata per la produzione di serie. Questo processo produttivo è funzionale per ridurre i costi in fase di realizzazione per una produzione in serie ed un altro importante vantaggio è dato dal fatto che in questo modo si possono evitare spiacevoli fenomeni legati alla saldatura dell’alluminio.
Resumo:
La gestione e il recupero dei rifiuti è un aspetto fondamentale per tentare di ridurre l’impatto negativo delle nostre attività sull’ambiente; è responsabilità di ognuno di noi contribuire all’arresto del processo di degrado a cui è sottoposto il pianeta. È noto che gli agglomerati urbani, con i loro scarichi e scarti, sono una delle cause principali di contaminazione ambientale. La vertiginosa espansione dei tessuti urbani degli ultimi cinquant’anni ha notevolmente aumentato la produzione di rifiuti. Ogni cittadino italiano, secondo i dati ISPRA 2021, produce circa 500 kg di rifiuti in un anno. La rincorsa verso il benessere conquistato attraverso l’accumulo di beni materiali non ha lasciato spazio alla cultura attenta al rispetto delle risorse naturali e ne paghiamo le conseguenze. Il focus di questa ricerca è supportare la gestione dei rifiuti urbani e garantire il loro recupero e riutilizzo immediato. L’obiettivo finale è quello della diminuzione/eliminazione dell’abbandono dei rifiuti della plastica, mettendo in relazione operosa gli attori coinvolti nel processo e sviluppando un servizio che semplifichi e rafforzi i meccanismi di raccolta e di riuso. Collocandosi nel contesto di Zaragoza, in Spagna, vengono introdotte alcune specifiche azioni strategiche al fine di condurre i cittadini ad adottare precise pratiche per la salvaguardia ambientale. L’azione a livello locale diventa prototipo con prospettiva globale. Un’osservazione dal basso ci può mostrare cose che, dalla distanza, non si sarebbero potute vedere. Si parte da identità specifiche, considerando i comportamenti di individui che abitano uno stesso luogo e concentrandosi sulla dimensione collettiva delle loro pratiche cercando di cambiarle attraverso obiettivi chiari e premialità. Analizzando i comportamenti di piccoli gruppi, sono state individuate azioni capaci di indirizzarli verso modelli più appropriati modificando le regole del progetto a partire dall’osservazione di questi comportamenti.
Resumo:
A partire dal 1992, nell’industria elettronica giapponese, ha iniziato a diffondersi il sistema produttivo Seru Seisan: “Seru” in giapponese significa “organismo cellulare” e difatti questa modalità di produzione si basa sulla lavorazione di prodotti all’interno di celle. Esse sono formate da brevi tratti di nastro trasportatore, a seguito dello smantellamento di lunghe linee di assemblaggio, in cui lavorano un numero limitato di operatori multi-skilled. All’interno di un Seru possono essere lavorate più tipologie di prodotto ed ogni prodotto lavorato viene completato all’interno della cella stessa. Questo sistema produttivo a bassa automazione si rivela particolarmente adatto per operazioni di assemblaggio e consente di fronteggiare la dinamicità del mercato caratterizzata da elevata varietà e bassi volumi: il layout di un Seru, infatti, può essere riconfigurato rapidamente e richiede bassi investimenti in attrezzatura. In questo elaborato vengono presentati i Seru Seisan, descrivendone le principali caratteristiche e configurazioni unitamente alla loro origine. Dal momento che molti tentativi di applicazione di tale sistema produttivo risultano infruttuosi, soprattutto al di fuori del Giappone, viene proposto un quadro generale per l’implementazione e un algoritmo euristico per risolvere il problema di formazione e assegnazione degli operatori alle celle, minimizzando il costo totale di cross-training e bilanciando il carico di lavoro. Infine, viene presentato il lavoro di ricerca del presente elaborato che ha l’obiettivo di dimostrare il modello analitico che sta alla base del funzionamento di un Seru Divisionale, arrivando a stimare la produttività di una produzione multiprodotto. La formula a cui si giunge viene testata in due casi numerici reali, mostrando come alla progressiva diminuzione del numero di operatori all’interno di una cella, si ottenga un aumento della produttività della cella stessa.
Resumo:
Prendere decisioni è un’attivita incessante ed intrinseca nella nostra quotidianità, i ricercatori della Cornell University stimano che ogni giorno un adulto prenda circa 35.000 decisioni semi-consapevoli. Fare scelte è un attività molto dipendiosa a livello mentale e lo è ancora di più se le scelte da prendere sono importanti e hanno ripercussioni anche a livello collettivo e non solo individuale. L’affaticamento decisionale è un tema critico in molti ambiti professionali e può essere considerato un vero e proprio bias, uno studio su più di 1.000 decisioni prese da otto giudici israeliani per la libertà vigilata nel 2009 ha rilevato che la probabilità di ottenere esito favorevole era del 65% all’inizio di ogni sessione, ma diminuiva a meno del 10% prima della pausa pranzo, il lavoro mentale di decidere caso dopo caso, logorava in modo importante le energie decisionali dei giudici, (Tierney, 2011). Lo studio che partirà da queste premesse andrà ad indagare e approfondire il tema della Decison Fatigue, ancora poco conosciuto, lo stato attuale del mercato, e i possibili sbocchi lato prodotto. Successivamente sulla base dell’analisi precedente, da cui saranno estratti: target di riferimento, bisogni e soluzioni applicabili, sarà realizzato un device fisico che proporrà una soluzione mirata al contesto e ai problemi indiviuati.
Resumo:
Il mercato azionario è sempre stato caso di studio, soprattutto per la sua complessità, e la difficolta di predirne il comportamento. I fattori in gioco sono davvero tanti, dalla politica ai problemi aziendali stessi. Pur sapendo che il mondo finanziario è un mondo complicato, permette però possibilità di guadagno elevate. Nel documento vengono descritti alcuni approcci utilizzati per eseguire delle predizioni, dai metodi più classici come la regressione, fino all'utilizzo di reti neurali. Vengono infatti descritti tre modelli che sfruttano le caratteristiche della LSTM, e un modello che sfrutta l'architettura Transformer, proposto recentemente,
Resumo:
Una delle principali sfide odierne è la volontà di ridurre l’impatto ambientale, causato dalle attività umane, riducendo le emissioni inquinanti. Per questo motivo, negli ultimi anni, i requisiti di omologazione dei motori a combustione interna sono diventati sempre più selettivi, evidenziando la necessità di utilizzare nuove e più avanzate tecnologie. Tra le possibili alternative, le nuove tecnologie che forniscono i risultati più promettenti sono le cosiddette Low Temperature Combustions (LTC). Una di esse è la Gasoline Compression Ignition (GCI) che è caratterizzata da una combustione mediante il processo di auto-accensione di un carburante tipo benzina ed è in grado di ottenere un’elevata efficienza con ridotte emissioni inquinanti. Per poter controllare correttamente una combustione GCI, è necessario realizzare un pattern di iniezioni consecutive al fine di raggiungere le condizioni termodinamiche nel cilindro per garantire l’auto-accensione della benzina. I principali problemi dovuti alla realizzazione di un’iniezione multipla sono la generazione di onde di alta pressione nel condotto di iniezione e, nel caso di iniettori Gasoline Direct Injection (GDI) solenoidali, la magnetizzazione residua dei coil dello stesso. Sia le onde di pressione che la magnetizzazione residua comportano una variazione di massa iniettata rispetto al valore previsto. In questo elaborato è presentato un modello matematico realizzato per compensare le variazioni di massa che avvengono durante un pattern di due iniezioni consecutive in un iniettore GDI benzina ad alta pressione. Con tale modello, è possibile correggere i parametri che caratterizzano le iniezioni per introdurre il quantitativo desiderato di benzina indipendentemente dal pattern selezionato.