1000 resultados para Processo Decisionale Mercato Competizione Modello
Resumo:
Il patrimonio residenziale italiano ammonta a 12,2 milioni di edifici, di cui il 57,5% ha più di 50 anni ed è stato costruito in assenza di normative specifiche, in termini di sicurezza sismica, resistenza al fuoco, efficienza energetica e accessibilità, e manifesta un’avanzata obsolescenza. Agire su questo patrimonio significa operare tramite le due macro categorie di intervento: demolizione/ricostruzione o riqualificazione energetica. Questa ricerca dottorale vuole indagare la demolizione/ricostruzione di comparti urbani periferici, costruiti tra 1945-1965, quale strategia di rigenerazione urbana, integrandola in un modello edilizio basato sui criteri dell’economia circolare. Vengono definite le caratteristiche costruttive e i principi di questo modello di progettazione ecosistemica, denominato Integrho, che coniuga i criteri di ecodesign nel ciclo di vita (Building in Layers, Design for Disassembly e il Design out Waste) con quelli di bioclimaticità e di adattabilità funzionale. Il lavoro è stato improntato secondo due livelli gerarchici, scala urbana e scala edilizia, tra loro correlate mediante quella intermedia dell’isolato, al fine di ottenere un obiettivo di natura metodologica: definire uno strumento di supporto decisionale, capace di indirizzare tra le categorie di intervento attraverso parametri oggettivi, valutati con analisi comparative speditive. Tale metodologia viene applicata al contesto di Bologna, e si fonda sulla creazione di un’approfondita base conoscitiva attraverso la catalogazione delle 8.209 pratiche edilizie di nuova costruzione presentate tra 1945 e il 1965. Tale strumento georeferenziato, contenente informazioni tipologiche, costruttive ecc., è impiegato per valutare in modo quantitativo e speditivo i consumi energetici, i materiali incorporati, gli impatti ambientali e i costi economici dei differenti scenari di intervento nel ciclo di vita. Infine, l’applicazione del modello edilizio Integrho e del paradigma Ri-Costruire per Ri-Generare ad uno degli isolati periferici selezionati, è impiegata come esemplificazione dell’intero processo, dalla fase conoscitiva a quella strumentale, al fine di verificarne l’attendibilità e l’applicabilità su larga scala.
Resumo:
Il presente elaborato di tesi è parte di un ampio progetto finalizzato alla realizzazione di uno scarpone da sci ottenuto per il 90% di materiale da riciclo di scarponi da sci a fine vita. L’obiettivo è di realizzare la progettazione del nuovo scarpone, e caratterizzarne le proprietà flessionali avvalendosi ti tecniche di simulazione numerica FEM validata attraverso Correlazione di Immagini Digitale. La caratterizzazione flessionale è realizzata con la prova del Flex Test, che consiste nell’imporre una flessione dorsale ad una protesi di gamba. Le prime simulazioni FEM di questo complesso modello hanno evidenziato delle criticità. La presente ricerca, si pone l’obiettivo di risolvere singolarmente questi problemi. Inizialmente, si è realizzata la blend polimerica dei materiali dello scafo e del gambetto dello scarpone. Si è effettuata la caratterizzazione meccanica del materiale, confrontandolo con il materiale vergine. Si è poi ricercato il modello costitutivo più adeguato di materiale iperelastico per il FEM. Successivamente, si è ottenuto il modello CAD della scarpetta attraverso l’approccio reverse engineering, con la tecnica della scansione 3D, la quale ha consentito di ottenere il file. STEP da aggiungere al modello FEM. La conoscenza della geometria effettiva ha consentito di realizzare il design della nuova scarpetta ottenuta da materiale riciclato. Infine, si è utilizzata la Correlazione di Immagini Digitali per studiare la cinematica della chiusura dei ganci dello scafo, e per studiare lo stato di deformazione residua a chiusura effettuata. Si è valutata l’influenza del piede della protesi, e della scarpetta, durante la chiusura dei ganci. In seguito, si è confrontato quanto ottenuto dalle evidenze sperimentali della DIC, con la simulazione agli elementi finiti. Si tratta di un approccio innovativo, che vede per la prima volta implementata la Correlazione di Immagini Digitali per realizzare la caratterizzazione meccanica di uno scarpone da sci.
Resumo:
Nella letteratura economica e di teoria dei giochi vi è un dibattito aperto sulla possibilità di emergenza di comportamenti anticompetitivi da parte di algoritmi di determinazione automatica dei prezzi di mercato. L'obiettivo di questa tesi è sviluppare un modello di reinforcement learning di tipo actor-critic con entropy regularization per impostare i prezzi in un gioco dinamico di competizione oligopolistica con prezzi continui. Il modello che propongo esibisce in modo coerente comportamenti cooperativi supportati da meccanismi di punizione che scoraggiano la deviazione dall'equilibrio raggiunto a convergenza. Il comportamento di questo modello durante l'apprendimento e a convergenza avvenuta aiuta inoltre a interpretare le azioni compiute da Q-learning tabellare e altri algoritmi di prezzo in condizioni simili. I risultati sono robusti alla variazione del numero di agenti in competizione e al tipo di deviazione dall'equilibrio ottenuto a convergenza, punendo anche deviazioni a prezzi più alti.
Resumo:
La seguente tesi studia il processo γγ → WW osservato per la prima volta dall’esperimento ATLAS nel 2017 facendo collidere due fasci di protoni con un’energia totale di 13 GeV. Grazie all’analisi dell’evento (in un dominio da 0 a 500 GeV in momento trasverso) è possibile misurare il valore (o trovare l’intervallo di confidenza) di determinati coefficienti associati alla lagrangiana in EFT. Si pensa infatti che questo evento, reso possibile anche dalla lagrangiana del Modello Standard, possa avvenire sfruttando teorie oltre il Modello Standard sull’accoppiamento quartico tra bosoni vettori, identificati da operatori di dimensione otto. Lo scopo ultimo dell’analisi è quello di trovare l’intervallo di confidenza all’interno del quale ci si aspetta di trovare questi coefficienti (associati agli operatori di dimensione otto), con livello di confidenza del 95%. Tali misurazioni sono estremamente importanti per la fisica teorica in quanto permettono di verificare la veridicità dei modelli teorici e accertarsi che questi ultimi siano compatibili con i dati. Lo scopo di questa tesi é antecedente alla misurazione e consiste, grazie alle simulazioni, nell’applicare dei processi di selezione e restringere il dominio delle distribuzioni dei dati (in momento trasverso), così da ottimizzare le misurazioni. E' stato trovato infatti che se si restringe il dominio del momento trasverso si riesce a misurare un più ampio e accurato range di valori per i coefficienti di EFT. Nello specifico questa tesi si é occupata di studiare alcuni di questi coefficienti (M), trovando la miglior regione per l’analisi ([180,500] GeV) e, per ogni coefficiente, il limite inferiore con un C.L. del 95%.
Resumo:
Il presente elaborato di tesi tratta della tematica relativa alla razionalizzazione del processo di pianificazione della produzione nell’azienda Schneider Electric Industrie Italia S.p.A. Tale progetto è nato dalla necessità aziendale di avere una schedulazione della produzione più standardizzata a seguito della crisi dei componenti e del loro difficile reperimento, in modo tale da ottenere un piano di produzione che, avviasse la produzione degli ordini producibili e ne monitorasse l’avanzamento con l’obiettivo di restituire ai clienti finali una data di consegna che fosse accurata. Per poter programmare e ottenere una sequenza di produzione ottimizzata si è deciso di applicare ad ogni linea di produzione diverse regole di carico e scegliere lo scenario migliore tra tutti quelli ottenuti. Per decidere quale fosse la schedulazione migliore sono stati calcolati diversi indici di prestazione e come parametro principale di scelta, in accordo con le priorità aziendali, si è data maggior importanza al metodo che fosse in grado di schedulare la produzione riducendo il numero di ordini in ritardo. Come risultato l’aspettativa era quella di trovare una regola di scheduling da poter applicare all’intero reparto di assemblaggio, per contro, a seguito dell’analisi effettuata, si è riscontrato che in funzione del portafoglio ordini specifico di ogni famiglia di prodotto esisteva, per ogni linea, un metodo diverso che andava a migliorare lo scenario attuale, minimizzando il numero di ordini in ritardo. Pertanto, senza congelare il piano di produzione in quanto si andrebbe a ridurre la flessibilità produttiva necessaria per rispondere prontamente ai cambiamenti dinamici del mercato, si è ottenuto che per schedulare la produzione è necessario applicare per ogni linea diversi metodi di scheduling, comparare tra di loro i risultati ottenuti e infine utilizzare quello che, a seconda del portafoglio ordini relativo a quella specifica linea, va migliorare le prestazioni di produzione.
Resumo:
Questa tesi tratterà principalmente la fase di studio preliminare e successivamente la progettazione del retrotreno di una moto supersportiva. Il lavoro centrale della tesi si è focalizzato quindi sul forcellone posteriore di questa nuova motocicletta. È stato dunque indispensabile valutare, definire e progettare anche altri componenti meccanici ad esso collegati come ad esempio lo schema sospensivo posteriore e l’ingombro dell’impianto di scarico. Alla base di questo progetto c’è la volontà di creare una moto supersportiva con cilindrata pari a 1000 cm3 e capace di erogare oltre 200 cv che possa essere venduta nel mercato europeo ad un prezzo concorrenziale. Per tale scopo sono state prese in considerazione e successivamente studiate in modo molto approfondito motociclette già in commercio capaci di rispettare tali vincoli progettuali. L’evoluzione naturale di tale studio si è fondata sulla valutazione delle diverse scelte progettuali e le diverse metodologie di produzione. Le motociclette sono state scansionate per intero per valutarne le geometrie fondamentali e successivamente è stato creato un modello dei componenti passando da una valutazione preliminare degli ingombri fino ad ottenere dei veri e propri componenti realizzabili attraverso le diverse tecnologie. Il componente è stato simulato attraverso analisi FEM seguendo una procedura standard all’interno dell’azienda che ha permesso di evidenziare le geometrie critiche che successivamente sono state migliorate alla luce di tali risultati. Per ottenere un buon prodotto a livello di leggerezza e proprietà meccaniche si è scelto come materiale la lega di alluminio da fonderia che in futuro sarà anche utilizzata per la produzione di serie. Questo processo produttivo è funzionale per ridurre i costi in fase di realizzazione per una produzione in serie ed un altro importante vantaggio è dato dal fatto che in questo modo si possono evitare spiacevoli fenomeni legati alla saldatura dell’alluminio.
Resumo:
La gestione e il recupero dei rifiuti è un aspetto fondamentale per tentare di ridurre l’impatto negativo delle nostre attività sull’ambiente; è responsabilità di ognuno di noi contribuire all’arresto del processo di degrado a cui è sottoposto il pianeta. È noto che gli agglomerati urbani, con i loro scarichi e scarti, sono una delle cause principali di contaminazione ambientale. La vertiginosa espansione dei tessuti urbani degli ultimi cinquant’anni ha notevolmente aumentato la produzione di rifiuti. Ogni cittadino italiano, secondo i dati ISPRA 2021, produce circa 500 kg di rifiuti in un anno. La rincorsa verso il benessere conquistato attraverso l’accumulo di beni materiali non ha lasciato spazio alla cultura attenta al rispetto delle risorse naturali e ne paghiamo le conseguenze. Il focus di questa ricerca è supportare la gestione dei rifiuti urbani e garantire il loro recupero e riutilizzo immediato. L’obiettivo finale è quello della diminuzione/eliminazione dell’abbandono dei rifiuti della plastica, mettendo in relazione operosa gli attori coinvolti nel processo e sviluppando un servizio che semplifichi e rafforzi i meccanismi di raccolta e di riuso. Collocandosi nel contesto di Zaragoza, in Spagna, vengono introdotte alcune specifiche azioni strategiche al fine di condurre i cittadini ad adottare precise pratiche per la salvaguardia ambientale. L’azione a livello locale diventa prototipo con prospettiva globale. Un’osservazione dal basso ci può mostrare cose che, dalla distanza, non si sarebbero potute vedere. Si parte da identità specifiche, considerando i comportamenti di individui che abitano uno stesso luogo e concentrandosi sulla dimensione collettiva delle loro pratiche cercando di cambiarle attraverso obiettivi chiari e premialità. Analizzando i comportamenti di piccoli gruppi, sono state individuate azioni capaci di indirizzarli verso modelli più appropriati modificando le regole del progetto a partire dall’osservazione di questi comportamenti.
Resumo:
A partire dal 1992, nell’industria elettronica giapponese, ha iniziato a diffondersi il sistema produttivo Seru Seisan: “Seru” in giapponese significa “organismo cellulare” e difatti questa modalità di produzione si basa sulla lavorazione di prodotti all’interno di celle. Esse sono formate da brevi tratti di nastro trasportatore, a seguito dello smantellamento di lunghe linee di assemblaggio, in cui lavorano un numero limitato di operatori multi-skilled. All’interno di un Seru possono essere lavorate più tipologie di prodotto ed ogni prodotto lavorato viene completato all’interno della cella stessa. Questo sistema produttivo a bassa automazione si rivela particolarmente adatto per operazioni di assemblaggio e consente di fronteggiare la dinamicità del mercato caratterizzata da elevata varietà e bassi volumi: il layout di un Seru, infatti, può essere riconfigurato rapidamente e richiede bassi investimenti in attrezzatura. In questo elaborato vengono presentati i Seru Seisan, descrivendone le principali caratteristiche e configurazioni unitamente alla loro origine. Dal momento che molti tentativi di applicazione di tale sistema produttivo risultano infruttuosi, soprattutto al di fuori del Giappone, viene proposto un quadro generale per l’implementazione e un algoritmo euristico per risolvere il problema di formazione e assegnazione degli operatori alle celle, minimizzando il costo totale di cross-training e bilanciando il carico di lavoro. Infine, viene presentato il lavoro di ricerca del presente elaborato che ha l’obiettivo di dimostrare il modello analitico che sta alla base del funzionamento di un Seru Divisionale, arrivando a stimare la produttività di una produzione multiprodotto. La formula a cui si giunge viene testata in due casi numerici reali, mostrando come alla progressiva diminuzione del numero di operatori all’interno di una cella, si ottenga un aumento della produttività della cella stessa.
Resumo:
Prendere decisioni è un’attivita incessante ed intrinseca nella nostra quotidianità, i ricercatori della Cornell University stimano che ogni giorno un adulto prenda circa 35.000 decisioni semi-consapevoli. Fare scelte è un attività molto dipendiosa a livello mentale e lo è ancora di più se le scelte da prendere sono importanti e hanno ripercussioni anche a livello collettivo e non solo individuale. L’affaticamento decisionale è un tema critico in molti ambiti professionali e può essere considerato un vero e proprio bias, uno studio su più di 1.000 decisioni prese da otto giudici israeliani per la libertà vigilata nel 2009 ha rilevato che la probabilità di ottenere esito favorevole era del 65% all’inizio di ogni sessione, ma diminuiva a meno del 10% prima della pausa pranzo, il lavoro mentale di decidere caso dopo caso, logorava in modo importante le energie decisionali dei giudici, (Tierney, 2011). Lo studio che partirà da queste premesse andrà ad indagare e approfondire il tema della Decison Fatigue, ancora poco conosciuto, lo stato attuale del mercato, e i possibili sbocchi lato prodotto. Successivamente sulla base dell’analisi precedente, da cui saranno estratti: target di riferimento, bisogni e soluzioni applicabili, sarà realizzato un device fisico che proporrà una soluzione mirata al contesto e ai problemi indiviuati.
Resumo:
Il mercato azionario è sempre stato caso di studio, soprattutto per la sua complessità, e la difficolta di predirne il comportamento. I fattori in gioco sono davvero tanti, dalla politica ai problemi aziendali stessi. Pur sapendo che il mondo finanziario è un mondo complicato, permette però possibilità di guadagno elevate. Nel documento vengono descritti alcuni approcci utilizzati per eseguire delle predizioni, dai metodi più classici come la regressione, fino all'utilizzo di reti neurali. Vengono infatti descritti tre modelli che sfruttano le caratteristiche della LSTM, e un modello che sfrutta l'architettura Transformer, proposto recentemente,
Resumo:
Una delle principali sfide odierne è la volontà di ridurre l’impatto ambientale, causato dalle attività umane, riducendo le emissioni inquinanti. Per questo motivo, negli ultimi anni, i requisiti di omologazione dei motori a combustione interna sono diventati sempre più selettivi, evidenziando la necessità di utilizzare nuove e più avanzate tecnologie. Tra le possibili alternative, le nuove tecnologie che forniscono i risultati più promettenti sono le cosiddette Low Temperature Combustions (LTC). Una di esse è la Gasoline Compression Ignition (GCI) che è caratterizzata da una combustione mediante il processo di auto-accensione di un carburante tipo benzina ed è in grado di ottenere un’elevata efficienza con ridotte emissioni inquinanti. Per poter controllare correttamente una combustione GCI, è necessario realizzare un pattern di iniezioni consecutive al fine di raggiungere le condizioni termodinamiche nel cilindro per garantire l’auto-accensione della benzina. I principali problemi dovuti alla realizzazione di un’iniezione multipla sono la generazione di onde di alta pressione nel condotto di iniezione e, nel caso di iniettori Gasoline Direct Injection (GDI) solenoidali, la magnetizzazione residua dei coil dello stesso. Sia le onde di pressione che la magnetizzazione residua comportano una variazione di massa iniettata rispetto al valore previsto. In questo elaborato è presentato un modello matematico realizzato per compensare le variazioni di massa che avvengono durante un pattern di due iniezioni consecutive in un iniettore GDI benzina ad alta pressione. Con tale modello, è possibile correggere i parametri che caratterizzano le iniezioni per introdurre il quantitativo desiderato di benzina indipendentemente dal pattern selezionato.
Resumo:
Tesi riguardante il rebranding che vuole ottenere, tramite l'analisi di due casi studio (due aziende operanti nel mercato B2B), delle linee guida e suggerimenti per superare le problematiche principali di questo processo. L'analisi dei casi studio è stata fatta tramite interviste interne all'azienda, ricerche online e materiale proprio delle aziende. Le linee guida saranno formulate sulla base delle difficoltà affrontate da queste due aziende sia nel fornire servizi sia prodotti fisici.
Resumo:
L’immunoterapia è una delle tecniche più all’avanguardia per la lotta contro il cancro e si basa sull’aumento delle prestazioni del sistema immunitario attraverso anticorpi monoclonali (ovvero farmaci immunoterapici). Grazie a questi, la terapia garantisce l’inibizione dei checkpoint immunologici, che permettono alle cellule del sistema immunitario di riconoscere la presenza del tumore e aggredirlo fino a eradicarlo. La tesi propone una soluzione frazionaria al problema della crescita tumorale, basandosi su un modello di Kuznetsov esteso dove viene presa in considerazione anche il parametro di concentrazione di Interleuchina-2. Tramite un’analisi di stabilità del modello proposto è possibile arrivare a un valore di sigma, ovvero il rateo di cellule effettrici, per il quale il sistema delle cellule tumorali viene completamente eradicato. Una volta trovata la condizione di stabilità e calcolato il valore di alpha (ordine della derivata frazionaria) che approssima al meglio la crescita tumorale nel caso reale, viene proposto un sistema di controllo automatico in retroazione basato sul numero di cellule effettrici per automatizzare il processo immunoterapico.
Resumo:
Questo documento presenta un modello efficiente di gestione e di monitoraggio dei rifiuti basato sull’IoT per migliorare l’ambiente di vita nelle città. Il sistema proposto utilizza sensori e tecnologie di comunicazione che raccolgono ed elaborano in tempo reale dati trasmessi da cassonetti smart permettendo un’efficace gestione dell’igiene urbana e riducendo sconvenienti malfunzionamenti dei cassonetti, fastidiosi sia per i cittadini sia per gli operatori pubblici. Il risultato del progetto è un insieme di oggetti e processi interconnessi in un mondo, quello della raccolta dei rifiuti, in cui l’automazione non esiste ancora o è poco diffusa e che invece potrebbe portare un buon incremento nel funzionamento.
Resumo:
Negli ultimi anni la competitività nei mercati è notevolmente cresciuta, la complessità dei prodotti industriali è considerevolmente aumentata e quest’ultimi devono ora essere accuratamente ottimizzati sotto ogni aspetto. I prodotti, oltre ad avere dei cicli di vita più brevi, sono soggetti a un’alta personalizzazione e a una domanda variabile. Per rimanere competitive, le aziende manifatturiere devono possedere nuovi tipi di sistemi di produzione che siano convenienti e molto reattivi a tutti questi cambiamenti del mercato, quali i Sistemi di produzione riconfigurabili (Reconfigurable Manufacturing System - RMS). La particolarità di tali sistemi risiede nella capacità di cambiare rapidamente le loro strutture hardware e software, aspetto che li renda idonei a soddisfare la produzione moderna. Oltre agli aspetti produttivi, l’attenzione odierna è incentrata anche sulle tematiche ambientali legate al risparmio energetico durante i processi produttivi, alla riduzione delle quantità di CO2 emesse e alla sostenibilità ambientale. L’obiettivo di questa tesi è quello di proporre un modello di ottimizzazione multi-obiettivo che tenga conto sia della minimizzazione del tempo complessivo necessario alla movimentazione dei prodotti e alla riconfigurazione delle macchine, e sia della minimizzazione del consumo energetico. Tale modello è stato applicato ad un caso studio realistico che ha permesso di individuare un trade-off tecnico-ambientale individuando la frontiera di Pareto con punto di ottimo (134.6 min; 9346.3 kWh) che si discosta del 57% dal valore trovato ottimizzando la funzione tempo, e dello 0.76% dal valore ottenuto ottimizzando la funzione energia.