1000 resultados para Processo Decisionale Mercato Competizione Modello
Resumo:
Il lavoro presentato in questa tesi è stato svolto presso il Department of Computer Science, University of Oxford, durante il mio periodo all’estero nel Computational Biology Group. Scopo del presente lavoro è stato lo sviluppo di un modello matematico del potenziale d’azione per cellule umane cardiache di Purkinje. Tali cellule appartengono al sistema di conduzione elettrico del cuore, e sono considerate molto importanti nella genesi di aritmie. Il modello, elaborato in linguaggio Matlab, è stato progettato utilizzando la tecnica delle Popolazione di Modelli, un innovativo approccio alla modellazione cellulare sviluppato recentemente proprio dal Computational Biology Group. Tale modello è stato sviluppato in 3 fasi: • Inizialmente è stato sviluppato un nuovo modello matematico di cellula umana del Purkinje cardiaco, tenendo in considerazione i modelli precedenti disponibili in letteratura e le più recenti pubblicazioni in merito alle caratteristiche elettrofisiologiche proprie della cellula cardiaca umana di Purkinje. Tale modello è stato costruito a partire dall’attuale gold standard della modellazione cardiaca ventricolare umana, il modello pubblicato da T. O’Hara e Y. Rudy nel 2011, modificandone sia le specifiche correnti ioniche che la struttura interna cellulare. • Il modello così progettato è stato, poi, utilizzato come “modello di base” per la costruzione di una popolazione di 3000 modelli, tramite la variazione di alcuni parametri del modello all’interno di uno specifico range. La popolazione così generata è stata calibrata sui dati sperimentali di cellule umane del Purkinje. A valle del processo di calibrazione si è ottenuta una popolazione di 76 modelli. • A partire dalla popolazione rimanente, è stato ricavato un nuovo modello ai valori medi, che riproduce le principali caratteristiche del potenziale d’azione di una cellula di Purkinje cardiaca umana, e che rappresenta il dataset sperimentale utilizzato nel processo di calibrazione.
Il modello di argomentazione di Toulmin nell’attivitá matematica degli studenti di scuola secondaria
Resumo:
Lo studio decritto in questo progetto di tesi ha avuto origine dalla volontà di analizzare l’atteggiamento di studenti di scuola superiore di I e II grado rispetto alla richiesta di fornire argomentazioni, di giustificare affermazioni o risultati ottenuti in ambito matematico. L’analisi quantitativa dei dati ottenuti sottoponendo gli studenti ad un questionario costituito da quesiti scelti in ambiti differenti tra le prove Invalsi ha evidenziato che solo una parte (36% per le superiori di I grado, 59% per le superiori di II grado) degli studenti che hanno risposto correttamente ai quesiti, è stata in grado di argomentare la risposta. L’analisi è stata a questo punto approfondita sulla base del modello di Toulmin e delle componenti del processo di argomentazione da lui descritte. Si è valutato per ogni argomentazione in quale o quali delle componenti toulminiane si sia concentrato l’errore. Ogni argomentazione considerata errata può infatti contenere errori differenti che possono riguardare una soltanto, diverse o tutte e quattro le componenti di Backing, Warrant, Data e Conclusion. L’informazione che ne è emersa è che nella maggioranza dei casi il fatto che uno studente di scuola superiore non riesca ad argomentare adeguatamente un’affermazione dipende dal richiamo errato di conoscenze sull'oggetto dell'argomentazione stessa ("Warrant" e "Backing"), conoscenze che dovrebbero supportare i passi di ragionamento. Si è infine condotta un’indagine sul terreno logico e linguistico dei passi di ragionamento degli studenti e della loro concatenazione, in modo particolare attraverso l’analisi dell’uso dei connettivi linguistici che esprimono e permettono le inferenze, e della padronanza logica delle concatenazioni linguistiche. Si è osservato per quanto riguarda le scuole superiori di I grado, che le difficoltà di argomentazione dovute anche a scarsa padronanza del linguaggio sono circa l’8% del totale; per le scuole superiori di II grado questa percentuale scende al 6%.
Resumo:
Le prestazioni dei motori a combustione interna sono fortemente influenzate dalla formazione di un film fluido, a seguito dell'impatto di uno spray con una parete. Nell'ottica di favorire la formazione della miscela e di ridurre le emissioni, lo studio approfondito di tale fenomeno deve essere supportato da un processo di simulazione assistita dal calcolatore. Pertanto, la Fluidodinamica Computazionale (Computational Fluid Dynamics, CFD) ed i modelli ad essa associati rappresentano al giorno d'oggi uno strumento vantaggioso e sempre più utilizzato. In questo ambito si colloca il presente lavoro di tesi, che si propone di validare il modello di film fluido implementato nel software OpenFOAM-2.3.0, confrontando i risultati ottenuti, in termini di altezza del film fluido, con quelli del caso sperimentale di Le Coz et al.
Resumo:
La tesi descrive la mia esperienza di tirocinio presso l'azienda Marchesini Group, inserito all'interno dell'Ufficio Validazione Impianti. Dopo un'introduzione sul tema della qualità e dell'affidabilità, della loro evoluzione e della loro rilevanza nel mercato odierno, il cuore dell'elaborato descrive il progetto condotto all'interno dell'azienda. In particolare, la descrizione di uno strumento di standardizzazione per la compilazione di documenti di validazione. Infine è presente un modello di simulazione (realizzato con il software Arena Simulation) per l'analisi di congestioni e colli di bottiglia del macro processo di validazione. Lo stesso modello è stato poi utilizzato per lo studio del sistema dopo l'introduzione dello strumento standard.
Resumo:
Negli ultimi anni, lo scenario di crescente competizione su cui si affaccia il mercato ha spinto le aziende a interessarsi sempre più frequentemente all’ingegneria della manutenzione, allo scopo di avvalersi di tecniche che permettano di pianificare strategie di manutenzione per i sistemi produttivi che siano efficaci nel minimizzare i costi di gestione garantendo prestazioni e livelli di sicurezza elevati. Le tecniche analitiche tipiche dell’ingegneria della manutenzione sono nate in settori industriali che richiedono elevati livelli di progresso tecnologico (aeronautico, nucleare), e si basano su ipotesi specifiche stringenti, che risultano limitanti nel panorama sempre più vasto ed eterogeneo in cui ne si richiede l’applicazione. D’altra parte, la rimozione di tali ipotesi rende necessario il ricorso a tecniche di risoluzione numeriche. In questa tesi si definisce un nuovo modello che permetta di caratterizzare un sistema di produzione tenendo conto di tutti i possibili aspetti di interesse nell’ambito dell’ingegneria della manutenzione. Inoltre, sono descritti gli algoritmi definiti per la risoluzione di tale modello.
Resumo:
In questo elaborato ho analizzato un sistema di reazione-diffusione proposto come modello per descrivere un fenomeno di crescita tumorale. In particolare, è stato approfondito il processo in cui l'invasione neoplastica è originata dalla produzione di un eccesso di ioni acidi da parte delle cellule maligne. Il sistema preso in esame descrive l'andamento di tre grandezze: la concentrazione di tessuto sano, la concentrazione di tessuto maligno e l'eccesso di ioni acidi. Ho quindi cercato soluzioni compatibili con il sistema le quali fossero funzioni della tipologia travelling waves, ossia onde che si propagano lungo l'asse reale con un grafico fissato e ad una velocità costante. I risultati ottenuti in questo lavoro sono stati così suddivisi: nel Capitolo 1 viene descritto il processo di invasione tumorale dal punto di vista biologico, nel Capitolo 2 vengono forniti alcuni lemmi e proposizioni preliminari, nel Capitolo 3 viene calcolata un'approssimazione della soluzione del sistema tramite onde del tipo slow waves e infine nel Capitolo 4 sono state studiate la presenza e la larghezza dello spazio interstiziale, ossia di una regione situata tra il tessuto sano e quello neoplastico nella quale si registra una concentrazione di cellule, sia normali sia maligne, praticamente nulla. Infine, sono state rappresentate graficamente le soluzioni in tre possibili situazioni caratterizzate da un diverso parametro di aggressività del tumore.
Resumo:
Nel sistema nervoso centrale i neuroni comunicano l'uno con l'altro attraverso le connessioni sinaptiche e sono soggetti a centinaia di stimoli, ma hanno la capacità di distinguerli l'uno dall'altro. L'abilità delle sinapsi di interpretare questi cambiamenti morfologici e biochimici è detta \textit{plasticità sinaptica} e l'obiettivo di questa tesi è proprio studiare un modello per le dinamiche di questo affascinante processo, da un punto di vista prima deterministico e poi stocastico. Infatti le reazioni che inducono la plasticità sinaptica sono ben approssimate da equazioni differenziali non lineari, ma nel caso di poche molecole bisogna tener conto delle fluttuazioni e quindi sono necessari dei metodi di analisi stocastici. Nel primo capitolo, dopo aver introdotto gli aspetti fondamentali del sistema biochimico coinvolto e dopo aver accennato ai diversi studi che hanno approcciato l'argomento, viene illustrato il modello basato sull'aggregazione delle proteine (PADP) volto a spiegare la plasticità sinaptica. Con il secondo capitolo si introducono i concetti matematici che stanno alla base dei processi stocastici, strumenti utili per studiare e descrivere la dinamica dei sistemi biochimici. Il terzo capitolo introduce una giustificazione matematica riguardo la modellizzazione in campo medio e vede una prima trattazione del modello, con relativa applicazione, sui moscerini. Successivamente si applica il modello di cui sopra ai mammiferi e se ne studia nel dettaglio la dinamica del sistema e la dipendenza dai parametri di soglia che portano alle varie transizioni di fase che coinvolgono le proteine. Infine si è voluto osservare questo sistema da un punto di vista stocastico inserendo il rumore di Wiener per poi confrontare i risultati con quelli ottenuti dall'approccio deterministico.
Resumo:
Nell'ambito dei motori ad accensione comandata, la comprensione del processo di accensione e delle prime fasi di sviluppo del kernel è di primaria importanza per lo studio dell'intero processo di combustione, dal momento che questi determinano lo sviluppo successivo del fronte di fiamma. Dal punto di vista fisico, l'accensione coinvolge un vasto numero di fenomeni di natura molto complessa, come processi di ionizzazione e passaggio di corrente nei gas: molti di questi avvengono con tempi caratteristici che ne impediscono la simulazione tramite le attuali tecniche CFD. Si rende pertanto necessario sviluppare modelli semplificati che possano descrivere correttamente il fenomeno, a fronte di tempi di calcolo brevi. In quest'ottica, il presente lavoro di tesi punta a fornire una descrizione accurata degli aspetti fisici dell'accensione, cercando di metterne in evidenza gli aspetti principali e le criticità. A questa prima parte di carattere prettamente teorico, segue la presentazione del modello di accensione sviluppato presso il DIN dell'Università di Bologna dal Prof. Bianche e dall'Ing. Falfari e la relativa implementazione tramite il nuovo codice CONVERGE CFD: la validazione è infine condotta riproducendo un caso test ben noto il letteratura, che mostrerà un buon accordo tra valori numerici e sperimentali a conferma della validità del modello.
Resumo:
La stesura del seguente elaborato di tesi è avvenuta simultaneamente all’inizio di un progetto Lean presso il plant produttivo, situato a Crevalcore (Bo), di Fonderie di Montorso Spa, azienda produttrice di getti in ghisa. Lo scopo del seguente elaborato è di descrivere l’implementazione di un progetto Lean in uno dei settori più antichi esistenti. Negli ultimi decenni, si è sentito molto parlare di Lean production in settori come quello dell’automotive ma, raramente, si sente parlare di lean thinking o kaizen in settori metalmeccanici. I processi produttivi tipici di una fonderia, infatti, sono difficilmente prevedibili e controllabili come può essere un processo di assemblaggio di componenti. Trasferire, dunque, un sistema di gestione della produzione, il Toyota Production System, nato in una linea di assemblaggio, in un settore con una grande quantità di vincoli di progettazione e produzione, è una sfida, una sfida necessaria per rispondere ad una situazione di estrema variabilità della domanda, in cui il mercato richiede i prodotti in maniera rapida e puntuale. Per rimanere, dunque, competitivi è necessario un cambiamento radicale, una rivisitazione di tutti i processi aziendali partendo dall’arrivo dell’ordine, alla spedizione dello stesso. Alla luce di ciò, nel corso della trattazione, sono state svolte analisi al fine di ridurre il Lead time di partenza da 18 a 4 settimane, ponendo molta attenzione al coinvolgimento delle persone, il vero motore del cambiamento. Le parole cardine di questo elaborato sono: standardizzazione dei processi, eliminazione dei colli di bottiglia, aumento della comunicazione tra le funzioni aziendali, prioritizzazione dei clienti e per ultimo, ma non per importanza, la valorizzazione del gemba.
Resumo:
A fianco ai metodi più tradizionali, fin ora utilizzati, le tecnologie additive hanno subito negli ultimi anni una notevole evoluzione nella produzione di componenti. Esse permettono un ampio di range di applicazioni utilizzando materiali differenti in base al settore di applicazione. In particolare, la stampa 3D FDM (Fused Deposition Modeling) rappresenta uno dei processi tecnologici additivi più diffusi ed economicamente più competitivi. Gli attuali metodi di analisi agli elementi finiti (FEM) e le tecnologie CAE (Computer-Aided Engineering) non sono in grado di studiare modelli 3D di componenti stampati, dal momento che il risultato finale dipende dai parametri di processo e ambientali. Per questo motivo, è necessario uno studio approfondito della meso struttura del componente stampato per estendere l’analisi FEM anche a questa tipologia di componenti. Lo scopo del lavoro proposto è di creare un elemento omogeneo che rappresenti accuratamente il comportamento di un componente realizzato in stampa 3D FDM, questo avviene attraverso la definizione e l’analisi di un volume rappresentativo (RVE). Attraverso la tecnica dell’omogeneizzazione, il volume definito riassume le principali caratteristiche meccaniche della struttura stampata, permettendo nuove analisi e ottimizzazioni. Questo approccio permette di realizzare delle analisi FEM sui componenti da stampare e di predire le proprietà meccaniche dei componenti a partire da determinati parametri di stampa, permettendo così alla tecnologia FDM di diventare sempre di più uno dei principali processi industriali a basso costo.
Resumo:
A differenza di quanto avviene nel commercio tradizionale, in quello online il cliente non ha la possibilità di toccare con mano o provare il prodotto. La decisione di acquisto viene maturata in base ai dati messi a disposizione dal venditore attraverso titolo, descrizioni, immagini e alle recensioni di clienti precedenti. É quindi possibile prevedere quanto un prodotto venderà sulla base di queste informazioni. La maggior parte delle soluzioni attualmente presenti in letteratura effettua previsioni basandosi sulle recensioni, oppure analizzando il linguaggio usato nelle descrizioni per capire come questo influenzi le vendite. Le recensioni, tuttavia, non sono informazioni note ai venditori prima della commercializzazione del prodotto; usando solo dati testuali, inoltre, si tralascia l’influenza delle immagini. L'obiettivo di questa tesi è usare modelli di machine learning per prevedere il successo di vendita di un prodotto a partire dalle informazioni disponibili al venditore prima della commercializzazione. Si fa questo introducendo un modello cross-modale basato su Vision-Language Transformer in grado di effettuare classificazione. Un modello di questo tipo può aiutare i venditori a massimizzare il successo di vendita dei prodotti. A causa della mancanza, in letteratura, di dataset contenenti informazioni relative a prodotti venduti online che includono l’indicazione del successo di vendita, il lavoro svolto comprende la realizzazione di un dataset adatto a testare la soluzione sviluppata. Il dataset contiene un elenco di 78300 prodotti di Moda venduti su Amazon, per ognuno dei quali vengono riportate le principali informazioni messe a disposizione dal venditore e una misura di successo sul mercato. Questa viene ricavata a partire dal gradimento espresso dagli acquirenti e dal posizionamento del prodotto in una graduatoria basata sul numero di esemplari venduti.
Resumo:
L’aumento del consumo di energia globale e le problematiche legate all’inquinamento stanno rendendo indispensabile lo spostamento verso fonti di energia rinnovabile. La digestione anaerobica rappresenta una possibile soluzione in quanto permette di produrre biogas da biomassa organica di scarto ma, l’ottimizzazione del processo risulta difficoltosa a causa delle numerose variabili chimiche, biologiche, fisiche e geometriche correlate. Nel presente elaborato, concentrandosi sulle problematiche relative alla miscelazione interna, è stata investigata la fluidodinamica interna di un reattore modello ottenuto tramite scale-down di un digestore anaerobico industriale che presentava problemi di sedimentazione di sostanza solida sul fondo del reattore. Tramite tecniche di diagnostica ottiche, è stato studiato il movimento del fluido, prima utilizzando acqua demineralizzata e poi una soluzione di gomma di xantano come fluido di processo, al fine di studiare il campo di moto medio interno al reattore. Le tecniche utilizzate sono la Particle Image Velocimetry (PIV) e la Planar Laser Induced Fluorescence (PLIF). Al fine di rendere il sistema investigato il più rappresentativo possibile del digestore industriale, è stato utilizzato come fluido di processo per alcune delle prove raccolte, una soluzione acquosa 1,0g/kg di gomma di xantano, le cui proprietà reologiche sono state investigate grazie ad un Reometro Anton Paar MCR 301.
Resumo:
Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.
Resumo:
Ad oggi le città europee si configurano come i principali centri di cultura, innovazione e sviluppo economico. Tuttavia, ospitando circa il 75% della popolazione e consumando quasi l’80% dell’energia prodotta, a causa delle significative emissioni di gas serra esse contribuiscono in modo rilevante ai cambiamenti climatici e, allo stesso tempo, ne subiscono gli effetti più intensi. La Comunità Europea ha preso atto della necessità di intraprendere un’azione sinergica che adotti strategie di mitigazione climatica e preveda misure di adattamento per far fronte agli impatti climatici ormai inevitabili. L'orientamento dei Programmi europei di Ricerca e Innovazione sul tema delle città smart e clima-neutrali sposta l'attenzione dalla dimensione urbana verso la scala di distretto. In questa prospettiva, i Positive Energy Districts (PEDs) si configurano come distretti di nuova edificazione, ma anche come soluzioni ambiziose per la riqualificazione di quartieri esistenti che gestiscono in modo attivo il fabbisogno energetico con un bilancio nullo di emissioni e un surplus di energia prodotta da rinnovabili. La ricerca di dottorato focalizza l’indagine sul modello PEDs esplorandone il potenziale di applicabilità nel contesto urbano consolidato. Nello specifico, la tesi lavora allo sviluppo di due contributi di ricerca originali: il PED-Portfolio e il PED-Toolkit. Tali contributi propongono un approccio sistemico, attraverso il quale intraprendere un percorso di conoscenza e sperimentazione del modello PEDs in una prospettiva di riduzione del fabbisogno energetico, ma anche in un’ottica di migliore accessibilità, vivibilità e resilienza di questi distretti. Al fine di verificare l’applicabilità dei risultati della ricerca, gli strumenti sviluppati vengono testati su un’area pilota e gli esiti di tale sperimentazione sono poi messi a confronto con il quadro dello stato dell’arte e con le principali linee di ricerca internazionali sul tema PEDs, affinando gli esiti del progetto di dottorato in un processo di ricerca-sperimentazione-ricerca.
Resumo:
Il presente elaborato indaga l’evoluzione del rapporto tra ordinamento giuridico e territorio, alla luce dei processi di globalizzazione e integrazione europea. Nel secondo dopoguerra, infatti, si è assistito ad un’evoluzione dello Stato moderno in quello che è stato definito come lo Stato keynesiano, nel quale convivevano una forte presenza pubblica nell’economia interna e un basso livello di internazionalizzazione del commercio mondiale. La crisi di tale modello è la crisi dello Stato territoriale, che viene attraversato da nuovi flussi economici che premiano città e regioni, facendo perdere di importanza alla dimensione nazionale. Ciò è avvolorato dal processo di integrazione europea che dagli anni ’80 in poi trova nuovo vigore e comincia a limitare l’intervento pubblico nell’economia agendo sia sul piano degli aiuti di Stato, che sui bilanci nazionali. Tali dinamiche producono la crisi dell’unità dello Stato sotto un aspetto giuridico-territoriale, per via del crescente ruolo tanto delle istituzioni europee, da una parte, e di città e Regioni, dall’altra, le quali diventano nuove dimensioni normative che sfidano la sovranità statale. Allo stesso tempo, si indebolisce anche l’unità sociale, con divari territoriali crescenti, sia a livello inter- che intra- regionali. In questo contesto, si approfondirà come l’intervento pubblico europeo sia sul piano della coesione, che su quello relativo agli aiuti di Stato non solo tenda ad una riduzione dei divari, ma anche ad una riconfigurazione del territorio europeo. Infatti, grazie ai suoi strumenti, città e regioni hanno la possibilità di superare i propri confini amministrativi al fine di creare nuove forme di cooperazione territoriale. In questo scenario, si proporrà una riflessione sulla possibilità di un rinnovato principio di sussidiarietà, che tenga conto della struttura reticolare dell’attuale contesto territoriale europeo, così come degli attuali rapporti tra la dimensione del mercato e quella sociale, al fine di meglio descrivere un ordinamento europeo in senso materiale.