682 resultados para Turboalternatore, Guasti, Fatica oligociclica, Affidabilità, Probabilità
Resumo:
Prendere decisioni è un’attivita incessante ed intrinseca nella nostra quotidianità, i ricercatori della Cornell University stimano che ogni giorno un adulto prenda circa 35.000 decisioni semi-consapevoli. Fare scelte è un attività molto dipendiosa a livello mentale e lo è ancora di più se le scelte da prendere sono importanti e hanno ripercussioni anche a livello collettivo e non solo individuale. L’affaticamento decisionale è un tema critico in molti ambiti professionali e può essere considerato un vero e proprio bias, uno studio su più di 1.000 decisioni prese da otto giudici israeliani per la libertà vigilata nel 2009 ha rilevato che la probabilità di ottenere esito favorevole era del 65% all’inizio di ogni sessione, ma diminuiva a meno del 10% prima della pausa pranzo, il lavoro mentale di decidere caso dopo caso, logorava in modo importante le energie decisionali dei giudici, (Tierney, 2011). Lo studio che partirà da queste premesse andrà ad indagare e approfondire il tema della Decison Fatigue, ancora poco conosciuto, lo stato attuale del mercato, e i possibili sbocchi lato prodotto. Successivamente sulla base dell’analisi precedente, da cui saranno estratti: target di riferimento, bisogni e soluzioni applicabili, sarà realizzato un device fisico che proporrà una soluzione mirata al contesto e ai problemi indiviuati.
Resumo:
Di fronte alla concorrenza globale, la sopravvivenza di un'azienda manifatturiera dipende sempre più da come essa può progettare, gestire e strutturare al meglio il proprio sistema di produzione per far fronte alla diversità dei prodotti, per migliorare l'affidabilità di consegna e anche per ridurre i costi. In questo contesto, le aziende manifatturiere utilizzano spesso sistemi di produzione diversi, in base a ciò che richiede il mercato. Molto in generale, i sistemi produttivi possono essere classificati in due categorie principali: make-to-stock (MTS) e make-to-order (MTO), in base alla politica di risposta alla domanda del mercato. Nel nuovo contesto competitivo le aziende si sono trovate a dover produrre costantemente prodotti specifici e di alta qualità con costi unitari bassi e livelli di servizio elevati (ossia, tempi di consegna brevi). È chiaro, dunque, che una delle principali decisioni strategiche da prendere da parte delle aziende sia quella relativa alla ripartizione dei prodotti in MTS/MTO, ovvero quale prodotto o famiglia di prodotti può essere fabbricato per essere stoccato a magazzino (MTS), quale può essere prodotto su ordinazione (MTO) e quale dovrebbe essere fabbricato in base alla politica di produzione ibrida MTS/MTO. Gli ultimi anni hanno mostrato una serie di cambiamenti nella politica di produzione delle aziende, che si stanno gradualmente spostando sempre più verso la modalità̀ di produzione ibrida MTS/MTO. In particolare, questo elaborato si concentrerà sul delayed product differentiation (DPD), una particolare strategia produttiva ibrida, e ne verrà proposto un modello decisionale basato sul funzionamento dell’Analytic Network Process (ANP) implementato attraverso il software Superdecisions.
Resumo:
Da anni è iniziata la quarta rivoluzione industriale che ha portato all’industria 4.0 e che, a differenza delle precedenti, è trainata da diverse tecnologie, tra cui l’Additive Manufacturing (AM). Lo scopo della tesi è quello di analizzare i prodotti ottenuti tramite AM e le loro proprietà meccaniche (resistenza a trazione, durezza, vita a fatica…) per paragonarli con quelli ottenuti tramite metodi convenzionali (fonderia, lavorazione alle macchine utensili…). Il primo capitolo introduttivo presenta le principali caratteristiche del processo, tra cui: i materiali utilizzati, i parametri, i vantaggi e gli svantaggi rispetto ai tradizionali metodi produttivi e l’evoluzione della tecnologia. Il secondo capitolo tratta più in particolare degli acciai, delle leghe di alluminio e di titanio, illustrando le principali tecnologie utilizzate e l’influenza dei parametri di processo e mette, poi, in relazione la microstruttura che si crea in seguito ad AM con le proprietà meccaniche ottenibili, anche in virtù di post-trattamenti. Nel terzo capitolo sono esaminati i materiali polimerici. Vengono illustrate le principali tecnologie utilizzate e le proprietà meccaniche ottenibili in relazione alla materia prima utilizzata e ai parametri di processo. Infine, sono valutati gli effetti del rinforzo in fibra sulle proprietà meccaniche. Nel capitolo finale, si traggono le conclusioni sull’utilità dell’AM per capirne l’importante ruolo all’interno della fabbricazione. Si analizza brevemente il mercato italiano relativo alle tecnologie additive e si fa un accenno a quelli che potrebbero essere gli sviluppi nei prossimi anni.
Resumo:
Historia magistra vitae, scriveva Cicerone nel De Oratore; il passato deve insegnare a comprendere meglio il futuro. Un concetto che a primo acchito può sembrare confinato nell'ambito della filosofia e della letteratura, ma che ha invece applicazioni matematiche e fisiche di estrema importanza. Esistono delle tecniche che permettono, conoscendo il passato, di effettuare delle migliori stime del futuro? Esistono dei metodi che permettono, conoscendo il presente, di aggiornare le stime effettuate nel passato? Nel presente elaborato viene illustrato come argomento centrale il filtro di Kalman, un algoritmo ricorsivo che, dato un set di misure di una certa grandezza fino al tempo t, permette di calcolare il valore atteso di tale grandezza al tempo t+1, oltre alla varianza della relativa distribuzione prevista; permette poi, una volta effettuata la t+1-esima misura, di aggiornare di conseguenza valore atteso e varianza della distribuzione dei valori della grandezza in esame. Si è quindi applicato questo algoritmo, testandone l'efficacia, prima a dei casi fisici, quali il moto rettilineo uniforme, il moto uniformemente accelerato, l'approssimazione delle leggi orarie del moto e l'oscillatore armonico; poi, introducendo la teoria di Kendall conosciuta come ipotesi di random walk e costruendo un modello di asset pricing basato sui processi di Wiener, si è applicato il filtro di Kalman a delle serie storiche di rendimenti di strumenti di borsa per osservare se questi si muovessero effettivamente secondo un modello di random walk e per prevedere il valore al tempo finale dei titoli.
Resumo:
Il presente elaborato è volto all’analisi di come viene pianificata la produzione in Fabiana Filippi spa e nello specifico al monitoraggio delle prestazioni dei fornitori di materie prime. L’attività di pianificazione della produzione viene infatti strutturata a partire dalle consegne che i fornitori confermano di riuscire a garantire; risulterebbe dunque inutile strutturare e pianificare una produzione se a monte non vengono monitorati i fornitori che ne permettono l’avvio. Proprio per questa ragione è stato introdotto uno strumento di monitoraggio dei fornitori che permetta di analizzarli completamente a 360°, sulla base di quattro parametri di riferimento: affidabilità di consegna, puntualità, qualità di consegna e rispetto delle quantità richieste. A ciascun fornitore è stata poi associata una classe (A, B, C) con lo scopo di individuare dei target minimi prestazionali che i fornitori appartenenti a ciascuna di esse devono raggiungere.Tali target minimi sono stati poi definiti a partire da un trade-off tra gli obiettivi prestazionali richiesti dall’azienda e i valori di prestazione medi ottenuti dai fornitori relativi ad una stessa classe. A partire dai valori prestazionali ottenuti di partenza (AS-IS), si è deciso di analizzare nello specifico la situazione di quattro differenti fornitori ai quali, sono state dapprima individuate le cause che determinavano un basso livello prestazionale e a partire da queste, trovate e poi applicate delle soluzioni migliorative al fine di elevare il livello prestazionale iniziale (TO-BE). I risultati ottenuti hanno permesso di dimostrare quanto sia migliorativo avere un sistema di monitoraggio continuo del livello di prestazione di fornitura che permetta dunque, qualora si registrino dei valori non soddisfacenti, di individuare delle soluzioni al fine di agevolare la fornitura e di conseguenza evitare ritardi di produzione.
Resumo:
La galvanotassi, la migrazione cellulare stimolata dalla presenza di un campo elettrico esogeno o endogeno, `e stata oggetto di studi sin dalla fine del diciannovesimo secolo. Nonostante la molteplicità di lavori a riguardo, non c’`e uniformità. a nelle tecniche sperimentali, se non per il fatto che il campo elettrico viene generato tramite una configurazione a cella elettrolitica, detta anche a generazione interna di campo elettrico. Scopo di questa tesi `e analizzare e caratterizzare la migrazione di cellule isolate in vitro in presenza e in assenza di un campo elettrostatico esterno, rendendola originale rispetto a studi precedenti. La differenza nella configurazione sperimentale `e fondamentale per spiegare le caratteristiche dei moti osservati. Per la procedura sperimentale sono state usate come campione cellule di linea di origine tumorale denominate T98G adese a una piastra in polistirene posta, non a contatto, tra due piastre in rame cariche. Sono state acquisite micrografie in contrasto di fase a intervalli regolari inizialmente in una fase di controllo, quindi applicando un campo elettrostatico, cos`ı da poter analizzare il moto cellulare nelle diverse condizioni. In particolare, l’analisi del tracking di singole cellule selezionate sulla base di criteri stabiliti a priori ha permesso di evidenziare un moto isotropo, indipendentemente dalla presenza del campo elettrostatico. Invece, mostrando che i dati sperimentali delle distanze e delle velocita seguono distribuzioni Gamma, si osserva che dipende dalla presenza del campo elettrostatico la maggiore probabilità che una cellula si sposti pi`u della media. Infine, `e stato possibile determinare che l’influenza del campo elettrostatico sul moto delle cellule non dipende dalla posizione di queste rispetto alle piastre. Il lavoro svolto in questa tesi sarà parte dei risultati inseriti in una pubblicazione su rivista internazionale.
Resumo:
Analisi meccanica e microstrutturale a temperatura ambiente e alta temperatura (400 °C) dell'acciaio inossidabile AISI 316L prodotto tramite additive manufacturing (Laser Powder Bed Fusion) e rivestito con un sistema multistrato composto da nichelatura al fosforo e diamond like carbon. Il materiale è stato testato meccanicamente tramite prove di trazione, fatica a basso numero di cicli e durezza. Queste hanno dimostrato come il rivestimento non modifica significativamente le proprietà a trazione del materiale (sia a 20°C che a 400 °C) mentre allunga notevolmente la vita a fatica del provino a temperatura ambiente. Le analisi di durezza hanno evidenziato il diverso comportamento del rivestimento a temperatura ambiente e a 400 °C in quanto, alla temperatura di 300 °C, subisce una ricristallizzazione che ne determina un indurimento. L'analisi microstrutturale ha previsto l'osservazione del materiale al microscopio ottico ed elettronico a scansione FEG-SEM, la quale ha permesso di identificare i melt pool, grani colonnari e struttura cellulare che compongono il materiale. La struttura cellulare scompare a 400 °C mentre i melt pool ed i grani colonnari restano invariati. Oltre a queste analisi sono state svolte anche delle osservazioni per quanto riguarda le superfici di frattura del materiale le quali hanno mostrato una tipologia di frattura duttile nei provini di trazione mentre i campioni a fatica presentano una tipica frattura a fatica, ovvero che comprende un innesco, una zona di propagazione della cricca ed una zona di rottura di schianto. I campioni rivestiti presentavano l'innesco nella zona interfacciale tra substrato e rivestimento a causa delle tensioni residue, nonostante l'adesione del rivestimento con l'acciaio fosse ottimale.
Resumo:
L’olio di oliva è tra i prodotti alimentari principali della dieta mediterranea e possiede delle caratteristiche salutistiche, compositive e sensoriali peculiari. La qualità e la genuinità dell’olio di oliva vergine sono valutate sia mediante determinazioni analitiche chimiche e strumentali, sia attraverso l’analisi sensoriale. Quest’ultima, realizzata con il metodo del panel test, è tra i metodi ufficiali per la classificazione degli oli di oliva vergini nelle tre categorie commerciali extra vergine, vergine e lampante. Tuttavia, l’analisi sensoriale presenta dei limiti legati, in particolare, al numero elevato di campioni di olio da analizzare rispetto alle capacità di lavoro dei panel. Negli ultimi anni è aumentata, così, la necessità di sviluppare e validare metodi analitici strumentali che, pre-classificando gli oli in esame, siano di supporto al panel test e possano ridurre il numero di campioni da sottoporre ad analisi sensoriale. In questo elaborato di tesi sono state prese in considerazione due diverse tecniche analitiche, la gas cromatografica accoppiata alla spettrometria a mobilità ionica (HS-GC-IMS) e la flash gas cromatografia (FGC E-nose), entrambe impiegate per la valutazione della frazione volatile dell’olio di oliva, responsabile degli attributi olfattivi del prodotto. Utilizzando i risultati ottenuti applicando queste due tecniche, mediante analisi multivariata, è stato possibile stimare la categoria merceologica di ogni campione appartenente ad un set di 52 oli di oliva vergini, classificandoli con un determinato livello di probabilità. Entrambe le metodiche analitiche sono già state utilizzate e valutate in precedenti studi; con la sperimentazione effettuata nell’ambito di questa tesi è stato possibile confermare l’efficacia dei modelli di stima che possono essere impiegati con finalità di screening in supporto al panel test, nell’ottica di renderli sempre più robusti ed affidabili per la classificazione degli oli di oliva vergini.
Resumo:
La fibromialgia (FMS) è una sindrome reumatica non infiammatoria, caratterizzata da dolore diffuso, presenza di “punti sensibili” alla palpazione (“tender points”, TP), affaticamento, disturbi del sonno e cognitivi, sintomi che comportano aumento del livello di disabilità ed effetti negativi sulla qualità della vita (QoL). L’idrokinesiterapia è l’esercizio aerobico assistito svolto in acqua, preferibilmente riscaldata, che sfrutta le proprietà dell’acqua per il recupero di condizioni patologiche. Indagare l’efficacia dell’idrokinesiterapia (HKT) su dolore, faticabilità e qualità di vita nelle persone affette da sindrome fibromialgica. E' stata condotta una ricerca sulle banche dati di soli studi primari inerenti all’efficacia dell’HKT sulla FMS. Sono stati ricercati studi di alta qualità (con valore ≥ a 6/10 alla PEDro scale) che includessero persone adulte con diagnosi di FMS, che prevedessero l’HKT come trattamento isolato e che misurassero dolore, fatigue e QoL. La qualità metodologica degli studi inclusi all’interno della revisione è stata valutata tramite la scala PEDro. I dati sono stati ricavati attraverso griglia di estrazione ed analizzati qualitativamente. Sono stati inclusi 6 studi che hanno soddisfatto i criteri d'eleggibilità, per un totale di 262 donne. 1 studio ha confrontato HKT con esercizio aerobico a secco 3 volte a settimana per 8 settimane, 1 studio con fisioterapia convenzionale 3 vt/sett per 3 settimane, 1 con HKT in mare 3 vt/sett per 12 settimane, 2 studi con gruppi di controllo 2 e 3 vt/sett per 16 e 32 settimane rispettivamente, 1 con programma educativo 1 vt/sett per 11 settimane. In tutti gli studi il gruppo sperimentale ha mostrato miglioramento degli outcome, ad eccezione dello studio con posologia di una vt/ sett che non ha registrato miglioramenti nei gruppi. Conclusioni: L’idrokinesiterapia può portare ad un miglioramento dei sintomi di dolore, fatica e della qualità della vita delle persone affette da fibromialgia.
Resumo:
La rete di Hopfield è una tipologia di rete neurale che si comporta come una memoria associativa. La caratteristica più importante per questo tipo di rete è la capacità pmax, cioè quanti dati, chiamati ricordi, può apprendere prima che cambi comportamento. Infatti, per un numero grande di ricordi, avviene una transizione di fase e la rete smette di comportarsi come desiderato. La capacità di una rete di Hopfield è proporzionale al numero di neuroni N che la compongono, pmax = α N , dove α = 0.138. Una variante importante di questo modello è la rete di Hopfield diluita. In questa rete i neuroni non sono tutti connessi tra loro ma l’esistenza di connessioni tra due neuroni è determinata in modo stocastico con probabilità ρ di esserci e 1 − ρ di essere assente. Il grafo di una rete così definita è un grafo aleatorio di Erdös–Rényi. Il lavoro qui presentato ha lo scopo di studiare le proprietà statistiche dell’apprendimento di questo tipo di reti neurali, specialmente l’andamento della capacità in funzione del parametro ρ e le connettività del grafo durante le transizioni di fase che avvengono nel network. Attraverso delle simulazioni, si è concluso che la capacità di una rete di Hopfield diluita pmax segue un andamento a potenza pmax = aN ρb +c, dove N è il numero di neuroni, a = (0.140 ± 0.003), b = (0.49 ± 0.03), e c = (−11 ± 2). Dallo studio della connettività del grafo è emerso che la rete funge da memoria associativa finché il grafo del network risulta connesso.
Resumo:
Studio della biologia della cellula tumorale. Analisi delle cause del cancro e delle terapie utilizzate per combatterlo mettendo in luce gli aspetti legati al tumore al seno. Approfondimento sul cancro al seno evidenziando l'importanza della prevenzione attraverso esami diagnostici specifici. Questi esami sono fondamentali a fine di individuare la patologia agli albori del suo sviluppo per poter aumentare la probabilità di riuscita della cura e di conseguenza diminuire il tasso di mortalità dei pazienti malati. Classificazione del tumore in base alla sua stadiazione; lo distinguiamo in quattro stadi a seconda di parametri che ne descrivono l'estensione e le sue proprietà invasive. Esposizione dei vari trattamenti terapeutici che vengono proposti ai pazienti a seconda della loro età e dello stadio della malattia.
Resumo:
Normalmente la meccanica quantistica non relativistica è ricavata a partire dal fatto che una particella al tempo t non può essere descritta da una posizione $x$ definita, ma piuttosto è descritta da una funzione, chiamata funzione d'onda, per cui vale l'equazione differenziale di Schr\"odinger, e il cui modulo quadro in $x$ viene interpretato come la probabilità di rilevare la particella in tale posizione. Quindi grazie all'equazione di Schr\"odinger si studia la dinamica della funzione d'onda, la sua evoluzione temporale. Seguendo quest'approccio bisogna quindi abbandonare il concetto classico di traiettoria di una particella, piuttosto quello che si studia è la "traiettoria" della funzione d'onda nei vari casi di campi di forze che agiscono sulla particella. In questa tesi si è invece scelto di studiare un approccio diverso, ma anch'esso efficace nel descrivere i fenomeni della meccanica quantistica non relativistica, formulato per la prima volta negli anni '50 del secolo scorso dal dott. Richard P. Feynman. Tale approccio consiste nel considerare una particella rilevata in posizione $x_a$ nell'istante $t_a$, e studiarne la probabilità che questa ha, nelle varie configurazioni dei campi di forze in azione, di giungere alla posizione $x_b$ ad un successivo istante $t_b$. Per farlo si associa ad ogni percorso che congiunge questi due punti spazio-temporali $a$ e $b$ una quantità chiamata ampiezza di probabilità del percorso, e si sviluppa una tecnica che permette di sommare le ampiezze relative a tutti gli infiniti cammini possibili che portano da $a$ a $b$, ovvero si integra su tutte le traiettorie $x(t)$, questo tipo di integrale viene chiamato integrale di cammino o più comunemente path integral. Il modulo quadro di tale quantità darà la probabilità che la particella rilevata in $a$ verrà poi rilevata in $b$.
Resumo:
Questa tesi si propone di analizzare due macchinari della linea di “Handling” della divisione Active di IMA S.p.A., ovvero la macchina “Cyclops” e la macchina “Hercules”. Per entrambe le macchine si vuole svolgere un’analisi completa dei rischi strutturali: si vogliono individuare, infatti, i componenti strutturalmente critici al fine di proporre migliorie e soluzioni per evitare problematiche o danneggiamenti alle macchine. Per l’individuazione delle criticità strutturali, la prima cosa effettuata è stata un’analisi del funzionamento dei macchinari, attraverso uno studio dei singoli componenti e dei loro montaggi, a cui è seguita un’analisi dei carichi e delle sollecitazioni agenti su entrambe le macchine in condizioni di lavoro standard. A valle di queste analisi è stato possibile, quindi, individuare i componenti maggiormente sollecitati e, con l’ausilio di un software di nome Creo Simulate, ovvero un’estensione del software PTC Creo, molto diffuso nell’ambito della progettazione 3D di componenti industriali, sono state eseguite delle simulazioni virtuali di calcolo agli elementi finiti. Dall’analisi dei risultati delle simulazioni eseguite al calcolatore si sono evidenziate le eventuali criticità di ogni componente proponendo modifiche di progettazione, sia in termini di modifica della geometria del componente, sia riguardo a possibili modifiche nella scelta dei materiali. In aggiunta alle simulazioni virtuali, per completezza d’analisi, sono state svolte anche analisi strutturali di tipo analitico per la verifica di collegamenti bullonati e collegamenti saldati e per la verifica a fatica di alberi in rotazione.
Resumo:
In questi anni, c’è stato un grande sviluppo negli standard wireless nel mondo della televisione, della radio e delle comunicazioni mobili. Questo ha portato con sé problemi di compatibilità tra le reti wireless e ha limitato lo sviluppo di nuove funzionalità e servizi. La Software Defined Radio rappresenta una soluzione di flessibilità per affrontare questa serie di problematiche. In un sistema di comunicazione digitale, le informazioni viaggiano su un canale che è soggetto a rumore ed interferenza; perciò, per garantire robustezza e affidabilità alle applicazioni nella comunicazione digitale, i sistemi richiedono l’uso di codici di correzione degli errori, basati su schemi di codifica di canale. Esistono diverse tipologie di codici per la correzione degli errori, tra le quali il turbo codice, utilizzato nei sistemi LTE. Questo lavoro presenta la progettazione e la successiva ottimizzazione di un turbo encoder per sistemi LTE su una scheda FPGA, la quale, a differenza di altri dispositivi, meglio si presta a questo scopo, grazie alla caratteristica di riprogrammabilità. Dapprima viene presentato un turbo encoder sequenziale, il quale viene ottimizzato creandone una versione parallela. I risultati mostrano che l’architettura parallela presenta prestazioni, in termini di throughput, quattro volte migliori di quella sequenziale, a fronte di un lieve aumento dell’uso delle risorse della scheda. Confrontando questo turbo encoder ottimizzato con un progetto presente in letteratura, si nota che l’efficienza d’area risulta maggiore con un fattore circa pari a 3.
Resumo:
In questa tesi si è sviluppata la progettazione di un impalcato da ponte a sezione mista acciaio-calcestruzzo dal punto di vista statico in accordo con le normative vigenti. In particolare, è stato studiato il caso di impalcato bitrave, secondo uno schema di ponte a travata continua. La progettazione ha riguardato le principali componenti di un impalcato misto, a partire dal primo elemento di trasmissione dei carichi, ovvero la soletta di calcestruzzo, per poi proseguire con le travi longitudinali principali, gli irrigidimenti, i connettori a taglio, i collegamenti e i traversi. Per ognuno di essi, sono state effettuate le verifiche secondo il metodo semiprobabilistico agli stati limite descritto negli Eurocodici.