233 resultados para Turboalternatore, Guasti, Fatica oligociclica, Affidabilità, Probabilità


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Studio di fattibilità di un generatore trasportabile di energia elettrica da fonte solare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato viene presentato lo studio ed ottimizzazione della geometria del serpentino di uno scambiatore di calore per la produzione di acqua sanitaria di tipo Puffer. L’analisi volta all’ottimizzazione del serpentino è stata eseguita con l’obiettivo di soddisfare i vincoli di progetto dello scambiatore, ovvero la portata elaborata e la temperatura di uscita dell’acqua sanitaria dallo scambiatore, ma cercando di ridurre la superficie del serpentino e quindi il costo dello scambiatore stesso, in particolare agendo su parametri geometrici quali il passo dell’elica H, il diametro dell’avvolgimento Db ed il diametro del tubo d. A tal fine è stato sviluppato un modello del processo di scambio termico all’interno dello scambiatore Puffer basato sulle equazioni di bilancio di energia e raffinato attraverso correlazioni teorico/sperimentali reperite in letteratura. In una prima fase l’ottimizzazione è stata svolta con l’ulteriore vincolo progettuale d=41mm e Db=510mm, al fine di garantire maggiore flessibilità nell’utilizzo del serpentino per altre tipologie di scambiatori. In questo caso, si è giunti ad un risparmio del 14% sull’area di scambio termico del serpentino rispetto al modello tuttora in produzione, quantificabile in una riduzione dei costi del 19% sul costo totale del Puffer. In una seconda fase si è proceduto ad una ottimizzazione libera dai vincoli d e Db, con l’obiettivo di valutare la massima riduzione di area di scambio termico del serpentino, stimata in circa il 23% nel caso in cui sia possibile in futuro valutare modifiche sostanziali alla geometria dello scambiatore. Lo studio completato dall’analisi dell’isolamento del corpo dello scambiatore, finalizzata a ridurre le dispersioni verso l’ambiente esterno. In particolare è stato valutato l’utilizzo di Isolmix, in alternativa all’esistente isolamento in pannelli di poliuretano, dimostrando come sia possibile ottenere una ulteriore riduzione del materiale impiegato e quindi dei costi di realizzazione dello scambiatore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La teoria dei sistemi dinamici studia l'evoluzione nel tempo dei sistemi fisici e di altra natura. Nonostante la difficoltà di assegnare con esattezza una condizione iniziale (fatto che determina un non-controllo della dinamica del sistema), gli strumenti della teoria ergodica e dello studio dell'evoluzione delle densità di probabilità iniziali dei punti del sistema (operatore di Perron-Frobenius), ci permettono di calcolare la probabilità che un certo evento E (che noi definiamo come evento raro) accada, in particolare la probabilità che il primo tempo in cui E si verifica sia n. Abbiamo studiato i casi in cui l'evento E sia definito da una successione di variabili aleatorie (prima nel caso i.i.d, poi nel caso di catene di Markov) e da una piccola regione dello spazio delle fasi da cui i punti del sistema possono fuoriuscire (cioè un buco). Dagli studi matematici sui sistemi aperti condotti da Keller e Liverani, si ricava una formula esplicita del tasso di fuga nella taglia del buco. Abbiamo quindi applicato questo metodo al caso in cui l'evento E sia definito dai punti dello spazio in cui certe osservabili assumono valore maggiore o uguale a un dato numero reale a, per ricavare l'andamento asintotico in n della probabilità che E non si sia verificato al tempo n, al primo ordine, per a che tende all'infinito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il rischio di caduta durante la deambulazione aumenta con l'età; le cadute comportano costi elevati per l’assistenza sanitaria ed hanno un influenza critica sullo stato di salute dell'anziano. La valutazione della stabilità del cammino rappresenta un aspetto fondamentale per la definizione di un indice del rischio di caduta. Diverse misure di variabilità e stabilità del cammino sono state proposte in letteratura con l'obiettivo di ottenere una standardizzazione metodologica e risultati affidabili, ripetibili e facilmente interpretabili. Queste misure andrebbero ad integrare, o sostituire, le scale cliniche, unico metodo attualmente in uso ma la cui affidabilità è limitata in quanto fortemente dipendente dall’operatore. Il fine ultimo è quello di definire un indice del rischio di caduta specifico per il soggetto. Gli obiettivi della tesi comprendono la valutazione della ripetibilità in dipendenza dalla lunghezza del trial di una serie di misure di variabilità e stabilità applicate al cammino di soggetti anziani, la valutazione della correlazione fra queste misure di variabilità e stabilità e il risultato delle scale cliniche e la valutazione della correlazione fra queste misure di variabilità e stabilità e la storia di caduta dei soggetti. Per fare questo si sono somministrati alcuni questionari e schede di valutazione funzionale (CIRS, Barthel, Mini-BESTest) a 70 soggetti di età superiore a 65 anni. Questi hanno eseguito inoltre una camminata lungo un tratto rettilineo di circa 100 m di lunghezza; il relativo segnale accelerometrico è stato registrato mediante sensori inerziali. Il risultato generale ottenuto è che alcune misure di stabilità come la MSE e la RQA, già in passato risultate legate alla storia di cadute, mostrano promettenti performance per la definizione del rischio di caduta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'usura da fretting è un fenomeno che accompagna il comportamento a fatica dei componenti, in accoppiamenti per interferenza. Essa è dovuta allo slittamento relativo delle superfici accoppiate e comporta la riduzione della vita a fatica. In questo elaborato si parte da conoscenze pregresse riguardanti la morfologia delle superfici soggette a fretting e si cerca di individuare caratteristiche peculiari in provini albero-mozzo soggetti a flessione rotante, con prove di fatica a vita interrotta. Vengono utilizzati i fluidi penetranti per individuare cricche in fase di propagazione e per determinare un piano di sezione longitudinale ottimale dei provini, per poter osservare le superfici periferiche dei pezzi usurati. Infine vengono sfruttati i microscopi ottico e multifocale per osservare più approfonditamente il fenomeno.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio ha consentito la valutazione delle potenzialità di utilizzo di informazioni telerilevate da satellite, al fine di ottenere un DEM utilizzabile per simulazioni numerico - idrauliche. In particolare è stato utilizzato il DEM a scala globale fornito dalla missione SRTM (Shuttle Radar Topography Mission), per acquisire la geometria del tratto medio inferiore del fiume Po. Ottenuto l'andamento plano altimetrico del corso d'acqua sono state effettuate simulazioni in condizioni di piena eccezionale e deflusso medio allo scopo di valutarne affidabilità e precisione. Vengono infine proposti tre metodi di modifica della geometria, fornita da SRTM, in modo tale da migliorare la rappresentazione dell'alveo di magra ed incrementarne le performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La previsione dei temporali rappresenta una delle operazioni più impegnative e complesse per chi svolge il mestiere di meteorologo, soprattutto se effettuata con molte ore di anticipo rispetto all'evento; ciò è riconducibile alla molteplicità di parametri da cui questi fenomeni dipendono ed all'incertezza che si riscontra nella simulazione degli indici di instabilità. In questo elaborato viene presentata ed approfondita una tecnica di elaborazione dei dati provenienti da radiosondaggi previsti, con lo scopo di migliorare la previsione dei temporali relativa al giorno successivo. Nel 1987 Colquhoun elaborò un albero decisionale per la previsione di temporali in Australia, basato sul superamento di soglie degli indici di instabilità. Qui di seguito, si propone di testare la validità dello stesso schema decisionale alla previsione di temporali in Pianura Padana ed in particolare in Emilia Romagna, procedendo ad un confronto tra gli eventi previsti ed i fenomeni osservati; la previsione si basa sull'output dell'albero decisionale utilizzando gli indici di instabilità previsti dai LAM COSMO-I7 e COSMO-I2 nel periodo +24/+48 ore, mentre l'osservazione dei temporali viene ricavata tramite consultazione quotidiana di METAR,SYNOP,SYREP, e mappe di fulminazioni relative al quadriennio 2010-2013. L'indice assunto per valutare l'affidabilità delle previsioni fornite è il Threat Score che presenta due limiti fondamentali: la dipendenza dal numero di eventi e l'incapacità di differenziare i falsi allarmi dai mancati allarmi. Ciò nonostante, questo indice rappresenta il miglior modo per ricavare una informazione complessiva e definire se la previsione fornita corrisponde ad una buona previsione. Lo stesso test viene effettuato sull'albero decisionale in uso presso la sala operativa di ARPA-SIM e dal confronto con l'albero di Colquhoun si deducono i limiti legati alla modellistica numerica che fornisce i dati in input. Infine il test sui parametri termodinamici previsti dai modelli COSMO-I2 e COSMO-I7 dimostra gli errori commessi sulla previsione a +24 e +36 ore dalle simulazioni. Questo lavoro si pone all'interno di un progetto più ampio di verifica della modellistica numerica sviluppata dal consorzio COSMO, al quale l'Italia aderisce attraverso la collaborazione di ARPA Emilia Romagna, ARPA Piemonte ed Aeronautica Militare. In particolare sono sottoposte a test le performances dei due modelli LAM sviluppati completamente in Italia ed utilizzati anche dal Dipartimento della protezione civile nazionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tecnologia rende ormai disponibili, per ogni tipologia di azienda, dispositivi elettronici a costo contenuto in grado di rilevare il comportamento dei propri clienti e quindi permettere di profilare bacini di utenza in base a comportamenti comuni. Le compagnie assicurative automobilistiche sono molto sensibili a questo tema poiché, per essere concorrenziali, il premio assicurativo che ogni cliente paga deve essere abbastanza basso da attirarlo verso la compagnia ma anche abbastanza alto da non diventare una voce negativa nel bilancio di quest'ultima. Negli ultimi anni vediamo dunque il diffondersi delle scatole nere, che altro non sono che dispositivi satellitari che aiutano le compagnie assicurative a definire più nel dettaglio il profilo del proprio cliente. Una migliore profilatura porta vantaggi sia all'assicurato che alla compagnia assicurativa, perché da un lato il cliente vede il premio dell'assicurazione abbassarsi, dall'altro la compagnia assicuratrice si sente rassicurata sull'affidabilità del cliente. Questi dispositivi sono costruiti per svolgere principalmente due compiti: raccogliere dati sulla guida dell'automobilista per una profilatura e rilevare un incidente. Come servizio aggiuntivo può essere richiesto supporto al primo soccorso. L'idea di questa tesi è quella di sviluppare un'applicazione per smartphone che funzioni da scatola nera e analizzare i vantaggi e i limiti dell'hardware. Prima di tutto l'applicazione potrà essere installata su diversi dispositivi e potrà essere aggiornata di anno in anno senza dover eliminare l'hardware esistente, d'altro canto lo smartphone permette di poter associare anche funzionalità di tipo client-care più avanzate. Queste funzionalità sarebbero di notevole interesse per l'automobilista, pensiamo ad esempio al momento dell'incidente, sarebbe impagabile un'applicazione che, rilevato l'incidente in cui si è rimasti coinvolti, avverta subito i soccorsi indicando esplicitamente l'indirizzo in cui è avvenuto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo dello studio è comprendere i fenomeni alla base della fiducia degli utenti verso l'enciclopedia online Wikipedia. Per farlo è necessario prima di tutto comprendere e modellizzare l'organizzazione della struttura dei processi socio-produttivi sottostanti alla produzione del contenuto di Wikipedia, procedendo quindi nel verificare empiricamente e descrivere le capacità di autocorrezione della stessa. Oltre a quelli utilizzati in questo studio, saranno anche descritti gli approcci e i risultati trattati in letteratura, riportando i principali studi che nel corso degli anni hanno affrontato questi argomenti, sebbene mantenendoli indipendenti. Per comprendere la struttura della community degli editor di Wikipedia, si è ipotizzata l'esistenza di un modello di tipo Core-Periphery. Per studiare il modello sono state eseguite delle analisi su dati derivanti da un campione di pagine della versione italiana di Wikipedia. I risultati ottenuti dall'analisi di queste informazioni rappresentano le basi utilizzate per la selezione delle pagine oggetto dell'iniezione degli errori, costituendo un metodo per stimare le diverse probabilità di autocorrezione per ciascuna pagina. Per quanto riguarda le capacità di resilienza di Wikipedia, i risultati sono ricavati utilizzando un approccio empirico. Questo consiste nell'inserimento di errori all'interno del campione di pagine sotto specifici vincoli metodologici per poi valutare in quanto tempo e con quali modalità questi errori vengono corretti. E' stata effettuata un'analisi specifica per la scelta delle tipologie di errore e delle variabili da considerare nell'inserimento di questi. Questa analisi ha portato alla definizione di 2 esperimenti tra loro distinti, i cui risultati portano ad interessanti conclusioni sia visti separatamente che combinati tra loro. Sulla base dei risultati di questi esperimenti è stato possibile discutere sulle capacità di autocorrezione del sistema, elemento chiave nello studio delle dinamiche della fiducia verso Wikipedia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo elaborato di tesi è quello di trattare la progettazione di un cambio automatico per un trattore agricolo. L’idea alla base è quella di realizzare un meccanismo in grado di fornire una variazione continua del rapporto di trasmissione. Scelto come modello di trattore il Goldoni Energy 80, è stata adottata come soluzione quella di un rotismo epicicloidale, per la cui variazione del rapporto di trasmissione sarà utilizzato un motore elettrico. Il motore controllerà la velocità di una delle ruote permettendo di modificare quella dell’albero in uscita. Per il dimensionamento degli organi meccanici sono state considerate le seguenti caratteristiche del trattore: -velocità minima di marcia; -velocità massima di marcia; -dimensioni degli pneumatici delle ruote motrici primarie; -coppia e velocità del motore a combustione interna in condizioni nominali; -coppia e velocità del motore a combustione interna in regime di funzionamento massimo. Saranno affrontate le problematiche relative: -al dimensionamento cinematico e dinamico delle ruote dentate; -alla scelta di un motore elettrico adatto al caso; -alla scelta e al proporzionamento dei cuscinetti; -al dimensionamento e alle verifiche a fatica degli alberi meccanici; -al montaggio dei vari componenti e del relativo carter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La movimentazione delle materie prime, degli intermedi e dei prodotti finali all’interno di una raffineria avviene attraverso una struttura logistica che prevede la ricezione delle materie prime, i trasferimenti delle sostanze tra le diverse unità produttive, la spedizione dei prodotti finiti. La distribuzione dei fluidi avviene su vie di tubazioni (pipe rack e trincee) che si possono articolare su un’ampia porzione di territorio, in prossimità di impianti, strade ed altri centri nevralgici. La perdita di contenimento accidentale dalle tubazioni può costituire un elemento di rischio di difficile gestione, proprio per la diffusione dei percorsi su un’area di vaste dimensioni. Il presente lavoro di tesi, svolto presso lo studio ICARO s.r.l. di Cortona, si propone di effettuare l’analisi del rischio dovuto al trasferimento dei fluidi all’interno di una raffineria, valutando la frequenza e la distribuzione spaziale degli effetti degli scenari incidentali finali che possono avere luogo in caso di rilascio. Le tubazioni prese in esame sono quelle di maggior impatto dal punto di vista del rischio a causa della pericolosità della sostanza trasferita e della vicinanza del percorso a punti nevralgici all’interno dello stabilimento; sulla base di questo criterio sono state analizzate le tubazioni per il trasferimento di GPL, H2S e benzina. I risultati ottenuti consentono di identificare soluzioni per l’ottimizzazione del layout della raffineria e costituiscono, più in generale, uno strumento analitico di supporto alle modifiche progettuali. L’elaborato è strutturato come segue. Nel Capitolo 1 è riportata la descrizione della raffineria e delle linee di interconnessione selezionate ai fini dello studio. Nel Capitolo 2 vengono identificate le tipologie più rappresentative di perdita di contenimento dalle linee e ne viene stimata la frequenza di accadimento. Nel Capitolo 3 viene illustrata una metodologia per la stima della probabilità di innesco che tiene in considerazione la circolazione di automezzi nelle strade interne della raffineria. Nel Capitolo 4 vengono esaminati, confrontati e selezionati i vari tipi di modelli di rilascio presenti nel package di simulazione Phast Professional 7.1 in vista della loro applicazione alle perdite dalle linee. Nel Capitolo 5 è riportato il calcolo delle frequenze di accadimento degli scenari incidentali finali, mentre nel Capitolo 6 sono illustrati i risultati relativi alla valutazione delle conseguenze. Nel Capitolo 7 viene effettuato lo studio dell’effetto domino, sviluppato in accordo ad un approccio metodologico innovativo. Infine nel Capitolo 8 vengono riportate alcune considerazioni finali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La semplicità, affidabilità, robustezza ed economicità del motore asincrono trifase ne fanno un motore largamente utilizzato sia in ambiente industriale che civile (pompe, ascensori, montacarichi, nastri trasportatori, ventilatori, locomotive ferroviarie, …). È ipotizzabile che in futuro vi sarà sempre più largo impiego di motori elettrici e i recenti sviluppi nella tecnologia dei convertitori elettronici per il controllo dei motori asincroni ne consentiranno l’uso in sempre più estesi ambiti applicativi. La messa sotto tensione di motori a media/alta potenza presenta però, in fase di avviamento, correnti di spunto e coppie elevate che devono essere controllate. In questa tesi saranno pertanto studiate le tecniche di protezione, avviamento e controllo dei motori asincroni trifase Nel primo capitolo esamineremo le funzioni di sezionamento, comando e protezione da cortocircuiti e sovraccarichi e i dispositivi adatti a svolgere tale compito in modo coordinato. Nel secondo capitolo esamineremo le principali tecnologie usate per l’avviamento dei motori, da quelle più semplici a quelle che impiegano dispositivi elettronici allo stato solido: Soft-Starters a tiristori (solo regolazione AC), Inverters a transistori (controllo sia in frequenza che ampiezza della forma d’onda AC generata). Fra tutti i possibili convertitori DC/AC analizzeremo dettagliatamente esclusivamente quelli a controllo PWM analogico che costituiranno l’oggetto della trattazione dei capitoli seguenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partiamo dal lavoro di Kolmogorov per definire una misura della quantità di informazione contenuta in una stringa tramite un approccio computazionale: la complessità di una stringa è la lunghezza del più corto programma capace di produrla. Vediamo poi gli sviluppi moderni di questa teoria, in particolare i contributi di Chaitin, e notiamo subito i forti legami con la teoria della probabilità e con l'entropia di Shannon. Successivamente proponiamo di identificare le stringhe casuali (nel senso intuitivo) con quelle algoritmicamente incomprimibili, seguendo l'idea che minore comprimibilità significhi minore regolarità e dunque maggiore casualità. Infine vediamo che, in effetti, le stringhe incomprimibili soddisfano tutte le proprietà stocastiche effettivamente verificabili, cioè le proprietà che la teoria della probabilità attribuisce a successioni di variabili aleatorie indipendenti e identicamente distribuite. Facciamo ciò in maniera generale utilizzando la notevole teoria di Martin-Löf e poi vediamo in dettaglio l'aspetto della normalità di Borel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di presentare alcuni degli algoritmi di ricostruzione utilizzati nei sistemi a microonde per l'imaging della mammella. Sebbene, la mammografia a raggi X sia la tecnica che a oggi presenta le migliori caratteristiche per la rilevazione di lesioni tumorali ai tessuti del seno, la compressione necessaria nel processo di imaging e la probabilità non trascurabile di falsi negativi hanno portato alla ricerca e allo sviluppo di metodi alternativi di imaging alla mammella. Tra questi, l'imaging attraverso microonde sfrutta la differenza delle proprietà dielettriche tra tessuto sano e tumorale. Nel seguente elaborato verrà descritto come è ottenuta l'immagine dell'interno della mammella attraverso gli algoritmi di ricostruzione utilizzati da vari prototipi di sistemi di imaging. Successivamente verranno riportati degli esempi che mostrano i risultati ottenuti attraverso simulazioni o, quando possibile, in ambiente clinico.