806 resultados para analisi di abbondanzasistemi binari


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le recenti Normative hanno portato via via all’imposizione di limiti sempre più stringenti circa le emissioni acustiche prodotte da impianti oleodinamici in funzione. In aggiunta a ciò, l’avvento dell’elettrificazione dei motori nel settore dei trasporti e nell’automotive ha reso indispensabile sviluppare nuove soluzioni di pompe più silenziose. Il presente elaborato tratta una nuova tipologia di pompa volumetrica ad ingranaggi esterni sviluppata dall’azienda Marzocchi Pompe S.p.A. con range di cilindrata da 3 a 14 cm3/giro, la quale presenta una coppia di ingranaggi a denti elicoidali con profilo coniugato. A seguito di una descrizione sulla natura delle emissioni sonore all’interno di una pompa ad ingranaggi tradizionale sono state individuate le cause scatenanti del problema. Vengono dunque descritte le procedure e le tecniche costruttive messe in atto per realizzare una soluzione adatta alla riduzione della rumorosità. Al fine di validare tale soluzione, si descrivono i test eseguiti su dedicati banchi di prova. Una volta ottenuti i dati, essi sono stati confrontati con quelli relativi ad altre pompe. Si può dunque concludere che la soluzione proposta garantisce una netta riduzione delle emissioni acustiche avendo efficienze confrontabili con le pompe più tradizionali. Infine, è stato predisposto un metodo sperimentale per valutare, a seguito dello studio di oscillazioni sonore prodotte dalla pompa in questione, se in essa fossero presenti difetti e di quale natura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi presentato ha come obiettivo la valutazione delle potenzialità del metodo di risk assessment per la stima dei rischi nel campo della progettazione geotecnica. In particolare, è stata approfondita l’applicazione dei metodi di trattamento dell’incertezza alla modellazione numerica di terreni caratterizzati da alcune tipologie di argille, il cui comportamento, al variare del grado di saturazione, può oscillare tra ritiro e rigonfiamento, provocando dissesti alle strutture sovrastanti. Ai modelli numerici creati sono stati associati dei modelli probabilistici sui quali sono state eseguite delle analisi di affidabilità associate a parametri del terreno opportunamente scelti in funzione dell’influenza sul meccanismo espansivo del suolo. È stata scelta come soglia, e dunque come stato limite, per il calcolo della probabilità di fallimento, il movimento massimo caratteristico del terreno ottenuto applicando il metodo di Mitchell per i due fenomeni. Questo metodo è adottato nelle Australian Standards, uno dei riferimenti scientifici più rilevanti per la progettazione su suoli espansivi, nonché normativa vigente in Australia, territorio ricco di argille attive. Le analisi hanno permesso di condurre alcune riflessioni circa la conservatività dei termini da normativa, fondati su approcci di carattere puramente deterministico, mostrando come a piccole variazioni plausibili degli input nel modello numerico, si possano ottenere variazioni discutibili nei risultati, illustrando così i vantaggi che comporta il trattamento dell’incertezza sui dati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'esperimento ATLAS, come gli altri esperimenti che operano al Large Hadron Collider, produce Petabytes di dati ogni anno, che devono poi essere archiviati ed elaborati. Inoltre gli esperimenti si sono proposti di rendere accessibili questi dati in tutto il mondo. In risposta a questi bisogni è stato progettato il Worldwide LHC Computing Grid che combina la potenza di calcolo e le capacità di archiviazione di più di 170 siti sparsi in tutto il mondo. Nella maggior parte dei siti del WLCG sono state sviluppate tecnologie per la gestione dello storage, che si occupano anche della gestione delle richieste da parte degli utenti e del trasferimento dei dati. Questi sistemi registrano le proprie attività in logfiles, ricchi di informazioni utili agli operatori per individuare un problema in caso di malfunzionamento del sistema. In previsione di un maggiore flusso di dati nei prossimi anni si sta lavorando per rendere questi siti ancora più affidabili e uno dei possibili modi per farlo è lo sviluppo di un sistema in grado di analizzare i file di log autonomamente e individuare le anomalie che preannunciano un malfunzionamento. Per arrivare a realizzare questo sistema si deve prima individuare il metodo più adatto per l'analisi dei file di log. In questa tesi viene studiato un approccio al problema che utilizza l'intelligenza artificiale per analizzare i logfiles, più nello specifico viene studiato l'approccio che utilizza dell'algoritmo di clustering K-means.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella gestione dello scompenso cardiaco, uno dei trattamenti più efficaci è rappresentato dalla terapia di resincronizzazione cardiaca. Tuttavia, circa un terzo dei pazienti non risponde alla terapia. Al fine di raggiungere esiti migliori, l’identificazione precoce dei potenziali soggetti che rispondono o meno alla terapia, potrebbe giocare un ruolo importante. In questa panoramica si inserisce il progetto TRAJECTORIES, che cerca di predire la risposta alla terapia sulla base delle variazioni della geometria della traiettoria 3D percorsa dall'elettrodo stimolato pre- e post-attivazione del dispositivo. Attraverso risultati preliminari, è stata verificata l'ipotesi che il pacing modifichi in acuto la traiettoria del punto di stimolazione sull’elettrodo in seno coronarico, e secondariamente che le variazioni temporali quantitative della traiettoria siano correlate al processo di rimodellamento inverso del ventricolo sinistro nel medio termine. E’ stato osservato che, nei pazienti responders, la geometria spaziale della traiettoria 3D cambiava significativamente all’inizio del pacing, acquisendo uniforma più circolare e regolare. Nel presente lavoro di tesi, è stata analizzata la veridicità delle previsioni, mediante il confronto tra gli esiti predetti e i risultati volumetrici della CRT, al follow-up di sei mesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi viene presentata un’analisi di sostenibilità economica, ambientale e sociale di un sistema di cattura e purificazione della CO2 post-combustione. Al fine di ottenere i dati utili al calcolo di indici significativi di sostenibilità, si è scelto di modellare, attraverso il software Aspen Plus®, un processo di assorbimento chimico con ammine, tecnologia matura e spesso impiegata a questo scopo per settori industriali di taglie superiori. Al sistema di assorbimento viene poi fatta seguire un’unità di compressione e purificazione, finalizzata al raggiungimento di specifiche condizioni della corrente in uscita, legate alla successiva tipologia di trasporto considerata: gas pressurizzato via pipeline o gas liquefatto via nave. L’analisi economica si è basata sul calcolo di costi operativi, costi variabili, costo della CO2 evitata e consumo specifico di energia (SPECCA). La simulazione ha infatti consentito di ottenere un dimensionamento di massima delle apparecchiature e il consumo di utenze, valori necessari alla stima degli indici. Gli indici economici calcolati sono poi stati utilizzati per comprendere quale parte del processo fosse la più critica e che impatto avessero le unità di compressione e purificazione rispetto alla presenza del solo impianto di cattura. Analisi simili sono state svolte anche in termini di sostenibilità ambientale e sociale. La prima è stata svolta calcolando l’effettiva rimozione di CO2 del sistema, tenendo in considerazione le emissioni dirette e indirette connesse al funzionamento degli apparati. L’analisi sociale è stata ridotta a un’analisi qualitativa della sicurezza, attuata attraverso il calcolo dell’Indice di sicurezza intrinseca.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il fumetto, spesso definito come “arte sequenziale” o “letteratura disegnata”, ha appassionato e appassiona tuttora i lettori di tutto il mondo, a partire dai comics statunitensi fino ad arrivare ai manga giapponesi. Ma quali sono invece le principali tendenze russe nella fumettistica? Il presente elaborato, suddiviso in tre capitoli, parte da un excursus sul fumetto e i suoi albori negli Stati Uniti e in Italia. Proseguendo si propone un approfondimento del panorama fumettistico russo, con un particolare riguardo per “ŠUV” dell’artista Olga Lavrenteva, una Graphic Novel investigativa ambientata negli anni ’90 e pubblicata nel 2016 dalla casa editrice Bumkniga. L’obiettivo principale dell’elaborato è quello di definire a livello teorico i principali aspetti della traduzione dei fumetti, sia da un punto di vista grafico sia linguistico. Inoltre ambisce a identificare a livello pratico attraverso un’analisi metodologica le difficoltà testuali e grafiche e le strategie adottate nella stesura della traduzione di “ŠUV”. In particolar modo dall’analisi viene confermata una peculiarità imprescindibile del fumetto, che non può essere trascurata nel corso della traduzione: l’indissolubilità della componente verbale e della componente visiva. Nell’appendice si può trovare la traduzione integrale della Graphic Novel e l’estratto dello scambio di messaggi con la fumettista Olga Lavrenteva, contenente domande e risposte relative a “ŠUV”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi tratterà principalmente la fase di studio preliminare e successivamente la progettazione del retrotreno di una moto supersportiva. Il lavoro centrale della tesi si è focalizzato quindi sul forcellone posteriore di questa nuova motocicletta. È stato dunque indispensabile valutare, definire e progettare anche altri componenti meccanici ad esso collegati come ad esempio lo schema sospensivo posteriore e l’ingombro dell’impianto di scarico. Alla base di questo progetto c’è la volontà di creare una moto supersportiva con cilindrata pari a 1000 cm3 e capace di erogare oltre 200 cv che possa essere venduta nel mercato europeo ad un prezzo concorrenziale. Per tale scopo sono state prese in considerazione e successivamente studiate in modo molto approfondito motociclette già in commercio capaci di rispettare tali vincoli progettuali. L’evoluzione naturale di tale studio si è fondata sulla valutazione delle diverse scelte progettuali e le diverse metodologie di produzione. Le motociclette sono state scansionate per intero per valutarne le geometrie fondamentali e successivamente è stato creato un modello dei componenti passando da una valutazione preliminare degli ingombri fino ad ottenere dei veri e propri componenti realizzabili attraverso le diverse tecnologie. Il componente è stato simulato attraverso analisi FEM seguendo una procedura standard all’interno dell’azienda che ha permesso di evidenziare le geometrie critiche che successivamente sono state migliorate alla luce di tali risultati. Per ottenere un buon prodotto a livello di leggerezza e proprietà meccaniche si è scelto come materiale la lega di alluminio da fonderia che in futuro sarà anche utilizzata per la produzione di serie. Questo processo produttivo è funzionale per ridurre i costi in fase di realizzazione per una produzione in serie ed un altro importante vantaggio è dato dal fatto che in questo modo si possono evitare spiacevoli fenomeni legati alla saldatura dell’alluminio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto di tesi è stato svolto all’interno del reparto R&D dell’azienda Modena40, startup con sede a Rimini (RN) che si occupa di design e progettazione di motociclette. Il progetto a cui ho preso parte è stato commissionato dal produttore cinese CF Moto, di cui Modena40 rappresenta il reparto ricerca e sviluppo europeo. Esso riguarda la progettazione di un primo prototipo marciante di motocicletta sportiva, con lo scopo di svolgere test su strada per la definizione di geometrie, ergonomia ed aerodinamica. La progettazione inizierà con un benchmark delle sportive con motore V4 attualmente sul mercato. Successivamente verranno progettate tutte le componenti utili allo studio preliminare. Ho ricoperto il ruolo di ingegnere progettista, con il compito di progettare il telaio e curarne le fasi di prototipazione. Si progetterà un telaio modulare suddiviso in più parti avvitate tra loro, ognuna con un processo di produzione dedicato, per consentire una facile realizzazione e facili modifiche in fase di sviluppo. Il telaio sarà progettato tenendo conto di scelte target come ingombri, ergonomia e calcoli strutturali. All’interno della tesi sarà quindi illustrata la teoria di base e le successive scelte tecniche, discutendo e giustificando il processo che ha portato alle conclusioni raggiunte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’attuale sistema produttivo prevede un processo lineare: si prelevano materie prime, si utilizzano per realizzare il proprio prodotto e si generano scarti. Questo ha inevitabilmente portato allo sfruttamento eccessivo delle risorse del pianeta e alle problematiche relative allo smaltimento di quantità sproporzionate di rifiuti. Il sistema è evidentemente in crisi e questo non è affatto d’aiuto all’economia, tantomeno all’emergenza climatica alla quale semmai contribuisce. La simbiosi industriale si presenta come una soluzione in grado di ridurre le emissioni inquinanti e ottenere un’economia redditizia e sostenibile. La sua implementazione richiede che ci siano le giuste condizioni per riuscire a creare una vera e propria rete di aziende in connessione tra loro. L’elaborato prevede nella parte iniziale un excursus sulle pratiche di simbiosi industriale e i loro esempi, per poi concentrarsi sull’area di interesse, analizzando il tessuto imprenditoriale e sezionandolo tramite criteri di scelta, al fine di evidenziare possibili situazioni favorevoli a questa metodologia. Il lavoro è stato realizzato durante l’attività di tirocinio presso Enea, nell’ambito del progetto Marlic per la regione Marche. Lo studio si propone tuttavia di ricercare soluzioni replicabili in luoghi e contesti anche diversi da quello preso in esame; l’obiettivo è dimostrare ulteriormente l’efficacia e l’efficienza della metodologia offrendo alternative verosimili.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sulla base di una riflessione sull’utilità delle note del traduttore si è cercato di capire a che cosa fossero necessarie: sono davvero da considerare come un elemento estraneo al testo? Perché il traduttore decide di uscire dal suo ruolo di terzo, perdendo l’anonimato che gli fornisce il suo ruolo di semplice mediatore? Per rispondere a queste domande, ho deciso di creare un corpus di letteratura italiana in traduzione francese rilevando sistematicamente in quarantadue testi contemporanei le note inserite. In un secondo tempo ho classificato sia le parole che hanno dato luogo ad una nota che la tipologia di note fornite. Questa indagine mi ha permesso di avere una migliore idea delle modalità di inserimento di informazioni e della loro importanza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tematica al centro della tesi è la valutazione della stabilità del versante roccioso in cui si colloca la tomba Lattanzi, facente parte della necropoli Norchia (VT), e la proposta preliminare di interventi a basso impatto per la conservazione del sito. Le attività svolte sono riportate di seguito: - inquadramento geografico, storico ed archeologico della necropoli di Norchia e della tomba Lattanzi; - inquadramento geologico e geomorfologico sviluppato consultando la carta geologica d’Italia in scala 1:50.000 e carte tematiche riguardanti la zona di interesse, comprese quelle del progetto IFFI (Inventario dei Fenomeni Franosi in Italia); - inquadramento sismico dell’area, condotto a partire dai dati forniti dall’INGV per il comune di Viterbo; - inquadramento meteo-climatico del comune di Viterbo; - inquadramento topografico attraverso nuvola di punti generata da rilievo laser scanner; - caratterizzazione fisica e meccanica del materiale roccioso tramite prove di laboratorio; - caratterizzazione delle discontinuità tramite rilievi in situ; - classificazione tecnica dell’ammasso; - creazione di un modello geotecnico del sottosuolo; - analisi cinematica effettuata tramite il programma Dips®; - analisi con il metodo dell’equilibrio limite e analisi numerica effettuata tramite il programma Plaxis®; - elaborazione dei risultati ottenuti e proposte di intervento quali: Intervento con ancoraggi passivi e sottofondazione al piede della tomba con una muratura in conci di tufo. Le analisi svolte, seppur semplificate, consentono di definire i possibili fenomeni di instabilità del versante nelle condizioni attuali e, in una ottica di conservazione preventiva, di effettuare scelte di gestione del sito che evitino interventi impattanti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo della tesi è quello di ipotizzare una serie di interventi volti al miglioramento energetico di un condominio sito nel comune di Modena, raggrupparli in possibili scenari e fare una valutazione di analisi costi-benefici al fine di individuare la convenienza degli scenari proposti. Verrà fatto un inquadramento del caso studio, presentando l’edifico oggetto di intervento e le sue caratteristiche e condizioni nello stato di fatto rilevate a seguito di sopralluogo. Si procede con l’inserimento dei dati all’interno di un software certificato, e con la diagnosi energetica, illustrandone i vari risultati e criticità immediatamente rilevabili da questa analisi. Sulla base delle problematiche rilevate si sono ipotizzati una serie di interventi volti al raggiungimento di risultati prestazionali migliori nell’edificio, combinandoli tra loro per formare quattro possibili scenari realizzabili. Oltre ad indicare i risultati relativi al condominio nella sua totalità sono stati scelti tre appartamenti tipo, collocati in piani diversi, per analizzare in che modo gli interventi proposti influissero su ciascuno di essi in base alla loro posizione. Si è poi passati alla diagnosi energetica dei possibili scenari mettendoli a confronto con lo stato di fatto. In conclusione, in prima analisi sono stati calcolati i costi annuali relativi all’energia richiesta dagli impianti presenti per gli scenari di intervento, paragonandoli con quelli dello stato di fatto, e quindi valutandone il risparmio. Si è poi tenuto conto dell’investimento complessivo per ciascuno scenario, sommando il costo dei singoli interventi. Questi risultati sono stati poi messi a confronto per valutare la convenienza economica dei quattro scenari a fronte dei benefici ottenibili e dei costi da sostenere.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’Intelligenza Artificiale (IA), sin dalla sua introduzione, si è occupata dei giochi, ponendo l’attenzione a quelli detti a informazione perfetta e a somma zero e sequenziali (Tris, Scacchi e Forza4). Dalla Teoria dei Giochi è derivato il modello Minimax, che sfrutta l'albero di gioco per effettuare una ricerca in profondità allo scopo di minimizzare la massima perdita possibile per individuare la mossa migliore da giocare. Tuttavia, il limite di tale algoritmo risiede nel tempo necessario al calcolo (per alberi profondi e di grandi dimensioni) che, in alcuni casi, può essere considerevole. Per mitigare tale problema, è stato introdotta la proposta Alpha-Beta, che attua delle potature sull’albero di gioco grazie l’introduzione di due nuove variabili dette, appunto, alpha e beta. Tale approccio è stato ulteriormente migliorato ricorrendo all’utilizzo del concetto di funzione euristica e introducendo un limite di profondità al quale fermare la ricorsione del modello Alpha-Beta. Tale limite, tuttavia, determina il problema dell’effetto orizzonte, legato al fatto che fermarsi a una profondità intermedia dell’albero può portare l’algoritmo a non vedere delle alcune mosse migliori che possono situarsi nel sotto albero del nodo a cui si ferma la ricerca, appunto l’orizzonte. Ulteriori accorgimenti, come l'algoritmo ad approfondimento iterativo (Iterative Deepening) e il salvataggio degli stati di gioco in una tabella hash, possono ridurre in modo significativo il tempo di calcolo. Partendo da questi studi, sono stati sviluppati degli agenti software per ConnectX, un gioco sviluppato in Java a somma zero e a informazione perfetta come Forza4. Le implementazioni sono state testate su 39 diverse configurazioni di gioco, dimostrando che l'agente PlayerSoft risulta il più ottimale e che l'implementazione della funzione euristica rappresenta un buon compromesso tra complessità di calcolo e risultato atteso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi è stata effettuata un'analisi di un giunto strutturale, ponendo particolare attenzione ad alcuni aspetti teorici riguardanti i bulloni, la saldatura MIG/MAG e gli estensimetri. Si è, poi, passati alla struttura vera e propria, illustrando il giunto fornito dall'azienda Cepi, con i relativi calcoli.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Historia magistra vitae, scriveva Cicerone nel De Oratore; il passato deve insegnare a comprendere meglio il futuro. Un concetto che a primo acchito può sembrare confinato nell'ambito della filosofia e della letteratura, ma che ha invece applicazioni matematiche e fisiche di estrema importanza. Esistono delle tecniche che permettono, conoscendo il passato, di effettuare delle migliori stime del futuro? Esistono dei metodi che permettono, conoscendo il presente, di aggiornare le stime effettuate nel passato? Nel presente elaborato viene illustrato come argomento centrale il filtro di Kalman, un algoritmo ricorsivo che, dato un set di misure di una certa grandezza fino al tempo t, permette di calcolare il valore atteso di tale grandezza al tempo t+1, oltre alla varianza della relativa distribuzione prevista; permette poi, una volta effettuata la t+1-esima misura, di aggiornare di conseguenza valore atteso e varianza della distribuzione dei valori della grandezza in esame. Si è quindi applicato questo algoritmo, testandone l'efficacia, prima a dei casi fisici, quali il moto rettilineo uniforme, il moto uniformemente accelerato, l'approssimazione delle leggi orarie del moto e l'oscillatore armonico; poi, introducendo la teoria di Kendall conosciuta come ipotesi di random walk e costruendo un modello di asset pricing basato sui processi di Wiener, si è applicato il filtro di Kalman a delle serie storiche di rendimenti di strumenti di borsa per osservare se questi si muovessero effettivamente secondo un modello di random walk e per prevedere il valore al tempo finale dei titoli.