1000 resultados para cad , fem , saldatura, ultrasuoni, modi di vibrare
Resumo:
Il problema del rumore derivante dai volumi di traffico sempre crescente richiede la ricerca di svariate soluzioni, tra cui l'installazione di barriere di sicurezza e antirumore, definite anche integrate. La tesi, svolta in collaborazione con Piacentini Ingegneri srl, dopo un primo inquadramento del problema dei livelli di rumore eccessivi e dei limiti imposti da normativa, descrive le possibili soluzioni trovate nel tempo e in corso di ricerca. Vengono dunque descritte nel dettaglio le barriere integrate, specialmente quelle trovate nei tratti autostradali di Genova e Milano nel corso del tirocinio svolto presso Piacentini Ingegneri srl. È stata eseguita una modellazione FEM delle barriere Integauto-s e diverse prove sperimentali sui new jersey e sulle opere di supporto alle barriere (pull-out, carotaggi, prove a trazione, ecc). Dai certificati delle prove si ricavano i parametri di resistenza degli elementi (barriera e cordoli di sostegno) grazie ai quali, in aggiunta alla documentazione originale fornita da Autostrade per l'Italia, si raggiunge il Livello di Conoscenza accurato, il massimo possibile: LC3. Ciò è indispensabile per rispettare la procedura per il rialzamento delle barriere integrate concordate tra le 2 società sopracitate. Quindi, si procede con le verifiche delle barriere e delle opere di supporto alle barriere (cordolo su terreno, cordolo con micropali o pali, cordolo su opera d'arte esistente, pile da ponte). L'intera tesi è finalizzata alla definizione delle altezze delle barriere integrate, in quanto per motivi di sicurezza erano state abbassate. I calcoli strutturali, la modellazione FEM e le prove condotte hanno portato alla conoscenza massima possibile delle seguenti barriere: Integauto-s, NJBP C1.2 Martellona, e NJBP Ecotecnica (trovate nei tratti autostradali oggetto di rialzamento).
Resumo:
Additive Manufacturing (AM) is nowadays considered an important alternative to traditional manufacturing processes. AM technology shows several advantages in literature as design flexibility, and its use increases in automotive, aerospace and biomedical applications. As a systematic literature review suggests, AM is sometimes coupled with voxelization, mainly for representation and simulation purposes. Voxelization can be defined as a volumetric representation technique based on the model’s discretization with hexahedral elements, as occurs with pixels in the 2D image. Voxels are used to simplify geometric representation, store intricated details of the interior and speed-up geometric and algebraic manipulation. Compared to boundary representation used in common CAD software, voxel’s inherent advantages are magnified in specific applications such as lattice or topologically structures for visualization or simulation purposes. Those structures can only be manufactured with AM employment due to their complex topology. After an accurate review of the existent literature, this project aims to exploit the potential of the voxelization algorithm to develop optimized Design for Additive Manufacturing (DfAM) tools. The final aim is to manipulate and support mechanical simulations of lightweight and optimized structures that should be ready to be manufactured with AM with particular attention to automotive applications. A voxel-based methodology is developed for efficient structural simulation of lattice structures. Moreover, thanks to an optimized smoothing algorithm specific for voxel-based geometries, a topological optimized and voxelized structure can be transformed into a surface triangulated mesh file ready for the AM process. Moreover, a modified panel code is developed for simple CFD simulations using the voxels as a discretization unit to understand the fluid-dynamics performances of industrial components for preliminary aerodynamic performance evaluation. The developed design tools and methodologies perfectly fit the automotive industry’s needs to accelerate and increase the efficiency of the design workflow from the conceptual idea to the final product.
Resumo:
Questo lavoro, che si sviluppa in due tomi, si propone di stabilire nuove ipotesi di datazione per le prime cento pagine dello Zibaldone di pensieri, attraverso uno studio comparato dei temi trattati, incrociato con un’analisi paleografica, filologica e linguistica. Estremi cronologici dell’indagine sono l’estate del 1817, anno in cui Leopardi avvia il rapporto epistolare con Pietro Giordani, legge per la prima volta la Vita di Alfieri, primo momento di rivolgimento esistenziale e poetico, l’anno del “primo amore” e della “conversione letteraria”; e il gennaio del 1820, nella coda dei perturbamenti derivati dalla “mutazione totale”. Nella prima parte della tesi l’analisi è condotta attraverso uno studio preliminare delle vicende che hanno interessato l’autografo nei momenti di emersione dal privato della scrittura leopardiana e le successive vicende editoriali (cap. I.1); al centro della prima parte della tesi il lettore troverà una descrizione minuta del manoscritto (cap. I.2), e infine l’analisi del ruolo e della ‘funzione Zibaldone’ in rapporto alla formazione e alla produzione leopardiana (cap. I.3). La seconda parte prende in esame i “pensieri-guida” per la datazione, mettendo a sistema i diversi dati raccolti che diano riferimenti cronologici (cap. II.1), individua le diverse campagne di aggiunte successive (cap. II.2), infine le letture che trovano posto nelle cento pagine vengono analizzate anche in rapporto a una riflessione sui modi e i tempi di lettura leopardiani (cap. II.3). Il secondo tomo si apre con le edizioni delle prime cento pagine, la cartacea, provvista delle date che verranno stabilite nella seconda parte della tesi, e il prototipo di edizione digitale. In coda si troveranno “gli strumenti”, quei dati che si sono raccolti e che nella tesi vengono messi a sistema, consentendo di guardare allo Zibaldone e alla vita intellettuale di Leopardi negli anni che coinvolgono le prime cento pagine attraverso una luce nuova.
Resumo:
Nel seguente elaborato è stato sviluppato un metodo di validazione per dispositivi di misura delle tensioni residue mediante la tecnica dell'hole drilling. Esso si basa sul confronto tra tensioni residue ottenute per via teorica e sperimentale su un provino soggetto a carico imposto. Inizialmente si è proceduto attraverso lo studio della normativa di riferimento ASTM E837-20. In essa viene definito il metodo sperimentale di esecuzione dei test di hole drilling e di calcolo delle tensioni residue. In seguito è stata progettata un'attrezzatura di prova in grado di indurre un gradiente di tensione noto nello spessore del provino sollecitato. L'attrezzatura di prova in questione è stata verificata sia mediante calcoli numerici, che mediante software di simulazione agli elementi finiti. La fase di prototipazione seguente ha consentito di realizzare l'attrezzatura necessaria per l'esecuzione dei test sperimentali. Le forature sono state effettuate prima su provini scarichi, al solo scopo di scongiurare la presenza di tensioni residue e, in seguito, su provini soggetti a momento flettente noto. Le deformazioni ottenute tramite le letture degli estensimetri sono state impiegate per il calcolo delle tensioni secondo normativa ASTM E837-20. infine è stato possibile valutare l'efficacia del metodo paragonando tali risultati con quelli teorici.
Resumo:
L’obbiettivo dell’elaborato che segue è quello di fornire a medici e chirurghi uno strumento di valutazione dei trattamenti di cura, per pazienti affetti da malattie del sistema muscolo scheletrico e della deambulazione. Lo studio incomincia dall’analisi del movimento del paziente tramite strumenti di gate analysis. Impiegando come modello la ricostruzione dell’apparato muscolo scheletrico del paziente, tramite sistemi di modellazione 3Dda TAC (Tomografia Assiale Computerizzata) o risonanza magnetica, realizzando un modello personalizzato che verrà analizzato tramite il software OpenSim. Tramite lo studio del movimento andremo successivamente ad identificare le forze articolari agenti sul ginocchio e grazie alla modellazione FEM (Finite Element Method) verrà realizzato uno strumento di valutazione della strategia operatoria ottimale per il paziente, simulando l’operazione del ginocchio, che agisce sulle forze muscolari variando le forze agenti sull’articolazione e come queste variazioni modificano l’andamento delle tensioni nell’articolazione.
Resumo:
Questo elaborato ha come obiettivo quello di progettare una pinza demolitrice idraulica per macchine operatrici che sia effettivamente producibile, industrializzabile, performante, affidabile ed economicamente competitiva per il mercato internazionale odierno. Dopo una prima parte di introduzione all’oggetto di studio e di comparazione con la concorrenza, vengono mostrati i primi studi sulla cinematica e sugli ingombri dell’attrezzatura eseguiti con l’ausilio del software 2D “DraftSight”. A questo punto si passa alla modellazione in 3D eseguita mediante il software “Solidworks” di tutti i componenti analizzando e giustificando le scelte progettuali che sono state fatte. Vengono quindi riportati tutti i calcoli analitici eseguiti, nonché le verifiche strutturali e l’ottimizzazione topologica realizzate mediante l’ausilio del pacchetto FEM “Simulation” di Solidworks. Infine si valutano i risultati ottenuti dalla progettazione e possibili sviluppi futuri.
Resumo:
Il presente lavoro di tesi si è posto sostanzialmente due obbiettivi principali. Il primo è stato quello di valutare in maniera speditiva la vulnerabilità sismica dell’Edificio 5 - BO0960005 in uso alla polizia di stato, mediante il metodo RE.SIS.TO. Il secondo obiettivo è stato quello di validare tramite modellazione agli elementi finiti, i risultati ottenuti con la metodologia speditiva. In particolare è stato confrontato il rapporto PGAc/PGAd della struttura ottenuto con l’approccio speditivo, con quello ottenuto tramite un’analisi pushover. L’Edificio 5 – BO0960005 oggetto di studio, è composto da tre unità strutturali in c.a., denominate U.S.1, U.S.2 e U.S.3, separate da giunti sismici. Gli studi effettuati successivamente, quindi, considereranno ciascuna unità strutturale indipendente dalle altre. Come precedentemente esposto, la prima parte dell’elaborato tratta la valutazione speditiva della vulnerabilità sismica, attraverso l’utilizzo della classificazione RE.SIS.TO, il quale è in grado di definire il livello di criticità del fabbricato. Nell’applicazione del metodo è stato ottenuto un livello di sicurezza, pari all’88% per l’U.S.1, al 353% per l’U.S.2 e al 109% per l’U.S.3. La seconda parte della tesi è incentrata sull’implementazione dell’analisi pushover di tipo “cerniere concentrate” su un modello agli elementi finiti realizzato attraverso il software commerciale MidasGen. Essendo i risultati delle analisi PO una serie di curve di capacità, al fine di effettuare il confronto finale, si ha che in questo formato risulta impossibile ottenere una stima della PGA che porta a collasso la struttura. Per stimare da tale grandezza è stato utilizzato il Capacity Spectrum Method (CSM). Nell’ultima parte dell’elaborato vengono confrontati i valori di livelli di sicurezza ottenuti dalle due metodologie, dai quali si è potuta accertare la buona approssimazione della metodologia speditiva RE.SIS.TO nell’ambito della valutazione di vulnerabilità sismica.
Resumo:
Studio di una possibile miglioria al Progetto del Ponte sullo Stretto di Messina attraverso l'applicazione di funi stabilizzanti. Diverse analisi sono state eseguite, sia modali sia sotto l'azione di forze statiche equivalenti al vento, per verificarne l'efficacia.
Resumo:
La conversione di energia solare in energia elettrica può avvenire in diversi modi. Un problema dell’energia ottenuta tramite questa conversione è la difficoltà di immagazzinarla efficientemente per poterla utilizzare in un momento successivo. Un modo per ovviare questo problema è convertire l’energia solare in energia chimica, tramite la creazione di combustibili fotoprodotti. Alcuni combustibili di questo tipo sono l’idrogeno e gli idrocarburi ad alta densità energetica, il primo ottenuto tramite l’elettrolisi dell’acqua e i secondi tramite l’elettrolisi dell’anidride carbonica. Un metodo per compiere tali elettrolisi è l’utilizzo di celle fotoelettrochimiche, ovvero dei dispositivi che tramite l’energia solare assorbita avviano l’elettrolisi della soluzione acquosa che si decompone in due regioni separate della cella. L’efficienza di una cella fotoelettrochimica dipende fortemente dall’efficienza dei fotoelettrodi che la compongono, per questo si indagano nuovi materiali che possano garantire prestazioni migliori a costi bassi. Questa tesi nello specifico ha lo scopo di illustrare il processo di fabbricazione di fotocatodi a base di semiconduttori tramite sputtering magnetico. In particolare vengono analizzati 4 campioni strutturati con diversi materiali. I materiali utilizzati sono: Seleniuro di Rame Indio Gallio CIGS, Solfuro di Cadmio CdS, Ossido di Zinco drogato con Alluminio AZO ed Ossido di Titanio TiO2.
Resumo:
L'esperimento ATLAS, come gli altri esperimenti che operano al Large Hadron Collider, produce Petabytes di dati ogni anno, che devono poi essere archiviati ed elaborati. Inoltre gli esperimenti si sono proposti di rendere accessibili questi dati in tutto il mondo. In risposta a questi bisogni è stato progettato il Worldwide LHC Computing Grid che combina la potenza di calcolo e le capacità di archiviazione di più di 170 siti sparsi in tutto il mondo. Nella maggior parte dei siti del WLCG sono state sviluppate tecnologie per la gestione dello storage, che si occupano anche della gestione delle richieste da parte degli utenti e del trasferimento dei dati. Questi sistemi registrano le proprie attività in logfiles, ricchi di informazioni utili agli operatori per individuare un problema in caso di malfunzionamento del sistema. In previsione di un maggiore flusso di dati nei prossimi anni si sta lavorando per rendere questi siti ancora più affidabili e uno dei possibili modi per farlo è lo sviluppo di un sistema in grado di analizzare i file di log autonomamente e individuare le anomalie che preannunciano un malfunzionamento. Per arrivare a realizzare questo sistema si deve prima individuare il metodo più adatto per l'analisi dei file di log. In questa tesi viene studiato un approccio al problema che utilizza l'intelligenza artificiale per analizzare i logfiles, più nello specifico viene studiato l'approccio che utilizza dell'algoritmo di clustering K-means.
Resumo:
L’obiettivo di questa tesi consiste nel progetto e nella realizzazione di un PCB (Printed Circuit Board) per la gestione di micropotenze per nodi sensori energeticamente autonomi, implementato con software di progettazione CAD. In primo luogo è affrontato il tema dell’ Energy Harvesting, sono descritte le tipologie di fonti energetiche principali previste e le prospettive future di questa nuova tecnologia. In secondo luogo sono descritti i processi e i meccanismi per la conversione dell’energia, con un particolare sguardo ai circuiti integrati per la conversione e gestione della potenza (PMIC). Successivamente vengono illustrate le fasi del progetto, basato su un PMIC commerciale: la progettazione dello schema elettrico, la scelta dei componenti (BOM - Bill of Materials) e la progettazione del layout del circuito stampato. Infine sono mostrati il processo di montaggio della scheda e i test realizzati mediante oscilloscopio insieme ad alcune stime di potenza.
Resumo:
A fianco ai metodi più tradizionali, fin ora utilizzati, le tecnologie additive hanno subito negli ultimi anni una notevole evoluzione nella produzione di componenti. Esse permettono un ampio di range di applicazioni utilizzando materiali differenti in base al settore di applicazione. In particolare, la stampa 3D FDM (Fused Deposition Modeling) rappresenta uno dei processi tecnologici additivi più diffusi ed economicamente più competitivi. Le tempistiche e le richieste industriali obbligano sempre di più i progettisti ad uno studio predittivo delle problematiche che si possono incontrare in fare produttiva. In ambito strutturale questo è già da diversi anni la norma per componenti realizzati con tecnologia tradizionale. In ambito termico, invece, si procede ancora troppo spesso per tentativi seguendo l’esperienza del singolo. Per questo motivo, è necessario uno studio approfondito e un metodo per caratterizzare i transitori termici. Per fare ciò è necessario introdurre un modello semplificativo attraverso l’uso su un provino cilindrico. Questa semplice geometria permette di mettere in relazione la soluzione analitica, la soluzione approssimata agli elementi finiti e la soluzione sperimentale. Una volta ottenuti questi risultati sarà poi possibile, mantenendo invariati il ciclo termico e le caratteristiche termo-strutturali del materiale, modificare a piacimento la geometria per analizzare un qualsiasi componente. Questo approccio permette quindi di realizzare delle analisi FEM sui componenti da stampare e di predirne i gradienti termici e le deformazioni a partire dalle caratteristiche del materiale, della geometria e del ciclo termico a cui sono sottoposti. Permettendo così di valutare in modo preventivo e predittivo problematiche di stabilità geometrica e strutturale.
Resumo:
Questa tesi tratterà di come progettare un corso di studi in modo che sia Human-centered, dal punto di vista degli stakeholder coinvolti nel processo. Il processo inizia tramite benchmarking, per questo motivo inizialmente si racconteranno di ricerche sul benchmarking e quanto ciò sia ritenuto importante nei processi di questo tipo. Inoltre, si racconterà dello strumento utilizzato in questa tesi ossia il Design Thinking e di come sia stato utilizzato in letteratura in modo da sottolinearne l’importanza. In seguito, si vedrà come si crea un corso di studio nell’Università di Bologna e i problemi affrontati dai diversi attori che lo coinvolgono. In particolare, sono state mappate le procedure attuali e la loro applicazione nei diversi corsi di studio. In questo modo è stata costruita una BPMN finale in cui sono evidenziati i diversi attori del processo e le varie fasi che lo compongono, insieme al periodo di svolgimento del processo. Successivamente, sono state raccolte le interviste degli stakeholder coinvolti insieme ai loro bisogni e alle problematiche riscontrate nel processo sopra descritto. Da questa analisi è stata rappresentata una stakeholder map con gli attori assieme alle loro necessità. In un secondo tempo, si è pensato a come riprogettare un corso di studio affinché sia più human centered. Per questo motivo, il tema è affrontato dal punto di vista dell’università in modo da capire come poter cambiare un corso di studio o di laurea per favorire quanto descritto precedentemente. In questo scritto sono inoltre stabilite delle linee guida di questo processo in modo da risolvere alcuni dei problemi trattati, nel migliore dei modi. Sono anche raccolte delle interviste in cui il to be del processo è riproposto ai diversi stakeholder e le loro impressioni sul processo. Infine, sono tratte le conclusioni e le best practice finali del processo passate al vaglio dai diversi stakeholder.
Resumo:
Nel campo della meccanica uno dei metodi di fissaggio maggiormente utilizzati è il fissaggio per attrito con elementi filettati. Il collegamento tra gli elementi è generato dall’accoppiamento tra i filetti di vite e madrevite, che, una volta precaricati, aderiscono impedendo il movimento reciproco tramite la forza di attrito. Uno dei problemi, però, che si riscontra sull’utilizzo dei giunti filettati è relativo alla resistenza a fatica. Precisamente, gli organi in esame presentano una geometria altamente intagliata: infatti, i filetti, fungono da centri di intensificazione degli sforzi. Per mitigare il fenomeno occorrerebbe diminuire la rigidità della vite, ma ciò comporterebbe un rischio di perdita del precarico con conseguente riduzione di efficacia del collegamento. Si è mostrato, tuttavia, che vi è un possibile metodo alternativo per migliorare la resistenza a fatica delle viti: si è notato che le viti snervate, tramite un serraggio, presentano un limite a vita finita maggiore rispetto a quelle standard. Lo scopo di questo lavoro di tesi è di oggettivare l’incremento del limite di fatica generato da uno snervamento, verificare l’effettivo miglioramento anche sulla vita infinita e dedurne le motivazioni, mediante prove. A tal fine, sono state prese in considerazione diverse tipologie di provini, nello specifico viti M8 di classe 8.8 e 12.9, per verificare l’influenza della resistenza meccanica sull’incremento del limite. I test prevedono anche una breve parentesi sui benefici portati dall’utilizzo di un dado rialzato, in particolare viene mostrato come l’aumento del numero di filetti in presa vada ad esaltare il fenomeno analizzato. Una volta oggettivato l’aumento di resistenza a fatica e avanzate alcune ipotesi sulle cause del fenomeno, è stato sviluppato un modello agli elementi finiti, con semplificazioni volte a ridurre il tempo di calcolo, al fine di studiare la distribuzione degli stress in fase di serraggio per validare le assunzioni avanzate.
Resumo:
In questa tesi ho analizzato il passaggio dall'ambiente BIM a quello FEM di un impalcato da ponte a travata precompressa, identificando criteri e applicando una metodologia che hanno consentito lo sviluppo di un modello FEM utilizzabile per l'analisi strutturale. Nella tesi si descrive l'opera e il suo dimensionamento, con l'analisi statica e le verifiche strutturali eseguite sia a mano sia sul modello in ambiente FEM importato dall'ambiente BIM. Oltre a ciò, viene modellata l'opera nella sua interezza ed inserita in un contesto reale. La tesi discute l'interoperabilità tra i due software evidenziando vantaggi (modello geometrico di partenza in ambiente FEM, trasferimento di informazioni inserite in ambiente BIM, riduzione dei tempi di modellazione e inserimento proprietà dei materiali e caratteristiche degli oggetti, inserimento armature di precompressione) e criticità (implementazione manuale di alcuni elementi nel modello geometrico, perdita di alcune informazioni, definizione di alcuni parametri, limitata interoperabilità FEM-BIM) della metodologia applicata.