1000 resultados para Rinforzo di edifici storici mediante Tecnica di Repointing
Resumo:
L’attività di ricerca svolta in questa tesi ha riguardato gli aspetti microstrutturali, le proprietà meccaniche e l’ottimizzazione del trattamento termico di un acciaio inossidabile indurente per precipitazione processato mediante tecnologia additiva Laser Powder Bed Fusion (L-PBF). I provini, realizzati presso il competence center Bi-REX (Bologna) e lavorati presso il laboratorio di Metallurgia del DIN, sono stati oggetto di vari trattamenti termici sperimentali in cui è stata fatta variare la temperatura e la durata di mantenimento in forno, al fine di identificare la combinazione ottimale di temperatura e tempo sia per la fase di solubilizzazione che di invecchiamento. Nello specifico, la scelta dei parametri di solubilizzazione e invecchiamento è stata fatta solo sulla base dei trend di durezza. Da queste attività sono stati scelti i parametri di trattamento che garantissero elevata durezza, prossima alla massima ottenibile, senza durate di invecchiamento eccessive. L'esito della sperimentazione ha permesso di ridurre sensibilmente temperatura e durata di solubilizzazione rispetto al trattamento benchmark senza penalizzazione della durezza risultante. Dopodiché è stata eseguita una caratterizzazione microstrutturale e meccanica dell’acciaio, in termini di durezza, trazione e resilienza, per confrontare il trattamento termico ottimizzato con la condizione As-Built (AB) e con il trattamento termico standard indicato dal produttore. L’elevata durezza misurata dopo invecchiamento si deve alla presenza di precipitati di rinforzo in grado di ostacolare il moto delle dislocazioni. Le prove meccaniche hanno confermato l’ottenimento di elevata resistenza a snervamento e a trazione, superiore al benchmark, ma di un basso allungamento a rottura e bassissima resilienza a causa di difetti quali porosità, mancate fusioni e spattering. Infine, lo studio delle superfici di frattura ha permesso di analizzare i meccanismi di rottura dei campioni di trazione e resilienza.
Resumo:
La caccia alle minacce è una tecnica in cui si ”cercano” fisicamente i ”rischi”, possibili o esistenti, all’interno dell’infrastruttura IT. La caccia alle minacce è un processo proattivo e iterativo guidato da esseri umani che cercano attività ostili, sospette o dannose che sono sfuggite al rilevamento mediante le attuali tecniche automatizzate attraverso reti, endpoint o set di dati come i file di registro. Un caso possibile può essere quello in cui un threat hunter abbia a disposizione per la caccia solo i registri di log provenienti da fonti diverse e anche da diversi sistemi operativi. Questi file di log potrebbero per esempio essere i dati di 3 giorni di raccolta provenienti da 30 40 macchine Windows o Linux e analizzando solamente essi il cacciatore deve essere in grado di determinare se e quali siano le minacce all’interno di una o più macchine del sistema. Un problema che sorge subito all’occhio è come si possa conciliare dati provenienti da fonti differenti, e soprattutto da sistemi operativi diversi; inoltre, un ulteriore problema può essere il determinare quando un file di log sia effettivamente un segnalatore di una minaccia e non un falso positivo. Di conseguenza è richiesta una visibilità totale della rete, nonché dei dati dei dispositivi. Idealmente, sarebbe necessario uno strumento che consenta di avere una panoramica di tutti questi dati con funzionalità di ricerca in grado di contestualizzare ciò che si vede per ridurre al minimo la quantità di ricerca manuale attraverso i registri non elaborati. In questo elaborato verranno mostrate le attività. di simulazione sia su ambiente Linux che ambiente Windows, in cui si andranno a cercare, attraverso gli strumenti che verranno elencati nei primi capitoli, le varie minacce. Verranno quindi simulati degli scenari di attacchi e ne si farà infine un’analisi su come al meglio rilevarli.
Resumo:
Il mondo della moda è in continua e costante evoluzione, non solo dal punto di vista sociale, ma anche da quello tecnologico. Nel corso del presente elaborato si è studiata la possibilità di riconoscere e segmentare abiti presenti in una immagine utilizzando reti neurali profonde e approcci moderni. Sono state, quindi, analizzate reti quali FasterRCNN, MaskRCNN, YOLOv5, FashionPedia e Match-RCNN. In seguito si è approfondito l’addestramento delle reti neurali profonde in scenari di alta parallelizzazione e su macchine dotate di molteplici GPU al fine di ridurre i tempi di addestramento. Inoltre si è sperimentata la possibilità di creare una rete per prevedere se un determinato abito possa avere successo in futuro analizzando semplicemente dati passati e una immagine del vestito in questione. Necessaria per tali compiti è stata, inoltre, una approfondita analisi dei dataset esistenti nel mondo della moda e dei metodi per utilizzarli per l’addestramento. Il presente elaborato è stato svolto nell’ambito del progetto FA.RE.TRA. per il quale l'Università di Bologna svolge un compito di consulenza per lo studio di fattibilità su reti neurali in grado di svolgere i compiti menzionati.
Resumo:
In questo elaborato è stato analizzato il comportamento tribologico della lega di alluminio A357 realizzata tramite Laser Powder Bed Fusion (L-PBF). In particolare, è stato studiato l’effetto del processo di anodizzazione ECO (ElectroChemical Oxidation) su tale lega, sia allo stato as-built che dopo trattamento termico T6R, in termini di attrito e usura a temperatura ambiente (i.e. 25°C) e a 200°C. Lo studio tribologico è stato svolto mediante prove di strisciamento non lubrificato in moto reciprocante (geometria ball-on-disc contro allumina). Nella prima parte del lavoro sono state effettuate prove a temperatura ambiente, su strati ECO a rugosità variabile, con carichi applicati nell’intervallo 1-8N. Nella seconda parte l’attività sperimentale si è invece rivolta al confronto nel comportamento tribologico della lega a 25°C e 200°C, mantenendo il carico invariato pari a 1 N e analizzando la risposta in termini di attrito e usura, sia per campioni rivestiti ECO che per campioni non rivestiti. Il rivestimento anodico ha mostrato a temperatura ambiente una maggiore resistenza ad usura quando applicato su superfici pre-lucidate, nonostante un maggiore coefficiente di attrito, dando luogo a cedimento completo ad un carico di 8 N (contro i 5 N del non lucidato). Dalla seconda fase di questo studio è invece risultato come il rivestimento ECO abbia notevolmente migliorato la resistenza ad usura rispetto al materiale non rivestito, sia a 25°C che a 200°C, mantenendo invariato il coefficiente d’attrito all’aumentare della temperatura, al contrario dei campioni A357 non rivestiti, che hanno invece manifestato un aumento del coefficiente di attrito di circa il doppio. Vale inoltre la pena notare come la pre-lucidatura ed il trattamento termico dei campioni A357 ECO siano risultati superflui in termini di comportamento tribologico; i campioni a superficie rugosa hanno dato luogo addirittura a minori coefficienti di attrito sia a 25°C che a 200°C, a parità di profondità d’usura.
Resumo:
Le energie rinnovabili rappresentano il presente e allo stesso tempo il futuro della produzione elettrica mondiale. Produrre sempre più energia da fonti rinnovabili è una necessità condivisa da tutti i Paesi del mondo per cercare di dare un freno agli evidenti problemi climatici e alle continue minacce subite dall’ecosistema, che stanno condizionando il pianeta negli ultimi anni. Nel corso di questo elaborato ci si è concentrati soprattutto sul fotovoltaico, che a differenza delle altre fonti, essendo alimentato dall’energia solare è ben distribuito in quasi tutto il pianeta e nel corso degli ultimi anni ha avuto una crescita e una diffusione esponenziali in Italia e nel resto del mondo. La sempre crescente innovazione nel campo dei materiali utilizzati, permette ad oggi una maggiore scelta della tipologia di pannello da installare, sulla base dei vari fattori che possono influenzarne efficienza e rendimento. L’obiettivo finale è quello di avere tutti i dati necessari per effettuare l’analisi e il confronto tra le simulazioni di funzionamento di diverse tipologie di fotovoltaico, valutandone, oltre all’aspetto tecnico, anche la convenienza e i vantaggi in termini di rendimento. Durante lo sviluppo della tesi, le simulazioni sono state condotte prendendo come riferimento un capannone industriale ubicato nella stazione ferroviaria di Bologna Interporto, analizzando poi i dati mediante l’ausilio del software PVSyst. per confrontare i dati e i risultati ottenuti all’interno di un resoconto che evidenzi le maggiori differenze e la soluzione più vantaggiosa in termini di rendimento.
Resumo:
I sensori a fibre ottiche rappresentano una delle tecnologie più promettenti per il monitoraggio di varie strutture ingegneristiche. Tali sensori, dopo che sono stati incollati su differenti tipologie di strutture grazie a un dispositivo optoelettronico, restituiscono il profilo di deformazione del materiale ospite. Tuttavia, risulta piuttosto complicato ottenere queste curve, in quanto sono necessari numerosi provini che richiedono spese onerose e molto tempo per i singoli esperimenti. In più, si deve tenere in considerazione che i provini non sono mai completamente identici e che l’operatore può commettere errori. In questo studio si genera un programma attraverso cui si simulano diversi andamenti di deformazione, cercando di riprodurre al meglio i vari casi sperimentali. Infine, utilizzando un codice già esistente, si ricavano le curve di probabilità di rilevamento del danno in funzione della lunghezza di cricca. Una volta creato il codice, si modificano alcuni parametri, in particolare si alterano lo shear lag e alcune caratteristiche meccaniche della fibra ottica, ovvero il raggio e il modulo di Young, per vedere l’influenza che hanno sulle curve di probabilità. I risultati hanno dimostrato che lo shear lag della fibra ottica deve essere il più possibile alto e di conseguenza il raggio e il modulo di Young della fibra devono essere bassi, in quanto quest’ultimi si trovano a denominatore della formula usata per calcolare lo shear lag.
Resumo:
Questa tesi elabora un sistema di filtraggio delle pseudodistanze calcolate da un ricevitore GPS, al fine di ottenere un miglior posizionamento. Infatti, dopo aver analizzato e quindi filtrato i dati in ingresso tramite l’impiego delle misure di fase, si può ottenere una precisione nell’ordine dei centimetri. La tecnica di filtraggio prende il nome di carrier-smoothing e permette di selezionare le misure di pseudorange mediante le misure di ADR (Accumulated Delta Range) grazie all’applicazione di una struttura a filtro complementare. Per svolgere questo tipo di lavoro, non è stato necessario l’utilizzo di un ricevitore GPS fisico, ma è stato realizzato, nell’ambiente Matlab/Simulink, un simulatore GNSS (Global Navigation Satellite System) che sostanzialmente emula quello che farebbe un ricevitore.
Resumo:
Questa tesi vuole riassumere il percorso di tirocinio che ho intrapreso all’ interno dell’azienda Curti. L'azienda, situata a Castel Bolognese, nasce nel 1955 e opera in svariati settori. Si occupa della produzione di macchine automatiche per il packaging, per la produzione di cavi elettrici e per il settore tessile; inoltre produce componenti per l'industria aerospaziale. L’azienda è votata ad una filosofia kaizen e fonda il processo produttivo su due forti pilastri: il WCM e la Lean Production. In questa esperienza sono stato assegnato all’ ufficio di pianificazione della produzione della divisione TetraPak. Qui ho potuto osservare da vicino come funziona un’azienda e imparare diversi compiti tipici di questo ruolo. Fra le attività che ho svolto c’è la gestione delle distinte sul gestionale Alnus e su Excel e la preparazione della documentazione per la spedizione. Successivamente ho concentrato la mia attenzione su un progetto specifico, denominato “Tethered”, interfacciandomi con il reparto ricambi. Secondo una recente normativa europea, dal 2024 tutti i packaging per il beverage con capacità inferiore ai 3 litri avranno l’obbligo di mantenere i tappi attaccati al contenitore. Il reparto ricambi riceve quindi molti ordini VCK Tethered, ovvero casse con i componenti per attuare i cambiamenti necessari per conformarsi alla normativa. Qui si concentra il mio lavoro di analisi della situazione as-is e lo studio di possibili azioni migliorative. Le azioni individuate sono l’acquisto di strumentazione, la disposizione di una scaffalatura dedicata (studiando una disposizione efficiente dei componenti), l’adozione di etichette informative sui contenitori e l'ottimizzazione delle spedizioni. Sono stati creati due OPL riguardanti il prelievo e l’imballaggio dei componenti. Infine, non è stata possibile applicarla, ma è comunque stata individuata la possibilità di implementare il metodo delle 5s, in modo da ottenere postazioni di lavoro più ordinate e pulite.
Resumo:
L’obiettivo iniziale di questo lavoro era quello di studiare il fenomeno della proteolisi nel formaggio, al variare del tempo di stagionatura e di salatura, mediante lo studio dello stato dell’acqua, con una metodica non distruttiva e innovativa per questa tematica: il TD-NMR. I formaggi oggetto di studio sono stati prodotti con un impianto pilota presente in Dipartimento, con lo stesso latte, nella stessa giornata e nelle medesime condizioni di caseificazione. Il primo passo è stato quello di assegnare un nome alle 4 popolazioni di protoni corrispondenti alle 4 curve esponenziali in cui si traducevano i risultati di T2. Dato che gli studi bibliografici consultati non erano concordi su questo aspetto e nessuno aveva svolto esperimenti che potessero confermare le supposizioni formulate, abbiamo proceduto all’analisi di un formaggio simile ai nostri campioni, addizionato di una soluzione dopante a base di Fe(III)Cl2. Questo passaggio ci ha permesso di identificare i tipi di molecole rappresentati dalle 4 popolazioni. Successivamente siamo stati in grado di fare ipotesi concrete sull’evoluzione dei risultati di T2 e intensità relativa al variare del tempo di stagionatura e di salatura. Dalle nostre osservazioni è emerso che è possibile correlare l’andamento di T2 e I a quello di diversi parametri che caratterizzano il formaggio. Le ipotesi emerse da questo studio sono solamente intuizioni preliminari riguardo l’impiego di questo metodo di analisi per il formaggio, che però ha la potenzialità di essere molto utile nella ricerca e anche nell’industria. Si tratta infatti di un metodo caratterizzato da estrema facilità nella preparazione dei campioni, che può essere adattato ad analisi non distruttive e che impiega uno strumento molto economico rispetto ad altri tipi di analisi NMR. Possiamo inoltre concludere che, avendo messo a punto questi aspetti di base, l’interpretazione dei dati sarà senz’altro più semplice rispetto ad altre analisi NMR.
Resumo:
Nel mio elaborato di tesi dal titolo “Fabbricazione mediante elettrofilatura di scaffold compositi per il trattamento di difetti ossei” tratto la fisiologia del tessuto osseo, le cellule che lo compongono, i danni che esso può subire e il processo di riparazione spontaneo che si attua in caso di lesioni. Analizzo quindi differenti tipologie di frattura e le terapie chirurgiche e non-chirurgiche attualmente disponibili, con un occhio di riguardo nei confronti dell’ingegneria dei tessuti - che intende riparare il tessuto danneggiato mediante l’impianto di costrutti bioibridi costituiti da cellule a bordo di scaffold realizzati con biomateriali adeguati. In quest’ottica presento quindi un lavoro di ricerca pubblicato recentemente da Yuwono et al., nel quale viene presentato uno scaffold composito elettrofilato, caratterizzato da nanofibre polimeriche e caricato con particelle di idrossiapatite, che viene proposto come un eccellente candidato all’utilizzo in terapia.
Resumo:
Attualmente, tutte le procedure di ablazione cardiaca per il trattamento delle aritmie si basano sull’uso di radiofrequenza e di cateteri per crioablazione. Nonostante l’evoluzione e i miglioramenti significativi nel design e nelle forme di erogazione dell’energia, sono state riscontrate svariate limitazioni, in particolar modo per quanto riguarda i danni termici collaterali ai tessuti vicini alla zona bersaglio. La terapia di ablazione a campo elettrico pulsato (PFA) rappresenta un approccio rivoluzionario per il trattamento di aritmie cardiache, specialmente per la fibrillazione atriale. Questa tecnica utilizza come fonte di energia l’elettroporazione, sistema in grado di creare un danno a livello della membrana cellulare, con una conseguente inattivazione delle cellule responsabili dell’aritmia. Grazie alla sua natura non termica e altamente specializzata per il tessuto miocardico, questa energia ha il grande vantaggio di essere più sicura ed efficiente rispetto ai convenzionali approcci di radiofrequenza e crioablazione, aprendo dunque una strada alternativa per il trattamento dei disturbi cardiaci.
Resumo:
La classificazione di dati geometrici 3D come point cloud è un tema emergente nell'ambito della visione artificiale in quanto trova applicazione in molteplici contesti di guida autonoma, robotica e realtà aumentata. Sebbene nel mercato siano presenti una grande quantità di sensori in grado di ottenere scansioni reali, la loro annotazione costituisce un collo di bottiglia per la generazione di dataset. Per sopperire al problema si ricorre spesso alla domain adaptation sfruttando dati sintetici annotati. Questo elaborato si pone come obiettivo l'analisi e l'implementazione di metodi di domain adaptation per classificazione di point cloud mediante pseudo-labels. In particolare, sono stati condotti esperimenti all'interno del framework RefRec valutando la possibilità di sostituire nuove architetture di deep learning al modello preesistente. Tra queste, Transformer con mascheramento dell'input ha raggiunto risultati superiori allo stato dell'arte nell'adattamento da dati sintetici a reali (ModelNet->ScanNet) esaminato in questa tesi.
Resumo:
L'elaborato si occupa di analizzare diverse tecnologie di accumulo elettrochimico con lo scopo di dimensionare un sistema di accumulo che verrà accoppiato ad un parco eolico, collocato in Sicilia. Lo standard di connessione sarà in AT a 36 kV, un nuovo standard di Terna che permette di snellire le connessioni di impianti rinnovabili con potenza inferiore a 100 MW. A seguito di un primo dimensionamento analitico e di un confronto con i fornitori, si è optato per l'utilizzo della tecnologia Litio-ione, meno costosa e più performante e il cui impatto ambientale risulta essere controllato. Infine, si è realizzata una valutazione economica del sistema, ipotizzando tre diverse destinazioni di utilizzo del sistema di accumulo, che può offrire servizi ancillari alla rete o partecipare al nuovo mercato delle capacità di Terna, con lo scopo di creare una riserva di energia e partecipare al controllo e alla stabilità della rete. Si è quindi stimato un possibile tempo di ritorno dell'investimento, tenendo conto anche dell'aumento dei prezzi legato all'attuale condizione politico-economica.
Resumo:
Negli ultimi quattro anni la summarization astrattiva è stata protagonista di una evoluzione senza precedenti dettata da nuovi language model neurali, architetture transformer-based, elevati spazi dimensionali, ampi dataset e innovativi task di pre-training. In questo contesto, le strategie di decoding convertono le distribuzioni di probabilità predette da un modello in un testo artificiale, il quale viene composto in modo auto regressivo. Nonostante il loro cruciale impatto sulla qualità dei riassunti inferiti, il ruolo delle strategie di decoding è frequentemente trascurato e sottovalutato. Di fronte all'elevato numero di tecniche e iperparametri, i ricercatori necessitano di operare scelte consapevoli per ottenere risultati più affini agli obiettivi di generazione. Questa tesi propone il primo studio altamente comprensivo sull'efficacia ed efficienza delle strategie di decoding in task di short, long e multi-document abstractive summarization. Diversamente dalle pubblicazioni disponibili in letteratura, la valutazione quantitativa comprende 5 metriche automatiche, analisi temporali e carbon footprint. I risultati ottenuti dimostrano come non vi sia una strategia di decoding dominante, ma come ciascuna possieda delle caratteristiche adatte a task e dataset specifici. I contributi proposti hanno l'obiettivo di neutralizzare il gap di conoscenza attuale e stimolare lo sviluppo di nuove tecniche di decoding.
Resumo:
Negli ultimi decenni, la filiera ittica sta subendo una grande espansione grazie al miglioramento delle tecniche di pesca, allevamento, conservazione, e trasformazione. Di pari passo, però, si assiste ad un accumulo di scarti e sottoprodotti per i quali è necessario trovare soluzioni sostenibili al fine di ridurre al minimo il loro impatto sull’ambiente e sull’economia. Risulta pertanto indispensabile trovare tecnologie che possano valorizzare le componenti ancora presenti in questi scarti, come ad esempio l'utilizzo di processi biotecnologici che sfruttano microrganismi selezionati. Questo progetto di tesi si è focalizzato sull’utilizzo di lieviti e batteri, con attività proteolitica e lipolitica, per l’estrazione di composti funzionali tramite fermentazione da scarti di pesce. Gli idrolizzati sono stati caratterizzati in termini di contenuto in peptidi, attività antiossidante e profilo in composti volatili. I ceppi di Yarrowia lipolytica testati sono stati quelli che hanno prodotto il più alto quantitativo di peptidi, la maggiore attività antiossidante e la produzione di alcoli (isoamilico e feniletilico) o acidi (acetico, butirrico e isovalerico) in base all'assenza o presenza di glucosio nel mezzo di crescita.