687 resultados para acque, Marecchia, tecniche analitiche, nitrati
Resumo:
The Venice Lagoon is a complex, heterogeneous and highly dynamic system, subject to anthropogenic and natural pressures that deeply affect the functioning of this ecosystem. Thanks to the development of acoustic technologies, it is possible to obtain maps with a high resolution that describe the characteristics of the seabed. With this aim, a high resolution Multibeam Echosounder (MBES) bathymetry and backscatter survey was carried out in 2021 within the project Research Programme Venezia 2021. Ground-truthing samples were collected in 24 sampling sites to characterize the seafloor and validate the maps produced with the MBES acoustic data. Ground-truthing included the collection of sediment samples for particle size analysis and video footage of the seabed to describe the biological component. The backscatter data was analysed using the unsupervised Jenks classification. We created a map of the habitats integrating morphological, granulometric and biological data in a GIS environment. The results obtained in this study were compared to those collected in 2015 as part of the National Flagship Project RITMARE. Through the comparison of the repeated morpho-bathymetric surveys over time we highlighted the changes of the seafloor geomorphology, sediment, and habitat distribution. We observed different type of habitats and the presence of areas characterized by erosive processes and others in which deposition occurred. These effects led to changes in the benthic communities and in the type of sediment. The combination of the MBES surveys, the ground truth data and the GIS methodology, permitted to construct high-resolution maps of the seafloor and proved to be effective implement for monitoring an extremely dynamic area. This work can contribute not only to broaden the knowledge of transitional environments, but also to their monitor and protection.
Resumo:
Il seguente elaborato affronta l'implementazione di un algoritmo che affronta un problema di controllo di processo in ambito industriale utilizzando algoritmi di object detection. Infatti, il progetto concordato con il professore Di Stefano si è svolto in collaborazione con l’azienda Pirelli, nell’ambito della produzione di pneumatici. Lo scopo dell'algoritmo implementato è di verificare il preciso orientamento di elementi grafici della copertura, utilizzati dalle case automobilistiche per equipaggiare correttamente le vetture. In particolare, si devono individuare delle scritte sul battistrada della copertura e identificarne la posizione rispetto ad altri elementi fissati su di essa. La tesi affronta questo task in due parti distinte: la prima consiste nel training di algoritmi di deep learning per il riconoscimento degli elementi grafici e del battistrada, la seconda è un decisore che opera a valle del primo sistema utilizzando gli output delle reti allenate.
Resumo:
Il ruolo dell’informatica è diventato chiave del funzionamento del mondo moderno, ormai sempre più in progressiva digitalizzazione di ogni singolo aspetto della vita dell’individuo. Con l’aumentare della complessità e delle dimensioni dei programmi, il rilevamento di errori diventa sempre di più un’attività difficile e che necessita l’impiego di tempo e risorse. Meccanismi di analisi del codice sorgente tradizionali sono esistiti fin dalla nascita dell’informatica stessa e il loro ruolo all’interno della catena produttiva di un team di programmatori non è mai stato cosi fondamentale come lo è tuttora. Questi meccanismi di analisi, però, non sono esenti da problematiche: il tempo di esecuzione su progetti di grandi dimensioni e la percentuale di falsi positivi possono, infatti, diventare un importante problema. Per questi motivi, meccanismi fondati su Machine Learning, e più in particolare Deep Learning, sono stati sviluppati negli ultimi anni. Questo lavoro di tesi si pone l’obbiettivo di esplorare e sviluppare un modello di Deep Learning per il riconoscimento di errori in un qualsiasi file sorgente scritto in linguaggio C e C++.
Resumo:
La maggior parte della rete viaria nazionale ha superato i 50 anni di vita, essendo stata progettata tra il dopo guerra e i primi anni ’70. Di conseguenza, le infrastrutture come ad esempio ponti e viadotti sono caratterizzate da un generalizzato stato di degrado. Nell’ottica delle verifiche di sicurezza delle opere in C.A.P. esistenti, quindi, conoscere la precompressione residua di un determinato elemento, con un certo grado di affidabilità, permette di valutare la necessità di intervento o meno sullo stesso. Tra le tecniche diagnostiche in maggior diffusione vi è quella del rilascio tensionale, che consiste nello stimare l’attuale stato di precompressione agente su specifiche sezioni di elementi precompressi a partire dal rilascio di deformazione di precompressione, agente sul calcestruzzo, isolandone una porzione tramite una serie di tagli fino al raggiungimento del completo rilascio. Esistono varie tecniche di rilascio tensionale ma nella letteratura scientifica non esiste ancora una robusta validazione di questi metodi dal punto di vista dell’affidabilità e dell’accuratezza. In questo lavoro di tesi sono state affrontate due tecniche, riconducibili a due macrogruppi di metodi di misura: metodo tramite la realizzazione di tagli inclinati o perpendicolari rispetto alla superficie del manufatto in calcestruzzo, al fine di estrarre un provino tronco piramidale; metodo tramite l’estrazione di una carota perpendicolare alla superficie del manufatto in calcestruzzo. L’obiettivo prefissato era la valutazione delle prove in termini di attendibilità dei risultati con, inoltre, una particolare attenzione all’invasività nei confronti della struttura e alla ripetibilità in situ. Per il lavoro di tesi sono state realizzate 10 colonne in cemento armato (C.A.) a cui, al fine di simulare uno stato di precompressione, è stata applicata una tensione nota di compressione per poi procedere con le prove di rilascio tensionale tramite i metodi considerati.
Resumo:
Nello studio condotto si è voluto indagare in modo preliminare la fattibilità dal punto di vista normativo e tecnico di attuare operazioni di recupero di materia su scarti prodotti dagli stabilimenti di molluschicoltura di Goro, con il fine di inserirli in un progetto più ampio di costruzione di barriere sommerse a protezione del litorale. Attraverso dati produttivi è stato analizzato innanzitutto il contesto territoriale nel quale si colloca questa attività. E' stato ripercorso il destino ambientale che attende gli scarti in uscita all'impianto e con l'ausilio delle normative in materia di rifiuti si è cercato di delineare possibili scenari migliorativi rientranti nei principi dell'economia circolare, mostrandone i rispettivi vantaggi e requisiti. Ipotizzata l'alternativa migliore, infine si sono studiate le caratteristiche tecniche del capulerio al fine di destinarlo ad un impiego in campo edile, attraverso prove condotte in laboratorio e studi presenti in letteratura.
Resumo:
Le recenti analisi dei dati raccolti ad ALICE dimostrano che la nostra comprensione dei fenomeni di adronizzazione dei sapori pesanti è ancora incompleta, perché le misure effettuate su collisioni pp, p-Pb e Pb-Pb non sono riproducibili da modelli teorici basati su altre tipologie di collisione come e+e−. In particolare, i risultati sembrano indicare che il principio di universalità, che assume che le funzioni di frammentazione di quark e gluoni siano indipendenti dal tipo di sistema interagente, non sia valido. Per questo motivo sono stati sviluppati nuovi modelli teorici e fenomenologici, capaci di riprodurre in modo più o meno accurato i dati sperimentali. Questi modelli differiscono tra di loro soprattutto a bassi valori di impulso trasverso pT . L’analisi dati a basso pT si rivela dunque di fondamentale importanza, in quanto permette di discriminare, tra i vari modelli, quelli che sono realmente in grado di riprodurre i dati sperimentali e quelli che non lo sono. Inoltre può fornire una conferma sperimentale dei fenomeni fisici su cui tale modello si basa. In questa tesi è stato estratto il numero di barioni Λ+c (yield ) prodotto in collisioni pp a √s = 13 TeV , nel range di impulso trasverso 0 < pT (Λ+c ) < 1 GeV/c. É stato fatto uso di una tecnica di machine learning che sfrutta un algoritmo di tipo Boosted Decision Trees (BDT) implementato dal pacchetto TMVA, al fine di identificare ed eliminare una grossa parte del fondo statistico e semplificare notevolmente l’analisi vera e propria. Il grado di attendibilità della misura è stata verificata eseguendo l’estrazione dello yield con due approcci diversi: il primo, modellando il fondo combinatoriale con una funzione analitica; successivamente con la creazione di un template statistico creato ad hoc con la tecnica delle track rotations.
Resumo:
L’Imaging di Risonanza Magnetica (MRI) è una tecnica diagnostica multiparametrica e non dannosa che permette di acquisire immagini nelle quali risiedono informazioni di natura anatomica e funzionale. Utilizzando un campo magnetico di intensità bassa è possibile ottenere scanner portatili, silenziosi, sicuri ed economici evitando l’installazione di schermature magnetiche e a radiofrequenza. La risoluzione e il rapporto segnale rumore di queste immagini non è ottimale e gli artefatti da movimento sono considerevoli. Nonostante ciò, lo scanner MRI a basso campo è in grado di fornire immagini con importante valore diagnostico, in particolare in quei contesti in cui un esame tramite risonanza tradizionale non risulta possibile.
Resumo:
Il cancro è un processo autosufficiente e adattivo che interagisce dinamicamente con il suo microambiente, la cui diagnosi, complessa e dispendiosa in termini di tempo e numero di specialisti impiegati, viene solitamente effettuata valutando l’imaging radiografico oppure effettuando un esame istologico. L'interpretazione di tali immagini risulta generalmente molto complessa, a questo scopo sarebbe molto utile poter addestrare un computer a comprendere tali immagini potendo di fatto affiancarsi allo specialista, senza sostituirlo, al momento della diagnosi. A questo scopo è possibile affidarsi alle tecniche di apprendimento automatico, sistema alla base dell’intelligenza artificiale (AI), le quali permettono di fatto di apprendere automaticamente la rappresentazione delle caratteristiche da immagini campione. Tali tecniche di intelligenza artificiale, hanno però bisogno, per essere addestrate, di grandi quantità di dati in cui il segnale di uscita desiderato è noto, comportando di fatto un aumento delle tempistiche di addestramento. Inoltre, in ambito sanitario, i dati sono distribuiti su più archivi, dislocati sul territorio nazionale, rendendo impossibile l’utilizzo di soluzioni centralizzate. L’obbiettivo di questa trattazione sarà cercare di trovare una soluzione a queste due problematiche, ricorrendo all’utilizzo delle tecniche di parallelizzazione. A seguito dell'introduzione dello scenario biologico e delle tecniche di diagnostica ad esso associato è presentato il percorso di creazione della rete neurale. A seguito del suo addestramento sulla GPU di una singola macchina, ottenendo un'accuratezza dell'83.94% in 5 ore 48 minuti e 43 secondi, è stata introdotto la parallelizzazione ed una sua implementazione. In conclusione, sfruttando il sistema implementato, è stata distribuita la fase di addestramento prima su due macchine e poi su tre, ottenendo una diminuzione del tempo di addestramento rispettivamente del 31.4% e del 50%.
Resumo:
In questa tesi abbiamo analizzato diverse tecniche di estrazione dei bordi, al fine di separare l'oggetto dallo sfondo o dagli altri oggetti di un'immagine digitale. I vari metodi sono stati confrontati su alcune immagini di test per meglio comprenderne pregi e difetti.
Resumo:
L’obiettivo di questa tesi `e l’estensione della conoscenza di un argomento già ampliamente conosciuto e ricercato. Questo lavoro focalizza la propria attenzione su una nicchia dell’ampio mondo della virtualizzazione, del machine learning e delle tecniche di apprendimento parallelo. Nella prima parte verranno spiegati alcuni concetti teorici chiave per la virtualizzazione, ponendo una maggior attenzione verso argomenti di maggior importanza per questo lavoro. La seconda parte si propone di illustrare, in modo teorico, le tecniche usate nelle fasi di training di reti neurali. La terza parte, attraverso una parte progettuale, analizza le diverse tecniche individuate applicandole ad un ambiente containerizzato.
Resumo:
Le energie rinnovabili rappresentano il presente e allo stesso tempo il futuro della produzione elettrica mondiale. Produrre sempre più energia da fonti rinnovabili è una necessità condivisa da tutti i Paesi del mondo per cercare di dare un freno agli evidenti problemi climatici e alle continue minacce subite dall’ecosistema, che stanno condizionando il pianeta negli ultimi anni. Nel corso di questo elaborato ci si è concentrati soprattutto sul fotovoltaico, che a differenza delle altre fonti, essendo alimentato dall’energia solare è ben distribuito in quasi tutto il pianeta e nel corso degli ultimi anni ha avuto una crescita e una diffusione esponenziali in Italia e nel resto del mondo. La sempre crescente innovazione nel campo dei materiali utilizzati, permette ad oggi una maggiore scelta della tipologia di pannello da installare, sulla base dei vari fattori che possono influenzarne efficienza e rendimento. L’obiettivo finale è quello di avere tutti i dati necessari per effettuare l’analisi e il confronto tra le simulazioni di funzionamento di diverse tipologie di fotovoltaico, valutandone, oltre all’aspetto tecnico, anche la convenienza e i vantaggi in termini di rendimento. Durante lo sviluppo della tesi, le simulazioni sono state condotte prendendo come riferimento un capannone industriale ubicato nella stazione ferroviaria di Bologna Interporto, analizzando poi i dati mediante l’ausilio del software PVSyst. per confrontare i dati e i risultati ottenuti all’interno di un resoconto che evidenzi le maggiori differenze e la soluzione più vantaggiosa in termini di rendimento.
Resumo:
Il mio progetto di tesi ha come obiettivo quello di creare un modello in grado di predire il rating delle applicazioni presenti all’interno del Play Store, uno dei più grandi servizi di distribuzione digitale Android. A tale scopo ho utilizzato il linguaggio Python, che grazie alle sue librerie, alla sua semplicità e alla sua versatilità è certamen- te uno dei linguaggi più usati nel campo dell’intelligenza artificiale. Il punto di partenza del mio studio è stato il Dataset (Insieme di dati strutturati in forma relazionale) “Google Play Store Apps” reperibile su Kaggle al seguente indirizzo: https://www.kaggle.com/datasets/lava18/google-play-store-apps, contenente 10841 osservazioni e 13 attributi. Dopo una prima parte relativa al caricamen- to, alla visualizzazione e alla preparazione dei dati su cui lavorare, ho applica- to quattro di↵erenti tecniche di Machine Learning per la stima del rating delle applicazioni. In particolare, sono state utilizzate:https://www.kaggle.com/datasets/lava18/google-play-store-apps, contenente 10841 osservazioni e 13 attributi. Dopo una prima parte relativa al caricamento, alla visualizzazione e alla preparazione dei dati su cui lavorare, ho applicato quattro differenti tecniche di Machine Learning per la stima del rating delle applicazioni: Ridje, Regressione Lineare, Random Forest e SVR. Tali algoritmi sono stati applicati attuando due tipi diversi di trasformazioni (Label Encoding e One Hot Encoding) sulla variabile ‘Category’, con lo scopo di analizzare come le suddette trasformazioni riescano a influire sulla bontà del modello. Ho confrontato poi l’errore quadratico medio (MSE), l’errore medio as- soluto (MAE) e l’errore mediano assoluto (MdAE) con il fine di capire quale sia l’algoritmo più efficiente.
Resumo:
L’idea di focalizzare la tesi sulla supply chain ed in particolare sulle tecniche lean per la sua ottimizzazione deriva dal fatto che si tratta di un nuovo modo di ragionare, di un approccio moderno perfettamente adattabile al contesto socio-economico attuale, teso ad accrescere la flessibilità e l’efficienza dell’impresa attraverso un ripensamento dell’intero flusso di creazione del valore. Verranno analizzate le caratteristiche generali di questo modello organizzativo, per poi addentrarsi nella sua applicazione ed infine i vantaggi e gli eventuali svantaggi che le organizzazioni devono affrontare per implementare operativamente le tecniche lean. L’analisi effettuata nella tesi è strutturata come segue: La parte iniziale del primo capitolo definisce il concetto generale di supply chain sottolineando il contesto di riferimento in cui oggi operano le attività produttive. Vengono poi riportati l’accezione e il valore della supply chain management e le sue problematiche annesse di gestione e controllo. Nella seconda parte del capitolo vengono analizzati e descritti i modelli letterari esistenti utili per descrivere, impostare e classificare una supply chain. Il secondo capitolo, dopo una breve esposizione storica che descrive le origini della metodologia lean production, è orientato alla raccolta delle definizioni e alle loro differenti visioni tratte dal mondo della letteratura. Segue una parte più analitica, dove vengono analizzati in maniera dettagliata gli obiettivi, gli strumenti ed i principi che la filosofia lean prevede. Nel terzo capitolo viene approfondita la VSM, uno degli strumenti di principale importanza secondo le logiche della lean manufacturing. Vengono analizzati gli step necessari per una corretta implementazione, illustrando prima la simbologia internazionale necessaria per una sua comprensione e realizzazione e poi definiti gli step da applicare non solo per una semplice realizzazione, ma per l’ottenimento di una value stream map in ottica lean.
Resumo:
Il presente elaborato analizza il processo produttivo del vino Lambrusco, ripercorrendo la storia e la tecnica che hanno influenzato, e che comunque riguardano tuttora, il processo produttivo dei vini frizzanti a nome Lambrusco. In modo particolare analizza il percorso storico di evoluzione tecnica e tecnologica che ha maggiormente condizionato l’evoluzione di questo prodotto unico nel suo genere, descrivendo i processi produttivi maggiormente significativi, oltre ad approfondire alcuni argomenti di carattere enologico e microbiologico applicato di estrema attualità, che potranno essere utili per contrastare o mitigare le influenze sul prodotto dovute al cambiamento climatico, come il progressivo abbassamento delle acidità, l’innalzamento del grado alcolico e le sempre più frequenti alterazioni dei vini; così come per andare incontro alle tendenze di consumo del mercato, che richiede sempre di più vini freschi, morbidi e caratterizzati da una facile beva.
Resumo:
Background. I disturbi temporomandibolari sono una serie di condizioni cliniche che colpiscono l’ATM, la muscolatura masticatoria e le strutture annesse ad esse. I TMD hanno come sintomo principale il dolore e possono condurre a limitazioni della mobilità articolare, diminuendo la qualità della vita. Il trattamento è multidisciplinare e il primo intervento è quello conservativo. Le tecniche di terapia manuale rappresentano uno dei metodi conservativi di cui ci si può avvalere per il trattamento di pazienti affetti da TMD. Obiettivi. Valutare l’efficacia delle tecniche di terapia manuale nel miglioramento di outcome, quali: dolore, disabilità, range di movimento e qualità della vita. Metodi. La ricerca è stata condotta nel periodo tra Maggio 2022 e Settembre 2022, su tre banche dati: PubMed, PEDro e Chocrane Library. Sono stati selezionati esclusivamente RCT in lingua inglese, con partecipanti adulti affetti da TMD. La qualità metodologica degli studi è stata valutata tramite l’utilizzo della PEDro Scale. Risultati. Sono stati inclusi sei studi. Nei singoli studi, le tecniche di terapia manuale sono state confrontate o meno con altri approcci conservativi. In cinque RCT su sei, è stata rilevata un’alta qualità metodologica, con un punteggio medio di 7/10 nella PEDro Scale. Discussione. Nei sei studi inclusi, c’è stato un miglioramento degli outcome indagati, ad eccezione del ROM che in uno studio non ha mostrato miglioramenti post-trattamento manuale. In quattro studi su sei la valutazione finale degli outcome è avvenuta al termine delle settimane di trattamento, permettendo una visione esclusiva degli effetti a breve termine. La limitata indagine degli effetti a lungo termine e l’elevata eterogeneità tra gli studi denotano la necessità di ulteriori ricerche riguardanti l’argomento. Conclusioni. Le tecniche di terapia manuale sembrerebbero avere un effetto positivo nei pazienti affetti da TMD, se inserite all’interno di un programma riabilitativo multimodale.