892 resultados para VHDL ATLAS FPGA PROGETTO DI SISTEMI ELETTRONICI BEAM TEST LUCID CERN DIGITALE QUARTUS MODELSIM


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’oggetto del progetto di restauro è il Castello di Montebello, un’antica fortezza inserita all’interno del circuito di costruzioni militari della Valle del Marecchia, dunque un oggetto della storia e nella storia. Dunque un’attenta fase diagnostica-conoscitiva deve costituire la premessa indispensabile a qualsiasi intervento sulla preesistenza. Così a partire dai dati conoscitivi assunti si sono delineati gli obiettivi del progetto. L’obiettivo conservativo viene, in questo caso specifico, raggiunto non solo attraverso la conservazione vera e propria, ma anche attraverso la demolizione: una quasi paradossale demolizione per la conservazione. Le strutture introdotte con l’intervento di ricostruzione degli anni Sessanta del Novecento effettuato sul manufatto storico infatti, non solo, non introducono valore aggiuntivo all’opera,ma ne compromettono, per soluzioni, materiali ed incertezza costruttiva, la spazialità e la sicurezza, dunque la conservazione. Così, attraverso operazioni ora di conservazione, ora di demolizione e ricostruzione si è cercato di predisporre la fabbrica affinché, in modo sicuro possa accogliere una funzione, necessariamente compatibile e rispettosa del manufatto, che ne consenta il prolungamento della vita e la conservazione nel tempo. La funzione museale, finalizzata alla valorizzazione del complesso difensivo e all’esposizione della collezione epigrafica della famiglia proprietaria sembrano rispondere appieno alle domande del progetto di restauro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Progetto di riqualificazione urbana di un'area industriale attraverso il riordino del verde. Inserimento di laboratori di ricerca e incubatori d'impresa e coworking e riorganizzazione degli impianti sportivi preesistenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Progetto di un parco archeologico all'interno del territorio della Valmarecchia, Paesaggi Archeologici si inserisce tra la città di Verucchio e il paesaggio circostante, attraverso un percorso museografico che mette a sistema il ricco patrimonio di interesse storico, naturalistico e archeologico. Struttura e tecnologia vengono approfondite nella realizzazione di un edificio polifunzionale identificato come Unità Introduttiva, e un edificio espositivo identificato come Museo delle Necropoli.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I RAEE (Rifiuti da Apparecchiature Elettriche ed Elettroniche) costituiscono un problema prioritario a livello europeo per quanto riguarda la loro raccolta, stoccaggio, trattamento, recupero e smaltimento, essenzialmente per i seguenti tre motivi: Il primo riguarda le sostanze pericolose contenute nei RAEE. Tali sostanze, nel caso non siano trattate in modo opportuno, possono provocare danni alla salute dell’uomo e all’ambiente. Il secondo è relativo alla vertiginosa crescita relativa al volume di RAEE prodotti annualmente. La crescita è dovuta alla continua e inesorabile commercializzazione di prodotti elettronici nuovi (è sufficiente pensare alle televisioni, ai cellulari, ai computer, …) e con caratteristiche performanti sempre migliori oltre all’accorciamento del ciclo di vita di queste apparecchiature elettriche ed elettroniche (che sempre più spesso vengono sostituiti non a causa del loro malfunzionamento, ma per il limitato livello di performance garantito). Il terzo (ed ultimo) motivo è legato all’ambito economico in quanto, un corretto trattamento dei RAEE, può portare al recupero di materie prime secondarie (alluminio, ferro, acciaio, plastiche, …) da utilizzare per la realizzazione di nuove apparecchiature. Queste materie prime secondarie possono anche essere vendute generando profitti considerevoli in ragione del valore di mercato di esse che risulta essere in costante crescita. Questo meccanismo ha portato a sviluppare un vasto quadro normativo che regolamenta tutto l’ambito dei RAEE dalla raccolta fino al recupero di materiali o al loro smaltimento in discarica. È importante inoltre sottolineare come lo smaltimento in discarica sia da considerarsi come una sorta di ‘ultima spiaggia’, in quanto è una pratica piuttosto inquinante. Per soddisfare le richieste della direttiva l’obiettivo dev’essere quello di commercializzare prodotti che garantiscano un minor impatto ambientale concentrandosi sul processo produttivo, sull’utilizzo di materiali ‘environmentally friendly’ e sulla gestione consona del fine vita. La Direttiva a livello europeo (emanata nel 2002) ha imposto ai Paesi la raccolta differenziata dei RAEE e ha definito anche un obiettivo di raccolta per tutti i suoi Stati Membri, ovvero 4 kg di RAEE raccolti annualmente da ogni abitante. Come riportato di seguito diversi paesi hanno raggiunto l’obiettivo sopra menzionato (l’Italia vi è riuscita nel 2010), ma esistono anche casi di paesi che devono necessariamente migliorare il proprio sistema di raccolta e gestione dei RAEE. Più precisamente in Italia la gestione dei RAEE è regolamentata dal Decreto Legislativo 151/2005 discusso approfonditamente in seguito ed entrato in funzione a partire dal 1° Gennaio 2008. Il sistema italiano è basato sulla ‘multi consortilità’, ovvero esistono diversi Sistemi Collettivi che sono responsabili della gestione dei RAEE per conto dei produttori che aderiscono ad essi. Un altro punto chiave è la responsabilità dei produttori, che si devono impegnare a realizzare prodotti durevoli e che possano essere recuperati o riciclati facilmente. I produttori sono coordinati dal Centro di Coordinamento RAEE (CDC RAEE) che applica e fa rispettare le regole in modo da rendere uniforme la gestione dei RAEE su tutto il territorio italiano. Il documento che segue sarà strutturato in quattro parti. La prima parte è relativa all’inquadramento normativo della tematica dei RAEE sia a livello europeo (con l’analisi della direttiva ROHS 2 sulle sostanze pericolose contenute nei RAEE e la Direttiva RAEE), sia a livello italiano (con un’ampia discussione sul Decreto Legislativo 151/2005 e Accordi di Programma realizzati fra i soggetti coinvolti). La seconda parte tratta invece il sistema di gestione dei RAEE descrivendo tutte le fasi principali come la raccolta, il trasporto e raggruppamento, il trattamento preliminare, lo smontaggio, il riciclaggio e il recupero, il ricondizionamento, il reimpiego e la riparazione. La terza definisce una panoramica delle principali metodologie di smaltimento dei 5 raggruppamenti di RAEE (R1, R2, R3, R4, R5). La quarta ed ultima parte riporta i risultati a livello italiano, europeo ed extra-europeo nella raccolta dei RAEE, avvalendosi dei report annuali redatti dai principali sistemi di gestione dei vari paesi considerati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La redazione di questo trattato si basa sull’attività di progettazione e realizzazione di un sistema di cambio utensile in una macchina CNC svolta presso lo studio Phizero di Castelbolognese. Le fasi di svolgimento del progetto sono sintetizzabili in: · Studio della filosofia aziendale di progettazione e dei software utilizzati · Studio del settore “macchine utensili” e delle caratteristiche meccaniche e di affidabilità che devono possedere i loro componenti · Analisi delle richieste esplicite e implicite del cliente per ricavare quali siano le caratteristiche principali che deve avere il dispositivo · Stesura di varie bozze in 3D ricercando le migliori soluzioni costruttive tramite matrice morfologica e in accordo con il cliente · Progetto di dettaglio e messa in tavola dei disegni costruttivi per la realizzazione del sistema di cambio utensile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato si pone l'obiettivo di analizzare e valutare la sostenibilità dell'intera filiera dell'olio di palma, che viene importato da paesi del Sud Est asiatico per essere utilizzato in Europa per scopi sia energetici che alimentari. Nell'introduzione è inquadrata la problematica dei biocombustibili e degli strumenti volontari che possono essere utilizzati per garantire ed incentivare la sostenibilità in generale e dei biocombustibili; è presente inoltre un approfondimento sull'olio di palma, sulle sue caratteristiche e sulla crescita che ha subito negli ultimi anni in termini di produzione e compra/vendita. Per questa valutazione sono stati impiegati tre importanti strumenti di analisi e certificazione della sostenibilità, che sono stati applicati ad uno specifico caso di studio: l'azienda Unigrà SpA. La certificazione RSPO (Roundtable on Sustainable Palm Oil) è uno strumento volontario per la garanzia della sostenibilità della filiera dell'olio di palma in termini economici (vitalità nel mercato), ambientali (risparmio delle emissioni di gas ad effetto serra o GHG, conservazione delle risorse naturali e della biodiversità) e sociali (preservazione delle comunità locali e miglioramento nella gestione delle aree di interesse). La Global Reporting Initiative è un'organizzazione che prevede la redazione volontaria di un documento chiamato bilancio di sostenibilità secondo delle linee guida standardizzate che permettono alle organizzazioni di misurare e confrontare le loro performance economiche, sociali e ambientali nel tempo. La Direttiva Comunitaria 2009/28/CE (Renewable Energy Directive o RED) è invece uno strumento cogente nel caso in cui le organizzazioni intendano utilizzare risorse rinnovabili per ottenere incentivi finanziari. A seguito di un calcolo delle emissioni di GHG, le organizzazioni devono dimostrare determinate prestazioni ambientali attraverso il confronto con delle soglie presenti nel testo della Direttiva. Parallelamente alla valutazione delle emissioni è richiesto che le organizzazioni aderiscano a dei criteri obbligatori di sostenibilità economica, ambientale e sociale, verificabili grazie a degli schemi di certificazione che rientrano all'interno di politiche di sostenibilità globale. Questi strumenti sono stati applicati ad Unigrà, un'azienda che opera nel settore della trasformazione e della vendita di oli e grassi alimentari, margarine e semilavorati destinati alla produzione alimentare e che ha recentemente costruito una centrale da 58 MWe per la produzione di energia elettrica, alimentata in parte da olio di palma proveniente dal sud-est asiatico ed in parte dallo scarto della lavorazione nello stabilimento. L'adesione alla RSPO garantisce all'azienda la conformità alle richieste dell'organizzazione per la commercializzazione e la vendita di materie prime certificate RSPO, migliorando l'immagine di Unigrà all'interno del suo mercato di riferimento. Questo tipo di certificazione risulta importante per le organizzazioni perché può essere considerato un mezzo per ridurre l'impatto negativo nei confronti dell'ambiente, limitando deforestazione e cambiamenti di uso del suolo, oltre che consentire una valutazione globale, anche in termini di sostenibilità sociale. Unigrà ha visto nella redazione del bilancio di sostenibilità uno strumento fondamentale per la valutazione della sostenibilità a tutto tondo della propria organizzazione, perché viene data uguale rilevanza alle tre sfere della sostenibilità; la validazione esterna di questo documento ha solo lo scopo di controllare che le informazioni inserite siano veritiere e corrette secondo le linee guida del GRI, tuttavia non da giudizi sulle prestazioni assolute di una organizzazione. Il giudizio che viene dato sulle prestazioni delle organizzazioni e di tipo qualitativo ma non quantitativo. Ogni organizzazione può decidere di inserire o meno parte degli indicatori per una descrizione più accurata e puntuale. Unigrà acquisterà olio di palma certificato sostenibile secondo i principi previsti dalla Direttiva RED per l'alimentazione della centrale energetica, inoltre il 10 gennaio 2012 ha ottenuto la certificazione della sostenibilità della filiera secondo lo schema Bureau Veritas approvato dalla Comunità Europea. Il calcolo delle emissioni di tutte le fasi della filiera dell'olio di palma specifico per Unigrà è stato svolto tramite Biograce, uno strumento di calcolo finanziato dalla Comunità Europea che permette alle organizzazioni di misurare le emissioni della propria filiera in maniera semplificata ed adattabile alle specifiche situazioni. Dei fattori critici possono però influenzare il calcolo delle emissioni della filiera dell'olio di palma, tra questi i più rilevanti sono: cambiamento di uso del suolo diretto ed indiretto, perché possono provocare perdita di biodiversità, aumento delle emissioni di gas serra derivanti dai cambiamenti di riserve di carbonio nel suolo e nella biomassa vegetale, combustione delle foreste, malattie respiratorie, cambiamenti nelle caratteristiche dei terreni e conflitti sociali; presenza di un sistema di cattura di metano all'oleificio, perché gli effluenti della lavorazione non trattati potrebbero provocare problemi ambientali; cambiamento del rendimento del terreno, che può influenzare negativamente la resa delle piantagioni di palma da olio; sicurezza del cibo ed aspetti socio-economici, perché, sebbene non inseriti nel calcolo delle emissioni, potrebbero provocare conseguenze indesiderate per le popolazioni locali. Per una valutazione complessiva della filiera presa in esame, è necessario ottenere delle informazioni puntuali provenienti da paesi terzi dove però non sono di sempre facile reperibilità. Alla fine della valutazione delle emissioni, quello che emerge dal foglio di Biograce e un numero che, sebbene possa essere confrontato con delle soglie specifiche che descrivono dei criteri obbligatori di sostenibilità, non fornisce informazioni aggiuntive sulle caratteristiche della filiera considerata. È per questo motivo che accanto a valutazioni di questo tipo è necessario aderire a specifici criteri di sostenibilità aggiuntivi. Il calcolo delle emissioni dell'azienda Unigrà risulta vantaggioso in quasi tutti i casi, anche considerando i fattori critici; la certificazione della sostenibilità della filiera garantisce l'elevato livello di performance anche nei casi provvisti di maggiore incertezza. L'analisi del caso Unigrà ha reso evidente come l'azienda abbia intrapreso la strada della sostenibilità globale, che si traduce in azioni concrete. Gli strumenti di certificazione risultano quindi dei mezzi che consentono di garantire la sostenibilità della filiera dell'olio di palma e diventano parte integrante di programmi per la strategia europea di promozione della sostenibilità globale. L'utilizzo e l'implementazione di sistemi di certificazione della sostenibilità risulta per questo da favorire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Synchronization is a key issue in any communication system, but it becomes fundamental in the navigation systems, which are entirely based on the estimation of the time delay of the signals coming from the satellites. Thus, even if synchronization has been a well known topic for many years, the introduction of new modulations and new physical layer techniques in the modern standards makes the traditional synchronization strategies completely ineffective. For this reason, the design of advanced and innovative techniques for synchronization in modern communication systems, like DVB-SH, DVB-T2, DVB-RCS, WiMAX, LTE, and in the modern navigation system, like Galileo, has been the topic of the activity. Recent years have seen the consolidation of two different trends: the introduction of Orthogonal Frequency Division Multiplexing (OFDM) in the communication systems, and of the Binary Offset Carrier (BOC) modulation in the modern Global Navigation Satellite Systems (GNSS). Thus, a particular attention has been given to the investigation of the synchronization algorithms in these areas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis is about three major aspects of the identification of top quarks. First comes the understanding of their production mechanism, their decay channels and how to translate theoretical formulae into programs that can simulate such physical processes using Monte Carlo techniques. In particular, the author has been involved in the introduction of the POWHEG generator in the framework of the ATLAS experiment. POWHEG is now fully used as the benchmark program for the simulation of ttbar pairs production and decay, along with MC@NLO and AcerMC: this will be shown in chapter one. The second chapter illustrates the ATLAS detectors and its sub-units, such as calorimeters and muon chambers. It is very important to evaluate their efficiency in order to fully understand what happens during the passage of radiation through the detector and to use this knowledge in the calculation of final quantities such as the ttbar production cross section. The last part of this thesis concerns the evaluation of this quantity deploying the so-called "golden channel" of ttbar decays, yielding one energetic charged lepton, four particle jets and a relevant quantity of missing transverse energy due to the neutrino. The most important systematic errors arising from the various part of the calculation are studied in detail. Jet energy scale, trigger efficiency, Monte Carlo models, reconstruction algorithms and luminosity measurement are examples of what can contribute to the uncertainty about the cross-section.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo progetto di ricerca è principalmente l’elaborare un’analisi socio-comportamentale di Grampus griseus all’interno di un gruppo sociale di Tursiops truncatus in ambiente controllato. In questo studio è stato inoltre monitorato l’uso dell’habitat da parte del soggetto all’interno della vasca. L’esemplare di grampo oggetto della ricerca rappresenta una risorsa unica per approfondire le conoscenze riguardo a una specie su cui le informazioni in letteratura risultano scarse. Si tratta inoltre dell’unico esemplare di Grampus griseus proveniente dal Mar Adriatico e mantenuto in ambiente controllato in tutta Europa, perciò si è ritenuto irrinunciabile raccogliere il maggior numero di dati relativi alla sua biologia. Il progetto si è quindi focalizzato anche su altri aspetti, oltre alla parte etologica. È stato elaborato un programma di fotografie sequenziali sul corpo del soggetto al fine di monitorare le cicatrici o graffi cutanei (scarring) che si accumulano nel corso del tempo sulla superficie corporea. Ben poco è stato pubblicato sull’insorgenza di questi segni cutanei. Infine una parte della ricerca si è occupata, grazie alla collaborazione con i veterinari della struttura, dell’analisi dei dati ematologici raccolti su questo esemplare di Grampus griseus.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto di tesi ha analizzato i processi erosivi in atto in quattro aree della costa emilianoromagnola settentrionale, situate davanti a importanti foci fluviali: Volano, Reno, F. Uniti e Savio. Il lavoro di tesi si colloca all’interno di un progetto più ampio, che prevede la collaborazione tra la Regione Emilia Romagna, Servizio Geologico, Sismico e dei Suoli e l’Istituto di Scienze Marine ISMAR-CNR, sede di Bologna. Quest’ultimo ha acquisito, durante la campagna ERO2010, 210 km di profili sismici ad alta risoluzione in un’area sotto-costa, posta tra i 2 e gli 8 metri di profondità. Il lavoro di tesi ha usufruito di una nuova strategia di analisi, la sismica ad alta risoluzione (Chirp sonar), che ha permesso di identificare ed esaminare l’architettura geologica riconoscibile nei profili ed approfondire la conoscenza dell’assetto sub-superficiale dei depositi, ampliando le conoscenze di base riguardanti la dinamica dei litorali. L’interpretazione dei dati disponibili è avvenuta seguendo differenti fasi di studio: la prima, più conoscitiva, ha previsto l’identificazione delle evidenze di erosione nelle aree in esame mediante l’analisi della variazione delle linee di riva, l’osservazione delle opere poste a difesa del litorale e lo studio dell’evoluzione delle principali foci. Nella fase successiva le facies identificate nei profili sismici sono state interpretate in base alle loro caratteristiche geometriche ed acustiche, identificando le principali strutture presenti e interpretando, sulla base delle informazioni storiche apprese e delle conoscenze geologiche a disposizione, i corpi sedimentari riconosciuti. I nuovi profili Chirp sonar hanno consentito la ricostruzione geologica mediante la correlazione dei dati a mare (database ISMAR-CNR, Bologna, Carta geologica dei mari italiani 1:250.000) con quelli disponibili a terra, quali Carta dell’evoluzione storica dei cordoni costieri (Servizio Geologico e Sismico dei Suoli, Bo) e Carta geologica 1:50.000 (Servizio Geologico d’Italia e Progetto CARG). La conoscenza dei termini naturali e antropici dello stato fisico dei sistemi costieri è il presupposto necessario per l'esecuzione di studi ambientali atti a una corretta gestione integrata della costa. L’analisi approfondita della geologia superficiale fornisce un’opportunità per migliorare il processo decisionale nella gestione dei litorali e nella scelta degli interventi da attuare sulla costa, che devono essere fatti consapevolmente considerando l’assetto geologico e prevedendo una strategia di manutenzione della costa a medio termine. Un singolo intervento di ripascimento produce effetti di breve durata e non sufficienti a sanare il problema e a mitigare il rischio costiero. Nei tratti costieri scarsamente alimentati, soggetti a persistenti fenomeni erosivi, occorre, pertanto, mettere in atto ripetuti interventi di ripascimento accompagnati da un idoneo piano di monitoraggio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi nasce dalla collaborazione tra l’Università di Bologna, Polo Scientifico Didattico di Ravenna, e l’Agenzia Regionale Prevenzione ed Ambiente dell’Emilia Romagna (ARPA EMR), sezione di Ravenna, inserendosi nell’ambito del progetto di Dottorato “Sviluppo di tecniche per la progettazione delle reti di monitoraggio della qualità dell’aria”. Lo scopo principale dello studio è quello di definire una metodologia di tipo Top-Down per disaggregare spazialmente sulla Provincia di Ravenna le emissioni in atmosfera stimate dall’inventario provinciale di ARPA EMR. La metodologia CORINAIR (COordination INformation AIR), sviluppata dalla Agenzia Europea per l’Ambiente, prefigura due possibili procedure di stima delle emissioni in atmosfera: Top-Down (parte dalla scala spaziale più ampia e discende a livelli inferiori) e Bottom-Up (parte invece dall’analisi della realtà produttiva locale per passare a quella relativa a livelli di aggregazione maggiori). La metodologia proposta, di tipo Top-Down, si avvale volutamente di variabili proxy facilmente reperibili a livello comunale, in modo che possa essere applicata anche ad altre realtà locali, meno ricche di dati statistici e ambientali di quanto non lo sia la regione Emilia Romagna in generale e la provincia di Ravenna in particolare. La finalità ultima dello studio è quella di fornire una metodologia per ottenere, attraverso dati resi disponibili da ogni amministrazione comunale, un quadro conoscitivo della situazione emissiva in atmosfera a livello locale a supporto della gestione della qualità dell’aria e dei relativi fattori di pressione. Da un punto di vista operativo, il lavoro di tesi è stato suddiviso in: una fase progettuale, con l’obiettivo di individuare i Macrosettori CORINAIR e gli inquinanti principali da tenere in considerazione nello studio, ed identificare le variabili proxy più opportune per la disaggregazione delle emissioni; una fase di raccolta dei dati ed infine, l’elaborazione dei dati con l’ausilio del software GIS ArcMap 9.3. La metodologia Top-Down è stata applicata in due fasi: con la prima si è effettuata la disaggregazione dal livello provinciale a quello comunale; con la seconda, le emissioni attribuite al comune di Ravenna sono state distribuite spazialmente su una griglia le cui celle hanno dimensione 100m x 100m in modo da ottenere una disaggregazione ad alta risoluzione. I risultati ottenuti dalla disaggregazione effettuata sono stati confrontati, là dove possibile, con dati ottenuti da un approccio Bottom-Up, allo scopo di validare la metodologia proposta. I confronti fra le stime effettuate con l’approccio Top-Down e quelle derivanti dall’approccio Bottom-Up hanno evidenziato risultati diversi per i differenti Macrosettori investigati. Per il macrosettore industriale, si sono evidenziate una serie di limitazioni dimostrando che l’utilizzo della proxy ‘superficie industriale’, così come applicata, non è adeguata né a livello qualitativo né quantitativo. Limitazioni significative, si osservano anche per il macrosettore ‘traffico veicolare’ per il quale è possibile effettuare una stima accurata delle emissioni totali ma poi la disaggregazione spaziale ad alta risoluzione appare insoddisfacente. Ottime risultano invece le performance della metodologia proposta per il macrosettore combustione non industriale, per il quale si osserva un buon accordo sia per i valori emissivi globali, sia per la loro distribuzione spaziale ad alta risoluzione. Relativamente agli altri settori e macrosettori analizzati (‘Altre sorgenti mobili’ e ‘Agricoltura’), non è stato possibile effettuare confronti con dati provenienti dall’approccio Bottom- Up. Nonostante ciò, dopo un’attenta ricerca bibliografica, si può affermare, che le proxy utilizzate sono fra quelle più impiegate in letteratura, ed il loro impiego ha permesso l’ottenimento di una distribuzione spaziale verosimile ed in linea con l’inventario provinciale ARPA EMR. In ultimo, le mappe di pressione ottenute con l’ausilio di ArcMap sono state analizzate qualitativamente per identificare, nel territorio del Comune di Ravenna, le zone dove insiste una maggiore pressione emissiva sul comparto atmosferico. E’ possibile concludere che il livello di dettaglio ottenuto appare sufficiente a rappresentare le zone più critiche del territorio anche se un ulteriore lavoro dovrà essere previsto per sviluppare meglio i macrosettori che hanno mostrato le maggiori criticità. Inoltre, si è riusciti a tracciare una metodologia sufficientemente flessibile per poterla applicare anche ad altre realtà locali, tenendo comunque sempre presente che, la scelta delle proxy, deve essere effettuata in funzione delle caratteristiche intrinseche del territorio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggi, grazie al continuo progredire della tecnologia, in tutti i sistemi di produzione industriali si trova almeno un macchinario che permette di automatizzare determinate operazioni. Alcuni di questi macchinari hanno un sistema di visione industriale (machine vision), che permette loro di osservare ed analizzare ciò che li circonda, dotato di algoritmi in grado di operare alcune scelte in maniera automatica. D’altra parte, il continuo progresso tecnologico che caratterizza la realizzazione di sensori di visione, ottiche e, nell’insieme, di telecamere, consente una sempre più precisa e accurata acquisizione della scena inquadrata. Oggi, esigenze di mercato fanno si che sia diventato necessario che macchinari dotati dei moderni sistemi di visione permettano di fare misure morfometriche e dimensionali non a contatto. Ma le difficoltà annesse alla progettazione ed alla realizzazione su larga scala di sistemi di visione industriali che facciano misure dimensioni non a contatto, con sensori 2D, fanno sì che in tutto il mondo il numero di aziende che producono questo tipo di macchinari sia estremamente esiguo. A fronte di capacità di calcolo avanzate, questi macchinari necessitano dell’intervento di un operatore per selezionare quali parti dell’immagine acquisita siano d’interesse e, spesso, anche di indicare cosa misurare in esse. Questa tesi è stata sviluppata in sinergia con una di queste aziende, che produce alcuni macchinari per le misure automatiche di pezzi meccanici. Attualmente, nell’immagine del pezzo meccanico vengono manualmente indicate le forme su cui effettuare misure. Lo scopo di questo lavoro è quello di studiare e prototipare un algoritmo che fosse in grado di rilevare e interpretare forme geometriche note, analizzando l’immagine acquisita dalla scansione di un pezzo meccanico. Le difficoltà affrontate sono tipiche dei problemi del “mondo reale” e riguardano tutti i passaggi tipici dell’elaborazione di immagini, dalla “pulitura” dell’immagine acquisita, alla sua binarizzazione fino, ovviamente, alla parte di analisi del contorno ed identificazione di forme caratteristiche. Per raggiungere l’obiettivo, sono state utilizzate tecniche di elaborazione d’immagine che hanno permesso di interpretare nell'immagine scansionata dalla macchina tutte le forme note che ci siamo preposti di interpretare. L’algoritmo si è dimostrato molto robusto nell'interpretazione dei diametri e degli spallamenti trovando, infatti, in tutti i benchmark utilizzati tutte le forme di questo tipo, mentre è meno robusto nella determinazione di lati obliqui e archi di circonferenza a causa del loro campionamento non lineare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con questa tesi si intendono mostrare i risultati delle prove empiriche svolte presso lo stabilimento Saint-Gobain Vetri di Villa Poma (MN) riguardanti l'uso del rottame nella produzione di vetro cavo e la problematica degli infusi. In modo particolare, vengono mostrate le fasi e i parametri produttivi che sono risultati maggiormente correlati con gli infusi. Viene inoltre proposta una serie di analisi circa la qualità del rottame di vetro e si illustra lo svolgimento di un progetto di miglioramento di un fornitore. Si introduce, infine, un innovativo sottoprodotto del riciclo del vetro, in grado di risolvere alcune criticità legate agli infusi: la granella di vetro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'informatica musicale è una disciplina in continua crescita che sta ottenendo risultati davvero interessanti con l'impiego di sistemi artificiali intelligenti, come le reti neuronali, che permettono di emulare capacità umane di ascolto e di esecuzione musicale. Di particolare interesse è l'ambito della codifica di informazioni musicali tramite formati simbolici, come il MIDI, che permette un'analisi di alto livello dei brani musicali e consente la realizzazione di applicazioni sorprendentemente innovative. Una delle più fruttifere applicazioni di questi nuovi strumenti di codifica riguarda la classificazione di file audio musicali. Questo elaborato si propone di esporre i fondamentali aspetti teorici che concernono la classificazione di brani musicali tramite reti neuronali artificiali e descrivere alcuni esperimenti di classificazione di file MIDI. La prima parte fornisce alcune conoscenze di base che permettono di leggere gli esperimenti presenti nella seconda sezione con una consapevolezza teorica più profonda. Il fine principale della prima parte è quello di sviluppare una comparazione da diversi punti di vista disciplinari tra le capacità di classificazione musicale umane e quelle artificiali. Si descrivono le reti neuronali artificiali come sistemi intelligenti ispirati alla struttura delle reti neurali biologiche, soffermandosi in particolare sulla rete Feedforward e sull'algoritmo di Backpropagation. Si esplora il concetto di percezione nell'ambito della psicologia cognitiva con maggiore attenzione alla percezione uditiva. Accennate le basi della psicoacustica, si passa ad una descrizione delle componenti strutturali prima del suono e poi della musica: la frequenza e l'ampiezza delle onde, le note e il timbro, l'armonia, la melodia ed il ritmo. Si parla anche delle illusioni sonore e della rielaborazione delle informazioni audio da parte del cervello umano. Si descrive poi l'ambito che interessa questa tesi da vicino: il MIR (Music Information Retrieval). Si analizzano i campi disciplinari a cui questa ricerca può portare vantaggi, ossia quelli commerciali, in cui i database musicali svolgono ruoli importanti, e quelli più speculativi ed accademici che studiano i comportamenti di sistemi intelligenti artificiali e biologici. Si descrivono i diversi metodi di classificazione musicale catalogabili in base al tipo di formato dei file audio in questione e al tipo di feature che si vogliono estrarre dai file stessi. Conclude la prima sezione di stampo teorico un capitolo dedicato al MIDI che racconta la storia del protocollo e ne descrive le istruzioni fondamentali nonchè la struttura dei midifile. La seconda parte ha come obbiettivo quello di descrivere gli esperimenti svolti che classificano file MIDI tramite reti neuronali mostrando nel dettaglio i risultati ottenuti e le difficoltà incontrate. Si coniuga una presentazione dei programmi utilizzati e degli eseguibili di interfaccia implementati con una descrizione generale della procedura degli esperimenti. L'obbiettivo comune di tutte le prove è l'addestramento di una rete neurale in modo che raggiunga il più alto livello possibile di apprendimento circa il riconoscimento di uno dei due compositori dei brani che le sono stati forniti come esempi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si basa su una serie di lavori precedenti, volti ad analizzare la correlazione tra i modelli AUML e le reti di Petri, per riuscire a fornire una metodologia di traduzione dai primi alle seconde. Questa traduzione permetterà di applicare tecniche di model checking alle reti così create, al fine di stabilire le proprietà necessarie al sistema per poter essere realizzato effettivamente. Verrà poi discussa un'implementazione di tale algoritmo sviluppata in tuProlog ed un primo approccio al model checking utilizzando il programma Maude. Con piccole modifiche all'algoritmo utilizzato per la conversione dei diagrammi AUML in reti di Petri, è stato possibile, inoltre, realizzare un sistema di implementazione automatica dei protocolli precedentemente analizzati, verso due piattaforme per la realizzazione di sistemi multiagente: Jason e TuCSoN. Verranno quindi presentate tre implementazioni diverse: la prima per la piattaforma Jason, che utilizza degli agenti BDI per realizzare il protocollo di interazione; la seconda per la piattaforma TuCSoN, che utilizza il modello A&A per rendersi compatibile ad un ambiente distribuito, ma che ricalca la struttura dell'implementazione precedente; la terza ancora per TuCSoN, che sfrutta gli strumenti forniti dalle reazioni ReSpecT per generare degli artefatti in grado di fornire una infrastruttura in grado di garantire la realizzazione del protocollo di interazione agli agenti partecipanti. Infine, verranno discusse le caratteristiche di queste tre differenti implementazioni su un caso di studio reale, analizzandone i punti chiave.