897 resultados para contactless sistema di misura ottico elettrofilatura triangolazione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto prevede l’applicazione dell’analisi del ciclo di vita al sistema integrato di raccolta, riciclaggio e smaltimento dei rifiuti urbani e assimilati. La struttura di una LCA (Life Cycle Assessment) è determinata dalla serie di norme UNI EN ISO 14040 e si può considerare come “un procedimento oggettivo di valutazione dei carichi energetici e ambientali relativi a un processo o un’attività, effettuato attraverso l’identificazione dell’energia e dei materiali usati e dei rifiuti rilasciati nell’ambiente. La valutazione include l’intero ciclo di vita del processo o attività, comprendendo l’estrazione e il trattamento delle materie prime, la fabbricazione, il trasporto, la distribuzione, l’uso, il riuso, il riciclo e lo smaltimento finale”. Questa definizione si riassume nella frase “ from cradle to grave” (dalla culla alla tomba). Lo scopo dello studio è l’applicazione di una LCA alla gestione complessiva dei rifiuti valutata in tre territori diversi individuati presso tre gestori italiani. Due di questi si contraddistinguono per modelli di raccolta con elevati livelli di raccolta differenziata e con preminenza del sistema di raccolta domiciliarizzato, mentre sul territorio del terzo gestore prevale il sistema di raccolta con contenitori stradali e con livelli di raccolta differenziata buoni, ma significativamente inferiori rispetto ai Gestori prima descritti. Nella fase iniziale sono stati individuati sul territorio dei tre Gestori uno o più Comuni con caratteristiche abbastanza simili come urbanizzazione, contesto sociale, numero di utenze domestiche e non domestiche. Nella scelta dei Comuni sono state privilegiate le realtà che hanno maturato il passaggio dal modello di raccolta a contenitori stradali a quello a raccolta porta a porta. Attuata l’identificazione delle aree da sottoporre a studio, è stato realizzato, per ognuna di queste aree, uno studio LCA dell’intero sistema di gestione dei rifiuti, dalla raccolta allo smaltimento e riciclaggio dei rifiuti urbani e assimilati. Lo studio ha posto anche minuziosa attenzione al passaggio dal sistema di raccolta a contenitori al sistema di raccolta porta a porta, evidenziando il confronto fra le due realtà, nelle fasi pre e post passaggio, in particolare sono stati realizzati tre LCA di confronto attraverso i quali è stato possibile individuare il sistema di gestione con minori impatti ambientali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo elaborato si pone l'obiettivo di analizzare e valutare la sostenibilità dell'intera filiera dell'olio di palma, che viene importato da paesi del Sud Est asiatico per essere utilizzato in Europa per scopi sia energetici che alimentari. Nell'introduzione è inquadrata la problematica dei biocombustibili e degli strumenti volontari che possono essere utilizzati per garantire ed incentivare la sostenibilità in generale e dei biocombustibili; è presente inoltre un approfondimento sull'olio di palma, sulle sue caratteristiche e sulla crescita che ha subito negli ultimi anni in termini di produzione e compra/vendita. Per questa valutazione sono stati impiegati tre importanti strumenti di analisi e certificazione della sostenibilità, che sono stati applicati ad uno specifico caso di studio: l'azienda Unigrà SpA. La certificazione RSPO (Roundtable on Sustainable Palm Oil) è uno strumento volontario per la garanzia della sostenibilità della filiera dell'olio di palma in termini economici (vitalità nel mercato), ambientali (risparmio delle emissioni di gas ad effetto serra o GHG, conservazione delle risorse naturali e della biodiversità) e sociali (preservazione delle comunità locali e miglioramento nella gestione delle aree di interesse). La Global Reporting Initiative è un'organizzazione che prevede la redazione volontaria di un documento chiamato bilancio di sostenibilità secondo delle linee guida standardizzate che permettono alle organizzazioni di misurare e confrontare le loro performance economiche, sociali e ambientali nel tempo. La Direttiva Comunitaria 2009/28/CE (Renewable Energy Directive o RED) è invece uno strumento cogente nel caso in cui le organizzazioni intendano utilizzare risorse rinnovabili per ottenere incentivi finanziari. A seguito di un calcolo delle emissioni di GHG, le organizzazioni devono dimostrare determinate prestazioni ambientali attraverso il confronto con delle soglie presenti nel testo della Direttiva. Parallelamente alla valutazione delle emissioni è richiesto che le organizzazioni aderiscano a dei criteri obbligatori di sostenibilità economica, ambientale e sociale, verificabili grazie a degli schemi di certificazione che rientrano all'interno di politiche di sostenibilità globale. Questi strumenti sono stati applicati ad Unigrà, un'azienda che opera nel settore della trasformazione e della vendita di oli e grassi alimentari, margarine e semilavorati destinati alla produzione alimentare e che ha recentemente costruito una centrale da 58 MWe per la produzione di energia elettrica, alimentata in parte da olio di palma proveniente dal sud-est asiatico ed in parte dallo scarto della lavorazione nello stabilimento. L'adesione alla RSPO garantisce all'azienda la conformità alle richieste dell'organizzazione per la commercializzazione e la vendita di materie prime certificate RSPO, migliorando l'immagine di Unigrà all'interno del suo mercato di riferimento. Questo tipo di certificazione risulta importante per le organizzazioni perché può essere considerato un mezzo per ridurre l'impatto negativo nei confronti dell'ambiente, limitando deforestazione e cambiamenti di uso del suolo, oltre che consentire una valutazione globale, anche in termini di sostenibilità sociale. Unigrà ha visto nella redazione del bilancio di sostenibilità uno strumento fondamentale per la valutazione della sostenibilità a tutto tondo della propria organizzazione, perché viene data uguale rilevanza alle tre sfere della sostenibilità; la validazione esterna di questo documento ha solo lo scopo di controllare che le informazioni inserite siano veritiere e corrette secondo le linee guida del GRI, tuttavia non da giudizi sulle prestazioni assolute di una organizzazione. Il giudizio che viene dato sulle prestazioni delle organizzazioni e di tipo qualitativo ma non quantitativo. Ogni organizzazione può decidere di inserire o meno parte degli indicatori per una descrizione più accurata e puntuale. Unigrà acquisterà olio di palma certificato sostenibile secondo i principi previsti dalla Direttiva RED per l'alimentazione della centrale energetica, inoltre il 10 gennaio 2012 ha ottenuto la certificazione della sostenibilità della filiera secondo lo schema Bureau Veritas approvato dalla Comunità Europea. Il calcolo delle emissioni di tutte le fasi della filiera dell'olio di palma specifico per Unigrà è stato svolto tramite Biograce, uno strumento di calcolo finanziato dalla Comunità Europea che permette alle organizzazioni di misurare le emissioni della propria filiera in maniera semplificata ed adattabile alle specifiche situazioni. Dei fattori critici possono però influenzare il calcolo delle emissioni della filiera dell'olio di palma, tra questi i più rilevanti sono: cambiamento di uso del suolo diretto ed indiretto, perché possono provocare perdita di biodiversità, aumento delle emissioni di gas serra derivanti dai cambiamenti di riserve di carbonio nel suolo e nella biomassa vegetale, combustione delle foreste, malattie respiratorie, cambiamenti nelle caratteristiche dei terreni e conflitti sociali; presenza di un sistema di cattura di metano all'oleificio, perché gli effluenti della lavorazione non trattati potrebbero provocare problemi ambientali; cambiamento del rendimento del terreno, che può influenzare negativamente la resa delle piantagioni di palma da olio; sicurezza del cibo ed aspetti socio-economici, perché, sebbene non inseriti nel calcolo delle emissioni, potrebbero provocare conseguenze indesiderate per le popolazioni locali. Per una valutazione complessiva della filiera presa in esame, è necessario ottenere delle informazioni puntuali provenienti da paesi terzi dove però non sono di sempre facile reperibilità. Alla fine della valutazione delle emissioni, quello che emerge dal foglio di Biograce e un numero che, sebbene possa essere confrontato con delle soglie specifiche che descrivono dei criteri obbligatori di sostenibilità, non fornisce informazioni aggiuntive sulle caratteristiche della filiera considerata. È per questo motivo che accanto a valutazioni di questo tipo è necessario aderire a specifici criteri di sostenibilità aggiuntivi. Il calcolo delle emissioni dell'azienda Unigrà risulta vantaggioso in quasi tutti i casi, anche considerando i fattori critici; la certificazione della sostenibilità della filiera garantisce l'elevato livello di performance anche nei casi provvisti di maggiore incertezza. L'analisi del caso Unigrà ha reso evidente come l'azienda abbia intrapreso la strada della sostenibilità globale, che si traduce in azioni concrete. Gli strumenti di certificazione risultano quindi dei mezzi che consentono di garantire la sostenibilità della filiera dell'olio di palma e diventano parte integrante di programmi per la strategia europea di promozione della sostenibilità globale. L'utilizzo e l'implementazione di sistemi di certificazione della sostenibilità risulta per questo da favorire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente ricerca si inquadra nell’ambito della risoluzione dei problemi legati alla chirurgia ossea, per la cura e la sostituzione di parti di osso in seguito a fratture, lesioni gravi, malformazioni e patologie quali osteoporosi, tumori, etc… Attualmente la progettazione di impianti per le sostituzioni/rigenerazioni ossee richiede che i materiali sviluppati siano in grado di “mimare” la composizione e la morfologia dei tessuti naturali, in modo da generare le specifiche interazioni chimiche esistenti nei tessuti dell’organismo con cui vengono a contatto e quindi di biointegrarsi e/o rigenerare l’osso mancante nel miglior modo possibile, in termini qualitativi e quantitativi. Per lo sviluppo di sostituti ossei porosi sono state sperimentate 2 tecnologie innovative: il freeze-casting ed il foaming. Gli impianti ceramici realizzati hanno presentano una dimensione dei pori ed un’interconnessione adeguata sia per l’abitazione cellulare che per la penetrazione dei fluidi fisiologici e la vascolarizzazione. In particolare l’elevata unidirezionalità nei campioni ottenuti mediante freeze-casting si presenta molto promettente poiché fornisce cammini guida che migliorano la vascolarizzazione dell’impianto e l’abitazione cellulare in tempi rapidi e nella parte più interna dello scaffold. D’altra parte, la tecnologia del foaming ha permesso l’ottenimento di materiali apatitici ad alta porosità multidimensionale ed interconnessa con proprietà meccaniche implementate rispetto a tipologie precedenti e, lavorabili dopo sinterizzazione mediante prototipazione rapida. Per questo motivo, questi materiali sono attualmente in corso di sperimentazione, con risultati preliminari adeguati promettenti per un’applicazione clinica, come sostituti ossei di condilo mandibolare, sito estremamente critico per gli sforzi meccanici presenti. È stata dimostrata la possibilità di utilizzare lo scaffold ceramico biomimetico con la duplice funzione di sostituto osseo bioattivo e sistema di rilascio in situ di ioni specifici e di antibiotico, in cui la cinetica di rilascio risulta fortemente dipendente dalle caratteristiche chimico-fisico morfologiche del dispositivo (solubilità, area di superficie specifica,…). Per simulare sempre di più la composizione del tessuto osseo e per indurre specifiche proprietà funzionali, è stata utilizzata la gelatina come fase proteica con cui rivestire/impregnare dispositivi porosi 3D a base di apatite, con cui miscelare direttamente la fase inorganica calcio-fosfatica e quindi realizzare materiali bio-ibridi in cui le due fasi contenenti siano intimamente interagenti. Inoltre al fine di ridurre gli innumerevoli problemi legati alle infezioni ossee alcuni dei materiali sviluppati sono stati quindi caricati con antibiotico e sono state valutate le cinetiche di rilascio. In questa maniera, nel sito dell’impianto sono state associate le funzioni di trasporto e di rilascio di farmaco, alla funzione di sostituzione/rigenerazione ossee. La sperimentazione con la gelatina ha messo in luce proprietà posatamente sfruttabili della stessa. Oltre a conferire allo scaffold un implementata mimesi composizionale del tessuto osseo, ha infatti consentito di aumentare le proprietà meccaniche, sia come resistenza a compressione che deformazione. Unitamente a quanto sopra, la gelatina ha consentito di modulare la funzionalità di dispensatore di farmaco; mediante controllo della cinetica di rilascio, tramite processi di reticolazione più o meno spinti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggi, grazie al continuo progredire della tecnologia, in tutti i sistemi di produzione industriali si trova almeno un macchinario che permette di automatizzare determinate operazioni. Alcuni di questi macchinari hanno un sistema di visione industriale (machine vision), che permette loro di osservare ed analizzare ciò che li circonda, dotato di algoritmi in grado di operare alcune scelte in maniera automatica. D’altra parte, il continuo progresso tecnologico che caratterizza la realizzazione di sensori di visione, ottiche e, nell’insieme, di telecamere, consente una sempre più precisa e accurata acquisizione della scena inquadrata. Oggi, esigenze di mercato fanno si che sia diventato necessario che macchinari dotati dei moderni sistemi di visione permettano di fare misure morfometriche e dimensionali non a contatto. Ma le difficoltà annesse alla progettazione ed alla realizzazione su larga scala di sistemi di visione industriali che facciano misure dimensioni non a contatto, con sensori 2D, fanno sì che in tutto il mondo il numero di aziende che producono questo tipo di macchinari sia estremamente esiguo. A fronte di capacità di calcolo avanzate, questi macchinari necessitano dell’intervento di un operatore per selezionare quali parti dell’immagine acquisita siano d’interesse e, spesso, anche di indicare cosa misurare in esse. Questa tesi è stata sviluppata in sinergia con una di queste aziende, che produce alcuni macchinari per le misure automatiche di pezzi meccanici. Attualmente, nell’immagine del pezzo meccanico vengono manualmente indicate le forme su cui effettuare misure. Lo scopo di questo lavoro è quello di studiare e prototipare un algoritmo che fosse in grado di rilevare e interpretare forme geometriche note, analizzando l’immagine acquisita dalla scansione di un pezzo meccanico. Le difficoltà affrontate sono tipiche dei problemi del “mondo reale” e riguardano tutti i passaggi tipici dell’elaborazione di immagini, dalla “pulitura” dell’immagine acquisita, alla sua binarizzazione fino, ovviamente, alla parte di analisi del contorno ed identificazione di forme caratteristiche. Per raggiungere l’obiettivo, sono state utilizzate tecniche di elaborazione d’immagine che hanno permesso di interpretare nell'immagine scansionata dalla macchina tutte le forme note che ci siamo preposti di interpretare. L’algoritmo si è dimostrato molto robusto nell'interpretazione dei diametri e degli spallamenti trovando, infatti, in tutti i benchmark utilizzati tutte le forme di questo tipo, mentre è meno robusto nella determinazione di lati obliqui e archi di circonferenza a causa del loro campionamento non lineare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si basa su una serie di lavori precedenti, volti ad analizzare la correlazione tra i modelli AUML e le reti di Petri, per riuscire a fornire una metodologia di traduzione dai primi alle seconde. Questa traduzione permetterà di applicare tecniche di model checking alle reti così create, al fine di stabilire le proprietà necessarie al sistema per poter essere realizzato effettivamente. Verrà poi discussa un'implementazione di tale algoritmo sviluppata in tuProlog ed un primo approccio al model checking utilizzando il programma Maude. Con piccole modifiche all'algoritmo utilizzato per la conversione dei diagrammi AUML in reti di Petri, è stato possibile, inoltre, realizzare un sistema di implementazione automatica dei protocolli precedentemente analizzati, verso due piattaforme per la realizzazione di sistemi multiagente: Jason e TuCSoN. Verranno quindi presentate tre implementazioni diverse: la prima per la piattaforma Jason, che utilizza degli agenti BDI per realizzare il protocollo di interazione; la seconda per la piattaforma TuCSoN, che utilizza il modello A&A per rendersi compatibile ad un ambiente distribuito, ma che ricalca la struttura dell'implementazione precedente; la terza ancora per TuCSoN, che sfrutta gli strumenti forniti dalle reazioni ReSpecT per generare degli artefatti in grado di fornire una infrastruttura in grado di garantire la realizzazione del protocollo di interazione agli agenti partecipanti. Infine, verranno discusse le caratteristiche di queste tre differenti implementazioni su un caso di studio reale, analizzandone i punti chiave.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto di tesi dottorale qui presentato intende proporsi come il proseguimento e l’approfondimento del progetto di ricerca - svoltosi tra il e il 2006 e il 2008 grazie alla collaborazione tra l’Università di Bologna, la Cineteca del Comune e dalla Fondazione Istituto Gramsci Emilia-Romagna - dal titolo Analisi e catalogazione dell’Archivio audiovisivo del PCI dell’Emilia-Romagna di proprietà dell’Istituto Gramsci. La ricerca ha indagato la menzionata collezione che costituiva, in un arco temporale che va dagli anni Cinquanta agli anni Ottanta, una sorta di cineteca interna alla Federazione del Partito Comunista Italiano di Bologna, gestita da un gruppo di volontari denominato “Gruppo Audiovisivi della Federazione del PCI”. Il fondo, entrato in possesso dell’Istituto Gramsci nel 1993, è composto, oltre che da documenti cartacei, anche e sopratutto da un nutrito numero di film e documentari in grado di raccontare sia la storia dell’associazione (in particolare, delle sue relazioni con le sezioni e i circoli della regione) sia, in una prospettiva più ampia, di ricostruire il particolare rapporto che la sede centrale del partito intratteneva con una delle sue cellule regionali più importanti e rappresentative. Il lavoro svolto sul fondo Gramsci ha suscitato una serie di riflessioni che hanno costituito la base per il progetto della ricerca presentata in queste pagine: prima fra tutte, l’idea di realizzare un censimento, da effettuarsi su base regionale, per verificare quali e quanti audiovisivi di propaganda comunista fossero ancora conservati sul territorio. La ricerca, i cui esiti sono consultabili nell’appendice di questo scritto, si è concentrata prevalentemente sugli archivi e sui principali istituti di ricerca dell’Emilia-Romagna: sono questi i luoghi in cui, di fatto, le federazioni e le sezioni del PCI depositarono (o alle quali donarono) le proprie realizzazioni o le proprie collezioni audiovisive al momento della loro chiusura. Il risultato dell’indagine è un nutrito gruppo di film e documentari, registrati sui supporti più diversi e dalle provenienze più disparate: produzioni locali, regionali, nazionali (inviati dalla sede centrale del partito e dalle istituzioni addette alla propaganda), si mescolano a pellicole provenienti dall’estero - testimoni della rete di contatti, in particolare con i paesi comunisti, che il PCI aveva intessuto nel tempo - e a documenti realizzati all’interno dell’articolato contesto associazionistico italiano, composto sia da organizzazioni nazionali ben strutturate sul territorio 8 sia da entità più sporadiche, nate sull’onda di particolari avvenimenti di natura politica e sociale (per esempio i movimenti giovanili e studenteschi sorti durante il ’68). L’incontro con questa tipologia di documenti - così ricchi di informazioni differenti e capaci, per loro stessa natura, di offrire stimoli e spunti di ricerca assolutamente variegati - ha fatto sorgere una serie di domande di diversa natura, che fanno riferimento non solo all’audiovisivo in quanto tale (inteso in termini di contenuti, modalità espressive e narrative, contesto di produzione) ma anche e soprattutto alla natura e alle potenzialità dell’oggetto indagato, concepito in questo caso come una fonte. In altri termini, la raccolta e la catalogazione del materiale, insieme alle ricerche volte a ricostruirne le modalità produttive, gli argomenti, i tratti ricorrenti nell’ambito della comunicazione propagandistica, ha dato adito a una riflessione di carattere più generale, che guarda al rapporto tra mezzo cinematografico e storiografia e, più in dettaglio, all’utilizzo dell’immagine filmica come fonte per la ricerca. Il tutto inserito nel contesto della nostra epoca e, più in particolare, delle possibilità offerte dai mezzi di comunicazione contemporanei. Di fatti, il percorso di riflessione compiuto in queste pagine intende concludersi con una disamina del rapporto tra cinema e storia alla luce delle novità introdotte dalla tecnologia moderna, basata sui concetti chiave di riuso e di intermedialità. Processi di integrazione e rielaborazione mediale capaci di fornire nuove potenzialità anche ai documenti audiovisivi oggetto dei questa analisi: sia per ciò che riguarda il loro utilizzo come fonte storica, sia per quanto concerne un loro impiego nella didattica e nell’insegnamento - nel rispetto della necessaria interdisciplinarietà richiesta nell’utilizzo di questi documenti - all’interno di una più generale rivoluzione mediale che mette in discussione anche il classico concetto di “archivio”, di “fonte” e di “documento”. Nel tentativo di bilanciare i differenti aspetti che questa ricerca intende prendere in esame, la struttura del volume è stata pensata, in termini generali, come ad un percorso suddiviso in tre tappe: la prima, che guarda al passato, quando gli audiovisivi oggetto della ricerca vennero prodotti e distribuiti; una seconda sezione, che fa riferimento all’oggi, momento della riflessione e dell’analisi; per concludere in una terza area, dedicata alla disamina delle potenzialità di questi documenti alla luce delle nuove tecnologie multimediali. Un viaggio che è anche il percorso “ideale” condotto dal ricercatore: dalla scoperta all’analisi, fino alla rimessa in circolo (anche sotto un’altra forma) degli oggetti indagati, all’interno di un altrettanto ideale universo culturale capace di valorizzare qualsiasi tipo di fonte e documento. All’interno di questa struttura generale, la ricerca è stata compiuta cercando di conciliare diversi piani d’analisi, necessari per un adeguato studio dei documenti rintracciati i quali, come si è detto, si presentano estremamente articolati e sfaccettati. 9 Dal punto di vista dei contenuti, infatti, il corpus documentale presenta praticamente tutta la storia italiana del tentennio considerato: non solo storia del Partito Comunista e delle sue campagne di propaganda, ma anche storia sociale, culturale ed economica, in un percorso di crescita e di evoluzione che, dagli anni Cinquanta, portò la nazione ad assumere lo status di paese moderno. In secondo luogo, questi documenti audiovisivi sono prodotti di propaganda realizzati da un partito politico con il preciso scopo di convincere e coinvolgere le masse (degli iscritti e non). Osservarne le modalità produttive, il contesto di realizzazione e le dinamiche culturali interne alla compagine oggetto della ricerca assume un valore centrale per comprendere al meglio la natura dei documenti stessi. I quali, in ultima istanza, sono anche e soprattutto dei film, realizzati in un preciso contesto storico, che è anche storia della settima arte: più in particolare, di quella cinematografia che si propone come “alternativa” al circuito commerciale, strettamente collegata a quella “cultura di sinistra” sulla quale il PCI (almeno fino alla fine degli anni Sessanta) poté godere di un dominio incontrastato. Nel tentativo di condurre una ricerca che tenesse conto di questi differenti aspetti, il lavoro è stato suddiviso in tre sezioni distinte. La prima (che comprende i capitoli 1 e 2) sarà interamente dedicata alla ricostruzione del panorama storico all’interno del quale questi audiovisivi nacquero e vennero distribuiti. Una ricostruzione che intende osservare, in parallelo, i principali eventi della storia nazionale (siano essi di natura politica, sociale ed economica), la storia interna del Partito Comunista e, non da ultimo, la storia della cinematografia nazionale (interna ed esterna al partito). Questo non solo per fornire il contesto adeguato all’interno del quale inserire i documenti osservati, ma anche per spiegarne i contenuti: questi audiovisivi, infatti, non solo sono testimoni degli eventi salienti della storia politica nazionale, ma raccontano anche delle crisi e dei “boom” economici; della vita quotidiana della popolazione e dei suoi problemi, dell’emigrazione, della sanità e della speculazione edilizia; delle rivendicazioni sociali, del movimento delle donne, delle lotte dei giovani sessantottini. C’è, all’interno di questi materiali, tutta la storia del paese, che è contesto di produzione ma anche soggetto del racconto. Un racconto che, una volta spiegato nei contenuti, va indagato nella forma. In questo senso, il terzo capitolo di questo scritto si concentrerà sul concetto di “propaganda” e nella sua verifica pratica attraverso l’analisi dei documenti reperiti. Si cercherà quindi di realizzare una mappatura dei temi portanti della comunicazione politica comunista osservata nel suo evolversi e, in secondo luogo, di analizzare come questi stessi temi-chiave vengano di volta in volta declinati e 10 rappresentati tramite le immagini in movimento. L’alterità positiva del partito - concetto cardine che rappresenta il nucleo ideologico fondante la struttura stessa del Partito Comunista Italiano - verrà quindi osservato nelle sue variegate forme di rappresentazione, nel suo incarnare, di volta in volta, a seconda dei temi e degli argomenti rilevanti, la possibilità della pace; il buongoverno; la verità (contro la menzogna democristiana); la libertà (contro il bigottismo cattolico); la possibilità di un generale cambiamento. La realizzazione di alcuni percorsi d’analisi tra le pellicole reperite presso gli archivi della regione viene proposto, in questa sede, come l’ideale conclusione di un excursus storico che, all’interno dei capitoli precedenti, ha preso in considerazione la storia della cinematografia nazionale (in particolare del contesto produttivo alternativo a quello commerciale) e, in parallelo, l’analisi della produzione audiovisiva interna al PCI, dove si sono voluti osservare non solo gli enti e le istituzioni che internamente al partito si occupavano della cultura e della propaganda - in una distinzione terminologica non solo formale - ma anche le reti di relazioni e i contatti con il contesto cinematografico di cui si è detto. L’intenzione è duplice: da un lato, per inserire la storia del PCI e dei suoi prodotti di propaganda in un contesto socio-culturale reale, senza considerare queste produzioni - così come la vita stessa del partito - come avulsa da una realtà con la quale necessariamente entrava in contatto; in secondo luogo, per portare avanti un altro tipo di discorso, di carattere più speculativo, esplicitato all’interno del quarto capitolo. Ciò che si è voluto indagare, di fatto, non è solo la natura e i contenti di questi documenti audiovisivi, ma anche il loro ruolo nel sistema di comunicazione e di propaganda di partito, dove quest’ultima è identificata come il punto di contatto tra l’intellighenzia comunista (la cultura alta, legittima) e la cultura popolare (in termini gramsciani, subalterna). Il PCI, in questi termini, viene osservato come un microcosmo in grado di ripropone su scala ridotta le dinamiche e le problematiche tipiche della società moderna. L’analisi della storia della sua relazione con la società (cfr. capitolo 2) viene qui letta alla luce di alcune delle principali teorie della storia del consumi e delle interpretazioni circa l’avvento della società di massa. Lo scopo ultimo è quello di verificare se, con l’affermazione dell’industria culturale moderna si sia effettivamente verificata la rottura delle tradizionali divisioni di classe, della classica distinzione tra cultura alta e bassa, se esiste realmente una zona intermedia - nel caso del partito, identificata nella propaganda - in cui si attui concretamente questo rimescolamento, in cui si realizzi realmente la nascita di una “terza cultura” effettivamente nuova e dal carattere comunitario. Il quinto e ultimo capitolo di questo scritto fa invece riferimento a un altro ordine di problemi e argomenti, di cui in parte si è già detto. La ricerca, in questo caso, si è indirizzata verso una 11 riflessione circa l’oggetto stesso dello studio: l’audiovisivo come fonte. La rassegna delle diverse problematiche scaturite dal rapporto tra cinema e storia è corredata dall’analisi delle principali teorie che hanno permesso l’evoluzione di questa relazione, evidenziando di volta in volta le diverse potenzialità che essa può esprimere le sue possibilità d’impiego all’interno di ambiti di ricerca differenti. Il capitolo si completa con una panoramica circa le attuali possibilità di impiego e di riuso di queste fonti: la rassegna e l’analisi dei portali on-line aperti dai principali archivi storici nazionali (e la relativa messa a disposizione dei documenti); il progetto per la creazione di un “museo multimediale del lavoro” e, a seguire, il progetto didattico dei Learning Objects intendono fornire degli spunti per un futuro, possibile utilizzo di questi documenti audiovisivi, di cui questo scritto ha voluto porre in rilievo il valore e le numerose potenzialità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni si è sviluppata una forte sensibilità nei confronti del rischio che il dissesto idrogeologico comporta per il territorio, soprattutto in un paese come il nostro, densamente abitato e geologicamente fragile. Il rischio idrogeologico In Italia infatti è diffuso in modo capillare e si presenta in modo differente a seconda dell’assetto geomorfologico del territorio. Tra i fattori naturali che predispongono il nostro territorio a frane ed alluvioni, rientra la conformazione geologica e geomorfologica, caratterizzata da un’orografia giovane e da rilievi in via di sollevamento. A seguito del verificarsi di una serie di eventi calamitosi (Piemonte 1994, Campania 1998 e 1999, Sovereto 2000, Alpi centrali 2000 e 2002) sono state emanate leggi specifiche finalizzate all’individuazione e all’applicazione di norme, volte a prevenire e contenere i gravi effetti derivanti dai fenomeni di dissesto. Si fa riferimento in particolare, alle leggi n°267 del 3/08/1998 e 365/2000 che hanno integrato la legge 183/1989. In questo modo gli enti territoriali (Regioni, Autorità di bacino) sono stati obbligati a predisporre una adeguata cartografia con perimetrazione delle aree a differente pericolosità e rischio. Parallelamente continuano ad essere intrapresi, promossi e finanziati numerosi studi scientifici volti allo studio dei fenomeni ed alla definizione più puntuale delle condizioni di rischio, oltre alle iniziative volte alla creazione di un efficace sistema di allertamento e di sorveglianza dei fenomeni e alla messa a punto di una pianificazione di emergenza volta a coordinare in modo efficace la risposta delle istituzioni agli eventi. In questo contesto gli studi su validi approcci metodologici per l’analisi e la valutazione del rischio possono fornire un supporto al processo decisionale delle autorità preposte alla gestione del territorio, identificando gli scenari di rischio e le possibili strategie di mitigazione, e individuando la soluzione migliore in termini di accettabilità sociale e convenienza economica. Nel presente elaborato si vuole descrivere i temi relativi alla valutazione della pericolosità, del rischio e della sua gestione, con particolare attenzione ai fenomeni di instabilità dei versanti e nello specifico ai fenomeni di crollo da pareti rocciose che interessano il territorio della Provincia Autonoma di Bolzano. Il fenomeno della caduta massi infatti è comunemente diffuso in tutte le regioni di montagna e lungo le falesie costiere, ed in funzione dell’elevata velocità con cui si manifesta può costituire una costante fonte di pericolo per le vite, i beni e le attività umane in zone generalmente molto attive dal punto di vista del turismo e delle grandi vie di comunicazione. Il territorio della Provincia Autonoma di Bolzano è fortemente interessato da questo problema, sia per la morfologia montuosa della provincia che per le infrastrutture che sempre più occupano zone di territorio un tempo poco urbanizzate. Al fine di pervenire ad una legittima programmazione delle attività di previsione e prevenzione, il Dipartimento dei Lavori Pubblici della Provincia, ha scelto di utilizzare una strategia che prevedesse un insieme di attività dirette allo studio ed alla determinazione delle cause dei fenomeni calamitosi, alla identificazione dei rischi, ed alla determinazione delle zone del territorio soggette ai rischi stessi. E’ nato così, con l’operatività dell’Ufficio Geologia e Prove Materiali, il supporto del Dipartimento Opere Pubbliche e della Ripartizione Protezione Civile e la collaborazione scientifica del DISTART – Università degli Studi di Bologna, Alma Mater Studiorum, il progetto VISO che riguarda i pericoli generati da frane di crollo, ribaltamento, scivolamento di porzioni di pareti rocciose e caduta massi. Il progetto ha come scopo la valutazione del pericolo, della vulnerabilità e del rischio e dell’effettiva funzionalità delle opere di protezione contro la caduta massi lungo la strada statale del Brennero. Il presente elaborato mostra l’iter per l’individuazione del rischio specifico che caratterizza un particolare tratto stradale, così come è stato pensato dalla Provincia Autonoma di Bolzano all’interno di una strategia di previsione e prevenzione, basata su metodi il più possibile oggettivi, ed estesa all’intera rete stradale di competenza provinciale. Si esamina l’uso di metodologie diverse per calcolare l’intensità di un fenomeno franoso che potrebbe potenzialmente svilupparsi su un versante e si osserva in che modo la presenza di opere di protezione passiva influisce sull’analisi di pericolosità. Nel primo capitolo viene presentata una panoramica sui fenomeni di crollo descrivendo i fattori principali che li originano e gli interventi di protezione posti a difesa del versante. Si esaminano brevemente le tipologie di intervento, classificate in opere attive e passive, con particolare attenzione alle barriere paramassi., che si collocano tra gli interventi di difesa passivi e che stanno diventando il tipo di intervento più frequentemente utilizzato. Nel capitolo vengono descritte dal punto di vista progettuale, prendendo in esame anche la normativa di riferimento nonché le nuove linee guida per la certificazione CE delle barriere, nate negli ultimi anni per portare ad una facile comparabilità dei vari prodotti sottoposti ad impatti normalizzati, definendo con chiarezza i livelli energetici ai quali possono essere utilizzati i vari prodotti e, nel contempo, fornendo informazioni assolutamente indispensabili per la buona progettazione degli stessi. Nel capitolo successivo si prendono in esame i temi relativi alla valutazione della pericolosità e del rischio, l’iter procedurale di analisi del rischio adottato dalla Provincia Autonoma di Bolzano in relazione alle frane da crollo che investono le strade della rete provinciale ed in particolare viene descritto il progetto VISO (Viability Information Operating System), nato allo scopo di implementare un catasto informatizzato che raccolga indicazioni sul patrimonio delle opere di protezione contro la caduta massi e di rilevare e valutare il pericolo, la vulnerabilità, il rischio e l’effettiva funzionalità delle opere di protezione contro la caduta massi lungo le strade statali e provinciali. All’interno dello stesso capitolo si espone come, nell’ambito del progetto VISO e grazie alla nascita del progetto europeo Paramount ” (Improved accessibility reliability and safety of Alpine tran sport infrastructure related to mountainous hazard in a changing climate) si è provveduto, con l’aiuto di una collega del corso di laurea, a raccogliere i dati relativi all’installazione delle barriere paramassi sul territorio della Provincia Autonoma di Bolzano. Grazie ad un’analisi di archivio effettuata all’interno delle diverse sedi del servizio strade della Provincia Autonoma di Bolzano, si è presa visione (laddove presenti) delle schede tecniche delle barriere collocate sul territorio, si sono integrati i dettagli costruttivi contattando le principali ditte fornitrici e si è proceduto con una classificazione delle opere, identificando alcuni modelli di “barriere-tipo che sono stati inseriti nel database PARAMOUNT, già creato per il progetto VISO. Si è proseguito associando a tali modelli le barriere provviste di documentazione fotografica rilevate in precedenza dall’istituto di Geologia della Provincia Autonoma di Bolzano e inserite in VISO e si è valutata la corrispondenza dei modelli creati, andando a verificare sul posto che le barriere presenti sul territorio ed inserite nel database (tramite modello), effettivamente coincidessero, nelle misure e per le caratteristiche geometrico-costruttive, ai modelli a cui erano state associate. Inoltre sono stati considerati i danni tipici a cui può essere soggetta una barriera paramassi durante il suo periodo di esercizio poiché tali difetti andranno ad incidere sulla valutazione dell’utilità del sistema di difesa e di conseguenza sulla valutazione della pericolosità del versante(H*). Nel terzo capitolo si è esposta una possibile integrazione, mediante il software di calcolo RocFall, della procedura di valutazione dell’analisi di pericolosità di un versante utilizzata nell’ambito del progetto VISO e già analizzata in dettaglio nel secondo capitolo. Il software RocFall utilizza un metodo lumped mass su schema bidimensionale basato su ipotesi semplificative e consente di effettuare simulazioni probabilistiche di fenomeni di caduta massi, offrendo importanti informazioni sull’energia che si sviluppa durante il crollo, sulle velocità raggiunte e sulle altezze di rimbalzo lungo tutto il versante considerato, nonché sulla distanza di arresto dei singoli massi. Si sono realizzati dei profili-tipo da associare al versante, considerando il pendio suddiviso in tre parti : parete verticale (H = 100 m) lungo la quale si sviluppa il movimento franoso; pendio di altezza H = 100 m e angolo pari ai quattro valori medi della pendenza indicati nella scheda di campagna; strada (L = 10 m). Utilizzando il software Cad si sono realizzati 16 profili associando la pendenza media del versante a 4 morfologie individuate grazie all’esperienza dell’Istituto di Geologia e Prove materiali della Provincia Autonoma di Bolzano; si è proceduto importando tali profili in RocFall dove sono state aggiunte informazioni riguardanti la massa del blocco e l’uso del suolo, ottenendo 256 profili-tipo ai quali è stata associata una sigla definita come segue : morfologia (1, 2, 3, 4) _ pendenza (37, 53, 67, 83 gradi) _ uso del suolo (A, B, C, D) _ massa (a,b,c,d). Fissando i parametri corrispondenti al peso del masso ( inserito al solo scopo di calcolare la velocità rotazionale e l’energia cinetica ) e considerando, per ogni simulazione, un numero di traiettorie possibili pari a 1000, avendo osservato che all’aumentare di tale numero (purchè sufficientemente elevato) non si riscontrano variazioni sostanziali nei risultati dell’analisi, si è valutato come i parametri uso del suolo (A;B;C;D), morfologia (1;2;3;4) e pendenza (37°;53°;67°;83°) incidano sulla variazione di energia cinetica, di altezza di rimbalzo e sulla percentuale di massi che raggiunge la strada, scegliendo come punto di riferimento il punto di intersezione tra il pendio e la strada. Al fine di realizzare un confronto tra un profilo reale e un profilo-tipo, sono stati utilizzati 4 profili posti su un versante situato nel Comune di Laives, noto per le frequenti cadute di massi che hanno raggiunto in molti casi la strada. Tali profili sono stati visionati in sede di sopralluogo dove si è provveduto alla compilazione delle schede di campagna (impiegate per valutare l’intensità del fenomeno che potenzialmente si sviluppa dal versante) e all’individuazione dei profili-tipo corrispondenti. Sono state effettuate analisi di simulazione per entrambe le tipologie di profilo, e sono stati confrontati i risultati ottenuti in termini di Energia cinetica; altezza di rimbalzo e percentuale dei blocchi in corrispondenza della strada. I profili reali sono stati importati in RocFal in seguito ad estrapolazione dal modello digitale del terreno (ottenuto da analisi con Laser Scanner) utilizzando l’ estensione Easy Profiler nel software Arcmap. Infine si è valutata la possibilità di collocare eventuali barriere paramassi su un profilo reale, si è proceduto effettuando una analisi di simulazione di caduta massi in RocFall, importando in excel i valori corrispondenti all’andamento dei massimi dell’Energia cinetica e dell’altezza di rimbalzo lungo il pendio che forniscono una buona indicazione circa l´idonea ubicazione delle opere di protezione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro presenta una analisi di sensitività sui parametri progettuali più significativi per i sistemi di ancoraggio di dispositivi di produzione di energia del mare di tipo galleggiante, comunemente conosciuti come Floating Wave Energy Converters (F-WEC). I convertitori di questo tipo sono installati offshore e possono basarsi su diversi principi di funzionamento per la produzione di energia: lo sfruttamento del moto oscillatorio dell’onda (chiamati Wave Active Bodies, gran parte di convertitori appartengono la tecnologia di questo tipo), la tracimazione delle onde (Overtopping Devices), o il principio della colonna d’acqua oscillante (Oscillating Water Columns). La scelta del luogo di installazione dei tali dispositivi implica una adeguata progettazione del sistema di ancoraggio che ha lo scopo di mantenere il dispositivo in un intorno sufficientemente piccolo del punto dove è stato originariamente collocato. Allo stesso tempo, dovrebbero considerarsi come elemento integrato del sistema da progettare al fine di aumentare l’efficienza d’estrazione della potenza d’onda. Le problematiche principali relativi ai sistemi di ancoraggio sono: la resistenza del sistema (affidabilità, fatica) e l’economicità. Le due problematiche sono legate tra di loro in quanto dall’aumento del resistenza dipende l’aumento della complessità del sistema di ancoraggio (aumentano il numero delle linee, si utilizzano diametri maggiori, aumenta il peso per unità di lunghezza per ogni linea, ecc.). E’ però chiaro che sistemi più affidabili consentirebbero di abbassare i costi di produzione e renderebbero certamente più competitiva l’energia da onda sul mercato energetico. I dispositivi individuali richiedono approcci progettuali diversi e l’economia di un sistema di ormeggio è strettamente legata al design del dispositivo stesso. Esistono, ad oggi, una serie di installazioni a scala quasi di prototipo di sistemi WEC che hanno fallito a causa del collasso per proprio sistema di ancoraggio, attirando così l’attenzione sul problema di una progettazione efficiente, affidabile e sicura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’analisi istologica riveste un ruolo fondamentale per la pianificazione di eventuali terapie mediche o chirurgiche, fornendo diagnosi sulla base dell’analisi di tessuti, o cellule, prelevati con biopsie o durante operazioni. Se fino ad alcuni anni fa l’analisi veniva fatta direttamente al microscopio, la sempre maggiore diffusione di fotocamere digitali accoppiate consente di operare anche su immagini digitali. Il presente lavoro di tesi ha riguardato lo studio e l’implementazione di un opportuno metodo di segmentazione automatica di immagini istopatologiche, avendo come riferimento esclusivamente ciò che viene visivamente percepito dall’operatore. L’obiettivo è stato quello di costituire uno strumento software semplice da utilizzare ed in grado di assistere l’istopatologo nell’identificazione di regioni percettivamente simili, presenti all’interno dell’immagine istologica, al fine di considerarle per una successiva analisi, oppure di escluderle. Il metodo sviluppato permette di analizzare una ampia varietà di immagini istologiche e di classificarne le regioni esclusivamente in base alla percezione visiva e senza sfruttare alcuna conoscenza a priori riguardante il tessuto biologico analizzato. Nella Tesi viene spiegato il procedimento logico seguito per la progettazione e la realizzazione dell’algoritmo, che ha portato all’adozione dello spazio colore Lab come dominio su cu cui calcolare gli istogrammi. Inoltre, si descrive come un metodo di classificazione non supervisionata utilizzi questi istogrammi per pervenire alla segmentazione delle immagini in classi corrispondenti alla percezione visiva dell’utente. Al fine di valutare l’efficacia dell’algoritmo è stato messo a punto un protocollo ed un sistema di validazione, che ha coinvolto 7 utenti, basato su un data set di 39 immagini, che comprendono una ampia varietà di tessuti biologici acquisiti da diversi dispositivi e a diversi ingrandimenti. Gli esperimenti confermano l’efficacia dell’algoritmo nella maggior parte dei casi, mettendo altresì in evidenza quelle tipologie di immagini in cui le prestazioni risultano non pienamente soddisfacenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con il trascorrere del tempo, le reti di stazioni permanenti GNSS (Global Navigation Satellite System) divengono sempre più un valido supporto alle tecniche di rilevamento satellitare. Esse sono al tempo stesso un’efficace materializzazione del sistema di riferimento e un utile ausilio ad applicazioni di rilevamento topografico e di monitoraggio per il controllo di deformazioni. Alle ormai classiche applicazioni statiche in post-processamento, si affiancano le misure in tempo reale sempre più utilizzate e richieste dall’utenza professionale. In tutti i casi risulta molto importante la determinazione di coordinate precise per le stazioni permanenti, al punto che si è deciso di effettuarla tramite differenti ambienti di calcolo. Sono stati confrontati il Bernese, il Gamit (che condividono l’approccio differenziato) e il Gipsy (che utilizza l’approccio indifferenziato). L’uso di tre software ha reso indispensabile l’individuazione di una strategia di calcolo comune in grado di garantire che, i dati ancillari e i parametri fisici adottati, non costituiscano fonte di diversificazione tra le soluzioni ottenute. L’analisi di reti di dimensioni nazionali oppure di reti locali per lunghi intervalli di tempo, comporta il processamento di migliaia se non decine di migliaia di file; a ciò si aggiunge che, talora a causa di banali errori, oppure al fine di elaborare test scientifici, spesso risulta necessario reiterare le elaborazioni. Molte risorse sono quindi state investite nella messa a punto di procedure automatiche finalizzate, da un lato alla preparazione degli archivi e dall’altro all’analisi dei risultati e al loro confronto qualora si sia in possesso di più soluzioni. Dette procedure sono state sviluppate elaborando i dataset più significativi messi a disposizione del DISTART (Dipartimento di Ingegneria delle Strutture, dei Trasporti, delle Acque, del Rilevamento del Territorio - Università di Bologna). E’ stato così possibile, al tempo stesso, calcolare la posizione delle stazioni permanenti di alcune importanti reti locali e nazionali e confrontare taluni fra i più importanti codici scientifici che assolvono a tale funzione. Per quanto attiene il confronto fra i diversi software si è verificato che: • le soluzioni ottenute dal Bernese e da Gamit (i due software differenziati) sono sempre in perfetto accordo; • le soluzioni Gipsy (che utilizza il metodo indifferenziato) risultano, quasi sempre, leggermente più disperse rispetto a quelle degli altri software e mostrano talvolta delle apprezzabili differenze numeriche rispetto alle altre soluzioni, soprattutto per quanto attiene la coordinata Est; le differenze sono però contenute in pochi millimetri e le rette che descrivono i trend sono comunque praticamente parallele a quelle degli altri due codici; • il citato bias in Est tra Gipsy e le soluzioni differenziate, è più evidente in presenza di determinate combinazioni Antenna/Radome e sembra essere legato all’uso delle calibrazioni assolute da parte dei diversi software. E’ necessario altresì considerare che Gipsy è sensibilmente più veloce dei codici differenziati e soprattutto che, con la procedura indifferenziata, il file di ciascuna stazione di ciascun giorno, viene elaborato indipendentemente dagli altri, con evidente maggior elasticità di gestione: se si individua un errore strumentale su di una singola stazione o se si decide di aggiungere o togliere una stazione dalla rete, non risulta necessario il ricalcolo dell’intera rete. Insieme alle altre reti è stato possibile analizzare la Rete Dinamica Nazionale (RDN), non solo i 28 giorni che hanno dato luogo alla sua prima definizione, bensì anche ulteriori quattro intervalli temporali di 28 giorni, intercalati di sei mesi e che coprono quindi un intervallo temporale complessivo pari a due anni. Si è così potuto verificare che la RDN può essere utilizzata per l’inserimento in ITRF05 (International Terrestrial Reference Frame) di una qualsiasi rete regionale italiana nonostante l’intervallo temporale ancora limitato. Da un lato sono state stimate le velocità ITRF (puramente indicative e non ufficiali) delle stazioni RDN e, dall’altro, è stata effettuata una prova di inquadramento di una rete regionale in ITRF, tramite RDN, e si è verificato che non si hanno differenze apprezzabili rispetto all’inquadramento in ITRF, tramite un congruo numero di stazioni IGS/EUREF (International GNSS Service / European REference Frame, SubCommission for Europe dello International Association of Geodesy).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le moderne tecniche di imaging e i recenti sviluppi nel campo della visione computazionale consentono sempre più diffusamente l'utilizzo di metodi di image analysis, specialmente in ambito medico e biologico, permettendo un maggiore supporto sia alla diagnosi, sia alla ricerca. Il lavoro svolto in questa tesi si pone in un contesto di ricerca di carattere interdisciplinare, e riguarda il progetto e la realizzazione di un‘interfaccia grafica per l'analisi di colture batteriche geneticamente modificate, marcate con proteine fluorescenti (GFP), acquisite tramite un microscopio ad epifluorescenza. Nota la funzione di risposta del sistema di acquisizione delle immagini, l'analisi quantitativa delle colture batteriche è effettuata mediante la misurazione di proprietà legate all'intensità della risposta al marcatore fluorescente. L'interfaccia consente un'analisi sia globale dei batteri individuati nell'immagine, sia di singoli gruppi di batteri selezionati dall'utente, fornendo utili informazioni statistiche, sia in forma grafica che numerica. Per la realizzazione dell'interfaccia sono state adottate tecniche di ingegneria del software, con particolare enfasi alla interazione uomo-macchina e seguendo criteri di usability, al fine di consentire un corretto utilizzo dello strumento anche da parte di personale senza conoscenza in campo informatico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nelle attuali organizzazioni sanitarie non è raro trovare operatori sanitari i quali ritengono che la relazione con il paziente consista nell'avere adeguate competenze tecniche inerenti la professione e nell'applicarle con attenzione e diligenza. Peraltro si tende ad invocare il “fattore umano”, ma si lamenta poi che l’operatore si rapporti col paziente in modo asettico e spersonalizzato. Da un punto di vista scientifico il termine “relazione” in psicologia si riferisce essenzialmente ai significati impliciti e quasi sempre non consapevoli veicolati da qualunque relazione: dipende pertanto dalla struttura psichica dei due interlocutori investendo in particolare la sfera dell’affettività e procede per processi comunicativi che travalicano il linguaggio verbale e con esso le intenzioni razionali e coscienti. La relazione interpersonale quindi rientra nel più ampio quadro dei processi di comunicazione: sono questi o meglio i relativi veicoli comunicazionali, che ci dicono della qualità delle relazioni e non viceversa e cioè che i processi comunicazionali vengano regolati in funzione della relazione che si vuole avere (Imbasciati, Margiotta, 2005). Molti studi in materia hanno dimostrato come, oltre alle competenze tecnicamente caratterizzanti la figura dell’infermiere, altre competenze, di natura squisitamente relazionale, giochino un ruolo fondamentale nel processo di ospedalizzazione e nella massimizzazione dell’aderenza al trattamento da parte del paziente, la cui non osservanza è spesso causa di fallimenti terapeutici e origine di aumentati costi sanitari e sociali. Questo aspetto è però spesso messo in discussione a favore di un maggiore accento sugli aspetti tecnico professionali. Da un “modello delle competenze” inteso tecnicisticamente prende origine infatti un protocollo di assistenza infermieristica basato sull’applicazione sistematica del problem solving method: un protocollo preciso (diagnosi e pianificazione) guida l’interazione professionale fra infermiere e la persona assistita. A lato di questa procedura il processo di assistenza infermieristica riconosce però anche un versante relazionale, spesso a torto detto umanistico riferendosi alla soggettività dei protagonisti interagenti: il professionista e il beneficiario dell’assistenza intesi nella loro globalità bio-fisiologica, psicologica e socio culturale. Nel pensiero infermieristico il significato della parola relazione viene però in genere tradotto come corrispondenza continua infermiere-paziente, basata sulle dimensioni personali del bisogno di assistenza infermieristica e caratterizzata da un modo di procedere dialogico e personalizzato centrato però sugli aspetti assistenziali, in cui dall’incontro degli interlocutori si determinerebbe la natura delle cure da fornire ed i mezzi con cui metterle in opera (Colliere, 1992; Motta, 2000). Nell’orientamento infermieristico viene affermata dunque la presenza di una relazione. Ma di che relazione si tratta? Quali sono le capacità necessarie per avere una buona relazione? E cosa si intende per “bisogni personali”? Innanzitutto occorre stabilire cosa sia la buona relazione. La buona o cattiva relazione è il prodotto della modalità con cui l’operatore entra comunque in interazione con il proprio paziente ed è modulata essenzialmente dalle capacità che la sua struttura, consapevole o no, mette in campo. DISEGNO DELLA LA RICERCA – 1° STUDIO Obiettivo del primo studio della presente ricerca, è un’osservazione delle capacità relazionali rilevabili nel rapporto infermiere/paziente, rapporto che si presume essere un caring. Si è voluto fissare l’attenzione principalmente su quelle dimensioni che possono costituire le capacità relazionali dell’infermiere. Questo basandoci anche su un confronto con le aspettative di relazione del paziente e cercando di esplorare quali collegamenti vi siano tra le une e le altre. La relazione e soprattutto la buona relazione non la si può stabilire con la buona volontà, né con la cosiddetta sensibilità umana, ma necessita di capacità che non tutti hanno e che per essere acquisite necessitano di un tipo di formazione che incida sulle strutture profonde della personalità. E’ possibile ipotizzare che la personalità e le sue dimensioni siano il contenitore e gli elementi di base sui quali fare crescere e sviluppare capacità relazionali mature. Le dimensioni di personalità risultano quindi lo snodo principale da cui la ricerca può produrre i suoi risultati e da cui si è orientata per individuare gli strumenti di misura. La motivazione della nostra scelta dello strumento è da ricercare quindi nel tentativo di esplorare l’incidenza delle dimensioni e sottodimensioni di personalità. Tra queste si è ritenuto importante il costrutto dell’Alessitimia, caratteristico nel possesso e quindi nell’utilizzo, più o meno adeguato, di capacità relazionali nel processo di caring,