546 resultados para Divisione del lavoro, Soglia fissa, Soglia variabile
Resumo:
Riassunto Tesi Nella presente dissertazione viene esposto un esperimento condotto con la partecipazione di 13 studenti del Corso Magistrale di Interpretazione di Conferenza della Scuola di Lingue e Letterature, Traduzione e Interpretazione di Forlì al fine di comprendere se la memoria di lavoro possa essere potenziata in seguito ad un periodo di 7 mesi nel quale gli studenti si sono costantemente confrontati con lezioni ed esercizi di memorizzazione, interpretazione simultanea e interpretazione consecutiva. Nel primo capitolo, dopo una breve introduzione agli studi riguardanti la memoria, vengono descritti i diversi tipi di quest'ultima che congiuntamente alla memoria di lavoro, vengono attivati durante l'interpretazione simultanea. Nel secondo capitolo la memoria di lavoro viene messa in relazione con l'interpretazione simultanea. Oltre alle teorie più influenti circa i meccanismi cognitivi e le singole attività che sottendono il processo dell’IS, vengono esposti i principali modelli di elaborazione dell'informazione durante l'attività in questione. In chiusura del secondo capitolo, vengono esposti brevemente altri aspetti cruciali per l'interpretazione simultanea, utili al fine di comprendere le teorie sviluppate e gli studi condotti in merito: attenzione, chunking, soppressione articolatoria e ripetizione subvocalica, accennando inoltre ad un'interessante ricerca condotta per monitorare l'attivazione e il mutamento delle diverse aree cerebrali durante l'utilizzo di una lingua straniera. Nel terzo capitolo vengono passati in rassegna i principali studi empirici condotti sull'interpretazione simultanea per comprendere il comportamento della memoria di lavoro. Infine, nel quarto capitolo viene presentato l'esperimento condotto allo scopo di verificare l'ipotesi alla base della presente tesi: un aumento dell'esperienza in IS può condurre al potenziamento ML. Dopo aver esposto lo scopo, il metodo e il materiale vengono presentati i risultati che, sebbene siano stati raccolti su un campione abbastanza esiguo, vanno a confermare l'ipotesi all'origine della ricerca.
Resumo:
In questa tesi viene seguito il lavoro di test delle schede ROD del layer 2 del Pixel Detector dell’ esperimento ATLAS, che mira a verificare la loro corretta funzionalità, prima che vengano spedite nei laboratori del CERN. Queste nuove schede gestiscono i segnali in arrivo dal Pixel Detector di ATLAS, per poi inviarli ai computer per la successiva elaborazione. Le schede ROD andranno a sostituire le precedenti schede SiROD nella catena di acquisizione dati dell’esperimento, procedendo dal nuovo strato IBL, e proseguendo con i tre layer del Pixel Detector, corroborando l’aggiornamento tecnologico e prestazionale necessario in vista dell’incremento di luminosità dell’esperimento.
Resumo:
L’angiotermografia dinamica (DATG) è una tecnica diagnostica per il tumore al seno non invasiva e che non richiede l'utilizzo di radiazioni ionizzanti. La strumentazione fornisce immagini della vascolarizzazione della mammella rilevate e visualizzate da tre placche a cristalli liquidi. Le immagini, sulla base della teoria della neoangiogenesi, permettono la diagnosi anche precoce del tumore al seno. Inoltre, la DATG può essere impiegata su donne di ogni età e grazie al suo basso costo può coadiuvare le altre tecniche per lo screening. Scopo di questo lavoro è la caratterizzazione della strumentazione e lo studio di un nuovo metodo di elaborazione che permetta di ottenere immagini tridimensionali della vascolarizzazione. Poiché le immagini fornite dalla DATG sono a colori, si è elaborato il calcolo della tonalità (hue) per poter avere un valore da mettere in relazione con la temperatura misurata con una termocamera. Sperimentalmente è stato osservato che le placche rispondono a temperature comprese rispettivamente tra 31,5°C e 34,0°C per quella con cornice bianca, con una risoluzione tra 0,50 e 1,50 mm, tra 32,5oC e 34,5°C per quella con cornice grigia, che è in grado di rivelare dettagli con dimensioni minime dell'ordine di 0,50-2,50 mm e tra 34,0°C e 36,5°C per quella con cornice nera, con una risoluzione compresa tra 0,25 mm e 1,50 mm. Le immagini fornite dalla DATG sono bidimensionali. Per ricavare l’informazione sulla profondità di provenienza del segnale, è stata acquisita una sequenza dinamica angiotermografica in vivo. Per ottenere la distribuzione spaziale della vascolarizzazione in tre dimensioni, sulla base dell’equazione del trasporto del calore di Fourier, è stata ipotizzata una relazione esponenziale tra contributo temporale nella formazione dell’immagine e profondità di provenienza del segnale. I primi test sperimentali mostrano con buona approssimazione che è possibile ottenere immagini tridimensionali angiotermografiche, anche se il metodo andrà ulteriormente affinato. In futuro si cercherà di realizzare dei fantocci dedicati che consentano di verificare ulteriormente la modalità con cui si formano le immagini e di sfruttare i dati raccolti per conoscere con maggior accuratezza la profondità da cui proviene il segnale. Si spera, infine, che questo studio possa contribuire a diffondere la conoscenza di tale metodica e il suo utilizzo sia per la diagnosi che per lo screening del tumore al seno.
Resumo:
In questo lavoro di tesi verrà presentato un modo per utilizzare simultaneamente due generiche interfacce di rete, prendendo spunto dal modello Always Best Packet Switching (ABPS) e ricorrendo ai principi della virtualizzazione. Il modello ABPS permette ad una applicazione di usare simultaneamente tutte le interfacce di rete, inviando e ricevendo i datagram IP attraverso l’interfaccia idonea, in base alle caratteristiche del datagram stesso e alla disponibilità della rete.
Resumo:
Questo lavoro cerca di identificare elementi che confermino una provenienza univoca del sedimento della Pianura Padana centrale e di verificarne la qualità tramite analisi
Resumo:
Il presente lavoro di tesi è finalizzato allo sviluppo di un dispositivo indossabile, e minimamente invasivo, in grado di registrare in maniera continua segnali legati all’attività elettromeccanica del muscolo cardiaco, al fine di rilevare eventuali anomalie cardiache. In tal senso il sistema non si limita alla sola acquisizione di un segnale ECG, ma è in grado di rilevare anche i toni cardiaci, ovvero le vibrazioni generate dalla chiusura delle valvole cardiache, la cui ampiezza è espressione della forza contrattile (funzione meccanica) del cuore. Il presente lavoro di tesi ha riguardato sia la progettazione che la realizzazione di un prototipo di tale dispositivo ed è stato svolto presso il laboratorio di Bioingegneria del Dipartimento di Medicina Specialistica Diagnostica e Sperimentale dell’Università di Bologna, sito presso l’Azienda Ospedaliero-Universitaria Policlinico Sant’Orsola-Malpighi. Il sistema finale consiste in un dispositivo applicabile al torace che, attraverso una serie di sensori, è in grado di rilevare dati legati alla meccanica del cuore (toni cardiaci), dati elettrici cardiaci (ECG) e dati accelerometrici di attività fisica. Nello specifico, il sensing dei toni cardiaci avviene attraverso un accelerometro in grado di misurare le vibrazioni trasmesse al torace. I tracciati, raccolti con l’ausilio di una piattaforma Arduino, vengono inviati, tramite tecnologia Bluetooth, ad un PC che, attraverso un applicativo software sviluppato in LabVIEW™, ne effettua l’analisi, il salvataggio e l’elaborazione in real-time, permettendo un monitoraggio wireless ed in tempo reale dello stato del paziente.
Resumo:
I prodotti fitosanitari sono sostanze attive e preparati, contenenti una o più sostanze attive, destinati a proteggere i vegetali, a favorire e regolare i loro processi vitali, a conservarli, a eliminare le parti non necessarie, a frenare o evitare un loro indesiderato accrescimento, ad eliminare le piante indesiderate. Il prodotto fitosanitario è composto normalmente da tre tipologie di sostanze: sostanza attiva, coadiuvante e coformulante. Le sostanze attive rappresentano la parte del prodotto fitosanitario che serve a combattere l’avversità che si vuole controllare, cioè la sostanza tossica che, a seconda della pericolosità e della concentrazione presente nella formulazione, concorre a determinare la classe di tossicità e quindi di pericolosità del prodotto. Gli stabilimenti che detengono fitosanitari sono suddivisi in depositi e siti produttivi. Secondo la classificazione dell’ISPRA, i depositi di fitosanitari costituiscono una delle 15 categorie di attività a rischio di incidente rilevante, mentre, i siti produttivi rientrano nella categoria degli stabilimenti chimici e/o petrolchimici. Il presente lavoro di tesi ha riguardato la valutazione del rischio di incidente rilevante per i depositi di fitosanitari, con particolare attenzione al rischio associato alla produzione di composti tossici a seguito di scenari incidentali di incendio. È stata in primo luogo effettuata una ricerca approfondita finalizzata a comprendere che cosa sono i prodotti fitosanitari, a quale scopo servono e quali sono i rischi ad essi associati. Successivamente, è stato effettuato un approfondimento delle norme a cui i siti che producono e detengono fitosanitari sono soggetti. È stato quindi effettuato un censimento per individuare quali e quanti sono i depositi e i siti di produzione di prodotti fitosanitari suscettibili di causare incidenti rilevanti in Italia. Si è poi proceduto all’analisi storica sulle banche dati MHIDAS, E-MARS ed ARIA, al fine di individuare gli eventi incidentali che hanno interessato depositi e siti produttivi di fitosanitari. Successivamente, si è analizzato il Regolamento CPR-15, quale metodo raccomandato dal ministero olandese VROM (Ministerie van Volkshuisvesting, Ruimtelijke Ordening en Milieu) per la valutazione del rischio associato a depositi di fitosanitari. Come applicazione della metodologia per la valutazione del rischio descritta dal Regolamento CPR 15, è stata effettuata la modellazione di uno scenario di incendio in un deposito reale di fitosanitari attraverso il Warehouse Model, implementato nel software PHAST 6.54. La simulazione ha portato a definire l’estensione delle aree di danno associate alla dispersione dei fumi tossici prodotti dall’incendio.
Resumo:
Il presente lavoro nasce dall’esigenza maturata, oramai da diversi decenni, di conoscere l’ambiente che circonda i beni culturali, in virtù della loro intrinseca natura non rinnovabile. La ricerca si compone di due parti: l’analisi microclimatica e lo sviluppo di una metodologia innovativa di analisi relativa del rischio, che vede come bersagli i beni culturali, con particolare riferimento a quelli librari. In particolare, sulla base dei dati di temperatura, umidità relativa, concentrazioni di NO2 e O3, misurati in alcune sale della Biblioteca Classense di Ravenna, nel periodo dal 21 luglio al 7 agosto 2014, è stato possibile caratterizzare diversi ambienti confinati, tra loro eterogenei, e confrontare le dinamiche che s’instaurano tra l’ambiente indoor e quello outdoor, mediante, ad esempio, il calcolo del cosiddetto rapporto Indoor/Outdoor (I/O) e la stima del tasso di ventilazione. È stata poi proposta una metodologia di analisi del rischio che valuta i suddetti parametri microclimatici, come fattori di rischio. Attraverso tale metodologia, che identifica gli eventuali stati anomali nel sistema, è possibile giungere ad una definizione delle priorità per quegli aspetti esaminati che potrebbero discostarsi dalle condizioni di benessere, provocando un’accelerazione dei processi di degrado dei beni librari. Tale metodologia, infine, è stata applicata alle sale oggetto dell’analisi microclimatica, allo scopo di identificare eventuali fattori di rischio microclimatici.
Resumo:
La tesi tratta gli schemi di condivisione di segreti crittografici. Si occupa in particolare di alcuni sistemi particolari come gli schemi a soglia. Nei primi capitoli vengono illustrati quelli di Shamir e Blakley. Nell'ultima parte della tesi invece ci si avvicina all'argomento dal punto di vista probabilistico con le nozioni di tasso di informazione e entropia del sistema di condivisione, giungendo alla definizione di Schema di condivisione di segreti perfetto.
Resumo:
Il gruppo di tecnologie e sistemi di lavorazione del Dipartimento di Ingegneria Industriale, D.I.N, dell’Università di Bologna ha compiuto in collaborazione con il Dipartimento IUL della TU di Dortmund, negli ultimi anni, due campagne sperimentali effettuando processi di estrusione di leghe di alluminio. Nella prima, utilizzando leghe AA6060 e il metodo della visioplasticità, sono stati raccolti dati volti a ricavare le condizioni di attrito di tali processi, tramite confronto con valori ottenuti in simulazioni agli elementi finiti. Nella seconda, utilizzando invece una lega AA6082, è stata valutata la microstruttura al fine di permettere, tramite programmi agli elementi finiti, la determinazione di correlazioni fra variabili che prevedano la dimensione della microstruttura della lega stessa a seguito di lavorazioni per deformazione plastica. Basandosi quindi su queste prove sperimentali e utilizzando il software “QuantorForm versione 7.2.4”, è stato svolto il lavoro di tesi finalizzato a conseguire i seguenti obiettivi: • individuare il modello di attrito che si sviluppa nei processi di estrusione analizzati per la lega di alluminio AA6060; • determinare i parametri di settaggio ottimale del software, confrontando i risultati ottenuti nelle simulazioni con quelli sperimentali; • determinare le curve che descrivono la dimensione di un grano cristallino di AA6082 in funzione della deformazione; • implementare come subroutine in Qform, tramite l’utilizzo del linguaggio “Lua”, il modello di microstruttura ottenuto.
Resumo:
La galleria del vento "Wintaer" (WINd Tunnel itAER) è una piccola galleria subsonica con flusso incomprimibile utilizzata per scopi didattici, dotata di ventola assiale "Varofoil" a passo variabile per la regolazione della velocità del flusso. Lo scopo di questo elaborato è analizzare la qualità del flusso della galleria al fine di determinare le prestazioni del sistema ed alcune proprietà fondamentali, ovvero l'uniformità spaziale del flusso attraverso l'acquisizione di profili di velocità e l'intensità di turbolenza. Dalla conduzione delle prove sperimentali è emerso che la galleria permette il raggiungimento di un range di velocità compreso tra i 16 m/s e i 43 m/s, ha poca uniformità spaziale e presenta alti livelli di turbolenza. Per quanto riguarda il range di velocità si sono riscontrate problematiche relative all'impossibilità di raggiungere le basse velocità (fino a 7 m/s) a causa, molto probabilmente, di blocchi meccanici che limitano l'intervallo di angoli di calettamento (e quindi il passo) delle pale della ventola, ed è quindi necessario l'intervento della ditta per effettuare un'operazione di revisione della ventola. Relativamente ai profili di velocità, acquisiti con tubo di Pitot, e all'intensità di turbolenza, acquisita con anemometro a filo caldo, è emerso che i risultati sono stati disturbati da errori introdotti a causa dell'instabilità termica della galleria, ovvero un aumento progressivo di temperatura nell'impianto. Tale instabilità può essere risolta rimettendo in funzione l'unità di scambio di calore di cui la galleria è equipaggiata. L'attendibilità dei risultati ottenuti è quindi condizionata dall'instabilità termica, dunque, per una più preciso studio della qualità del flusso è necessario effettuare le prove sperimentali in condizioni di stabilità termica, la quale sarà essa stessa oggetto di analisi una volta rimesso in funzione il sistema di raffreddamento. Infine sono proposte soluzioni per il miglioramento della geometria dell'impianto, poco efficiente, in particolare per quanto riguarda i raddrizzatori di filetti fluidi (honeycombs) e il raccordo tra convergente e camera di prova, per il passaggio dalla sezione circolare del convergente a quella rettangolare della camera di prova. Si suggerisce lo spostamento di tale raccordo a monte della camera di calma, l'adozione di un convergente a sezione rettangolare e di una camera di calma a sezione rettangolare con honeycombs esagonali e l'aggiunta di reti per la diminuzione della turbolenza del flusso.
Resumo:
Il lavoro di tesi svolto si colloca nell’ambito dei sistemi di determinazione del centro di massa di una specifica classe di satelliti definiti, in gergo, microsatelliti. Il metodo concepito è basato su un simulatore di calcolo del centro di gravità, implementato in ambiente MATLAB. Attraverso l’astrazione matematica del modello fisico, di cui si propone un primo concept anch’esso modellato mediante software CAD durante lo svolgimento della tesi, è possibile determinare il centro di massa del corpo in esame. Esso è stato definito come il punto medio del segmento di minima distanza tra due particolari rette. Gli obiettivi fissati presupponevano che tale dispositivo avesse una buona affidabilità, risultasse di semplice realizzazione e di facile utilizzo.
Resumo:
La dinamica dell'assetto di un satellite artificiale rappresenta uno degli aspetti più delicati della missione che esso stesso andrà a svolgere in orbita attorno ad un qualche corpo celeste, quale appunto il pianeta Terra. Il seguente lavoro di tesi si propone di analizzare la causa di una delle principali componenti di disturbo dell'assetto appena menzionato, preponderante per satelliti dalle piccole dimensioni, fornendo la spiegazione, validata attraverso una simulazione, della messa a punto di un metodo sperimentale per la valutazione della stessa. La componente in questione è la coppia di disturbo magnetica, ed è generata dall'interazione tra il campo magnetico terrestre ed il cosiddetto 'dipolo magnetico residuo' del satellite stesso, ossia quel campo magnetico che esso, in modalità operativa e non, risulta generare a causa del materiale ferromagnetico presente al suo interno, e delle correnti elettriche circolanti nei vari cavi conduttori. Ci si è dunque occupati dell'analisi e messa a punto di un metodo che possa consentire sperimentalmente di rilevare l'entità del dipolo residuo. Il lavoro di simulazione è stato svolto prendendo in considerazione le dimensioni e le possibili caratteristiche del dipolo residuo del micro-satellite ESEO (European Student Earth Orbiter), sviluppato da studenti di diverse università europee ed ora in fase di progetto dettagliato (fase C) presso i laboratori dell'azienda ALMASpace S.r.l. di Forlì. Il metodo in esame consiste nel rilevare il campo magnetico generato dal satellite, posto all'interno di un sistema tridimensionale di bobine di Helmholtz per avere una zona libera da campi magnetici esterni. Il rilevamento del dipolo avviene per mezzo di un magnetometro a tre assi, e dalla suddetta misura si può pervenire alla conoscenza delle componenti del dipolo stesso, quali posizione, orientamento ed intensità; siccome però la misura del magnetometro non è ideale, ma risulta affetta da errori, per una più corretta caratterizzazione del dipolo è necessario utilizzare un numero maggiore di magnetometri (oppure, il che è lo stesso, un unico magnetometro spostato mano a mano) in punti diversi attorno al satellite in modo da avere più misure di campo magnetico e poter così sfruttare una procedura numerica di ottimizzazione per risalire alle componenti del dipolo. Questa intera parte di calcolo è stata realizzata in MatLab®, simulando quindi le misure ottenute dai magnetometri, 'sporcandole' con i predetti errori, ed utilizzando le funzioni di minimizzazione lsqnonlin ed fmincon per verificare la funzionalità del sistema; si sono infatti analizzati i grafici rappresentanti i livelli di errore commessi dall'algoritmo di stima sulle varie componenti del dipolo, per le tipologie di errore dei magnetometri menzionate in precedenza. Si è così cercato di suggerire una configurazione ottimale di magnetometri in grado di fornire una stima caratterizzata da un buon compromesso tra numero di magnetometri da utilizzare non troppo elevato ed errore derivante accettabile.
Resumo:
Il trasporto del petrolio via mare tramite navi petroliere è molto utilizzato per congiungere i paesi produttori con quelli consumatori. Durante il trasporto possono avvenire rilasci accidentali di petrolio in mare, con contaminazione anche estesa dell’ambiente marino. La stima del rischio di contaminazione ambientale imputabile alle attività di trasporto via mare è fondamentale al fine di ridurre il rischio stesso. Per prevedere il destino degli sversamenti di olio in mare, sono stati sviluppati diversi software che simulano lo spostamento della chiazza di olio rilasciato e le trasformazioni chimico-fisiche cui essa è soggetta, dette fenomeni di oil weathering. L’obiettivo del presente lavoro di tesi è stato quello di individuare un software per la simulazione del destino dei rilasci di olio in mare idoneo ad essere utilizzato nell’ambito di una innovativa metodologia di valutazione del rischio per l’ambiente marino. A tal fine sono stati studiati e confrontati, sia da un punto di vista teorico sia tramite l’applicazione a casi di studio, i software GNOME, ADIOS e OSCAR; dal confronto è emerso che GNOME e ADIOS contengono modelli semplificati per simulare i fenomeni di oil weathering subiti da una chiazza di olio formatasi a seguito di un rilascio. Rispetto ai software GNOME e ADIOS, OSCAR è molto più complesso e articolato; richiede numerosi dati in ingresso, ma fornisce in uscita una descrizione dello scenario più aderente alla realtà. Un’importante peculiarità di OSCAR, che lo rende estremamente vantaggioso nell’ambito di una metodologia di valutazione del rischio, consiste nel fatto che esso dispone di una modalità di funzionamento stocastica. Per validare l’utilizzo di OSCAR nell’ambito di una metodologia di valutazione del rischio, se ne è effettuata l’applicazione ad un caso di studio, ovvero alla rotta da Suez a Porto Marghera. Si è pertanto osservato che il rischio derivante da un rilascio di olio in mare è dipendente dal punto in cui questo rilascio avviene. È dunque possibile concludere che il software OSCAR è uno strumento valido nell’analisi del rischio ambientale derivante da sversamenti di olio in mare. Il lavoro di tesi è strutturato come descritto nel seguito. Il Capitolo 1 è introduttivo e, dopo aver descritto la problematica legata agli sversamenti di idrocarburi in mare, elenca e spiega i fenomeni di oil weathering. Il Capitolo 2 è incentrato sulle caratteristiche e sul confronto dei software dell’ente americano NOAA, ossia ADIOS e GNOME. Il Capitolo 3 si occupa della descrizione del software OSCAR dell’ente norvegese SINTEF. Il Capitolo 4 riporta la metodologia seguita per il calcolo del rischio di contaminazione del mare, ripresa da una metodologia per il calcolo del rischio già consolidata nell’industria di processo relativa all’uomo. Il Capitolo 5 introduce il caso di studio, ovvero l’applicazione della metodologia alla rotta da Suez a Marghera. Il Capitolo 6 riporta alcune considerazioni conclusive.
Resumo:
La tesi affronta il tema dello spazio collettivo come luogo del tempo libero attraverso il disegno di un progetto a Jesolo, nell'area definita dal masterplan di Kenzo Tange "Central Park". Il progetto affronta la scala territoriale e urbana con forte attenzione al paesaggio e al disegno del suolo. Partendo da un analisi del contesto ambientale e antropico il progetto si definisce a partire dalla logica del "cluster"e dello "stem", principi compositivi sviluppati dagli architetti Smithson e dagli architetti Candilis, Josic e Woods. L'area di approfondimento per il progetto di tesi viene selezionata a partire dal disegno territoriale e propone la realizzazione di due nuove architetture dedicate al tempo libero e al benessere della persona. La tesi alla base è l'interpretazione del tempo libero visto non come un prodotto ma come oggetto che necessita di riappropriazione individuale. Le riflessioni prendono spunto dalle tesi situazioniste e dal lavoro dell' architetto Cedric Price.