996 resultados para Allo-antigène
Resumo:
A partire dal 1° giugno 2015 è stato adottato ufficialmente in Europa il Regolamento 1272/2008/CE relativo alla classificazione, all'etichettatura e all'imballaggio delle sostanze e miscele pericolose, noto con il termine di Regolamento CLP. La data del 1° giugno 2015 coincide anche con il termine ultimo prescritto per il recepimento da parte degli Stati membri dell’Unione Europea della Direttiva 2012/18/UE sul controllo dei pericoli di incidenti rilevanti connessi con determinate sostanze pericolose. Dunque, come recepimento della sopracitata direttiva, il 29 luglio 2015 è stato emanato in Italia il D.Lgs. 105/2015, che ha introdotto numerose novità indotte non solo dalla direttiva da cui discende, ma anche e soprattutto dal fatto che il Legislatore italiano ha colto l’occasione per legiferare su alcuni aspetti attuativi della direttiva, così da produrre quello che viene identificato in ambito nazionale come Testo Unico per il rischio di incidente rilevante. La variazione più evidente apportata dal D.Lgs. 105/2015 rispetto alla norma precedente è l’adeguamento dell’allegato 1 al Regolamento CLP; l’allegato 1 elenca le sostanze e le categorie di sostanze pericolose con i corrispondenti valori soglia da utilizzare per valutare l’assoggettabilità degli stabilimenti al Decreto. A fronte dell’emanazione del D.Lgs. 105/2015, l’impatto dell’adeguamento è controverso e non noto a priori: nonostante la classificazione degli stabilimenti assoggettabili si mantenga sempre su due livelli, non è da escludersi il possibile passaggio di uno stabilimento da una situazione a rischio basso ad una a rischio alto o viceversa oil suo ingresso o la sua fuoriuscita dal campo di applicazione del Decreto. Altri elementi innovativi introdotti dal D.Lgs. 105/2015 sono relativi ai contenuti del Rapporto di Sicurezza, che deve essere redatto e trasmesso dai Gestori degli stabilimenti a maggior rischio: viene disposta per generici stabilimenti la possibilità di adottare per l’analisi preliminare del rischio metodologie alternative al metodo ad indici finora esclusivamente previsto dalla norma italiana. Inoltre, nel testo del D.Lgs. 105/2015 vengono ufficialmente indicati i riferimenti a due metodi semplificati (uno per il suolo e sottosuolo e uno per le acque superficiali) per la valutazione del rischio di contaminazione ambientale causato da rilasci rilevanti di idrocarburi liquidi e/o sostanze eco-tossiche da depositi. Per quanto riguarda il rischio di incidenti tecnologici innescati da fenomeni naturali (rischio NaTech), la nuova norma sancisce la libertà di scelta da parte dei Gestori della metodologia di valutazione da adottare con riferimento allo stato dell’arte in materia. Al fine di applicare una prima valutazione delle novità introdotte dal D.Lgs. 105/2015, si è considerata l’applicazione di alcune valutazioni previste dal Decreto a due casi di studio reali: come primo caso si è scelto uno Stabilimento che effettua principalmente l’attività di produzione e deposito nel settore degli esplosivi e come secondo caso uno Stabilimento che produce e confeziona prodotti per la nutrizione e difesa vegetale rappresentati per lo più da fertilizzanti organo-minerali e agrofarmaci.
Resumo:
Nel presente lavoro sono state analizzate le distribuzioni quantitative dei Foraminiferi planctonici e bentonici presenti in una carota e in un box core prelevati nel Mare di Ross in Antartide durante la campagna KOPRI ANTA03 nel Febbraio 2013 nell’ambito del progetto di ricerca congiunto Corea- Italia finanziato dal Progetto Nazionale di Ricerca in Antartide (PNRA). Scopo del lavoro è stato quello di comprendere l’evoluzione ambientale dell’area in base alla distribuzione quantitativa e qualitativa delle associazioni a Foraminiferi nel tardo Quaternario. In base alla distribuzione quantitativa dei Foraminiferi identificati, la sequenza sedimentaria della carota C2 è stata suddivisa in tre intervalli corrispondenti a tre principali fasi paleoceanografiche/paleoclimatiche. La prima fase, più antica di 18 ka, caratterizzata dall’assenza o rarità di forme documenta un ambiente con presenza di copertura glaciale. La seconda, depositatasi tra 18 ka e ~8 ka è caratterizzata da una maggiore variabilità intraspecifica e riflette un miglioramento delle condizioni climatiche. La terza, corrisponde ad un periodo compreso tra ~8 ka e ~2 ka. La presenza di forme agglutinanti e l’assenza di Foraminiferi a guscio calcareo suggeriscono la presenza di condizioni di dissoluzione carbonatica sul fondale in un ambiente marino libero da copertura glaciale. La documentazione di numerosi individui allo stadio giovanile di Neogloboquadrina pachyderma durante l’intervallo B ha reso possibile avanzare ipotesi riguardo la strategia di sopravvivenza di questa specie in ambiente estremo quale il ghiaccio antartico. La somiglianza morfologica tra individui giovanili di Neogloboquadrina pachyderma riscontrata durante il nostro studio nei sedimenti a livello fossile nella carota con individui giovanili della stessa specie provenienti da campioni di ghiaccio marino antartico documentati in bibliografia, ha permesso di supportare la tesi dello sviluppo di tali forme nei pori del “microghiaccio”.
Resumo:
La tesi tratta l’analisi preliminare dell’Organization Environmental Footprint (OEF) dell’ente gestore dell’aeroporto Falcone - Borsellino di Palermo (GES.A.P.). Viene inoltre sviluppato un nuovo metodo per la classificazione degli aspetti ambientali utilizzabile all’interno del Sistema di Gestione Ambientale (SGA) attualmente utilizzato dall’ente GES.A.P. Dopo un'introduzione sulle ragioni che hanno portato allo sviluppo di questi strumenti, vengono approfondite le fasi necessarie per la loro applicazione, specificate nella guida metodologica sull’OEF e nella norma ISO 14001. I dati raccolti per il calcolo dell’OEF sono stati inseriti in un modello dell’organizzazione creato con il software GaBi7 al fine di stimare gli impatti ambientali dell’organizzazione negli anni analizzati. In questo lavoro viene effettuata un’analisi del metodo EMRG (Environmental Management Research Group) utilizzato per l’individuazione e la classificazione degli aspetti ambientali nell’ambito del SGA (certificato ISO 14001:2004) di GESAP e delle innovazioni introdotte nella versione 2015 della norma ISO 14001. Viene suggerito un metodo alternativo basato sull’integrazione dei risultati di un'analisi Life Cicle Assessment (LCA), svolta tramite l’OEF, con la metodologia EMRG, attualmente impiegata, al fine di avviare il processo di transizione del SGA verso l’aggiornamento-consegna richiesto dalla ISO14001:2015. Dall’applicazione del metodo viene ricavata una nuova gerarchia degli aspetti ambientali di GESAP utilizzabile per l’implementazione del suo SGA.
Resumo:
Poiché i processi propri del sistema nervoso assumono una funzione fondamentale nello svolgimento della vita stessa, nel corso del tempo si è cercato di indagare e spiegare questi fenomeni. Non solo infatti il suo ruolo è di primaria importanza, ma le malattie che lo colpiscono sono altamente invalidanti. Nell’ultimo decennio, al fine di far luce su questi aspetti profondamente caratterizzanti la vita dell’uomo, hanno avuto luogo diversi studi aventi come strumento d’esame la stimolazione transcranica a corrente continua. In particolare questo lavoro si propone di analizzare gli ambiti di interesse dell’applicazione della tDCS, soffermandosi sulla capacità che ha questa metodica di indagare i meccanismi propri del cervello e di proporre terapie adeguate qualora questi meccanismi fossero malfunzionanti. L’utilizzo di questa stimolazione transcranica unitamente ai più moderni metodi di neuroimaging permette di costruire, o quanto meno cercare di delineare, un modello delle strutture di base dei processi cognitivi, quali ad esempio il linguaggio, la memoria e gli stati di vigilanza. A partire da questi primi promettenti studi, la tDCS è in grado di spostare le proprie ricerche nell’ambito clinico, proponendo interessanti e innovative terapie per le malattie che colpiscono il cervello. Nonostante patologie quali il morbo di Parkinson, l’Alzheimer, la dislessia ed l’afasia colpiscano una grande percentuale della popolazione non si è ancora oggi in grado di garantire ai pazienti dei trattamenti validi. E’ in questo frangente che la tDCS assume un ruolo di primaria importanza: essa si presenta infatti come una tecnica alternativa alle classiche cure farmacologie e allo stesso tempo non invasiva, sicura e competitiva sui costi.
Resumo:
Questo lavoro si concentra sullo studio fluidodinamico del flusso multifase cavitante di un iniettore per applicazioni a motori ad iniezione diretta (GDI). L’analisi è stata svolta tramite l’uso del software CFD (Computational Fluid Dynamics) Star-CCM+^® sviluppato da CD-ADAPCO. L’obiettivo di questo studio è investigare i motivi che portano ad un diverso comportamento tra i rilievi della prova sperimentale di caratterizzazione dell’iniettore e quanto atteso dai valori nominali dettati dalla specifica dell’iniettore, con particolare riferimento alla distribuzione di portata fra i diversi ugelli. Il presente lavoro fa parte di una coppia di elaborati collegati tra loro e, pertanto, ha inoltre lo scopo di fornire dati utili allo sviluppo dell’altro tema di analisi mirato alla individuazione di parametri di qualità della miscela aria-combustibile non reagente utili alla previsione della formazione del particolato prodotto dalla combustione di un motore GDI. L’elaborato, costituito di 5 capitoli, è strutturato secondo lo schema sottostante. Nel capitolo 1 vengono presentate le motivazioni che lo hanno avviato e viene esposto lo stato dell’arte della tecnologia GDI. Il capitolo 2 è a sfondo teorico: in esso vengono riportati i fondamenti del processo di cavitazione nella prima parte e i modelli numerici utilizzati nell’analisi nella seconda. Il capitolo 3 descrive la modellazione e successiva validazione dei modelli tramite confronto con il test case ‘Comprensive hydraulic and flow field documentation in model throttle experiments under cavitation conditions’ (E. Winklhofer, 2001). Nella scelta dei modelli e dei parametri relativi, l’analisi si è basata su precedenti lavori trovati in letteratura. Successivamente è stato svolto uno studio di sensibilità per valutare la stabilità della soluzione a piccole variazioni nei valori dei parametri. La scelta dei parametri modellistici nel caso di interesse, l’iniettore multihole, si è basata inizialmente sui valori ‘ottimali’ ottenuti nel test case ed è l’argomento del capitolo 4. All’interno del capitolo si parla inoltre dell’analisi di sensibilità successiva, svolta con lo scopo di comprendere i motivi che portano allo sbilanciamento tra fori corrispondenti e al maggiore sviluppo del getto centrale rispetto agli altri. Nel capitolo 5 dopo un breve riepilogo dei punti fondamentali trattati nello svolgimento dell’elaborato, si tirano le conclusioni sull’analisi e si espongono gli sviluppi futuri.
Resumo:
Come ogni campo dell'ingegneria, anche quello inerente allo sviluppo di motori aerei, è in continuo sviluppo, e, di volta in volta, la progettazione richiede nuove soluzioni per rendere sempre più efficienti ed affidabili i velivoli, mantenendo ridotti i costi di produzione e manutenzione. In particolare, si è pensato di porre rimedio a queste molteplici necessità introducendo l'utilizzo di motori diesel di derivazione automobilistica: economici dal punto di vista della manutenzione e della produzione, in quanto largamente diffusi e testati, ben si prestano all'adattamento ad uso aeronautico. Nel caso specifico del progetto che intendo affrontare, si tratta di un motore Audi V12 tdi, elaborato fino a raggiungere i 900 hp e velocità su albero motore 5,000 rpm. Naturalmente, l'adattamento di tale motore implica una riprogettazione del riduttore, affinché si ottenga in uscita una velocità di 1185 rpm. Infatti, la rotazione dell'elica non dovrebbe mai superare i 2700-2800 giri al minuto, in quanto ad una velocità di rotazione superiore, le pale dell'elica raggiungerebbero una velocità prossima a quella del suono, creando rumori insopportabili e fastidiose vibrazioni, nonché la perdita dell'efficacia dell'elica stessa. La mia tesi nasce dal lavoro precedentemente sviluppato da un mio collega, il quale aveva elaborato un riduttore in grado di modificare la potenza in entrata da 600 a 900 hp, riprogettando le ruote dentate e selezionando nuovi cuscinetti, pur mantenendo i carter iniziali, opportunamente modificati. Il mio obiettivo è quello di elaborare ulteriormente il compito da lui svolto, sviluppando un nuovo riduttore in grado di utilizzare sempre la potenza in entrata di un motore da 900 hp ma di rendere il riduttore nel suo insieme, più compatto e leggero possibile.
Resumo:
Un manuale tecnico non veicola solo contenuti, ma definisce anche il rapporto tra emittente e destinatario all’interno di una relazione commerciale. Il testo deve quindi essere di buona qualità, altrimenti si potrebbero verificare danni economici e di immagine per l’emittente. Nonostante ciò, molte aziende dimostrano scarsa sensibilità al problema della qualità redazionale perché ottenerla significa affrontare investimenti di tempo e risorse. Con questa tesi propongo una modalità di revisione del manuale tecnico che tiene in considerazione esigenze di natura diversa: utilizzando gli strumenti CAT per la revisione è possibile, infatti, migliorare la qualità del manuale riducendo i tempi richiesti dal lavoro, e quindi contenerne i costi. Questa proposta, tuttavia, non è una soluzione definitiva perché la revisione migliora un singolo testo: affinché l’azienda comunichi in modo efficace non si può prescindere da un adeguato percorso di formazione dei redattori. In particolare, in un manuale tecnico la qualità corrisponde a un linguaggio chiaro, semplice e non ambiguo, ben lontano dunque dal burocratese che viene considerato da molti un buono stile e dall’antilingua contro cui già Calvino metteva in guardia. Le competenze non solo linguistiche del traduttore gli permettono di rivelarsi una figura determinante anche per la redazione e la revisione di testi monolingue. Così come tradurre non significa trasferire da una lingua all’altra le parole, ma i concetti, allo stesso modo rendere chiaro, semplice e univoco un manuale non vuol dire solo aumentarne la leggibilità, ma soprattutto mettere il destinatario nelle condizioni di capire i contenuti e di eseguire correttamente le istruzioni nel passaggio dal contesto linguistico a quello fattuale. Anche nella revisione, come nella traduzione, gli strumenti automatici non sostituiscono il professionista, ma gli permettono di finalizzare a uno scopo preciso le sue conoscenze sul funzionamento della lingua e della comunicazione.
Resumo:
La presente tesi nasce da un tirocinio avanzato svolto presso l’azienda CTI (Communication Trend Italia) di Milano. Gli obiettivi dello stage erano la verifica della possibilità di inserire gli strumenti automatici nel flusso di lavoro dell’azienda e l'individuazione delle tipologie testuali e delle combinazioni linguistiche a cui essi sono applicabili. Il presente elaborato si propone di partire da un’analisi teorica dei vari aspetti legati all’utilizzo della TA, per poi descriverne l’applicazione pratica nei procedimenti che hanno portato alla creazione dei sistemi custom. Il capitolo 1 offre una panoramica teorica sul mondo della machine translation, che porta a delineare la modalità di utilizzo della TA ad oggi più diffusa: quella in cui la traduzione fornita dal sistema viene modificata tramite post-editing oppure il testo di partenza viene ritoccato attraverso il pre-editing per eliminare gli elementi più ostici. Nel capitolo 2, partendo da una panoramica relativa ai principali software di traduzione automatica in uso, si arriva alla descrizione di Microsoft Translator Hub, lo strumento scelto per lo sviluppo dei sistemi custom di CTI. Nel successivo passaggio, l’attenzione si concentra sull’ottenimento di sistemi customizzati. Un ampio approfondimento è dedicato ai metodi per reperire ed utilizzare le risorse. In seguito viene descritto il percorso che ha portato alla creazione e allo sviluppo dei due sistemi Bilanci IT_EN e Atto Costitutivo IT_EN in Microsoft Translator Hub. Infine, nel quarto ed ultimo capitolo gli output che i due sistemi forniscono vengono rivisti per individuarne le caratteristiche e analizzati tramite alcuni tool di valutazione automatica. Grazie alle informazioni raccolte vengono poi formulate alcune previsioni sul futuro uso dei sistemi presso l’azienda CTI.
Resumo:
Questa tesi si concentra sulle traduzioni italiane del classico in lingua inglese The Secret Garden (1911) di Frances Hodgson Burnett, con particolare attenzione all'uso della lingua e all'evoluzione della prassi traduttiva. Nella prima parte di questa tesi ho approfondito temi di natura teorica, quali la sfuggente e complessa definizione di letteratura per l'infanzia, la sua duplice appartenenza al sistema letterario e a quello pedagogico, e le peculiarità della sua traduzione. Inoltre ho presentato un excursus sulla storia di questo genere letterario, con particolare attenzione alla scena italiana e all'opera di propagazione della lingua portata avanti dai libri per ragazzi. Tali basi teoriche sono state necessarie allo scopo di inquadrare il romanzo in una cornice definita e utile in riferimento all'analisi e alla comparazione delle sue traduzioni. Il corpus delle traduzioni scelte consiste nei lavori di: Maria Ettlinger Fano (1921), Angela Restelli Fondelli (1956), F. Ghidoni (1973), Giorgio van Straten (1992) e Beatrice Masini (2013). Di ciascuna opera ho dato una descrizione generale, per poi concentrarmi sugli snodi traduttivi principali: da un lato i problemi di mediazione culturale come l'onomastica, i cibi, le lingue non standard nel testo originale, la religione e così via; dall'altro le soluzioni linguistiche adottate. Al fine di presentare e comparare questi parametri, ho portato a supporto i passaggi delle diverse traduzioni significativi in tal senso. Ho concluso con alcune considerazioni finali sull'evoluzione delle traduzioni italiane di The Secret Garden, viste attraverso l'ottica del rapporto fra adulti (traduttore, editore, educatori, genitori...) e lettore bambino.
Resumo:
Il presente lavoro si inquadra all'interno di un progetto avviato dal Laboratorio di Terminologia e Traduzione Assistita, del Dipartimento di Interpretazione e Traduzione dell'Università di Bologna. L'obiettivo ultimo del progetto è lo sviluppo di risorse terminologiche pensate e adeguate a soddisfare le esigenze della figura dell'interprete professionista e dell'interprete in formazione. Ne consegue la volontà di creare un database multimediale multilingue che vada a comprendere non solo i linguaggi specialistici (la cosiddetta terminologia di dominio) ma anche e soprattutto quegli elementi della terminologia di genere che compongono e che sono trasversali a tutte le lingue naturali: nessi, locuzioni, segnali discorsivi e via dicendo. In particolare, questa tesi si è incentrata sullo studio di una categoria della terminologia di genere appositamente sviluppata per gli interpreti dal Laboratorio di Terminologia: i "verbi chiave", ovvero quelli che ricorrono con più frequenza nei testi orali di discorsi tenuti in pubblico. Per ogni "`verbo chiave"' analizzato è stata dedicata una scheda terminologica, che è stata adattata e concepita per due tipi di utenti: l'interprete in formazione e l'interprete professionista. Al momento attuale, quindi, le venticinque schede proposte si prestano come strumento per migliorare le competenze passive dello studente di interpretazione, grazie anche all'inserimento di proposte di sinonimi cross-categoriali, e al contempo cercano di proporsi anche come strumento di lavoro per l'interprete professionista, soprattutto in fase di preparazione ad un evento. Le schede sono state elaborate a partire da un corpus di riferimento contenente i resoconti stenografici di cinquanta sedute dell'Assemblea parlamentare. Questa tesi contribuisce allo sviluppo del progetto del Laboratorio lasciando tuttavia spazio a successive integrazioni, per cui rappresenta solo un primo passo verso il completamento del progetto stesso.
Resumo:
Sono stati analizzati alcuni campioni provenienti dalla sezione stratigrafica di Col du Puech de la Suque (Montagne Noire, Francia Meridionale), raccolti in un intervallo comprendente il limite Devoniano/Carbonifero allo scopo di individuare il limite stesso in base alla identificazione e attribuzione biostratigrafica dei conodonti rinvenuti. Sono stati discussi i problemi che caratterizzano la definizione del limite e si è fornita una possibile soluzione.
Resumo:
Negli ultimi vent’anni innumerevoli sforzi sono stati compiuti a livello internazionale per ottenere un censimento completo degli “Active Galactic Nuclei” (AGN), ovvero di nuclei galattici attivi, oscurati in banda X. Tale censimento potrebbe rappresentare infatti la soluzione alla problematica del cosiddetto fondo cosmico non risolto in banda X. Gli studi finora condotti sfruttano la forte correlazione fra l'attività del SMBH e l'evoluzione della galassia ospite attraverso osservazioni in banda X hard, nel vicino-medio infrarosso e nell'ottico. Questa tesi si colloca in questo scenario con lo scopo di verificare e confermare l'affidabilità della selezione tramite la riga di emissione del CIV a 1549 Å di AGN oscurati fino a z≈3. Per raggiungere tale obiettivo è stato assunto che il CIV rappresenti un indicatore affidabile della luminosità intrinseca degli AGN e del loro alto potenziale di ionizzazione. Inoltre, allo studio in banda ottica delle sorgenti sono stati associati i dati profondi in banda X per analizzarne le proprietà X e caratterizzarne l’ammontare dell’oscuramento in tale banda in termini di densità di colonna di idrogeno. In particolare, in questo lavoro vengono presentati i risultati dell’analisi in banda X del campione di 192 AGN selezionati nella survey ottica zCOSMOS-Deep, attraverso la riga di emissione del CIV a 1549 Å. Queste 192 sorgenti hanno un redshift medio di 2.2 e una magnitudine media AB in banda B di 23.7. La copertura in banda X del campo selezionato è data dalla survey Chandra COSMOS-Legacy comprendente 4.6 Ms di osservazioni in un’area di 2.2 deg2. I risultati ottenuti in questo progetto di tesi tramite la selezione possono ritenersi soddisfacenti: metà delle AGN di Tipo 2 selezionate con il CIV e rilevate in banda X risultano fortemente oscurate (NH>10^23 cm^(-2) ). Inoltre, le AGN di Tipo 2 non rilevate in banda X risultano consistenti con uno scenario di oggetti oscurati.
Resumo:
L’utilizzo delle biomasse rappresenta oggi una delle vie più interessanti da percorrere nell’ambito di una chimica industriale maggiormente sostenibile, alternativa alla chimica tradizionale basata sulle risorse fossili. I carboidrati sono i costituenti maggioritari della biomassa e potrebbero rappresentare un’alternativa ideale al petrolio per la produzione dei building-blocks, molecole di partenza per lo sviluppo della filiera produttiva della chimica. Fra i building-blocks ottenibili dagli zuccheri vi è l’acido glucarico. I suoi usi sono molteplici ma suscita grande interesse soprattutto per la possibilità di essere utilizzato nella sintesi di diverse tipologie di polimeri. Attualmente la maggior parte dei metodi di sintesi di questa molecola prevedono l’utilizzo di ossidanti tossici o dannosi per l’ambiente come l’acido nitrico. Lo scopo di questo lavoro di tesi è stato lo studio di catalizzatori eterogenei per la sintesi di acido glucarico da D-glucosio utilizzando ossigeno puro come ossidante. Sono stati sintetizzati sistemi monometallici a base di oro e sistemi multimetallici contenenti oro ed altri metalli in lega. Tutti i catalizzatori sono stati preparati depositando i metalli sotto forma di nanoparticelle su carbone attivo. Lo studio dei catalizzatori è stato focalizzato sull’individuazione dei metalli e delle condizioni di reazione ottimali che permettano di aumentare la selettività in acido glucarico. Gli studi condotti hanno portato alla conclusione che è possibile ottenere acido glucarico a partire da D-glucosio con rese fino al 35% utilizzando catalizzatori a base di oro in presenza di ossigeno. Attualmente l’acido glucarico viene prodotto solo su piccola scala ma ulteriori sviluppi in questa direzione potrebbero aprire la strada allo sviluppo di un nuovo processo industriale per la sintesi di acido glucarico sostenibile sia da un punto di vista economico che ambientale.
Resumo:
Questa Tesi di Laurea si prefigge gli obiettivi di riuscire a caratterizzare i Sensori Hall e di testare un Sensore Hall di Asahi-Kasei, il CQ-3300, di cui l’Università di Bologna è in possesso. Per questa ragione si può dividere il processo di realizzazione della tesi in 2 fasi ben distinte: • Una prima fase dedicata interamente allo studio dell’argomento e alla ricerca online di Sensori Hall presenti sul mercato. Si è dunque approfondito il fenomeno fisico su cui essi basano il proprio funzionamento, le loro caratteristiche principali e le loro applicazioni. Se ne sono poi scelti due, oltre al CQ-3300, tra quelli presenti sul mercato per poterli caratterizzare e confrontare con il suddetto. • Una seconda fase dedicata ai test sul Sensore nel laboratorio di elettronica. Durante questa fase è stato montato su PCB (Printed Circuit Board) il sensore Hall CQ-3300 e sono stati realizzati dei circuiti di prova con lo scopo di verificare il corretto funzionamento del Sensore e l’effettiva banda di funzionamento. I tests in corrente alternata sono stati effettuati grazie all’ausilio di un generatore di corrente in grado di convertire un segnale in tensione in un segnale in corrente. Questo generatore di corrente però non può erogare un segnale in corrente di ampiezza maggiore a 1 Ampere, ragione per cui si è preferito tenersi alla larga da tale valore. L’Università di Bologna ritiene necessario testare questo sensore in termini di banda, in quanto ha progettato un Sensore Hall dalle caratteristiche simili in termini di banda di lavoro al componente in questione, il che rende importante capire se quest’ultimo tiene fede alla banda di lavoro che viene indicata sul suo datasheet, ovvero 1 MHz.
Resumo:
Nel testo viene esposta la presa di decisione nella robotica collettiva, cioè il comportamento collettivo esibito dagli animali sociali in sciame migrato in un gruppo di robot. Questa tesi si prefigge di analizzare come un insieme di individui, all'interno di un gruppo, possano giungere tutti ad avere una stessa opinione comune, o come essi siano in grado di dividersi autonomamente il lavoro senza alcun bisogno di controllo centrale. Inizialmente, viene introdotta la robotica collettiva, esponendone origini, caratteristiche e ambiti di ricerca. Viene in seguito presentato il collective decision making, all'interno del comportamento collettivo generale, esponendone le origini biologiche fino ai primi esperimenti su dei semplici robot. Vengono poi analizzati i due aspetti del decision making, vale a dire il raggiungimento del consenso e la suddivisione del lavoro. Per entrambi gli argomenti, sono presentati studi sia di carattere biologico che robotico, allo scopo di trarne similitudini e differenze e realizzare una valida analisi critica. Infine, vengono esposti i possibili sviluppi del comportamento e della robotica collettiva, mostrando possibili scenari di utilizzo futuro e gli attuali limiti allo sviluppo.