193 resultados para Kinnunen, Essi
Resumo:
In questa analisi si cercherà di comprendere cosa caratterizza questa l'ondata di progresso tecnologico che sta cambiando il mercato del lavoro. Il principale aspetto negativo di questo progresso si chiama "Technological Unemployment". Benché gli esperti si trovino in disaccordo su quali siano le cause della persistente alta disoccupazione, Brynjolfsson e McAfee puntano il dito contro l'automazione che ha soppiantato i lavori ripetitivi delle aziende. Tuttavia, è anche vero che il progresso ha sempre portato aumenti di produttività, e soprattutto nuovi tipi di occupazioni che hanno compensato la perdita di posti di lavoro, nel medio-lungo termine. Keynes evidenzia che la disoccupazione dovuta alla scoperta di strumenti economizzatori di manodopera procede con ritmo più rapido di quello con cui riusciamo a trovare nuovi impieghi per la manodopera stessa. Da ciò si crea ansia per il futuro, più o meno motivata. Gli stessi esperti sono spaccati a metà tra chi ha fiducia nei possibili risvolti positivi del progresso e chi invece teme possa comportare scenari catastrofici. Le macchine ci rubano lavoro o ci liberano da esso? Con questa ricerca ci si pone l'obiettivo di analizzare le effettive prospettive dei prossimi decenni. Nel capitolo 2 che è il corpo della tesi prenderemo soprattutto in conto il lavoro accademico di Frey ed Osborne dell'Oxford Martin School, intitolato "The future of employment: how susceptible are jobs to computerisation?" (2013). Essi sono stati tra i primi a studiare e quantificare cosa comporteranno le nuove tecnologie in termini di impiego. Il loro obiettivo era individuare le occupazioni a rischio, da qui a vent'anni, nel mercato del lavoro degli Stati Uniti e la relazione che intercorre tra la loro probabilità di essere computerizzati e i loro salari e livello d'istruzione medi, il tutto valutato attraverso l'ausilio di una nuova metodologia che si vedrà nel dettaglio. A conclusioni simili alle loro, per certi aspetti, è successivamente giunto anche Autor; tra l'altro viene spesso citato per altre sue opere dagli stessi Frey e Osborne, che usano le sue categorizzazioni per impostare la struttura del loro calcolo dell'automatizzabilità dei lavori utilizzando i recenti miglioramenti nelle scienze ingegneristiche quali ML (Machine Learning ad esempio Data mining, Machine vision, Computational statistics o più in generale AI) e MR (Mobile robotics) come strumenti di valutazione. Oltre alle sue ricerche, si presenteranno brevemente i risultati di un recente sondaggio tenuto dal Pew Research Center in cui importanti figure dell'informatica e dell'economia esprimono il loro giudizio sul futuro panorama del mondo del lavoro, considerando l'imminente ondata di innovazioni tecnologiche. La tesi si conclude con un'elaborazione personale. In questo modo si prenderà coscienza dei problemi concreti che il progresso tecnologico potrebbe procurare, ma anche dei suoi aspetti positivi.
Resumo:
Il lavoro svolto si concentra sul trasporto di carica e spin in dispositivi trilayer La0.7Sr0.3MnO3/SrTiO3/Co multifunzionali. Questi dispositivi mostrano sia magnetoresistenza che resistive switching, con un'interessante interazione fra i due effetti. Le giunzioni SrTiO3 sono state scelte per questo lavoro sia per via dei precedenti studi su SrTiO3 come barriera in dispositivi spintronici (cioè dispositivi con magnetoresistenza), sia perché sono promettenti come materiale base per costruire memristor (cioè dispositivi con resistive switching). Il lavoro di tesi è stato svolto all'Istituto per lo studio dei materiali nanostrutturati (ISMN-CNR) a Bologna. Nella prima parte di questa tesi illustrerò la fisica dietro al resistive switching e alla magnetoresistenza di dispositivi trilayer, mostrando anche risultati di studi su dispositivi simili a quelli da me studiati. Nella seconda parte mostrerò la complessa fisica degli ossidi utilizzati nei nostri dispositivi e i possibili meccanismi di trasporto attraverso essi. Nell'ultima parte descriverò i risultati ottenuti. I dispositivi La0.7Sr0.3MnO3/SrTiO3/Co sono stati studiati tramite caratterizzazione elettrica, di magnetotrasporto e con spettroscopia di impedenza. Le misure ottenute hanno mostrato una fisica molto ricca dietro al trasporto di spin e carica in questi dispositivi, e la mutua interazione fra fenomeni spintronici e di resistive switching rappresenta una chiave per comprendere la fisica di questi fenomeni. Analisi dati della dipendenza della resistenza della temperature e caratteristiche corrente-tensioni saranno usati per quantificare e descrivere il trasporto in questi dispositivi.
Resumo:
Un discreto numero di molecole biologicamente attive contenute nei cibi vegetali si suppone esercitino un ruolo preventivo e favorevole su molteplici funzioni dell’organismo, con meccanismi d’azione spesso legati alla modulazione diretta e indiretta dello stress ossidativo. Acido ascorbico, tocoferoli, carotenoidi, polifenoli, posseggono attività antiossidante e giocano un ruolo positivo nella conservazione dello stato di salute. L’elevato contenuto di essi nei peperoni dolci (Capsicum Annuum L.) ha incrementato l’interesse nei confronti di questi vegetali da parte del settore agronomico e dell’industria alimentare. È tuttavia noto che la concentrazione di composti bioattivi può essere molto diversa anche tra cultivar della stessa specie vegetale ed è pertanto importante evidenziare il contenuto quali-quantitativo delle varie molecole nelle diverse cultivar di peperoni dolci, in modo da evidenziare le più ricche di tali componenti. Occorre però tenere conto anche della biodisponibilità e bioaccessibilità dei diversi componenti funzionali. Infatti il possibile effetto positivo di tali molecole non dipende solo dal loro contenuto nell’alimento ma soprattutto dalla quantità che viene rilasciata dalla matrice alimentare durante il processo digestivo, e che quindi risulta essere potenzialmente biodisponibile e attivo nell’organismo. Scopo della ricerca presentata è stato valutare e confrontare la digeribilità e la bioaccessibilità di alcuni composti bioattivi antiossidanti in peperoni dolci rossi e gialli appartenenti a due diverse cultivar, Lamuyo e Corno di Toro. Il contenuto fenolico totale e di vitamina C, l’attività antiossidante totale sono stati determinati nei campioni di peperone digeriti in vitro, e comparati ai prodotti freschi, evidenziando differenze significative in termini di bioaccessibilità in particolare tra i peperoni rossi delle due cultivar. Sebbene il processo di digestione in vitro sia una simulazione parziale ed incompleta di quanto accade in vivo, la valutazione di un alimento dopo averlo sottoposto a tale processo rappresenta un importante progresso nello studio delle proprietà e del valore nutrizionale degli alimenti.
Resumo:
Per il presente lavoro, sono state seguite due perforazioni a carotaggio continuo, eseguite ai piedi di un versante potenzialmente instabile attraversato dalla linea ferroviaria Bologna-Pistoia. In primo luogo è stata interpretata la stratigrafia del sito in esame su base della descrizione delle carote di sondaggio, e successivamente sono stati caratterizzati dal punto di vista geologico-tecnico alcuni campioni di terreno prelevati a diverse profondità. Sono state definite le caratteristiche granulometriche e i limiti di plasticità dei campioni, ed è stata condotta una prova di taglio anulare su uno di essi. Si è posta l'attenzione, in modo particolare, sull'interpretazione dei parametri di resistenza residua ottenuti in relazione alle proprietà indice del terreno.
Resumo:
Lo scopo di questa tesi è quello di evidenziare, attraverso varie analisi statistiche ed applicazione di modelli stocastici, il comportamento strutturale e funzionale dei dinucleotidi che compongono le sequenze di DNA di diversi organismi. Gli organismi che abbiamo scelto di prendere in considerazione sono l'uomo, il topo e l'Escherichia coli. Questa scelta non è stata casuale, ma oculata, al fine di mettere in risalto alcune differenze tra organismi eucarioti, quali l'uomo e il topo, ed organismi procarioti come il batterio E.coli. Nella prima parte del nostro studio, abbiamo computato le distanze che intercorrono tra occorrenze successive dello stesso dinucleotide lungo la sequenza, usando un metodo di non sovrapposizione, ed abbiamo iterato il calcolo per tutti i 16 dinucleotidi. Dopodiché ci siamo preoccupati di graficare le distribuzioni di distanza dei 16 dinucleotidi per l'E.Coli, il topo e l'uomo; gli istogrammi evidenziano un comportamento anomalo della distribuzione di CG che accomuna gli organismi eucarioti e di cui, invece, è esente l'organismo procariote esaminato. Questo dato statistico trova una spiegazione nei processi biologici di metilazione che possono innescarsi sul dinucleotide CG nelle sequenze eucariotiche. In seguito, per determinare quanto ciascuna delle 16 distribuzioni si discosti dalle altre abbiamo usato la divergenza di Jensen-Shannon. Per quantificare le differenze sostanziali tra le distribuzioni di CG dei 3 organismi considerati abbiamo deciso di verificare quale fosse il miglior fit per tali curve tra un esponenziale ed una power-law. L'esponenziale rappresenta un buon fit per le code delle distribuzioni di CG del topo e dell'uomo; ciò rivela la presenza di una lunghezza caratteristica per entrambi gli organismi. Nella seconda parte dello studio, i risultati vengono confrontati con modelli markoviani: sequenze random generate con catene di Markov di ordine zero (basate sulle frequenze relative dei nucleotidi) e uno (basate sulle probabilità di transizione tra diversi nucleotidi). Quest'ultima riproduce abbastanza fedelmente la sequenza biologica di partenza, per cui abbiamo scelto di utilizzare la catena Markov del 1° ordine per altre analisi statistiche riguardanti le distribuzioni dei nucleotidi, dinucleotidi, ed anche dei trinucleotidi con particolare interesse per quelli in cui è contenuto CG, in modo da verificare se l'anomalia si ripercuote anche in essi. Riteniamo pertanto che metodi basati su questo approccio potrebbero essere sfruttati per confermare le peculiarità biologiche e per migliorare l'individuazione delle aree di interesse, come le isole CpG, ed eventualmente promotori e Lamina Associated Domains (LAD), nel genoma di diversi organismi.
Resumo:
La tesi è strutturata in tre macro capitoli: • e-learning: questo capitolo tratta i tre principi su cui è basato questo progetto quali e-learning, m-learning ed incidental learning descrivendo l’evoluzione di questi tre concetti e analizzando ognuno di essi nel dettaglio partendo dal principio, l’e-learning. Verranno poi presentati dei progetti inerenti a queste tipologie di apprendimento per fare in modo di dare un’idea più chiara di questi concetti. • Specifiche di progetto: in questo secondo capitolo vengono descritte, ad alto livello, le tecnologie utilizzate per lo sviluppo di questo progetto, descrivendo, per ognuna, le caratteristiche e le applicazioni che essa ha avuto all’interno del progetto. • Implementazione: nel terzo e ultimo capitolo verranno descritte, e motivate, le scelte implementative adottate per sviluppare l’applicazione iLocalApp e verranno mostrati scorci di codice per rendere più chiaro l’utilizzo delle varie API e tecnologie all’interno del progetto.
Resumo:
Negli ultimi decenni la materia oscura è stata oggetto di crescente interesse scientifico: dati sperimentali indicano che essa costituisce il 26.8% della massa totale dell'Universo ma le sue origini e natura rimangono ancora ignote. Essa interagisce solo gravitazionalmente in quanto priva di carica, caratteristica che ne rende molto difficile la rivelazione. Numerosi esperimenti in tutto il mondo sono alla ricerca di maggiori informazioni riguardo la natura della materia oscura tramite metodi di rivelazione indiretta e diretta; questi ultimi sono accumunati da rivelatori molto massivi per sopperire alla piccola sezione d'urto di interazione e situati in ambienti molto isolati per diminuire il rumore di fondo dovuto alla radioattività terrestre. Tra le varie ipotesi avanzate riguardo la natura della materia oscura spiccano le WIMP, Weakly Interacting Massive Particle. L'esperimento XENON, situato ai Laboratori Nazionali del Gran Sasso, si occupa della rivelazione diretta di WIMP studiandone l'urto elastico con i nuclei di Xeno, presente allo stato liquido e gassoso all'interno della TPC, il rivelatore fulcro dell'esperimento. I primi risultati dell'ultima fase del progetto sono attesi per l'inizio del 2016; grazie alla massa fiduciale di circa una tonnellata di Xeno, da cui il nome XENON1T, e a migliorie atte a diminuire il rumore di fondo, quali la scelta accurata di materiali a bassa radioattività e a un sistema di veto dei muoni, si ipotizza che il rivelatore raggiungerà una sensibilità due ordini di grandezza superiore a quelle finora raggiunte. Sono in fase di ricerca soluzioni per incrementare la raccolta di luce del rivelatore, nell'ottica di diminuire l'energia di soglia di rivelazione migliorandone la sensibilità. Una delle possibili soluzioni consiste nell'affiancare i PMT già in uso con fotomoltiplicatori al Silicio SiPM. Essi dovranno essere in grado di lavorare a una temperatura di sim ~170 K ed avere una buona efficienza di rivelazione per fotoni di lunghezza d'onda di ~178 nm. Questo lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo del lavoro di tesi presentato è stato la misura della variazione di guadagno e conteggi di buio dei SiPM a disposizione in funzione della temperatura
Resumo:
Siamo ormai abituati a vivere in un mondo pieno di dispositivi intelligenti ed un sistema domotico deve essere facilmente integrato con essi. L'obbiettivo di questa tesi è di estendere con il concetto di transducer il prototipo di Home Manager, applicazione per la gestione di una casa intelligente che sfrutta la tecnologia TuCSoN. I vantaggi di questa scelta sono molteplici: permettendo al media di coordinazione di gestire le interazioni fra gli agenti e l'ambiente, si separano i problemi implementativi da quelli coordinativi, guadagnando anche un sistema più facilmente ispezionabile, con componenti sostituibili e manutenibili. Dopo un'introduzione alla domotica, all'architettura Butlers e all'infrastruttura TuCSoN, pilastri su cui è basato Home Manager, si passerà ad una fase di analisi dello stato attuale del prototipo, per comprendere dove e perché andare a introdurre il concetto di transducer. Seguiranno poi le fasi di progettazione e, infine, di implementazione di questa tecnologia in Home Manager.
Resumo:
La presenza di residui dei farmaci ad uso umano e veterinario nelle acque superficiali è in costante aumento a causa del loro elevato consumo. L’impatto ambientale dei prodotti farmaceutici è riconosciuto in tutto il mondo ma attualmente ancora non sono presenti degli Standard di qualità ambientale per queste sostanze in ambiente acquatico. L’agenzia europea per i farmaci (EMEA) ha introdotto delle linee guida per la valutazione del rischio ambientale per tutti i nuovi farmaci prima di provvedere alla registrazione, ma in nessun caso la loro autorizzazione in commercio è vietata. Una volta assunti, i farmaci sono escreti dagli organismi in forma nativa o come metaboliti, e attraverso gli scarichi urbani raggiungono i depuratori che li rimuovono solo in parte. Di conseguenza, i residui dei farmaci vengono ritrovati nei fiumi, nei laghi, fino alle acque marine costiere. Anche se presenti a basse concentrazioni (ng-μg/L) nelle acque superficiali, i farmaci possono provocare effetti avversi negli organismi acquatici. Queste specie rappresentano involontari bersagli. Tuttavia molti di essi possiedono molecole target simili a quelle dell’uomo, con i quali i farmaci interagiscono per indurre gli effetti terapeutici; in questo caso i farmaci ambientali possono causare effetti specifici ma indesiderati sulla fisiologia degli animali acquatici. Le interazioni possono essere anche non specifiche perché dovute agli effetti collaterali dei farmaci, ad esempio effetti ossidativi, con potenziali conseguenze negative su vertebrati ed invertebrati. In questo lavoro sono stati valutati i potenziali effetti indotti nelle larve di orata da quattro classi di farmaci ovvero: carbamazepina (antiepilettico), ibuprofene (antinfiammatorio non steroideo), caffeina (stimolante) e novobiocina (antibiotico). In particolare, in questo lavoro si è valutato inizialmente il tasso di sopravvivenza delle larve di orata esposte ai farmaci, per verificare se l’esposizione determinasse effetti di tossicità acuta; successivamente si è passati alla valutazione di due biomarker : il danno al DNA e la perossidazione lipidica per verificare la presenza di effetti tossici sub-letali. Le larve sono state esposte per 96 ore alle concentrazioni di 0.1, 1 (MEC), 10 e 50 µg/L (>MEC) di carbamazepina e novobiocina, a 0.1, 5 (MEC),10 e 50 µg/L (> MEC) di ibuprofene ed a 0.1, 5 (MEC),15 e 50 µg/L (> MEC) di caffeina, rappresentative delle concentrazioni riscontrate in ambiente acquatico e al di sopra di quest’ultimo. L’analisi dei dati sulla sopravvivenza ha dimostrato che la carbamazepina, l’ibuprofene, la novobiocina e la caffeina non hanno effetti significativi alle concentrazioni testate. La valutazione dei biomarker ha evidenziato un generale decremento significativo dei livelli di danno primario al DNA e per la perossidazione lipidica è stato generalmente osservato un decremento alle dosi dei farmaci più basse, seguito da un aumento a quelle più elevate. Nell’insieme i dati indicano che alle concentrazioni testate, i farmaci carbamazepina, caffeina, ibuprofene e novobiocina non hanno prodotto alterazioni attribuibili alla comparsa di effetti avversi nelle larve di S. aurata dopo 96 ore di esposizione.
Resumo:
L’obiettivo che questo elaborato di Tesi si pone è quello di dimostrare l’esistenza di una correlazione tra la produttività agricola e le principali variabili climatiche rilevate per la Provincia di Ravenna. La prima parte del lavoro ha riguardato la raccolta dei dati da archivi digitali e cartacei inerenti l’andamento climatico dell’ultimo trentennio e la produzione agronomica di alcune colture selezionate. I dati meteo sono stati organizzati secondo variabili a livello annuale, stagionale e mensile; questi parametri climatici, assieme ai dati di produttività, sono stati ordinati in un database che copre il periodo 1976 – 2014, dal quale si è partito per procedere alla loro elaborazione statistica. Il lavoro è stato organizzato in tre fasi: ricerca di quali variabili climatiche a scala locale hanno determinato maggiormente l’andamento della produzione agricola di specifiche colture; ricerca di una possibile relazione tra l’indice climatico a scala continentale NAO (North Atlantic Oscillation) e le variabili climatiche locali; infine è stato eseguito un tentativo per cercare di relazionare direttamente la produttività agricola con l’andamento del NAO. La divisione dell’analisi dei dati in queste tre parti ha permesso uno studio più dettagliato di quelle che potrebbero essere le relazioni fra gli elementi considerati, allo scopo di valutare una possibile relazione complessiva tra di essi. Tra i risultati ottenuti, le relazioni che hanno dimostrato maggiormente gli andamenti previsti si sono verificate nel caso della produzione dei cereali autunno – vernini, sia rispetto alle variabili climatiche locali che rispetto all’andamento del NAO. Inoltre, con la relazione tra NAO invernale e variabili climatiche locali, è stata verificata l’effettiva influenza di questo indice sui parametri climatici del territorio in oggetto.
Resumo:
In questa tesi si sono valutate le prestazioni di un sistema di localizzazione multi-antenna di tag radio frequency identification (RFID) passivi in ambiente indoor. Il sistema, composto da un reader in movimento che percorre una traiettoria nota, ha come obiettivo localizzare il tag attraverso misure di fase; più precisamente la differenza di fase tra il segnale di interrogazione, emesso dal reader, e il segnale ricevuto riflesso dal tag che è correlato alla distanza tra di essi. Dopo avere eseguito una ricerca sullo stato dell’arte di queste tecniche e aver derivato il criterio maximum likelihood (ML) del sistema si è proceduto a valutarne le prestazioni e come eventuali fattori agissero sul risultato di localizzazione attraverso simulazioni Matlab. Come ultimo passo si è proceduto a effettuare una campagna di misure, testando il sistema in un ambiente reale. Si sono confrontati i risultati di localizzazione di tutti gli algoritmi proposti quando il reader si muove su una traiettoria rettilinea e su una traiettoria angolare, cercando di capire come migliorare i risultati.
Resumo:
Le ammine biogene sono il prodotto della decarbossilazione degli amminoacidi da parte di enzimi microbici. Tra essi vi è la tirosina decarbossilasi, caratterizzata dalla possibilità di utilizzare, in assenza di tirosina, la fenilalanina, ottenendo la 2-feniletilamina. In particolare, la tiramina è responsabile della comparsa di importanti sintomi tossicologici, raggruppati con il termine “cheese reaction”. In questa sperimentazione sono stati presi in considerazione 2 ceppi di Enterococcus mundtii (C46 e C53) coltivati in BHI in presenza o assenza di tirosina per caratterizzarne l’attività decarbossilasica. Sono state monitorate la crescita microbica, mediante densità ottica e la produzione di tiramina e 2-feniletilamina mediante tecnica HPLC. Dai risultati ottenuti è emerso che entrambi i ceppi producono tiramina sia in presenza che in assenza del precursore. La concentrazione massima rilevata per il ceppo C46 è stata di 797 mg/l e 767 mg/l per C53. È inoltre emerso che essi possono decarbossilare la fenilalanina, ma solo dopo 8 e 24 ore di incubazione per il ceppo C46 e C53. Per quanto concerne la crescita, entrambi i ceppi hanno raggiunto il massimo valore di densità ottica dopo 6-8 ore a 37°C, con una durata della fase lag ridotta, seguita da un rapido aumento della densità ottica. Non sono state riscontrate differenze significative in termini di massima densità ottica raggiunta (A) e durata della fase lag (λ) tra i due ceppi, mentre C53 ha presentato valori inferiori per quanto riguarda la velocità incremento della densità ottica in fase esponenziale (µmax). Dagli studi genici è emerso che l’organizzazione dell’operone dei ceppi considerati corrisponde con quella filogeneticamente riconosciuta per il genere Enterococcus, ma nonostante la similarità, l’operone manca del gene codificante per l’antiporto Na+/H+. È stata inoltre evidenziata nel genoma dei ceppi considerati un’altra regione che contiene geni codificanti per un ulteriore sistema decarbossilasico.
Resumo:
La presente tesi nasce da un tirocinio avanzato svolto presso l’azienda CTI (Communication Trend Italia) di Milano. Gli obiettivi dello stage erano la verifica della possibilità di inserire gli strumenti automatici nel flusso di lavoro dell’azienda e l'individuazione delle tipologie testuali e delle combinazioni linguistiche a cui essi sono applicabili. Il presente elaborato si propone di partire da un’analisi teorica dei vari aspetti legati all’utilizzo della TA, per poi descriverne l’applicazione pratica nei procedimenti che hanno portato alla creazione dei sistemi custom. Il capitolo 1 offre una panoramica teorica sul mondo della machine translation, che porta a delineare la modalità di utilizzo della TA ad oggi più diffusa: quella in cui la traduzione fornita dal sistema viene modificata tramite post-editing oppure il testo di partenza viene ritoccato attraverso il pre-editing per eliminare gli elementi più ostici. Nel capitolo 2, partendo da una panoramica relativa ai principali software di traduzione automatica in uso, si arriva alla descrizione di Microsoft Translator Hub, lo strumento scelto per lo sviluppo dei sistemi custom di CTI. Nel successivo passaggio, l’attenzione si concentra sull’ottenimento di sistemi customizzati. Un ampio approfondimento è dedicato ai metodi per reperire ed utilizzare le risorse. In seguito viene descritto il percorso che ha portato alla creazione e allo sviluppo dei due sistemi Bilanci IT_EN e Atto Costitutivo IT_EN in Microsoft Translator Hub. Infine, nel quarto ed ultimo capitolo gli output che i due sistemi forniscono vengono rivisti per individuarne le caratteristiche e analizzati tramite alcuni tool di valutazione automatica. Grazie alle informazioni raccolte vengono poi formulate alcune previsioni sul futuro uso dei sistemi presso l’azienda CTI.
Resumo:
Da una riflessione sul multilinguismo e sul diritto di immigrati e turisti, o più in generale residenti stranieri, di accedere ai servizi pubblici nella propria lingua, nasce l’idea di questo elaborato. Ci si è voluti concentrare sull’interpretazione telefonica (IT) in quanto mezzo utile per accedere a un interprete rapidamente, soprattutto in caso di emergenza. L’elaborato presenta inizialmente un excursus storico sull’interpretazione grazie al quale si giunge a trattare dell’interpretazione a distanza, che viene divisa in videoconference interpreting e interpretazione telefonica (IT): Di quest’ultima, tema dell’elaborato,si analizza l’implementazione e si espongono le controversie che la riguardano. A seguire ci si dedica alla ricerca sull’IT che viene svolta in una realtà aziendale basca di punta nel settore spagnolo: Dualia. Viene descritta l’azienda, la sua storia, i servizi che fornisce, e le modalità di lavoro degli interpreti. La seconda parte dell’elaborato tratta dell’esposizione e analisi dei risultati della ricerca. L’obiettivo dello studio è quello di ricavare la prospettiva di interpreti e clienti sull’IT e trarne spunti di miglioramento per il servizio. La ricerca è avvenuta per mezzo di due tipi di questionari indirizzati uno ai clienti dell’IT, e l’altro agli interpreti telefonici che lavorano con Dualia. Il questionario per i clienti ha riscontrato che essi utilizzano facilmente l’IT, che è un grande aiuto nel loro lavoro e che gli interpreti sono considerati professionali. Il questionario per gli interpreti ha creato un profilo dell’interprete telefonico, ha riscontrato una propensione degli interpreti e ha mostrato le problematiche principali dell’interprete telefonico.
Resumo:
Questa Tesi di Laurea si prefigge gli obiettivi di riuscire a caratterizzare i Sensori Hall e di testare un Sensore Hall di Asahi-Kasei, il CQ-3300, di cui l’Università di Bologna è in possesso. Per questa ragione si può dividere il processo di realizzazione della tesi in 2 fasi ben distinte: • Una prima fase dedicata interamente allo studio dell’argomento e alla ricerca online di Sensori Hall presenti sul mercato. Si è dunque approfondito il fenomeno fisico su cui essi basano il proprio funzionamento, le loro caratteristiche principali e le loro applicazioni. Se ne sono poi scelti due, oltre al CQ-3300, tra quelli presenti sul mercato per poterli caratterizzare e confrontare con il suddetto. • Una seconda fase dedicata ai test sul Sensore nel laboratorio di elettronica. Durante questa fase è stato montato su PCB (Printed Circuit Board) il sensore Hall CQ-3300 e sono stati realizzati dei circuiti di prova con lo scopo di verificare il corretto funzionamento del Sensore e l’effettiva banda di funzionamento. I tests in corrente alternata sono stati effettuati grazie all’ausilio di un generatore di corrente in grado di convertire un segnale in tensione in un segnale in corrente. Questo generatore di corrente però non può erogare un segnale in corrente di ampiezza maggiore a 1 Ampere, ragione per cui si è preferito tenersi alla larga da tale valore. L’Università di Bologna ritiene necessario testare questo sensore in termini di banda, in quanto ha progettato un Sensore Hall dalle caratteristiche simili in termini di banda di lavoro al componente in questione, il che rende importante capire se quest’ultimo tiene fede alla banda di lavoro che viene indicata sul suo datasheet, ovvero 1 MHz.