63 resultados para TECNOLOGIA DE LA COMUNICACION
Resumo:
Questo elaborato tratta alcuni dei più noti framework di programmazione avanzata per la costruzione di piattaforme distribuite che utilizzano il linguaggio di programmazione avanzata Scala come fulcro principale per realizzare i propri protocolli. Le tecnologie analizzate saranno Finagle, Akka, Kafka e Storm. Per ciascuna di esse sarà presente una sezione di introduzione, documentazione e un esempio di codice. L’obiettivo dell’elaborato è l’analisi approfondita delle tecnologie sopraelencate per comprendere a fondo le tecniche di programmazione che le rendono uniche nel loro genere. Questo percorso fornisce una chiave di lettura obiettiva e chiara di ciascuna tecnologia, sarà cura del lettore proseguire nello studio individuale della specifica tecnica che ritiene essere più efficace o interessante. Alla fine della tesi è presente un aperto dibattito in cui le quattro tecnologie vengono messe a confronto e giudicate in base alle loro caratteristiche. Inoltre vengono ipotizzate realtà in cui si possa trovare collaborazione tra i vari framework ed, infine, è presente una mia personale opinione basata sulla mia esperienza in merito.
Resumo:
Lo scopo dell’elaborato di tesi è la progettazione e lo sviluppo di un’applicazione per il modulo Bluetooth Low Energy (BLE) Texas Instrument CC2650 in grado di leggere le informazioni da un sensore analogico, tramite un Analog-Digital- Converter (ADC), e di scambiare i dati con uno smartphone Android in tempo reale. L’interfaccia realizzata deve essere universale, ovvero dovrà essere compatibile con sensori di diverso tipo, facilmente estensibile per l’aggiunta di un numero maggiore di periferiche di lettura e utilizzabile con un ampio numero di dispositivi.
Resumo:
Siamo ormai abituati a vivere in un mondo pieno di dispositivi intelligenti ed un sistema domotico deve essere facilmente integrato con essi. L'obbiettivo di questa tesi è di estendere con il concetto di transducer il prototipo di Home Manager, applicazione per la gestione di una casa intelligente che sfrutta la tecnologia TuCSoN. I vantaggi di questa scelta sono molteplici: permettendo al media di coordinazione di gestire le interazioni fra gli agenti e l'ambiente, si separano i problemi implementativi da quelli coordinativi, guadagnando anche un sistema più facilmente ispezionabile, con componenti sostituibili e manutenibili. Dopo un'introduzione alla domotica, all'architettura Butlers e all'infrastruttura TuCSoN, pilastri su cui è basato Home Manager, si passerà ad una fase di analisi dello stato attuale del prototipo, per comprendere dove e perché andare a introdurre il concetto di transducer. Seguiranno poi le fasi di progettazione e, infine, di implementazione di questa tecnologia in Home Manager.
Resumo:
Al giorno d'oggi l'accessibilità all’informazione e ai prodotti audiovisivi è un argomento particolarmente delicato. Spesso, le categorie più svantaggiate, come le persone affette da disabilità sensoriali e gli stranieri, non hanno pieno accesso alla programmazione televisiva o a eventi ricreativi, culturali o formativi (conferenze, workshop, spettacoli), a causa della mancanza di adeguati servizi di supporto linguistico. Tale carenza rappresenta una mancata opportunità d’integrazione e anche una potenziale perdita, in termini di pubblico e di introiti, per le emittenti e gli enti che organizzano programmi ed eventi di interesse generale. Questa tesi intende analizzare le tecniche attraverso le quali oggi viene realizzata la sottotitolazione interlinguistica in tempo reale. Il nostro obiettivo è quello di dimostrare che approfondendo la ricerca scientifica sul respeaking e su altre tecniche meno costose rispetto alla stenotipia, la sottotitolazione interlinguistica in tempo reale non sarebbe più un miraggio. Il primo capitolo fornisce una panoramica sulla sottotitolazione intralinguistica e interlinguistica e sulla sottotitolazione preregistrata, in diretta e in semi-diretta. Nel secondo capitolo presenteremo il caso dell’azienda Ericsson in Olanda, l'unica a fornire sottotitolazione interlinguistica in tempo reale nei Paesi Bassi, tramite una tecnica che combina un interprete simultaneo, uno stenotipista e un "subtitle keyer" (figura che inserisce i sottotitoli al momento opportuno). La squadra lavora su un segnale dal vivo che viene però trasmesso al pubblico olandese con alcuni secondi di ritardo, permettendo di migliorare la qualità dei sottotitoli. Grazie ad una borsa di studio concessa dal Dipartimento d’Interpretazione e Traduzione di Forlì (Università di Bologna), abbiamo potuto intervistare il responsabile dell’unità di traduzione presso Ericsson, dott. Thijs de Korte, e abbiamo avuto modo di assistere in loco alla realizzazione dei sottotitoli interlinguistici in tempo reale. Il terzo capitolo si concentrerà sulla tecnica del respeaking, dagli ambiti d’uso ai requisiti per svolgere questa professione. Ci concentreremo in particolare sulle somiglianze tra respeaker e interprete simultaneo, che ci condurranno all'esperimento descritto nel capitolo 4. Infatti, date le somiglianze riscontrate tra interpretazione simultanea e respeaking e il potenziale in termini di accessibilità offerto dalla sottotitolazione interlinguistica dal vivo, abbiamo fornito un servizio sperimentale di sottotitolazione in diretta dall’italiano verso l’inglese durante la cerimonia di premiazione del Sedicicorto International Film Festival di Forlì. Dopo aver descritto in dettaglio l’esperienza, analizzeremo i giudizi espressi da ospiti stranieri, pubblico italiano e membri dell'associazione "Sedicicorto", al fine di verificare la qualità del servizio e osservarne i benefici. La conclusione della nostra tesi è che sfruttando appieno il potenziale offerto della tecnologia moderna e approfondendo la ricerca sulle tecniche per la sottotitolazione interlinguistica dal vivo, si potrebbero ridurre i costi dei servizi di supporto linguistico a non udenti e stranieri, incoraggiando dunque aziende ed enti a garantire una maggiore accessibilità all’informazione e agli eventi culturali e formativi.
Resumo:
La tecnologia della diffusion tensor imaging (DTI) è una tecnica non invasiva, che permette di effettuare una caratterizzazione in vivo di diversi tessuti, è una tecnica consolidata in ambito neurologico e rappresenta una metodica ancora da esplorare ma molto promettente in ambito renale. Questo lavoro di tesi si concentra in primo luogo sulla differenziazione di diverse strutture renali quali, la corteccia e la medulla del rene sano, le cisti del rene affetto dalla malattia policistica autosomica dominante e i carcinomi. La seconda parte del lavoro si concentra sui reni policistici, in quanto è una delle malattie genetiche più comuni e la principale causa di insufficienza renale e non è, ad oggi, stata adeguatamente affrontata in questo genere di studi. Il secondo obiettivo è, quindi, di valutare se la tecnica dell’imaging di diffusione potrebbe essere utile per fornire informazioni sullo stato della malattia e sul grado si avanzamento di essa. Sono stati implementati in Matlab gli algoritmi per la costruzione del tensore di diffusione a partire dalle immagini DWI e per la selezione delle ROI sulle varie regioni di interesse. I risultati ottenuti per l’analisi dei reni policistici dimostrano che per gli intervalli temporali considerati non è possibile correlare il valore di diffusività media del parenchima e lo stadio di avanzamento della malattia, stabilito dai valori di eGFR. Per quanto riguarda i risultati ottenuti dalla differenziazione delle diverse strutture renali la tecnica della diffusion imaging risulta essere potenzialmente in grado di differenziare i diversi tessuti renali e di valutare separatamente la funzionalità dei reni.
Resumo:
Il Cloud Computing permette di utilizzare al meglio le risorse distribuite allo scopo di risolvere problemi di computazione su larga scala, e viene distribuito dai provider all'utente finale sotto forma di servizio. Presentati i diversi modelli di distribuzione dei servizi Cloud, si discutono le varie tipologie di servizi offerti. Efficaci meccanismi di elasticità e scalabilità hanno permesso al Cloud Computing di superare lo scoglio iniziale di utilizzo medio dei server al 10%. L'elasticità (rapid elasticity) è l’abilità di acquisire e rilasciare le risorse di un'infrastruttura Cloud su richiesta, l’abilità di un'applicazione di cambiare le sue dimensione durante il suo tempo di esecuzione; la scalabilità è un prerequisito per ottenere una buona elasticità per il sistema, ed è l'abilità che ha un layer di sostenere carichi di lavoro variabili continuando ad adempiere agli obblighi imposti dallo SLA allocando o disallocando risorse computazionali. Le diverse modalità di scaling e il loro utilizzo determinano la scalabilità e di conseguenza l'elasticità del sistema, e sfruttano la virtualizzazione per poter funzionare. Ciò ha portato notevoli benefici perchè aumenta l'utilizzo dei server, migliora l'efficienza del sistema, e dona flessibilità in caso di errori massimizzando il tempo di funzionamento. Sono stati introdotti due esempi di sistemi elastici basati ovviamente sulla virtualizzazione come Amazon Web Services e Microsoft Azure, che dominano il mercato del Cloud Computing e fanno uso dei più efficenti meccanismi d'elasticità. Il cuore di questo elaborato è l'analisi dell'ampliamento dell'adozione del Cloud Computing in azienda Onit Group srl. L'obiettivo è trattare i punti fondamentali per il Cloud Computing, analizzarli e immagazzinare tutte queste conoscenze per analizzare lo stato attuale del Cloud nell'azienda focalizzando l'attenzione sui vantaggi e sugli svantaggi che un sostanziale ampliamento dell'adozione ai sistemi Cloud poteva apportare.
Resumo:
La tesi approfondisce il contributo del design e della tecnologia al processo di innovazione, tale tema verrà approfondito nel corso del secondo capitolo in relazione al settore degli elettrodomestici bianchi. Nel terzo capitolo viene descritta la partecipazione al business game, un software che permette di simulare delle operazioni di gestione aziendale, all'interno di un particolare contesto, ogni giocatore (o squadra) rappresenta il management di un’impresa e deve dunque prendere decisioni in ambito strategico ed operativo. In tale capitolo viene discussa l'importanza che il design e la tecnologia hanno avuto in questo gioco.
Resumo:
Nel corso degli anni le fonti rinnovabili e in particolare il fotovoltaico hanno assunto un ruolo sempre più importante nel panorama energetico italiano. Si è effettuata un’analisi della tecnologia fotovoltaica illustrandone il funzionamento, le tipologie di pannelli, il calcolo dell’energia elettrica producibile e le curve caratteristiche. Dal momento che la maggior parte delle rinnovabili presenta il problema della non programmabilità dovuta alla produzione intermittente, è necessario adottare dei sistemi di accumulo. Tali sistemi vengono mostrati, con particolare riguardo per le batterie al piombo acido e per l’idrogeno immagazzinato in idruri metallici, spiegando nel dettaglio l’elettrolisi e gli elettrolizzatori PEM. Dopo questa panoramica iniziale, si è illustrato l’impianto oggetto di questa tesi, composto principalmente da due pannelli fotovoltaici, un simulatore solare, due batterie al Piombo, un elettrolizzatore, un carico e un alimentatore. In seguito viene spiegata l’attività sperimentale, svolta sulle prove di laboratorio ai fini di ottenere le curve di funzionamento dei vari componenti, tramite due approcci diversi: per il sistema atto all’elettrolisi e per tutti i suoi componenti si è usato un modello black-box, per i pannelli fotovoltaici si è usato un approccio fisico-matematico partendo dalle equazioni del simulatore solare applicandovi i dati dei pannelli del laboratorio. Una volta ottenute queste curve, si è creato un modello completo del laboratorio per simularne il funzionamento al variare dell’irraggiamento. Si è testato prima il modello su un’utenza da 3 kW, poi, dopo aver confrontato gli andamenti reali con quelli ottenuti, si sono simulate varie configurazioni per trovare quella che permette al sistema di produrre idrogeno alla potenza nominale di 250 W in una giornata senza supplemento della rete elettrica.
Resumo:
In questa tesi esaminerò alcuni aspetti fondamentali della tecnologia moderna tra cui alcune leggi chiave che spiegheranno come mai la crescente disoccupazione in Europa, e in occidente in generale, non è causata solamente da crisi finanziarie o politiche, ma dall'intrinseca natura della tecnologia stessa. Ci troveremo nella situazione nella quale una persona non sia in grado di trovare un'occupazione non a causa di demeriti propri, ma poiché il sistema è diventato talmente ottimizzato da tagliare completamente la necessità di alcuni ruoli chiave nel sistema di lavoro. Spiegherò quali sono le strategie da attuare per evitare di trovarsi in questo nuovo sistema di occupazione senza un ruolo al suo interno, quali sono le politiche che un governo debba attuare per garantire i necessari bisogni primari dei propri cittadini, le strutture che ogni azienda deve creare per rimanere all'interno del proprio settore di investimento.
Resumo:
L'utilizzo di percorsi non centralizzati per la comunicazione tra dispositivi mobili presenta notevoli vantaggi, tra i quali una maggiore sicurezza e segretezza e l'indipendenza da infrastrutture esterne (Internet). Gli studi e le implementazioni di questo tipo di funzionalità stanno emergendo recentemente di pari passo con i traguardi raggiunti nel campo della tecnologia mobile, ma si trovano ancora in uno stato sperimentale e poco fruibile in pratica. È stata sviluppata come proof of work un'applicazione che permette di diffondere messaggi tra dispositivi mobili senza connessione a internet, sfruttando un sistema di comunicazione (quasi) peer to peer. Viene descritta in generale l'architettura e il funzionamento dell'applicazione insieme a dei possibili casi d'uso. Inoltre vengono mostrati i metodi vagliati ed effettivamente utilizzati per implementare questo tipo di comunicazione, insieme ad altre caratteristiche secondarie (crittografia). Il risultato conseguito è a tutti gli effetti funzionante e viene ritenuto la soluzione migliore possibile tra tutte quelle trovate, ma presenta comunque diversi difetti. La conclusione raggiunta è che lo stato attuale dell'arte non permetta di raggiungere lo scopo prefissato in maniera ottimale, in quanto è necessario ricorrere a metodi poco funzionali a causa della mancanza di supporto alle tecnologie necessarie.
Resumo:
Nel corso degli ultimi due decenni il trapianto di cuore si è evoluto come il gold standard per il trattamento dell’insufficienza cardiaca allo stadio terminale. Rimane un intervento estremamente complesso; infatti due sono gli aspetti fondamentali per la sua buona riuscita: la corretta conservazione e metodo di trasporto. Esistono due diversi metodi di conservazione e trasporto: il primo si basa sul tradizionale metodo di protezione miocardica e sul trasporto del cuore con utilizzo di contenitori frigoriferi, mentre il secondo, più innovativo, si basa sull’ utilizzo di Organ Care System Heart, un dispositivo appositamente progettato per contenere il cuore e mantenerlo in uno stato fisiologico normotermico attivo simulando le normali condizioni presenti all’interno del corpo umano. La nuova tecnologia di Organ Care System Heart permette un approccio completamente diverso rispetto ai metodi tradizionali, in quanto non solo conserva e trasporta il cuore, ma permette anche il continuo monitoraggio ex-vivo delle sue funzioni, dal momento in cui il cuore viene rimosso dal torace del donatore fino all’ impianto nel ricevente. Il motivo principale che spinge la ricerca ad investire molto per migliorare i metodi di protezione degli organi è legato alla possibilità di ridurre il rischio di ischemia fredda. Questo termine definisce la condizione per cui un organo rimane privo di apporto di sangue, il cui mancato afflusso causa danni via via sempre più gravi ed irreversibili con conseguente compromissione della funzionalità. Nel caso del cuore, il danno da ischemia fredda risulta significativamente ridotto grazie all’utilizzo di Organ Care System Heart con conseguenti benefici in termini di allungamento dei tempi di trasporto, ottimizzazione dell’organo e più in generale migliori risultati sui pazienti.
Resumo:
La presente tesi ha come obiettivo quello di sviluppare un modello per la gestione ottimizzata delle unità di generazione e di accumulo di una microrete elettrica. La tesi analizza, come caso studio di riferimento, una microrete contenente impianti di generazione da fonti rinnovabili, sistemi di accumulo a batteria (BES:Battery Energy System) e stazioni di ricarica per veicoli elettrici. In particolare le stazioni di ricarica sono a flusso bidirezionale, in grado di fornire servizi di tipo "grid-to-vehicle"(G2V) e "vehicle-to-grid" (V2G). Il modello consente di definire, come sistema di dispacciamento centrale, le potenze che le varie risorse distribuite devono erogare o assorbire nella rete nelle 24 ore successive. Il dispacciamento avviene mediante risoluzione di un problema di minimizzazione dei costi operativi e dell'energia prelevata dalla rete esterna. Il problema è stato formulato tramite l'approccio di programmazione stocastica lineare dove i parametri incerti del modello sono modellizzati tramite processi stocastici. L'implementazione del modello è stata effettuata tramite il software AIMMS, un programma di ottimizzazione che prevede al suo interno delle funzionalità specifiche per la programmazione stocastica
Resumo:
L'energia idroelettrica è una fonte di energia alternativa e rinnovabile che sfrutta il moto dell'acqua, generato grazie all'energia potenziale presente tra due bacini posti a quote diverse per convertire l'energia meccanica in elettrica attraverso un alternatore collegato a turbina. Gli impianti si classificano in: impianti ad acqua fluente, a deflusso regolato, ad accumulo tramite pompaggio. Le turbine idrauliche sono quei dispositivi meccanici in grado di convertire l'energia cinetica in energia meccanica. Fra tutte studieremo la Pelton, la Francis e la Kaplan e i loro criteri di scelta. I grandi impianti hanno un notevole impatto ambientale, ecco perché la nuova tecnologia si basa sul mini idroelettrico; quest'ultimo dal punto di vista economico è competitivo rispetto alle altre fonti rinnovabili ed ai combustibili fossili.
Resumo:
La chirurgia refrattiva è una delle branche della medicina con il più alto bacino di potenziali pazienti, a causa dell’enorme incidenza nella popolazione dei difetti visivi, in particolare la miopia. E’ infatti stato stimato che il 20% della popolazione mondiale ne sia affetto, e solo in Italia gioverebbero di un intervento più di 8.000.000 di persone. L’obiettivo di questa tesi è mostrare i principi fisici, le caratteristiche e il funzionamento dei principali strumenti usati per la cura di questi difetti, ovvero il laser ad eccimeri e il laser a femtosecondi; oltre alle diverse operazioni chirurgiche in cui vengono utilizzati, le quali sono tutt’ora in continua evoluzione. Nel primo capitolo viene effettuata una breve presentazione dell’anatomia oculare,in particolare della cornea e dei difetti refrattivi; nel secondo vengono invece trattati i principi fisici su cui si basa la creazione di un raggio laser e si presentano le principali famiglie di laser chirurgici. Nel terzo capitolo ci si focalizzerà sul laser ad eccimeri, partendo da una trattazione degli eccimeri per poi passare alla struttura e caratteristiche della macchina e alle operazioni chirurgiche in cui viene usata. Infine nel quarto capitolo viene presentato il laser a femtosecondi, partendo dalla creazione di impulsi ultracorti per poi analizzare le operazioni chirurgiche che sfruttano questa tecnologia.
Resumo:
Il mio elaborato ha come scopo quello di creare un quadro della situazione regionale dal punto di vista delle start-up eco-innovative. Per fare questo ho utilizzato un sito/piattaforma internet contenente il registro delle start-up innovative in Italia. A partire da tale supporto ho analizzato 700 start-up situate nella regione Emilia-Romagna. Tra queste, ho individuato 78 start-up eco-innovative. Lo studio vuole comprendere le tendenze e la diffusione di tali start-up, studiandone, nell' ordine, la distribuzione geografica, l’inizio delle attività, il codice Ateco, la tecnologia OECD di riferimento. Con questo studio si arriverà poi in definitiva a capire quanto l’ambito della Green Economy sia diffuso in Emilia-Romagna.