958 resultados para Tecnologie per l’interpretazione
Resumo:
L'obiettivo della tesi è esplorare i più avanzati dispositivi, sensori e processori per la computazione spaziale, correlarli con i modelli di spatial computing, e derivarne un'architettura concettuale di middleware distribuito che possa supportare le più avanzate applicazioni in mobilità.
Resumo:
L’aterosclerosi rappresenta una delle malattie più diffuse in tutto il mondo ed è caratterizzata da infiammazione cronica delle arterie di grande e medio calibro. In Italia, per esempio, le conseguenze dell’aterosclerosi, quali infarti e ischemie, sono la principale causa di 224.482 decessi annui, pari al 38,8% del totale delle morti. Oltre all’aterosclerosi, una cardiomiopatia congenita abbastanza diffusa, soprattutto nei bambini, è la presenza di anomalie dei setti inter-atriali e inter-ventricolari, che seppure non siano molto pericolosi per la vita del paziente, possono portare a ipertensione polmonare. L’obiettivo di questa tesi è mostrare le tecnologie recenti utilizzati per la cura dell’aterosclerosi e per la rimozione delle placche ateromatose, e per la chiusura trans-catetere dei difetti inter-atriali e inter-ventricolari. Nel primo capitolo viene effettuata una concisa presentazione dell’anatomia e della fisiologia dell’apparato cardio-vascolare; nel secondo capitolo invece vengono prese in rassegna le patologie appena citate e le metodiche di imaging per la loro analisi, evidenziandone, per ognuna, pregi e difetti. Nel terzo capitolo verranno presentate tutte le tecnologie recenti per la cura dell’aterosclerosi, concentrandoci principalmente sulle arterie coronarie, che sono, statisticamente, le più colpite da questa patologia. Infine, sempre nel terzo capitolo, verranno presentati i dispositivi medici per la chiusura dei difetti inter-atriali e inter-ventricolari, chiamati informalmente “ombrellini". L’ultimo capitolo riguarderà un caso particolare, vale a dire il trattamento delle lesioni alle biforcazioni coronariche, che richiedono tecnologie per la cura leggermente diverse rispetto al trattamento di una lesione aterosclerotica di una singola arteria coronarica.
Resumo:
Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. Lo scopo che mi propongo con questa tesi è quello quindi di cercare di fare chiarezza in quello che è il mondo del Cloud computing, focalizzandomi particolarmente su quelli che sono i design pattern più utilizzati nello sviluppo di applicazioni di tipo cloud e presentando quelle che oggi rappresentano le principali tecnologie che vengono utilizzate sia in ambito professionale, che in ambito di ricerca, per realizzare le applicazioni cloud, concentrandomi in maniera particolare su Microsoft Orleans.
Resumo:
Il presente studio ha analizzato e seguito il monitoraggio ambientale relativo al progetto di adeguamento con caratteristiche autostradali della SP46 Rho-Monza. Più precisamente il progetto dii riqualificazione prevede la realizzazione di nuove infrastrutture, ma anche l’ammodernamento di quelle già esistenti. Più precisamente è stata quindi prevista l’analisi degli interventi eseguiti e delle tecnologie utilizzate per il monitoraggio ambientale presso i comuni di Milano e Paderno Dugnano: realizzazione di perforazioni a distruzione di nucleo, la messa in opera di piezometri a tubo aperto nei fori di sondaggio realizzati, l’esecuzione di rilevazioni chimico-fisiche sulla falda intercettata dai piezometri realizzati. Tramite questo studio è stato così possibile ricostruire il livello freatimetrico della falda direttamente interessata dal progetto di riqualificazione della SP46 ed intercettata dai piezometri. In secondo luogo oltre alla ricostruzione della soggiacenza della falda, è stato valutato l’impatto antropico sulla qualità delle acque sotterranee della falda stessa, grazie alla determinazione di parametri chimico-fisici e ad analisi di laboratorio su campioni di acqua prelevati.
Resumo:
Il presente lavoro di tesi è stato svolto a seguito delle indagini geognostiche previste per un progetto ingegneristico volto alla riqualificazione con caratteristiche autostradali della SP46 Rho-Monza e del preesistente sistema autostradale A8/A52, la cui area interessata dai lavori è ubicata nella parte Nord del comune di Milano. Lo studio è stato finalizzato alla valutazione, attraverso metodologie e tecnologie specifiche, delle caratteristiche idrodinamiche delle acque sotterranee presenti nella zona oggetto dei lavori. A seguito di misure sul livello piezometrico della falda, compiute dopo la realizzazione di 8 piezometri, è stata realizzata (con l’ausilio del software Surfer 8.0® – Golden Software Inc.) una mappa relativa all’andamento delle isopieze e dei gradienti di flusso, attraverso interpolazione spaziale con metodo Kriging delle misure. La ricostruzione dell’assetto della falda così ottenuto ha permesso di fornire utili indicazioni riguardo le successive scelte progettuali.
Resumo:
La "paralisi agitante", come �e stata de�finita da James Parkinson nel 1817, �è la seconda malattia neurodegenerativa pi�ù comune dopo la malattia di Alzheimer, con una frequenza che varia tra 8 e 18 per 100000 persone all'anno. L'esordio è raro prima dei 50 anni con un aumento dell'incidenza attorno ai 60. Ad oggi, non esiste una cura per la malattia di Parkinson ed una via, assieme al trattamento farmacologico, per fornire un sollievo dai sintomi è la riabilitazione. Nel primo capitolo dell'elaborato vengono descritti l'eziopatogenesi e i sintomi principali della malattia; nel secondo viene presentata una descrizione sistematica delle tecnologie applicate oggi a fini riabilitativi. La terza parte unisce le prime due e rappresenta l'obiettivo della tesi: vengono presi in considerazione i principali sintomi della malattia e, per ognuno di essi, viene mostrato come le tecnologie vengono impiegate per fornire un supporto ed un aiuto alla rieducazione motoria e cognitiva
Resumo:
Questo elaborato tratta alcuni dei più noti framework di programmazione avanzata per la costruzione di piattaforme distribuite che utilizzano il linguaggio di programmazione avanzata Scala come fulcro principale per realizzare i propri protocolli. Le tecnologie analizzate saranno Finagle, Akka, Kafka e Storm. Per ciascuna di esse sarà presente una sezione di introduzione, documentazione e un esempio di codice. L’obiettivo dell’elaborato è l’analisi approfondita delle tecnologie sopraelencate per comprendere a fondo le tecniche di programmazione che le rendono uniche nel loro genere. Questo percorso fornisce una chiave di lettura obiettiva e chiara di ciascuna tecnologia, sarà cura del lettore proseguire nello studio individuale della specifica tecnica che ritiene essere più efficace o interessante. Alla fine della tesi è presente un aperto dibattito in cui le quattro tecnologie vengono messe a confronto e giudicate in base alle loro caratteristiche. Inoltre vengono ipotizzate realtà in cui si possa trovare collaborazione tra i vari framework ed, infine, è presente una mia personale opinione basata sulla mia esperienza in merito.
Resumo:
La presente tesi è uno studio sugli strumenti e le tecnologie che caratterizzano l'utilizzo degli open data, in particolare, nello sviluppo di applicazioni web moderne che fanno uso di questo tipo di dati.
Resumo:
The digital revolution has affected all aspects of human life, and interpreting is no exception. This study will provide an overview of the technology tools available to the interpreter, but it will focus more on simultaneous interpretation, particularly on the “simultaneous interpretation with text” method. The decision to analyse this particular method arose after a two-day experience at the Court of Justice of the European Union (CJEU), during research for my previous Master’s dissertation. During those days, I noticed that interpreters were using "simultaneous interpretation with text" on a daily basis. Owing to the efforts and processes this method entails, this dissertation will aim at discovering whether technology can help interpreters, and if so, how. The first part of the study will describe the “simultaneous with text” approach, and how it is used at the CJEU; the data provided by a survey for professional interpreters will describe its use in other interpreting situations. The study will then describe Computer-Assisted Language Learning technologies (CALL) and technologies for interpreters. The second part of the study will focus on the interpreting booth, which represents the first application of the technology in the interpreting field, as well as on the technologies that can be used inside the booth: programs, tablets and apps. The dissertation will then analyse the programs which might best help the interpreter in "simultaneous with text" mode, before providing some proposals for further software upgrades. In order to give a practical description of the possible upgrades, the domain of “judicial cooperation in criminal matters” will be taken as an example. Finally, after a brief overview of other applications of technology in the interpreting field (i.e. videoconferencing, remote interpreting), the conclusions will summarize the results provided by the study and offer some final reflections on the teaching of interpreting.
Resumo:
Lo scopo di questo l'elaborato è l'analisi,lo studio e il confronto delle tecnologie per l'analisi in tempo reale di Big Data: Apache Spark Streaming, Apache Storm e Apache Flink. Per eseguire un adeguato confronto si è deciso di realizzare un sistema di rilevamento e riconoscimento facciale all’interno di un video, in maniera da poter parallelizzare le elaborazioni necessarie sfruttando le potenzialità di ogni architettura. Dopo aver realizzato dei prototipi realistici, uno per ogni architettura, si è passati alla fase di testing per misurarne le prestazioni. Attraverso l’impiego di cluster appositamente realizzati in ambiente locale e cloud, sono state misurare le caratteristiche che rappresentavano, meglio di altre, le differenze tra le architetture, cercando di dimostrarne quantitativamente l’efficacia degli algoritmi utilizzati e l’efficienza delle stesse. Si è scelto quindi il massimo input rate sostenibile e la latenza misurate al variare del numero di nodi. In questo modo era possibile osservare la scalabilità di architettura, per analizzarne l’andamento e verificare fino a che limite si potesse giungere per mantenere un compromesso accettabile tra il numero di nodi e l’input rate sostenibile. Gli esperimenti effettuati hanno mostrato che, all’aumentare del numero di worker le prestazioni del sistema migliorano, rendendo i sistemi studiati adatti all’utilizzo su larga scala. Inoltre sono state rilevate sostanziali differenze tra i vari framework, riportando pro e contro di ognuno, cercando di evidenziarne i più idonei al caso di studio.
Resumo:
Nel corso degli ultimi due decenni il trapianto di cuore si è evoluto come il gold standard per il trattamento dell’insufficienza cardiaca allo stadio terminale. Rimane un intervento estremamente complesso; infatti due sono gli aspetti fondamentali per la sua buona riuscita: la corretta conservazione e metodo di trasporto. Esistono due diversi metodi di conservazione e trasporto: il primo si basa sul tradizionale metodo di protezione miocardica e sul trasporto del cuore con utilizzo di contenitori frigoriferi, mentre il secondo, più innovativo, si basa sull’ utilizzo di Organ Care System Heart, un dispositivo appositamente progettato per contenere il cuore e mantenerlo in uno stato fisiologico normotermico attivo simulando le normali condizioni presenti all’interno del corpo umano. La nuova tecnologia di Organ Care System Heart permette un approccio completamente diverso rispetto ai metodi tradizionali, in quanto non solo conserva e trasporta il cuore, ma permette anche il continuo monitoraggio ex-vivo delle sue funzioni, dal momento in cui il cuore viene rimosso dal torace del donatore fino all’ impianto nel ricevente. Il motivo principale che spinge la ricerca ad investire molto per migliorare i metodi di protezione degli organi è legato alla possibilità di ridurre il rischio di ischemia fredda. Questo termine definisce la condizione per cui un organo rimane privo di apporto di sangue, il cui mancato afflusso causa danni via via sempre più gravi ed irreversibili con conseguente compromissione della funzionalità. Nel caso del cuore, il danno da ischemia fredda risulta significativamente ridotto grazie all’utilizzo di Organ Care System Heart con conseguenti benefici in termini di allungamento dei tempi di trasporto, ottimizzazione dell’organo e più in generale migliori risultati sui pazienti.
Resumo:
Quando si parla di shelf life di un prodotto alimentare si fa riferimento al periodo di tempo durante il quale un prodotto mantiene le sue caratteristiche qualitative nelle normali condizioni di conservazione/utilizzo e di conseguenza può essere consumato in totale sicurezza. Gli alimenti, infatti, sono prodotti facilmente deperibili che subiscono modifiche a carico della loro composizione a causa dell’innesco di una serie di reazioni sia di tipo microbiologico che chimico-fisico, con i conseguenti rischi per la sicurezza igienico sanitaria del prodotto. Nei prodotti ittici la degradazione biologica risulta essere una delle prime cause di deterioramento dell’alimento ciò perché essi stessi sono caratterizzati dalla presenza di microrganismi provenienti principalmente dalle materie prime impiegate e dal processo di produzione/preparazione utilizzato. Durante la conservazione e lo stoccaggio del prodotto ittico, in particolare sono tre i meccanismi che determinano il deterioramento e quindi la riduzione della shelf life, ovvero: l’autolisi enzimatica (post mortem e che modifica la consistenza del tessuto muscolare favorendo inoltre la crescita microbica ed il rilascio di ammine biogene); l’ossidazione (che riduce le qualità organolettiche del prodotto alterando gli acidi grassi poliinsaturi); la crescita microbica (con produzione di metaboliti come ammine biogene, acidi organici, solfiti, alcool, aldeidi e chetoni che causano i cattivi odori) (Jiang et al. 1990, Koohmaraie M., 1996, Koutsoumanis& Nychas, 1999, Aoki et al., 1997; Bremner, 1992). Risulta quindi strategico, il poter determinare la conservabilità di un alimento verificando dal punto di vista quantitativo, come tutti i fattori che contribuiscono all’alterazione della qualità del prodotto e all’incremento del processo degradativo (popolazione microbica, attività enzimatiche, variazioni chimiche) varino nel tempo.
Resumo:
La progettualità legata ai Bandi PON costituisce una parte consistente delle attività del Dipartimento. Attualmente sono 53 i progetti, legati al VII Programma Quadro, gestiti dal Dipartimento.
Tecnologie per l'implementazione dell'iniezione diretta di benzina in motori ad accensione comandata
Resumo:
In questo elaborato sono stati analizzati i vantaggi di un motore benzina GDI rispetto ad un motore PFI, studiando in particolar modo le tecnologie per la formazione della miscela omogenea e stratificata, le configurazioni spray-guided, wall-guided e air-guided della camera di combustione, i principali iniettori utilizzati e le loro caratteristiche. Inoltre è stato eseguito un approfondimento sui parametri che influenzano maggiormente l'emissione di inquinanti come la fasatura delle valvole, la posizione dell'iniettore e l'iniezione multipla, cercando di ottimizzarli in funzione delle nuove normative europee relative alle emissioni per i motori benzina. Infine è stata verificata l'efficienza dell'applicazione del filtro antiparticolato per motori benzina ad iniezione diretta (GPF).
Resumo:
I fattori biometrici per il riconoscimento sono oggi uno degli elementi simbolo dell'innovazione, in questa tesi propongo un'implementazione web del Riconoscimento Facciale il cui scopo è quello di mostrare quali siano le possibili applicazioni in ambito bancario di questa tecnologia.