987 resultados para distribuzione, corda vibrante, soluzioni deboli delta, Dirac


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tramite il presente lavoro di tesi si intende effettuare un’analisi specifica su sedimenti provenienti dalla Pialassa Piomboni, una Zona Umida di Interesse Comunitario dal delicato equilibrio ed in continua evoluzione, che fin dalla sua nascita ha sempre assunto un ruolo di importanza sia ecologico-naturale che socio-economica, vista la posizione che la pone a metà tra il Canale Candiano, il Porto di Ravenna, la zona industriale e il mare Adriatico. Oltre ad arricchire il database di dati, l’obiettivo principale dello studio è ottenere una nuova informazione per la valutazione dello stato di qualità dei sedimenti con un’indagine ancora più specifica: si analizza la distribuzione che i metalli pesanti assumono in relazione alle diverse frazioni e caratteristiche del materiale presente tramite estrazioni sequenziali, effettuate secondo la procedura ufficiale per l’analisi di questi tipi di suoli, recentemente approvata e standardizzata a livello europeo dalla BCR (European Community Bureau of Reference) e migliorata da esperimenti interlaboratorio (Rauret et al., 1999). Attraverso attacchi con reagenti sempre più forti, si valuta a quale frazione del sedimento (scambiabile, riducibile o ossidabile) i metalli risultino maggiormente associati, valutandone mobilità e disponibilità in relazione a cambiamenti di condizioni fisiche e chimiche in cui si trova il materiale, come il variare di pH e degli equilibri ossido-riduttivi. E’ stato inoltre elaborato un inquadramento dal punto di vista geochimico, considerando i livelli di concentrazione di fondo degli elementi già naturalmente presenti in zona. Le concentrazioni totali sono infine stati confrontati con il Manuale ICRAM (2007), che fornisce linee guida per la valutazione della qualità dei sedimenti e la loro movimentazione, per poterne ipotizzare l’eventuale destino, scelta spesso problematica nella gestione di sedimenti in ambito portuale. In sintesi, questo lavoro si inserisce all’interno di un ampio progetto di gestione, approfondendo la letteratura scientifica presente sui criteri di analisi di qualità dei sedimenti e sulle problematiche di diffusione, trasporto e destino finale dei contaminanti nell’ambiente, verificando l’applicazione della procedura analitica di estrazione sequenziale, metodologicamente complessa e soggetta a migliorie e modifiche, riconsiderata in tempi recenti per la sua efficacia e per i vantaggi che comporta grazie all’acquisizione di dati ad alto contenuto di informazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La precisione delle misure dell’accelerazione di gravità effettuate grazie ai gravimetri più moderni fornisce importanti informazioni relative ai processi deformativi, che avvengono nel nostro pianeta. In questa tesi il primo capitolo illustra alcuni fondamenti della teoria dell’elasticità ed in particolare la possibilità di descrivere qualunque sorgente deformativa interna alla Terra tramite una distribuzione di “forze equivalenti” con risultante e momento nulli. Inoltre descriviamo i diversi contributi alle variazioni di gravità prodotte da tali eventi. Il secondo capitolo fornisce alcune tecniche di soluzione dell’equazione di Laplace, utilizzate in alcuni calcoli successivi. Nel terzo capitolo si sviluppano le soluzioni trovate da Mindlin nel 1936, che analizzò spostamenti e deformazioni generate da una forza singola in un semispazio elastico omogeneo con superficie libera. Si sono effettuati i calcoli necessari per passare da una forza singola a un dipolo di forze e una volta trovate queste soluzioni si sono effettuate combinazioni di dipoli al fine di ottenere sorgenti deformative fisicamente plausibili, come una sorgente isotropa o una dislocazione tensile (orizzontale o verticale), che permettano di descrivere fenomeni reali. Nel quarto capitolo si descrivono i diversi tipi di gravimetri, assoluti e relativi, e se ne spiega il funzionamento. Questi strumenti di misura sono infatti utilizzati in due esempi che vengono descritti in seguito. Infine, nel quinto capitolo si sono applicati i risultati ottenuti nel terzo capitolo al fine di descrivere i fenomeni avvenuti ai Campi Flegrei negli anni ‘80, cercando il tipo di processo deformativo più adatto alla descrizione sia della fase di sollevamento del suolo che quella di abbassamento. Confrontando le deformazioni e le variazioni residue di gravità misurate prima e dopo gli eventi deformativi con le previsioni dei modelli si possono estrarre importanti informazioni sui processi in atto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La mia esperienza con Microsoft SharePoint ha inizio durante il tirocinio svolto presso una famosa azienda bolognese tra fine settembre e metà novembre 2014. Durante questi due mesi ho avuto il piacere di confrontarmi con questa piattaforma e di studiarla allo scopo di carpire quali possano essere i vantaggi e gli svantaggi per un'impresa una volta che decidesse di investire su di essa. La decisione di scrivere una tesi su SharePoint e di aumentare la mia conoscenza su di esso, ha preso piede dentro di me in seguito allo sviluppo di una piccola applicazione d'esempio. Infatti in sole due settimane e senza scrivere una riga di codice, se non qualche piccolo script di css, sono stato in grado di realizzare un piccolo gestionale per uno studio di rappresentanza di abbigliamento. Grazie alla realizzazione di questo applicato ho potuto riscontrare l'effettiva forza del tool. Difatti, SharePoint, possiede un livello d'astrazione così elevato da offrire una o più soluzioni predefinite ad una vasta gamma di problemi di business, riducendo conseguentemente i tempi ed i costi di sviluppo. A questa motivazione si è aggiunta anche quella derivante dal fatto che la piattaforma viene usata da molte realtà aziendali di elevata importanza. A tal proposito una di queste mi ha concesso l'autorizzazione a sottoporle un'intervista.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi mira ad affrontare le problematiche relative al potenziamento e all'adeguamento migliorativo di alcune sezioni dell’esistente impianto di trattamento finale della frazione organica dei rifiuti solidi urbani, sito nel Comune di Salerno. Si è analizzata, in prima istanza, la gestione dei rifiuti in Campania negli ultimi anni: dall'inizio dell’emergenza negli anni ’90, fino ai giorni odierni con la stesura del “Piano Regionale per la Gestione dei rifiuti Solidi Urbani”. Si è posto, poi, l’accento sul modello che caratterizza la città di Salerno: una corretta gestione integrata dei rifiuti, contraddistinta da una raccolta “porta a porta” spinta e dalla realizzazione di un moderno impianto di compostaggio e produzione di biogas. Si è descritto l’impianto nella sua interezza, andando ad analizzare le singole sezioni che lo contraddistinguono: durante il periodo di funzionamento, dall'apertura dell’impianto, si sono riscontrate alcune criticità, che si è ritenuto di affrontare al fine di migliorarne l’efficienza. Si è elaborato, così, un progetto di potenziamento ed adeguamento migliorativo di alcune sezioni. In particolare, si è cercato di determinare quale fosse il sistema di depurazione dei reflui più adatto a questo tipo di realtà e si proceduto, quindi, al dimensionamento delle varie sezioni del sistema depurativo scelto. Si è ritenuto utile effettuare, anche, un confronto economico con il sistema attualmente in uso, che consiste nella depurazione dei liquami presso impianti terzi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le variabili ambientali e lo sfruttamento della pesca sono dei possibili fattori nel determinare la struttura della comunità demersale. L’area di studio è il Golfo di Antalya, con un area aperta ed una chiusa ad ogni attività di pesca, il periodo di studio ha coperto tre stagioni (primavera, estate, autunno). Lo scopo è quello di delineare un quadro generale sulla distribuzione spaziale e temporale delle risorse alieutiche demersali in quest’area. In questo lavoro di tesi la PCA è stata usata al fine di determinare le variabili ambientali (ossigeno, salinità, temperatura, pH, materia sospesa) che determinano maggiormente la differenza tra le stazioni, tecniche di analisi multivariata hanno invece indagato una possibile variazione su scala spaziale e temporale dei parametri abiotici. La Cluster Analysis effettuata sui dati di abbondanza ha delineato quattro raggruppamenti principali, due ad una profondità minore di 100 m e due ad una profondità maggiore (40% di similarità). Questi risultati sono confermati dall’analisi MDS. L’analisi SIMPER ha messo in evidenza le specie che maggiormente incidono sulla differenza tra strati di profondità. Gli indici di biodiversità sono stati calcolati per indagare la diversità e la variabilità temporale e spaziale della comunità demersale. Due procedure la BIO-ENV e la DistLM (Distance-based linear models) sono state effettuate per individuare le variabili abiotiche che potrebbero essere responsabili dei diversi raggruppamenti nella struttura del popolamento demersale. Le specie commerciali: Mullus barbatus, Upeneus moluccensis, Upeneus pori sono state prese come oggetto per la ricerca di possibili effetti della pesca a livello di popolazione. Per i dati di abbondanza e di biomassa di queste specie è stata eseguita l’analisi multivariata MANOVA (Multivariate Analysis of Variance) al fine di trovare eventuali variazioni dovute ai fattori profondità, stagione e transetto. Per ogni specie è stata valutata la sex ratio. Il metodo Bhattacharya ha permesso di determinare le classi di età e la loro abbondanza. In ultimo la relazione peso-lunghezza è stata ricavata separatamente per gli individui maschi e femmine al fine di determinare il tipo di crescita per ogni sesso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi si prefigge l’obiettivo di analizzare alcuni aspetti critici della sicurezza in ambito cloud. In particolare, i problemi legati alla privacy, dai termini di utilizzo alla sicurezza dei dati personali più o meno sensibili. L’aumento esponenziale di dati memorizzati nei sistemi di cloud storage (es. Dropbox, Amazon S3) pone il problema della sensibilità dei dati su un piano tutt'altro che banale, dovuto anche a non ben chiare politiche di utilizzo dei dati, sia in termini di cessione degli stessi a società di terze parti, sia per quanto riguarda le responsabilità legali. Questa tesi cerca di approfondire ed esaminare le mancanze più preoccupanti degli stessi. Oltre ad analizzare le principali criticità e i punti deboli dei servizi cloud, l’obiettivo di questo lavoro sarà quello di fare chiarezza sui passi e le infrastrutture che alcune aziende (es. Amazon) hanno implementato per avvicinarsi all’idea di 'safeness' nel cloud. Infine, l’ultimo obiettivo posto sarà l’individuazione di criteri per la valutazione/misura del grado di fiducia che l’utente può porre in questo contesto, distinguendo diversi criteri per classi di utenti. La tesi è strutturata in 4 capitoli: nel primo sarà effettuata una tassonomia dei problemi presenti nei sistemi cloud. Verranno presentati anche alcuni avvenimenti della storia recente, in cui queste problematiche sono affiorate. Nel secondo capitolo saranno trattate le strategie di 'safeness' adottate da alcune aziende, in ambito cloud. Inoltre, saranno presentate alcune possibili soluzioni, dal punto di vista architetturale. Si vedrà come il ruolo dell'utente sarà di estrema importanza. Il terzo capitolo sarà incentrato sulla ricerca di strumenti e metodi di valutazione che un utente, o gruppo di utenti, può utilizzare nei confronti di questi sistemi. Infine, il quarto capitolo conterrà alcune considerazioni conlusive sul lavoro svolto e sui possibili sviluppi di questa tesi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il seguente elaborato si prefigge di esporre in modo chiaro la teoria delle misure deboli in meccanica quantistica. Tale teoria ha aperto nuovi scenari all'interno dell'interpretazione fisica del mondo quantistico e allo stesso tempo ha fornito alla fisica sperimentale una nuova tecnica per esplorare i fenomeni microscopici. Il progetto si divide in tre capitoli; nel primo capitolo vengono esposti i concetti chiave della teoria della misura in meccanica quantistica utili all'introduzione del secondo capitolo, ove viene trattata la teoria delle misure deboli. Infine nell'ultimo capitolo viene esposta la parte applicativa e in particolare viene discusso un esperimento della doppia fenditura, svoltosi all'università di Toronto con l'utilizzo delle misure deboli.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le immagini termiche all’ infrarosso sono utilizzate da molte decadi per monitorare la distribuzione di temperatura della pelle umana. Anormalità come infiammazioni ed infezioni causano un aumento locale della temperatura, visibile sulle immagini sotto forma di hot spot. In tal senso la termografia ad infrarossi può essere utilizzata nel campo ortopedico per rilevare le zone sovra-caricate dalla protesi. Per effettuare una valutazione precisa dell’interfaccia moncone-invasatura può essere utile combinare i dati termografici e i dati antropometrici (superficie tridimensionale del moncone), relativi ai singoli pazienti. Di ciò si occupa tale studio, che dopo aver fornito una panoramica sulla termografia e sulla reverse engineering, sperimenta delle tecniche semplici e low-cost per combinare i dati termici e i dati antropometrici. Buoni risultati si riescono ad ottenere utilizzando un Kinect come scanner e un software open-source per il texture mapping. I termogrammi 3D ricreati costituiscono un ottimo strumento di valutazione, per medici e tecnici ortopedici, circa il design dell’invasatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Argomento del lavoro è stato lo studio di problemi legati alla Flow-Asurance. In particolare, si focalizza su due aspetti: i) una valutazione comparativa delle diverse equazioni di stato implementate nel simulatore multifase OLGA, per valutare quella che porta a risultati più conservativi; ii) l’analisi della formazione di idrati, all’interno di sistemi caratterizzati dalla presenza di gas ed acqua. Il primo argomento di studio nasce dal fatto che per garantire continuità del flusso è necessario conoscere il comportamento volumetrico del fluido all’interno delle pipelines. Per effettuare tali studi, la Flow-Assurance si basa sulle Equazioni di Stato cubiche. In particolare, sono state confrontate: -L’equazione di Soave-Redlich-Kwong; -L’equazione di Peng-Robinson; -L’equazione di Peng-Robinson modificata da Peneloux. Sono stati analizzati 4 fluidi idrocarburici (2 multifase, un olio e un gas) con diverse composizioni e diverse condizioni di fase. Le variabili considerate sono state pressione, temperatura, densità e viscosità; sono state poi valutate le perdite di carico, parametro fondamentale nello studio del trasporto di un fluido, valutando che l'equazione di Peng-Robinson è quella più adatta per caratterizzare termodinamicamente il fluido durante una fase di design, in quanto fornisce l'andamento più conservativo. Dopo aver accertato la presenza di idrati nei fluidi multifase, l’obiettivo del lavoro è stato analizzare come il sistema rispondesse all’aggiunta di inibitori chimici per uscire dalla regione termodinamica di stabilità dell’idrato. Gli inibitori utilizzati sono stati metanolo e mono-etilen-glicole in soluzione acquosa. L’analisi è stata effettuata confrontando due metodi: -Metodo analitico di Hammerschmidt; -Metodo iterativo con PVTSim. I risultati ottenuti hanno dimostrato che entrambi gli inibitori utilizzati risolvono il problema della formazione di idrato spostando la curva di stabilità al di fuori delle pressioni e temperature che si incontrano nella pipeline. Valutando le quantità da iniettare, il metodo di Hammerschmidt risulta quello più conservativo, indicando portate maggiori rispetto al PVTsim, soprattutto aggiungendo metanolo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nella regione del TIR, le transizioni spettrali vibro-rotazionali della CO2 sono sfruttate per ricavare la distribuzione di P e T negli esperimenti spaziali. Oltre all’importanza di questi due parametri, la loro conoscenza è necessaria per ricavare la distribuzione di qualsiasi molecola dalle sue transizioni spettrali. Per ricavare P e T si assume di conoscere il VMR della CO2. L’accuratezza con cui si ricava la distribuzione della CO2 insieme a quelle di P e T non è sufficiente. Inoltre, il VMR della CO2 aumenta nel corso degli anni. Per questo, in questa tesi si propone una nuova strategia per misurare la CO2 usando uno strumento satellitare a scansione del lembo. L’idea è quella di sfruttare le transizioni rotazionali pure dell’O2 nella regione del FIR per ricavare P e T. Poiché queste transizioni traggono origine da un momento di dipolo magnetico la loro forza di riga è molto bassa. Tuttavia, grazie alla grande abbondanza dell’O2 in atmosfera e alla lunghezza dei cammini ottici, queste transizioni sono tra le più intense nello spettro atmosferico del FIR. Il satellite considerato è posto su un’orbita quasi polare e lo strumento osserva l’emissione del lembo atmosferico in direzione opposta a quella di volo. Lo strumento ipotizzato è uno spettrometro a trasformata di Fourier con due porte di output ospitanti un detector per la regione del FIR e uno per quella del TIR. La risoluzione spettrale è di 0.004 cm-1. Mentre il NESR è di 5 nW. Il campionamento geometrico verticale dell’atmosfera è di 3 Km mentre quello orizzontale è di circa 100 Km. Usando la teoria dell’optimal estimation sono stati selezionati due set di intervalli spettrali da analizzare, uno per la regione del FIR e l’altro per la regione del TIR. Con queste ipotesi sono stati effettuati test di retrieval su osservati simulati per valutare le performance del sistema ipotizzato. Si è dimostrato che le transizioni della CO2 nella regione del TIR non sono sufficienti per ricavare P e T insieme al proprio VMR con precisione soddisfacente e che l’uso dell’informazione derivante dal FIR fa aumentare la qualità del retrieval. Le performance dell’esperimento permettono di ricavare il VMR della CO2 con una precisione di circa 1 ppm tra 10 Km e 60 Km con una risoluzione verticale di 3 Km e una orizzontale di circa 2.5° di latitudine. Si è quindi dimostrato la validità della strategia proposta in questo studio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le attività riguardanti la mia tesi sono state svolte presso Hera S.p.A.. Hera ha iniziato nel 2013 un progetto sperimentale di implementazione di tecnologie cosiddette smart grid su una porzione di rete gestita. Il progetto di Hera si focalizza su diversi aspetti riguardanti sia l’automazione della rete MT, ai fini della riduzione del tempo necessario per individuare il guasto in linea, sia su aspetti riguardanti la regolazione della tensione. In particolare la mia attività di tesi si è incentrata sugli aspetti riguardanti la regolazione della tensione, partendo da una panoramica di quelli che sono ad oggi i metodi più diffusi di regolazione della tensione agendo essenzialmente sul regolatore sotto carico del trasformatore AT/MT presente in cabina primaria e descrivendo quello che è invece il metodo analizzato nel dimostrativo di Hera. In particolare mi sono soffermato sulla regolazione di tensione realizzata con il supporto dei generatori distribuiti connessi alla rete MT di Hera i quali possono, nei limiti delle loro capability, intervenire all’occorrenza assorbendo od erogando potenza reattiva. Il supporto dei generatori distribuiti può essere richiesto qualora la regolazione realizzata con la variazione del commutatore sottocarico del trasformatore in cabina primaria non sia sufficiente per ottenere il risultato desiderato. Appare sin d’ora evidente che questo tipo di regolazione presuppone l’esistenza di una infrastruttura di comunicazione tra il centro operativo del distributore e il campo, inteso come i nodi su cui sono connessi i generatori. Nell’ambito del dimostrativo Hera ha quindi progettato e sta ora realizzando l’infrastruttura di comunicazione che permette la comunicazione del centro di telecontrollo con i generatori. Questa infrastruttura ha caratteristiche particolarmente performanti non tanto per conseguire gli scopi della regolazione, che comunque non necessitano di tempi di latenza eccessivamente stringenti, quanto piuttosto per implementare un’automazione di rete veloce che permette di evitare la disalimentazione degli utenti a monte di guasto attraverso una selezione rapida e intelligente del ramo guasto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le grandi catene di distribuzione, per sviluppare strategie commerciali sempre più efficaci, sono interessate a comprendere il percorso che ogni cliente effettua all’interno del punto vendita, che reparti visita, il tempo di permanenza in un’area specifica ecc… Quindi è stato necessario trovare un sistema per localizzare e tracciare un cliente all’interno di un ambiente chiuso (indoor position). Prima di tutto ci si è concentrati sulla ricerca e sviluppo di una nuova idea che potesse superare gli ostacoli delle soluzioni attualmente in commercio. Si è pensato di sostituire le tessere punti del punto vendita con delle tessere bluetoothLE e di creare un sistema di posizionamento al chiuso utilizzando la stessa logica di funzionamento del GPS per gli ambienti aperti. Il ricevitore è la tessera BLE posseduta dal cliente e i satelliti sono tre device Android dotati di un’app specifica per rilevare il segnale radio (RSSI) emesso dalla tessera ogni secondo. Le rilevazioni dei tre device Android sono successivamente trasferite all’interno di una web application che si occupa di elaborare i dati tramite il processo di trilaterazione. L’output sono le coordinate x,y di ciascuna tessera in ogni secondo di visita all’interno del punto vendita. Questi dati sono infine utilizzati per mostrare graficamente il percorso effettuato dal cliente, l’orario di ingresso e di uscita e il tempo di permanenza. Riepilogando, il progetto comprende una fase di ricerca e intuizione di una nuova idea, una fase di progettazione per traslare i meccanismi del funzionamento GPS all’utilizzo in un ambiente chiuso, una fase di implementazione dell’app e della web application e infine una fase di sperimentazioni sul campo che si concluderà dopo la laurea con test reali in un supermercato della zona.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La fisica del sapore è uno dei settori di ricerca più promettenti per realizzare misure di altissima precisione del Modello Standard e per osservare indirettamente, attraverso i decadimenti mediati dalle interazioni deboli nuove particelle. L'esperimento LHCb \`e stato progettato per realizzare misure di altissima precisione in questo settore. Grazie all'alta luminosità integrata disponibile (3 fb \ap{-1}) ed alla elevata sezione d’urto di produzione dei quark charm, LHCb \`e in grado di realizzare misure di una precisione mai raggiunta fino ad ora da altri esperimenti. In questo lavoro di tesi \`e stata realizzata una misura preliminare della simmetria di violazione di CP, realizzata mediante i decadimenti dei mesoni neutri $D^0$ negli stati finali $K^+K^-$ e $\pi^+\pi^-$. Per realizzare la misura sono stati selezionati i decadimenti $D^{*\pm} \to D^0(K^+K^-)\pi^\pm_s$ e $D^{*\pm} \to D^0(\pi^+\pi^-)\pi^\pm_s$ utilizzando i dati raccolti da LHCb durante il RUN-1 (2010-2012) ed \`e stato sviluppato un modello di adattamento ai dati in grado di misurare la differenza di asimmetria di CP integrate nel tempo nei decadimenti $D^0 \rightarrow K^+K^-$ e $D^0 \rightarrow \pi^+\pi^-$, $\Delta A_{CP}$. Il modello \`e stato sviluppato in modo da descrivere le distribuzioni di massa invariante del $D^0$ e del $D^{*\pm}$ sia per la componente di segnale sia per quelle di fondo ed \`e stato adattato ai dati, per sottrarne i fondi e misurare le asimmetrie $A_{RAW}(K^+K^-)$ e $A_{RAW}(\pi^+\pi^-)$, corrispondenti alla differenza tra il numero di eventi di segnale $D^{*+}$ e $D^{*-}$, diviso la loro somma. La differenza di queste asimmetrie corrisponde a $\Delta A_{CP}$, la cui misura, non ufficiale, \`e stata determinata essere $\Delta A_{CP}= (-0.12\pm 0.08)\% $. Questo risultato rappresenta la miglior misura al mondo mai realizzata da un singolo esperimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi di rassegna si pone l'obiettivo di esaminare i motivi che hanno portato alla progettazione del modello Software Defined Networking e analizzarne le caratteristiche principali. L'obiettivo è stato raggiunto attraverso un'analisi attenta dello stato dell'arte, in cui sono state evidenziate le problematiche dell'architettura tradizionale e i requisiti delle reti di nuova generazione che hanno portato i progettisti di rete a riconsiderare il modello attualmente diffuso. Dopo aver scritto in modo approfondito delle caratteristiche e dei benefici di SDN, è stata posta l'enfasi sul protocollo OpenFlow riconosciuto come fattore abilitante del modello oggetto della tesi. Infine sono state analizzate le soluzioni, che si ispirano a SDN, di tre colossi dell'informatica quali HP, Google e Cisco.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La documentazione tecnica ha assunto un ruolo fondamentale per i produttori sia per rispondere agli obblighi di legge (v. Direttiva Macchine 2006/42/CE) sia come strumento di marketing. Dato l’alto grado di ripetitività dei manuali di istruzioni e le numerose lingue di destinazione, per la loro traduzione è indispensabile l’uso dei CAT tool. In questo contesto, la presente tesi si pone l’obiettivo di individuare una serie di elementi linguistici che possano fornire informazioni sulla qualità dei testi di partenza in italiano e su cui si possa intervenire per migliorarli, nell’ottica di ottimizzare l’uso dei CAT tool e ridurre il costo delle traduzioni. L’idea alla base del progetto è infatti che le caratteristiche dei testi originali influiscano in maniera fondamentale sulla qualità del risultato finale, così come sul costo del servizio di traduzione. I contenuti sono suddivisi in cinque capitoli. Nel primo capitolo si analizzano gli studi sulla leggibilità dei testi, sulla semplificazione del linguaggio e sui linguaggi specialistici. Nel secondo capitolo si presenta il funzionamento dei CAT tool e si approfondiscono gli aspetti rilevanti per l’ottimizzazione del loro uso nella traduzione dei manuali di istruzioni. Nel terzo capitolo si combinano le conoscenze acquisite nei primi due capitoli e si propone un metodo di revisione dei manuali da sottoporre a traduzione. Tale revisione ha lo scopo di agevolare i CAT tool nel riconoscimento della somiglianza tra le frasi e di permettere di conseguenza un lavoro di traduzione a costi inferiori, senza però perdere di vista la qualità finale del manuale e la sua leggibilità e chiarezza. Nel quarto capitolo si espone l’applicazione pratica del metodo e si analizzano e discutono i risultati ottenuti. Nel quinto capitolo si traggono le conclusioni finali sul metodo proposto e i relativi risultati. Si propongono inoltre argomenti di riflessione e discussione che suggeriscono nuovi scenari e prospettive.