946 resultados para Classificazione spettrale,Saha,Boltzmann
Resumo:
I sistemi di intelligenza artificiale vengono spesso messi a confronto con gli aspetti biologici riguardanti il cervello umano. L’interesse per la modularità è in continua crescita, che sta portando a risultati davvero interessanti attraverso l’utilizzo di sistemi artificiali intelligenti, come le reti neuronali. Molte reti, sia biologiche sia artificiali sono organizzate in moduli, i quali rappresentano cluster densi di parti interconnesse fra loro all’interno di una rete complessa. Nel campo dell’ingegneria, si usano design modulari per spiegare come una macchina è costituita da parti separate. Lo studio della struttura e delle funzioni di organismi/processi complessi si basa implicitamente su un principio di organizzazione modulare, vale a dire si dà per acquisito il fatto che siano modulari, cioè composti da parti con forma e/o funzioni diverse. Questo elaborato si propone di esporre gli aspetti fondamentali riguardanti la modularità di reti neuronali, le sue origini evolutive, le condizioni necessarie o sufficienti che favoriscono l’emergere dei moduli e relativi vantaggi. Il primo capitolo fornisce alcune conoscenze di base che permettono di leggere gli esperimenti delle parti successive con consapevolezza teorica più profonda. Si descrivono reti neuronali artificiali come sistemi intelligenti ispirati alla struttura di reti neurali biologiche, soffermandosi in particolare sulla rete feed-forward, sull’algoritmo di backpropagation e su modelli di reti neurali modulari. Il secondo capitolo offre una visione delle origini evolutive della modularità e dei meccanismi evolutivi riguardanti sistemi biologici, una classificazione dei vati tipi di modularità, esplorando il concetto di modularità nell’ambito della psicologia cognitiva. Si analizzano i campi disciplinari a cui questa ricerca di modularità può portare vantaggi. Dal terzo capitolo che inizia a costituire il corpo centrale dell’elaborato, si dà importanza alla modularità nei sistemi computazionali, illustrando alcuni casi di studio e relativi metodi presenti in letteratura e fornendo anche una misura quantitativa della modularità. Si esaminano le varie possibilità di evoluzione della modularità: spontanea, da specializzazione, duplicazione, task-dependent, ecc. passando a emulare l’evoluzione di sistemi neurali modulari con applicazione al noto modello “What-Where” e a vari modelli con caratteristiche diverse. Si elencano i vantaggi che la modularità produce, soffermandosi sull’algoritmo di apprendimento, sugli ambienti che favoriscono l’evoluzione della modularità con una serie di confronti fra i vari tipi, statici e dinamici. In ultimo, come il vantaggio di avere connessioni corte possa portare a sviluppare modularità. L’obiettivo comune è l’emergere della modularità in sistemi neuronali artificiali, che sono usati per applicazioni in numerosi ambiti tecnologici.
Resumo:
Progettare e realizzare un sistema di catalogazione delle varie tipologie di eterogeneità tissutale di lesioni neoplastiche polmonari, a partire dall’analisi di immagini TCp, in quanto non risulta presente in letteratura una classificazione dell’eterogeneità basata sull’analisi visuale del radiologo.
Resumo:
B0218+357 è un blazar soggetto al lensing che si trova a z=0.944. Questo sistema consiste in due componenti compatte (A e B) e un anello di Einstein. Recentemente è stato associato ad una sorgente gamma soggetta a burst osservata con il satellite Fermi-LAT. Questo blazar ha mostrato una forte variabilità in banda γ da agosto a settembre del 2012. Gli episodi di variabilità osservati hanno consentito di misurare per la prima volta in banda gamma il ritardo temporale previsto dalla teoria del lensing gravitazionale. Le osservazioni in banda gamma sono state seguite da un programma di monitoring con il Very Long Baseline Array (VLBA) in banda radio con lo scopo di verificare l’esistenza di una correlazione tra l’emissione nelle due bande. In questa Tesi tali osservazioni radio sono state analizzate con lo scopo di studiare la variabilità di B0218+357 e, quindi, attestare la connessione tra l’emissione alle alte energie e quella in banda radio. L’obiettivo principale di questo lavoro di Tesi è quello di studiare l’evoluzione della densità di flusso, dell’indice spettrale e della morfologia delle immagini A e B e delle loro sottocomponenti. I dati analizzati sono stati ottenuti con l’interferometro VLBA a tre frequenze di osser- vazione: 2.3, 8.4 GHz (4 epoche con osservazioni simultanee alle due frequenze) e 22 GHz (16 epoche). Le osservazioni hanno coperto un periodo di circa due mesi, subito successivo al flare in banda gamma. La riduzione dei dati è stata effettuata con il pacchetto AIPS. Dall’analisi delle immagini, nella componente B è possibile riconoscere la tipica struttura nucleo-getto chiaramente a tutte e tre le frequenze, invece nella componente A questa struttura è identificabile solo a 22 GHz. A 2.3 e 8.4 GHz la risoluzione non è sufficiente a risolvere nucleo e getto della componente A e l’emissione diffusa risulta dominante. Utilizzando il metodo dello stacking sulle immagini a 2.3 GHz, è stato possibile rivelare le parti più brillanti dell’Einstein ring associato a questa sorgente. Questo è stato possibile poiché la sorgente non ha mostrato alcun segno di variabilità significativa né di struttura né di flusso nelle componenti. Quindi dall’analisi delle curve di luce delle due componenti A e B non è emersa una variabilità significativa chiaramente associabile al flare osservato in banda gamma. Per verificare questo risultato, le curve di luce ottenute sono state confrontate con le osservazioni del radio telescopio OVRO (15 GHz) nel periodo corrispondente alle nostre osservazioni. La curva di luce OVRO è risultata in pieno accordo con le curve di luce ottenute durante questo lavoro di tesi e ha confermato che B0218+257 non ha mostrato un’importante attività radio nel periodo delle osservazioni VLBA. In definitiva, la mancanza di variabilità radio associata a quella osservata nei raggi gamma può essere dovuta al fatto che la regione in cui si è originato il flare gamma è otticamente spessa alle lunghezze d’onda radio, oppure non esiste una precisa correlazione tra le due emissioni, rimanendo quindi un problema aperto da investigare.
Resumo:
La Word Sense Disambiguation è un problema informatico appartenente al campo di studi del Natural Language Processing, che consiste nel determinare il senso di una parola a seconda del contesto in cui essa viene utilizzata. Se un processo del genere può apparire banale per un essere umano, può risultare d'altra parte straordinariamente complicato se si cerca di codificarlo in una serie di istruzioni esguibili da una macchina. Il primo e principale problema necessario da affrontare per farlo è quello della conoscenza: per operare una disambiguazione sui termini di un testo, un computer deve poter attingere da un lessico che sia il più possibile coerente con quello di un essere umano. Sebbene esistano altri modi di agire in questo caso, quello di creare una fonte di conoscenza machine-readable è certamente il metodo che permette di affrontare il problema in maniera più diretta. Nel corso di questa tesi si cercherà, come prima cosa, di spiegare in cosa consiste la Word Sense Disambiguation, tramite una descrizione breve ma il più possibile dettagliata del problema. Nel capitolo 1 esso viene presentato partendo da alcuni cenni storici, per poi passare alla descrizione dei componenti fondamentali da tenere in considerazione durante il lavoro. Verranno illustrati concetti ripresi in seguito, che spaziano dalla normalizzazione del testo in input fino al riassunto dei metodi di classificazione comunemente usati in questo campo. Il capitolo 2 è invece dedicato alla descrizione di BabelNet, una risorsa lessico-semantica multilingua di recente costruzione nata all'Università La Sapienza di Roma. Verranno innanzitutto descritte le due fonti da cui BabelNet attinge la propria conoscenza, WordNet e Wikipedia. In seguito saranno illustrati i passi della sua creazione, dal mapping tra le due risorse base fino alla definizione di tutte le relazioni che legano gli insiemi di termini all'interno del lessico. Infine viene proposta una serie di esperimenti che mira a mettere BabelNet su un banco di prova, prima per verificare la consistenza del suo metodo di costruzione, poi per confrontarla, in termini di prestazioni, con altri sistemi allo stato dell'arte sottoponendola a diversi task estrapolati dai SemEval, eventi internazionali dedicati alla valutazione dei problemi WSD, che definiscono di fatto gli standard di questo campo. Nel capitolo finale vengono sviluppate alcune considerazioni sulla disambiguazione, introdotte da un elenco dei principali campi applicativi del problema. Vengono in questa sede delineati i possibili sviluppi futuri della ricerca, ma anche i problemi noti e le strade recentemente intraprese per cercare di portare le prestazioni della Word Sense Disambiguation oltre i limiti finora definiti.
Resumo:
The first part of this work deals with the inverse problem solution in the X-ray spectroscopy field. An original strategy to solve the inverse problem by using the maximum entropy principle is illustrated. It is built the code UMESTRAT, to apply the described strategy in a semiautomatic way. The application of UMESTRAT is shown with a computational example. The second part of this work deals with the improvement of the X-ray Boltzmann model, by studying two radiative interactions neglected in the current photon models. Firstly it is studied the characteristic line emission due to Compton ionization. It is developed a strategy that allows the evaluation of this contribution for the shells K, L and M of all elements with Z from 11 to 92. It is evaluated the single shell Compton/photoelectric ratio as a function of the primary photon energy. It is derived the energy values at which the Compton interaction becomes the prevailing process to produce ionization for the considered shells. Finally it is introduced a new kernel for the XRF from Compton ionization. In a second place it is characterized the bremsstrahlung radiative contribution due the secondary electrons. The bremsstrahlung radiation is characterized in terms of space, angle and energy, for all elements whit Z=1-92 in the energy range 1–150 keV by using the Monte Carlo code PENELOPE. It is demonstrated that bremsstrahlung radiative contribution can be well approximated with an isotropic point photon source. It is created a data library comprising the energetic distributions of bremsstrahlung. It is developed a new bremsstrahlung kernel which allows the introduction of this contribution in the modified Boltzmann equation. An example of application to the simulation of a synchrotron experiment is shown.
Resumo:
La classificazione delle algebre di Lie semplici di dimensione finita su un campo algebricamente chiuso si divide in due parti: le algebre di Lie classiche e quelle eccezionali. La differenza principale è che le algebre di Lie classiche vengono introdotte come algebre di matrici, quelle eccezionali invece non si presentano come algebre di matrici ma un modo di introdurle è attraverso il loro diagramma di Dynkin. Lo scopo della tesi è di realizzare l' algebra di Lie eccezionale di tipo G_2 come algebra di matrici. Per raggiungere tale scopo viene introdotta un' algebra di composizione: la cosiddetta algebra degli ottonioni. Quest'ultima viene costruita in due modi diversi: come spazio vettoriale sui reali con un prodotto bilineare e come insieme delle coppie ordinate di quaternioni. Il resto della tesi è dedicato all' algebra delle derivazioni degli ottonioni. Viene dimostrato che questa è un' algebra di Lie semisemplice di dimensione 14. Infine, considerando la complessificazione dell'algebra delle derivazioni degli ottonioni, viene dimostrato che quest'ultima è semplice e quindi isomorfa a G_2.
Resumo:
L'oggetto di studio di questa tesi e' l'analisi degli ammassi di galassie (galaxy clusters) e delle loro proprieta', attraverso un introduttiva analisi morfologica e dinamica, considerazioni sulle proprieta' termiche (con caratteristiche collegate direttamente dalla temperatura), ed infine l'ispezione dei meccanismi che generano le emissioni non termiche e le loro sorgenti. Cercheremo delle relazioni fra le une e le altre. In particolare studieremo specifiche conformazioni del mezzo intergalattico (ICM, intracluster medium) all'interno degli ammassi, quali Aloni, Relitti e Mini Aloni, attraverso le radiazioni che essi sprigionano nella banda dei raggi X e onde radio. Le prime osservazioni sugli ammassi di galassie sono state effettuate gia' alla fine del '700 da Charles Messier, che, al fine di esaminare il cielo alla ricerca di comete, forni un catalogo di 110 oggetti cosmici che, pur apparendo nebulosi per via della limitatezza di risoluzione dei telescopi di allora, non erano sicuramente comete. Fra questi oggetti vi erano anche ammassi di galassie. I primi studi approfonditi si ebbero soltanto con il rapido incremento tecnologico del XX secolo che permise di capire che quelle formazioni confuse altro non erano che agglomerati di galassie. Telescopi piu' grandi, e poi interferometri, radiotelescopi osservazioni agli X hanno sostanzialmente aperto il mondo dell'astrofisica. In particolare Abell stabili' nel primo dopoguerra il primo catalogo di ammassi su determinazione morfologica. Altri astronomi ampliarono poi i parametri di classificazione basandosi su caratteristiche ottiche e meccaniche. Le analisi piu' recenti infine basano le loro conclusioni sullo studio delle bande non ottiche dello spettro, principalmente i raggi X e onde Radio.
Resumo:
Scopo della tesi è presentare alcuni aspetti della teoria spettrale per operatori compatti definiti su spazi di Hilbert separabili. Il primo capitolo è dedicato al Teorema di esistenza di una base numerabile di autovettori, per operatori compatti autoaggiunti. Nel secondo capitolo sono presentate alcune applicazioni dirette al Laplaciano. Viene dimostrato il teorema di immersione di Sobolev, e come conseguenza dell'immersione compatta, si prova che l'inverso del Laplaciano su aperti limitati è un operatore compatto autoaggiunto. Conseguentemente viene determinata la base dei suoi autovettori, che in dimensione uno è la classica serie di Fourier. Nel terzo capitolo vengono determinate le espressioni analitiche delle basi di autovettori sul quadrato e il cerchio unitario.
Resumo:
The most important property controlling the physicochemical behaviour of polyelectrolytes and their applicability in different fields is the charge density on the macromolecular chain. A polyelectrolyte molecule in solution may have an effective charge density which is smaller than the actual charge density determined from its chemical structure. In the present work an attempt has been made to quantitatively determine this effective charge density of a model polyelectrolyte by using light scattering techniques. Flexible linear polyelectrolytes with a Poly(2-Vinylpyridine) (2-PVP) backbone are used in the present study. The polyelectrolytes are synthesized by quaternizing the pyridine groups of 2-PVP by ethyl bromide to different quaternization degrees. The effect of the molar mass, degree of quaternization and solvent polarity on the effective charge is studied. The results show that the effective charge does not vary much with the polymer molar mass or the degree of quaternization. But a significant increase in the effective charge is observed when the solvent polarity is increased. The results do not obey the counterion condensation theory proposed by Manning. Based on the very low effective charges determined in this study, a new mechanism for the counterion condensation phenomena from a specific polyelectrolyte-counterion interaction is proposed
Resumo:
Amphiphile Peptide, Pro-Glu-(Phe-Glu)n-Pro, Pro-Asp-(Phe-Asp)n-Pro, und Phe-Glu-(Phe-Glu)n-Phe, können so aus n alternierenden Sequenzen von hydrophoben und hydrophilen Aminosäuren konstruiert werden, dass sie sich in Monolagen an der Luft-Wasser Grenzfläche anordnen. In biologischen Systemen können Strukturen an der organisch-wässrigen Grenzfläche als Matrix für die Kristallisation von Hydroxyapatit dienen, ein Vorgang der für die Behandlung von Osteoporose verwendet werden kann. In der vorliegenden Arbeit wurden Computersimulationenrneingesetzt, um die Strukturen und die zugrunde liegenden Wechselwirkungen welche die Aggregation der Peptide auf mikroskopischer Ebene steuern, zu untersuchen. Atomistische Molekulardynamik-Simulationen von einzelnen Peptidsträngen zeigen, dass sie sich leicht an der Luft-Wasser Grenzfläche anordnen und die Fähigkeit haben, sich in β-Schleifen zu falten, selbst für relativ kurze Peptidlängen (n = 2). Seltene Ereignisse wie diese (i.e. Konformationsänderungen) erfordern den Einsatz fortgeschrittener Sampling-Techniken. Hier wurde “Replica Exchange” Molekulardynamik verwendet um den Einfluss der Peptidsequenzen zu untersuchen. Die Simulationsergebnisse zeigten, dass Peptide mit kürzeren azidischen Seitenketten (Asp vs. Glu) gestrecktere Konformationen aufwiesen als die mit längeren Seitenketten, die in der Lage waren die Prolin-Termini zu erreichen. Darüber hinaus zeigte sich, dass die Prolin-Termini (Pro vs. Phe) notwendig sind, um eine 2D-Ordnung innerhalb derrnAggregate zu erhalten. Das Peptid Pro-Asp-(Phe-Asp)n-Pro, das beide dieser Eigenschaften enthält, zeigt das geordnetste Verhalten, eine geringe Verdrehung der Hauptkette, und ist in der Lage die gebildeten Aggregate durch Wasserstoffbrücken zwischen den sauren Seitenketten zu stabilisieren. Somit ist dieses Peptid am besten zur Aggregation geeignet. Dies wurde auch durch die Beurteilung der Stabilität von experimentnah-aufgesetzten Peptidaggregaten, sowie der Neigung einzelner Peptide zur Selbstorganisation von anfänglich ungeordneten Konfigurationen unterstützt. Da atomistische Simulationen nur auf kleine Systemgrößen und relativ kurze Zeitskalen begrenzt sind, wird ein vergröbertes Modell entwickelt damit die Selbstorganisation auf einem größeren Maßstab studiert werden kann. Da die Selbstorganisation an der Grenzfläche vonrnInteresse ist, wurden existierenden Vergröberungsmethoden erweitert, um nicht-gebundene Potentiale für inhomogene Systeme zu bestimmen. Die entwickelte Methode ist analog zur iterativen Boltzmann Inversion, bildet aber das Update für das Interaktionspotential basierend auf der radialen Verteilungsfunktion in einer Slab-Geometrie und den Breiten des Slabs und der Grenzfläche. Somit kann ein Kompromiss zwischen der lokalen Flüssigketsstruktur und den thermodynamischen Eigenschaften der Grenzfläche erreicht werden. Die neue Methode wurde für einen Wasser- und einen Methanol-Slab im Vakuum demonstriert, sowie für ein einzelnes Benzolmolekül an der Vakuum-Wasser Grenzfläche, eine Anwendung die von besonderer Bedeutung in der Biologie ist, in der oft das thermodynamische/Grenzflächenpolymerisations-Verhalten zusätzlich der strukturellen Eigenschaften des Systems erhalten werden müssen. Daraufrnbasierend wurde ein vergröbertes Modell über einen Fragment-Ansatz parametrisiert und die Affinität des Peptids zur Vakuum-Wasser Grenzfläche getestet. Obwohl die einzelnen Fragmente sowohl die Struktur als auch die Wahrscheinlichkeitsverteilungen an der Grenzfläche reproduzierten, diffundierte das Peptid als Ganzes von der Grenzfläche weg. Jedoch führte eine Reparametrisierung der nicht-gebundenen Wechselwirkungen für eines der Fragmente der Hauptkette in einem Trimer dazu, dass das Peptid an der Grenzfläche blieb. Dies deutet darauf hin, dass die Kettenkonnektivität eine wichtige Rolle im Verhalten des Petpids an der Grenzfläche spielt.
Resumo:
Partendo dal campione di AGN presente nella survey di XMM-COSMOS, abbiamo cercato la sua controparte ottica nel database DR10 della Sloan Digital Sky Survey (SDSS), ed il match ha portato ad una selezione di 200 oggetti, tra cui stelle, galassie e quasar. A partire da questo campione, abbiamo selezionato tutti gli oggetti con un redshift z<0.86 per limitare l’analisi agli AGN di tipo 2, quindi siamo giunti alla selezione finale di un campione di 30 sorgenti. L’analisi spettrale è stata fatta tramite il task SPECFIT, presente in IRAF. Abbiamo creato due tipi di modelli: nel primo abbiamo considerato un’unica componente per ogni riga di emissione, nel secondo invece è stata introdotta un’ulteriore com- ponente limitando la FWHM della prima ad un valore inferiore a 500 km\s. Le righe di emissione di cui abbiamo creato un modello sono le seguenti: Hβ, [NII]λλ 6548,6581, Hα, [SII]λλ 6716,6731 e [OIII]λλ 4959,5007. Nei modelli costruiti abbiamo tenuto conto della fisica atomica per quel che riguarda i rapporti dei flussi teorici dei doppietti dell’azoto e dell’ossigeno, fissandoli a 1:3 per entrambi; nel caso del modello ad una componente abbiamo fissato le FWHM delle righe di emissione; mentre nel caso a due componenti abbiamo fissato le FWHM delle componenti strette e larghe, separatamente. Tenendo conto del chi-quadro ottenuto da ogni fit e dei residui, è stato possibile scegliere tra i due modelli per ogni sorgente. Considerato che la nostra attenzione è focalizzata sulla cinematica dell’ossigeno, abbiamo preso in considerazione solo le sorgenti i cui spettri mostravano la riga suddetta, cioè 25 oggetti. Su questa riga è stata fatta un’analisi non parametrica in modo da utilizzare il metodo proposto da Harrison et al. (2014) per caratterizzare il profilo di riga. Sono state determinate quantità utili come il 2 e il 98 percentili, corrispondenti alle velocità massime proiettate del flusso di materia, e l’ampiezza di riga contenente l’80% dell’emissione. Per indagare sull’eventuale ruolo che ha l’AGN nel guidare questi flussi di materia verso l’esterno, abbiamo calcolato la massa del gas ionizzato presente nel flusso e il tasso di energia cinetica, tenendo conto solo delle componenti larghe della riga di [OIII] λ5007. Per la caratterizzazione energetica abbiamo considerato l’approccio di Cano-Diaz et al (2012) e di Heckman (1990) in modo da poter ottenere un limite inferiore e superiore della potenza cinetica, adottando una media geometrica tra questi due come valore indicativo dell’energetica coinvolta. Confrontando la potenza del flusso di gas con la luminosità bolometrica dell’AGN, si è trovato che l’energia cinetica del flusso di gas è circa lo 0.3-30% della luminosità dell’AGN, consistente con i modelli che considerano l’AGN come principale responsabile nel guidare questi flussi di gas.
Resumo:
Nella tesi si arriva a classificare le varietà di Seifert, particolari 3-varietà che ammettono una fibrazione in cerchi. Dopo un'introduzione sulla topologia delle varietà e sulla classificazione delle superfici, vengono presentate le 3-varietà e la decomposizione in fattori primi. Con l'esposizione della decomposizione JSJ vengono introdotte le varietà di Seifert. Infine vengono classificati i fibrati di Seifert, tramite la superficie di base e le pendenze delle fibre singolari.
Resumo:
Il telerilevamento rappresenta un efficace strumento per il monitoraggio dell’ambiente e del territorio, grazie alla disponibilità di sensori che riprendono con cadenza temporale fissa porzioni della superficie terrestre. Le immagini multi/iperspettrali acquisite sono in grado di fornire informazioni per differenti campi di applicazione. In questo studio è stato affrontato il tema del consumo di suolo che rappresenta un’importante sfida per una corretta gestione del territorio, poiché direttamente connesso con i fenomeni del runoff urbano, della frammentazione ecosistemica e con la sottrazione di importanti territori agricoli. Ancora non esiste una definizione unica, ed anche una metodologia di misura, del consumo di suolo; in questo studio è stato definito come tale quello che provoca impermeabilizzazione del terreno. L’area scelta è quella della Provincia di Bologna che si estende per 3.702 km2 ed è caratterizzata a nord dalla Pianura Padana e a sud dalla catena appenninica; secondo i dati forniti dall’ISTAT, nel periodo 2001-2011 è stata la quarta provincia in Italia con più consumo di suolo. Tramite classificazione pixel-based è stata fatta una mappatura del fenomeno per cinque immagini Landsat. Anche se a media risoluzione, e quindi non in grado di mappare tutti i dettagli, esse sono particolarmente idonee per aree estese come quella scelta ed inoltre garantiscono una più ampia copertura temporale. Il periodo considerato va dal 1987 al 2013 e, tramite procedure di change detection applicate alle mappe prodotte, si è cercato di quantificare il fenomeno, confrontarlo con i dati esistenti e analizzare la sua distribuzione spaziale.
Resumo:
L’obbiettivo di questa tesi è quello di studiare le tecnologie e i metodi necessari alla simulazione degli effetti audio lineari, normalmente utilizzati per strumenti a corda elettrici, ed implementarla sullo smartphone. I vantaggi di questa idea sono evidenti nella versatilità e nella comodità di utilizzo, rispetto ai classici dispositivi impiegati dai musicisti (come gli effetti a pedali). Per fare ciò è necessaria la conoscenza delle tecniche di rappresentazione digitale di un segnale, come la trasformata di Fourier, il processo di campionamento e la trasformata Z, esposte nel Capitolo 1. Il Capitolo 2 continua l’introduzione trattando dei metodi utilizzati per creare effetti audio lineari tramite lo studio dei filtri FIR e IIR. Nel capitolo 3 sarà disponibile una classificazione degli effetti più utilizzati, seguiti dal procedimento di sviluppo di due sistemi: un equalizzatore a 10 bande e un delay, che saranno implementati nello smartphone. L’ultimo Capitolo, il quarto, spiega come è sviluppato il progetto, perché iOS è l’unico sistema operativo che permetta di farlo, ed indica le principali classi che necessitano di essere utilizzate.
Resumo:
In questo progetto di tesi è stata svolta la ritraduzione dall’italiano in tedesco di 16 “linee guida ENP” (14 riguardo l’igiene personale e 2 riguardo le lesioni da decubito) fornite dalla ditta tedesca RECOM®. Le linee guida ENP sono procedure per la pratica infermieristica; sono state scritte originariamente in tedesco e poi tradotte in italiano. La traduzione italiana è stata utilizzata, in questo lavoro, come testo di partenza. Scopo della ritraduzione è il confronto tra tre testi distinti (l’originale tedesco, la traduzione italiana e la ritraduzione in tedesco di quest’ultima) al fine di individuare eventuali discrepanze e verificare l’efficacia della traduzione italiana. La ritraduzione è avvenuta avendo solo a disposizione il testo di partenza e non l’originale tedesco. Per la ritraduzione si è utilizzato il software Trados Studio 2014, dizionari specialistici in entrambe le lingue, libri di testo per l’infermieristica, articoli scientifici e testi paralleli quali linee guida non ENP. Il confronto ha permesso di identificare problemi e difficoltà di traduzione che sono stati poi organizzati secondo il sistema di classificazione proposto da Nord. Sono stati individuati problemi e difficoltà di traduzione sia nel processo traduttivo dell’originale tedesco in italiano, sia nel processo di ritraduzione svolto in questo lavoro. I problemi e le difficoltà individuate nel primo processo hanno sempre causato problemi traduttivi nella ritraduzione. Tuttavia, alcuni problemi e difficoltà presenti nella ritraduzione erano del tutto indipendenti dal primo processo traduttivo. In base ai problemi e alle difficoltà individuate, sono state formulate delle proposte di correzione o revisione da sottoporre alla ditta RECOM®.