1000 resultados para VHDL ATLAS FPGA PROGETTO DI SISTEMI ELETTRONICI BEAM TEST LUCID CERN DIGITALE QUARTUS MODELSIM
Resumo:
Waste management represents an important issue in our society and Waste-to-Energy incineration plants have been playing a significant role in the last decades, showing an increased importance in Europe. One of the main issues posed by waste combustion is the generation of air contaminants. Particular concern is present about acid gases, mainly hydrogen chloride and sulfur oxides, due to their potential impact on the environment and on human health. Therefore, in the present study the main available technological options for flue gas treatment were analyzed, focusing on dry treatment systems, which are increasingly applied in Municipal Solid Wastes (MSW) incinerators. An operational model was proposed to describe and optimize acid gas removal process. It was applied to an existing MSW incineration plant, where acid gases are neutralized in a two-stage dry treatment system. This process is based on the injection of powdered calcium hydroxide and sodium bicarbonate in reactors followed by fabric filters. HCl and SO2 conversions were expressed as a function of reactants flow rates, calculating model parameters from literature and plant data. The implementation in a software for process simulation allowed the identification of optimal operating conditions, taking into account the reactant feed rates, the amount of solid products and the recycle of the sorbent. Alternative configurations of the reference plant were also assessed. The applicability of the operational model was extended developing also a fundamental approach to the issue. A predictive model was developed, describing mass transfer and kinetic phenomena governing the acid gas neutralization with solid sorbents. The rate controlling steps were identified through the reproduction of literature data, allowing the description of acid gas removal in the case study analyzed. A laboratory device was also designed and started up to assess the required model parameters.
Resumo:
Il problema storico che è al centro di questo progetto di ricerca può essere così riassunto: in che modo viene selezionata la classe dirigente comunista nell’Italia repubblicana? Ovvero, detto in altri termini, in che misura le nomine dipendevano dal centro, per cooptazione, secondo la tradizione del modello di partito centralizzato, e quanto, invece, costituivano una ratifica alta di processi di selezione che si sviluppavano in periferia? Quanto contava, insomma, l’aver avuto lo scettro del comando nei territori di provenienza per ricoprire incarichi direttivi nel partito a livello nazionale? La nostra ricerca vuole quindi verificare la validità di alcuni paradigmi interpretativi, scaturiti da un’analisi complessiva della politica comunista, prendendo in esame un caso di studio locale, quello di una regione «rossa» per antonomasia come la Toscana. Tenendo conto, contestualmente, della realtà nazionale e di quella locale, cercheremo di analizzare, le ricadute che processi di portata nazionale ebbero sulla realtà locale, e in particolare, sulle modalità che regolavano la selezione della classe dirigente, dando alla ricerca un taglio prosopografico.
Resumo:
La ricerca ha come oggetto l’edizione critica di circa tremila regesti di documenti di area bolognese datati al X-XII secolo. I documenti sono stati trascritti tra il XVII e XVIII secolo in undici cartulari ecclesiastici, conservati presso l’Archivio di Stato di Bologna. Il lavoro s’inserisce nel progetto di edizione delle carte bolognesi di epoca medievale in corso presso la cattedra di Paleografia latina e Diplomatica dell’Università di Bologna, attualmente incentrata sull’edizione delle carte del secolo XII. La ricerca si propone come strumento di supporto a tale progetto e come completamento delle carte già pubblicate: i cartulari, infatti, offrono spesso copie di documenti mancanti dell’originale o in cattivo stato di conservazione, e costituiscono l’unica traccia di una memoria storica altrimenti perduta. Le raccolte esaminate si collocano a ridosso del periodo napoleonico, quando la maggior parte degli enti ecclesiastici venne soppressa e i loro beni incamerati dallo Stato; esse quindi rispecchiano la condizione dei principali archivi ecclesiastici cittadini dei primi secoli del Medioevo bolognese. La ricerca è strutturata in una prima parte volta a definire in termini storico-diplomatistici la tipologia di fonte esaminata: oggi i cartulari non sono più intesi come semplici raccoglitori di documenti, ma come sistema organico di fonti in grado di far luce su aspetti importanti della storia dell’ente che li ha prodotti. L’indagine del loro contesto di produzione permette di comprenderne meglio le finalità, la forma e il valore giuridico. Parte della ricerca è stata poi incentrata sullo studio delle ragioni che hanno portato gli istituti religiosi bolognesi alla redazione dei cartulari: a tal fine è stata esaminata la legislazione ecclesiastica cinque-settecentesca in materia di conservazione della documentazione e il rapporto della legislazione stessa con la prassi archivistica. Infine è stata realizzata l’edizione critica vera e propria dei regesti, mirante a descrivere le caratteristiche principali di ciascun cartulario.
Resumo:
Questa ricerca indaga la prospettiva investigativa di Carlos Martí Arís. È stato assunto il campo d’azione da lui prediletto, ovvero l’articolato rapporto che in architettura si instaura tra teoria e pratica, comprensivo delle svariate ricadute nel mondo dell’arte e della produzione umana in genere, che fanno del progetto architettonico un campo disciplinare complesso. La sua figura è però assunta in modo strumentale, come grimaldello per addentrarsi in un articolato ambito culturale, che se da un lato coincide con la sua città, Barcellona, dall’altro la trascende grazie a quei “ponti della conoscenza” che CMA interrottamente ha teso al suo intorno. Ci riferiamo alla sua costruzione teorica destinata a consolidare la storica reciprocità tra Italia e Spagna, le cui tematiche urbane e tipologiche ne sono la base, Milano e Barcellona ne sono gli estremi. Ci riferiamo al suo sguardo sull’esperienza del Movimento Moderno e il relativo tema della residenza. Ci riferiamo alla sua naturale vocazione al silenzio, che si oppone al fragoroso rumore della contemporaneità e affianca la discreta parola del mestiere: un modo per porsi all’ascolto. All’ascolto dell’altro e del mondo. Ci riferiamo, insomma, alla sua idea di architettura intesa come «territorio dissodato da tempi remoti»; come trama di corrispondenze sincroniche tra terre, tempi, fatti, uomini, vicini e lontani: condizione ideale per chi voglia disciogliere il proprio lavoro nei labirintici sentieri del mondo, indifferente al rischio di perdersi nell’oblio. Oggi, in cui il progetto architettonico risulta sempre più spesso veicolo di soggettive e arbitrarie sperimentazioni formali, la lezione di CMA indica una via d’uscita: un mo(n)do condiviso che all’arroganza opponga la discrezione, che persuada a celarsi nella tradizione e a porsi umilmente all’ombra dei maestri. Tradizione e Maestri, Eteronimi e Nomi, complementarità a cui CMA affida il suo progetto di anonimato, sovrapersonale e ostinatamente teso a rilevarne le relazioni inedite.
Resumo:
L’intelligenza artificiale, ovvero lo studio e la progettazione di sistemi intelligenti, mira a riprodurre alcuni aspetti dell’intelligenza umana, come il linguaggio e il ragionamento deduttivo, nei computer. La robotica, invece, cerca spesso di ricreare nei robot comportamenti adattativi, come l’abilità di manipolare oggetti o camminare, mediante l’utilizzo di algoritmi in grado di generare comportamenti desiderati. Una volta realizzato uno di questi algoritmi specificamente per una certa abilità, si auspica che tale algoritmo possa essere riutilizzato per generare comportamenti più complessi fino a che il comportamento adattativo del robot non si mostri ad un osservatore esterno come intelligente; purtroppo questo non risulta sempre possibile e talvolta per generare comportamenti di maggiore complessità è necessario riscrivere totalmente gli algoritmi. Appare quindi evidente come nel campo della robotica l’attenzione sia incentrata sul comportamento, perché le azioni di un robot generano nuove stimolazioni sensoriali, che a loro volta influiscono sulle sue azioni future. Questo tipo di intelligenza artificiale (chiamata propriamente embodied cognition) differisce da quella propriamente detta per il fatto che l’intelligenza non emerge dall’introspezione ma dalle interazioni via via più complesse che la macchina ha con l’ambiente circostante. Gli esseri viventi presenti in natura mostrano, infatti, alcuni fenomeni che non sono programmati a priori nei geni, bensì frutto dell’interazione che l’organismo ha con l’ambiente durante le varie fasi del suo sviluppo. Volendo creare una macchina che sia al contempo autonoma e adattativa, si devono affrontare due problemi: il primo è relativo alla difficoltà della progettazione di macchine autonome, il secondo agli ingenti costi di sviluppo dei robot. Alla fine degli anni ’80 nasce la robotica evolutiva che, traendo ispirazione dall’evoluzione biologica, si basa sull’utilizzo di software in grado di rappresentare popolazioni di robot virtuali e la capacità di farli evolvere all’interno di un simulatore, in grado di rappresentare le interazioni tra mente e corpo del robot e l’ambiente, per poi realizzare fisicamente solo i migliori. Si utilizzano algoritmi evolutivi per generare robot che si adattano, anche dal punto di vista della forma fisica, all’ambiente in cui sono immersi. Nel primo capitolo si tratterà di vita ed evoluzione artificiali, concetti che verranno ripresi nel secondo capitolo, dedicato alle motivazioni che hanno portato alla nascita della robotica evolutiva, agli strumenti dei quali si avvale e al rapporto che ha con la robotica tradizionale e le sue declinazioni. Nel terzo capitolo si presenteranno i tre formalismi mediante i quali si sta cercando di fornire un fondamento teorico a questa disciplina. Infine, nel quarto capitolo saranno mostrati i problemi che ancora oggi non hanno trovato soluzione e le sfide che si devono affrontare trattando di robotica evolutiva.
Resumo:
La sempre maggiore importanza data al luogo, soprattutto dalla normativa attraverso il codice dei Beni Culturali e del Paesaggio, obbliga i progettisti a prestare maggiore attenzione al contesto in cui operano. I luoghi non possono più essere concepiti come spazi neutri capaci di accogliere qualsiasi forma di progetto, ma devono essere studiati e compresi nella loro essenza più profonda. In aiuto viene il concetto di Genius loci che fin dall'epoca romana soprassedeva i luoghi obbligando l'uomo a scendere a patti con esso prima di qualsiasi pratica progettuale. Nel tempo questo concetto si è trasformato ed ha mutato di senso, andando a coincidere con l'identità propria di un determinato luogo. Per luogo si intende una somma complessa di più elementi non scindibili e in rapporto tra loro nel costruirne l'identità specifica. Capire e rispettare l'identità di un luogo significa capire e rispettare il Genius loci. Filo conduttore di questa disamina è il saggio di Christian Norberg-Schulz “Genius loci. Paesaggio ambiente architettura”, in cui i temi del luogo e dell‟identità vengono trattati principalmente in chiave architettonica. Partendo da questo ho cercato di mettere in evidenza questi concetti in tre progetti sviluppati a scale diverse, evidenziandone l‟applicazione e le problematiche in tre ambiti differenti. I progetti presi in esame sono: in ambito rurale, l‟ecovillaggio sviluppato a San Biagio; in ambito urbano, la riqualificazione di un‟area industriale a Forlimpopoli; in ambito metropolitano, il progetto di abitazioni collettive a Bogotá.
Resumo:
La tesi di laurea presentata si inserisce nell’ampio contesto della Sicurezza Informatica, in particolare tratta il problema del testing dei sistemi di sicurezza concepiti per contrapporsi alle odierne minacce: gli attacchi mirati (Targeted Attacks) ed in generale le minacce avanzate persistenti (Advanced Persistent Threats). Il principale obiettivo del lavoro svolto è lo sviluppo e la discussione di una metodologia di test per sistemi di sicurezza focalizzati su questo genere di problemi. Le linee guida proposte hanno lo scopo di aiutare a colmare il divario tra quello che viene testato e quello che in realt`a deve essere affrontato realmente. Le attività svolte durante la preparazione della tesi sono state sia di tipo teorico, per quanto concerne lo sviluppo di una metodologia per affrontare al meglio il testing di sistemi di sicurezza a fronte di attacchi mirati, che ne di tipo sperimentale in quanto si sono utilizzati tali concetti per lo svolgimento di test su più strumenti di difesa in uno scenario d’interesse reale.
Resumo:
La rotazione dell’apice del cuore è una delle espressioni della complessa cinematica del miocardio e rappresenta un importante indice di funzionalità cardiaca. Disporre di un sensore impiantabile che permetta un monitoraggio continuo di tale parametro consentirebbe di individuare precocemente un deterioramento della performance cardiaca e di adattare tempestivamente la terapia. L’obiettivo del lavoro di tesi è la realizzazione di un sistema di acquisizione dati per segnali provenienti da un giroscopio MEMS triassiale da utilizzarsi per lo studio della cinematica cardiaca, in particolare della rotazione del cuore. Per leggere e decodificare i segnali digitali in uscita dal giroscopio MEMS triassiale utilizzato (CMR3100, VTI Technologies) è stata progettata e sviluppata un’unità di condizionamento composta da una board Arduino ADK, associata ad un adattatore di tensione PCA9306 e a 3 convertitori digitali/analogici MCP4921, che ha richiesto lo sviluppo di software per la gestione del protocollo di comunicazione e della decodifica del segnale digitale proveniente dal sensore. Per caratterizzare e validare il sistema realizzato sono state effettuate prove di laboratorio, che hanno permesso di individuare i parametri di lavoro ottimali del sensore. Una prima serie di prove ha dimostrato come l’unità di condizionamento realizzata consenta di acquisire i segnali con una velocità di processo elevata (1 kHz) che non comporta perdita di dati in uscita dal sensore. Successivamente, attraverso un banco prova di simulazione appositamente assemblato allo scopo di riprodurre rotazioni cicliche nel range dei valori fisio-patologici, è stato quantificato lo sfasamento temporale (St) tra il segnale rilevato dal CMR3100 e decodificato dall'unità di condizionamento e un segnale analogico in uscita da un giroscopio analogico, ottenendo un valore medio St=4 ms. Attraverso lo stesso banco di simulazione, è stata infine dimostrata una buona accuratezza (errore percentuale <10%) nella misura dell'angolo di rotazione derivato dal segnale di velocità angolare rilevato direttamente dal sensore CRM300.
Resumo:
La labioschisi con o senza palatoschisi non-sindromica (NSCL/P) è tra le più frequenti alterazioni dello sviluppo embrionale, causata dall’interazione di fattori genetici e ambientali, moti dei quali ancora ignoti. L'obiettivo del mio progetto di Dottorato consiste nell’identificazione di fattori di rischio genetico in un processo a due stadi che prevede la selezione di geni candidati e la verifica del loro coinvolgimento nella determinazione della malformazione mediante studi di associazione. Ho analizzato alcuni polimorfismi a singolo nucleotide (SNPs) dei geni RFC1 e DHFR, appartenenti alla via metabolica dell’acido folico, evidenziando una debole associazione tra alcuni degli SNPs indagati e la NSCL/P nella popolazione italiana. Presso il laboratorio della Dott.ssa Mangold dell’Università di Bonn, ho valutato il ruolo di 15 diverse regioni cromosomiche nel determinare la suscettibilità alla malattia, evidenziando una significativa associazione per i marcatori localizzati in 8q24 e 1p22. Ho quindi rivolto la mia attenzione al ruolo del complesso Polycomb nell’insorgenza della schisi. Nell’uomo i due complessi Polycomb, PRC1 e PRC2, rimodellano la cromatina agendo da regolatori dei meccanismi trascrizionali alla base della differenziazione cellulare e dello sviluppo embrionale. Ho ipotizzato che mutazioni a carico di geni appartenenti a PRC2 possano essere considerati potenziali fattori di rischio genetico nel determinare la NSCL/P. Il razionale consiste nel fatto che JARID2, una proteina che interagisce con PRC2, è associata all’insorgenza della NSCL/P ed espressa a livello delle cellule epiteliali delle lamine palatine che si approssimano alla fusione. L’indagine condotta analizzando i geni di elementi o partner dei due complessi Polycomb, ha evidenziato un’associazione significativa con alcuni polimorfismi dei geni indagati, associazione ulteriormente confermata dall’analisi degli aplotipi. Le analisi condotte sui geni candidati mi hanno permesso di raccogliere dati interessanti sull’eziologia della malformazione. Studi indipendenti saranno necessari per poter validare l'associazione tra le varianti genetiche di questi geni candidati e la NSCL/P.
Resumo:
Lo scopo di questo lavoro di tesi è indagare le capacità di ALMA di osservare il continuo e le righe molecolari di emissione di HCN, HCO+ e HNC, in galassie lensate ad alto z, nelle prime fasi della loro formazione. Per farlo vengono utilizzate osservazioni ALMA di righe di emissione molecolare, relative a dati pubblici di Ciclo 0. Queste osservazioni vengono utilizzate per simulare in modo realistico l’emissione da parte di galassie ad alto z e la risposta osservativa del telescopio, assumendo diverse possibili geometrie di lensing. Inoltre le recenti osservazioni ALMA sono state utilizzate per aggiornare le relazioni già esistenti tra la luminosità FIR e la luminosità delle righe molecolari. Queste recenti osservazioni con maggiore sensibilità e risoluzione angolare, sembrano essere in buon accordo con le precedenti osservazioni. Per realizzare questo progetto di tesi, sono stati scaricati dall’archivio ALMA i dati non calibrati relativi a due sorgenti ben studiate: NGC1614, rappresentativa delle galassie di tipo starburst ed IRAS 20551-4250, un AGN oscurato. Il processo di calibrazione è stato ripetuto per esaminare le proprietà dei cubi di dati utilizzando il pacchetto Common Astronomy Software Applications (CASA). Le righe spettrali osservate e l’emissione del continuo sono state successivamente estrapolate ad alto z riscalando adeguatamente le distanze, le dimensioni delle sorgenti e le frequenze di emissione. In seguito è stato applicato un modello di lensing gravitazionale basato su quello di Lapi et al. (2012). Sono state considerate diverse configurazioni tra lente e sorgente per ottenere diverse geometrie delle immagini e diversi fattori di amplificazione. Infine stato utilizzato il software CASA per simulare le osservazioni ALMA in modo da verificare le capacità osservative del telescopio al variare della geometria del sistema. Per ogni riga molecolare e per l’emissione del continuo sono state determinate la sensibilit e la risoluzione che possono essere raggiunte con le osservazioni ALMA e sono state analizzate alcune strategie osservative per effettuare survey di righe spettrali in oggetti lensati. Inoltre stata analizzata la possibilit di caratterizzare oggetti starburst ed AGN dai rapporti tra le righe di emissione delle molecole traccianti di alta densit. Le prestazioni di ALMA consentiranno di distinguere e stimare i contributi relativi di SB ed AGN in galassie lensate a z > 2.5, quindi vicine alla loro presunta epoca di formazione (Lapi et al. 2010), in meno di 5 minuti di osservazione per qualsiasi fattore di magnificazione. Nel presente lavoro sono state inoltre discusse alcune strategie osservative per condurre survey o followup per osservare le righe di HCN(4-3), HCO+(4-3) e HNC(4-3) in galassie lensate a redshift 2.5 < z < 3, dimostrando che sono possibili per campioni statisticamente significativi in tempi relativamente brevi.
Resumo:
La prima parte del nostro studio riguarda la tecnica LAMP (Loop-mediated isothermal amplification), una tecnica di amplificazione isotermica recentemente inventata (Notomi et al., 2000). Essa presenta notevoli vantaggi rispetto alle tradizionali PCR: non necessita di strumentazioni sofisticate come i termociclatori, può essere eseguita da personale non specializzato, è una tecnica altamente sensibile e specifica ed è molto tollerante agli inibitori. Tutte queste caratteristiche fanno sì che essa possa essere utilizzata al di fuori dei laboratori diagnostici, come POCT (Point of care testing), con il vantaggio di non dover gestire la spedizione del campione e di avere in tempi molto brevi risultati paragonabili a quelli ottenuti con la tradizionale PCR. Sono state prese in considerazione malattie infettive sostenute da batteri che richiedono tempi molto lunghi per la coltivazione o che non sono addirittura coltivabili. Sono stati disegnati dei saggi per la diagnosi di patologie virali che necessitano di diagnosi tempestiva. Altri test messi a punto riguardano malattie genetiche del cane e due batteri d’interesse agro-alimentare. Tutte le prove sono state condotte con tecnica real-time per diminuire il rischio di cross-contaminazione pur riuscendo a comprendere in maniera approfondita l’andamento delle reazioni. Infine è stato messo a punto un metodo di visualizzazione colorimetrico utilizzabile con tutti i saggi messi a punto, che svincola completamente la reazione LAMP dall’esecuzione in un laboratorio specializzato. Il secondo capitolo riguarda lo studio dal punto di vista molecolare di un soggetto che presenza totale assenza di attività mieloperossidasica all’analisi di citochimica automatica (ADVIA® 2120 Hematology System). Lo studio è stato condotto attraverso amplificazione e confronto dei prodotti di PCR ottenuti sul soggetto patologico e su due soggetti con fenotipo wild-type. Si è poi provveduto al sequenziamento dei prodotti di PCR su sequenziatore automatico al fine di ricercare la mutazione responsabile della carenza di MPO nel soggetto indicato.
Resumo:
Il microbiota intestinale riveste un ruolo importantissimo nell’influenzare la salute dell’ospite. È stato dimostrato come la composizione della dieta possa condizionare lo stato di benessere dell’animale, inducendo importanti cambiamenti tra le popolazioni batteriche che coabitano l’intestino; l’uso di prebiotici rappresenta una delle strategie maggiormente impiegate per modulare positivamente la composizione ed il metabolismo dell’ecosistema gastroenterico. Il presente progetto di dottorato si è proposto di indagare gli effetti sul microbiota intestinale del cane e del gatto di diete a diverso tenore proteico e contenenti proteine di diversa digeribilità in presenza o meno di sostanze prebiotiche. Inoltre, sono stati valutati gli effetti della presenza di un estratto di Yucca schidigera e di tannini sulla microflora intestinale del gatto. In ultima istanza, sono state valutate le conseguenze di dosi crescenti di lattosio sul benessere intestinale del cane. I risultati del presente studio hanno rilevato come le sostanze prebiotiche influiscono sulla composizione e sul metabolismo della microflora del cane e del gatto, e come l’impiego di diete ricche di proteine possa avere conseguenze negative sull’ambiente intestinale. Tuttavia, la presenza di oligosaccaridi non sembra contrastare gli effetti negativi che diete ad alto tenore proteico potrebbero avere sull’ecosistema intestinale dell’animale. Nella successiva prova è stato evidenziato come l’inclusione nella dieta di estratti di Yucca e tannini possa contribuire a mitigare l’emanazione di sostanze maleodoranti dalle deiezioni degli animali da compagnia. Nel corso dell’ultima prova, nonostante non siano state osservate differenze tra le popolazioni microbiche intestinali, la somministrazione di dosi crescenti di lattosio ha indotto una certa riduzione delle fermentazioni proteolitiche microbiche. Ulteriori studi sono necessari per stabilire in che misura la dieta e gli alimenti “funzionali” possano influire sul microbiota intestinale del cane e del gatto e come queste informazioni possono essere utilizzate per migliorare miratamente l’alimentazione e lo stato di salute degli animali da compagnia.
Resumo:
Il trattamento numerico dell'equazione di convezione-diffusione con le relative condizioni al bordo, comporta la risoluzione di sistemi lineari algebrici di grandi dimensioni in cui la matrice dei coefficienti è non simmetrica. Risolutori iterativi basati sul sottospazio di Krylov sono ampiamente utilizzati per questi sistemi lineari la cui risoluzione risulta particolarmente impegnativa nel caso di convezione dominante. In questa tesi vengono analizzate alcune strategie di precondizionamento, atte ad accelerare la convergenza di questi metodi iterativi. Vengono confrontati sperimentalmente precondizionatori molto noti come ILU e iterazioni di tipo inner-outer flessibile. Nel caso in cui i coefficienti del termine di convezione siano a variabili separabili, proponiamo una nuova strategia di precondizionamento basata sull'approssimazione, mediante equazione matriciale, dell'operatore differenziale di convezione-diffusione. L'azione di questo nuovo precondizionatore sfrutta in modo opportuno recenti risolutori efficienti per equazioni matriciali lineari. Vengono riportati numerosi esperimenti numerici per studiare la dipendenza della performance dei diversi risolutori dalla scelta del termine di convezione, e dai parametri di discretizzazione.
Resumo:
Quando si parla di traduzione, si pensa spesso solo al risultato di un processo, valutato e analizzato come tale. Sembra ci si dimentichi del fatto che, prima di arrivare a quel risultato finale, il traduttore applica più o meno consapevolmente tutta quella serie di strumenti di analisi, critica, correzione, rilettura, riformulazione e modifica che rientrano nell’attività di revisione. A questa prima fase, di cui ogni traduttore fa esperienza nel lavorare alla propria traduzione, segue di norma una fase successiva in cui la traduzione è rivista da un’altra figura professionale della filiera editoriale (di solito, e auspicabilmente, un altro traduttore) e infine altre fasi ancora del processo di lavorazione e pubblicazione del testo tradotto. Oltre a essere un’attività cruciale di ogni attività di traduzione e processo editoriale, la revisione riveste anche un fondamentale ruolo didattico nella formazione dei traduttori. L’idea alla base di questo progetto di ricerca nasce dal bisogno di triangolare riflessioni e dati concreti sulla revisione provenienti dalla ricerca accademica, dalla pratica professionale e dall’esperienza didattico-formativa, in un triplice approccio che informa l’intero progetto, di cui si illustrano i principali obiettivi: • formulare una nuova e chiara definizione sommativa del termine “revisione” da potersi utilizzare nell’ambito della ricerca, della didattica e della prassi professionale; • fornire una panoramica tematica, critica e aggiornata sulla ricerca accademica e non-accademica in materia di revisione; • condurre un’indagine conoscitiva (tramite compilazione di questionari diversificati) sulla pratica professionale della revisione editoriale in Italia, allo scopo di raccogliere dati da traduttori e revisori, fornirne una lettura critica e quindi individuare peculiarità e criticità di questa fase del processo di lavorazione del libro tradotto; • presentare ipotesi di lavoro e suggerimenti su metodi e strumenti da applicare all’insegnamento della revisione in contesti didattici e formativi.
Resumo:
L'imposta sul valore aggiunto è caratterizzata da un meccanismo applicativo complesso preordinato al raggiungimento della neutralità in cui rivestono fondamentale rilevanza particolari obblighi strumentali richiesti al contribuente (fatturazione, registrazioni contabili, dichiarazioni). Il presente progetto di ricerca è finalizzato a valutare la propensione e funzionalità del meccanismo applicativo rispetto al generale principio di neutralità dell’imposta e la valenza svolta dagli obblighi strumentali rispetto alla qualificazione della fattispecie impositiva.