22 resultados para Papal states. Congregazione del buon governo.
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
L’assioma di scelta ha una preistoria, che riguarda l’uso inconsapevole e i primi barlumi di consapevolezza che si trattasse di un nuovo principio di ragionamento. Lo scopo della prima parte di questa tesi è quello di ricostruire questo percorso di usi più o meno impliciti e più o meno necessari che rivelarono la consapevolezza non solo del fatto che fosse indispensabile introdurre un nuovo principio, ma anche che il modo di “fare matematica” stava cambiando. Nei capitoli 2 e 3, si parla dei moltissimi matematici che, senza rendersene conto, utilizzarono l’assioma di scelta nei loro lavori; tra questi anche Cantor che appellandosi alla banalità delle dimostrazioni, evitava spesso di chiarire le situazioni in cui era richiesta questa particolare assunzione. Il capitolo 2 è dedicato ad un caso notevole e rilevante dell’uso inconsapevole dell’Assioma, di cui per la prima volta si accorse R. Bettazzi nel 1892: l’equivalenza delle due nozioni di finito, quella di Dedekind e quella “naturale”. La prima parte di questa tesi si conclude con la dimostrazione di Zermelo del teorema del buon ordinamento e con un’analisi della sua assiomatizzazione della teoria degli insiemi. La seconda parte si apre con il capitolo 5 in cui si parla dell’intenso dibattito sulla dimostrazione di Zermelo e sulla possibilità o meno di accettare il suo Assioma, che coinvolse i matematici di tutta Europa. In quel contesto l’assioma di scelta trovò per lo più oppositori che si appellavano ad alcune sue conseguenze apparentemente paradossali. Queste conseguenze, insieme alle molte importanti, sono analizzate nel capitolo 6. Nell’ultimo capitolo vengono riportate alcune tra le molte equivalenze dell’assioma di scelta con altri enunciati importanti come quello della tricotomia dei cardinali. Ci si sofferma poi sulle conseguenze dell’Assioma e sulla sua influenza sulla matematica del Novecento, quindi sulle formulazioni alternative o su quelle più deboli come l’assioma delle scelte dipendenti e quello delle scelte numerabili. Si conclude con gli importanti risultati, dovuti a Godel e a Cohen sull’indipendenza e sulla consistenza dell’assioma di scelta nell’ambito della teoria degli insiemi di Zermelo-Fraenkel.
Resumo:
Le intersezioni stradali, sono le aree individuate da tre o più tronchi stradali (archi) che convergono in uno stesso punto, nonchè dai dispositivi e dagli apprestamenti atti a consentire ed agevolare le manovre per il passaggio da un tronco all'altro. Rappresentano punti critici della rete viaria per effetto delle mutue interferenze tra le diverse correnti di traffico durante il loro attraversamento. Si acuiscono pertanto, nella loro "area di influenza", i problemi legati alla sicurezza e quelli relativi alla regolarità ed efficienza della circolazione. Dalla numerosità dei fattori da cui dipende la configurazione di un incrocio (numero e tipo di strade, entità dei flussi, situazioni locali, ecc.) deriva una ancor più vasta gamma di tipologie e di schemi. La rotatoria, come particolare configurazione di intersezione a raso, è lo schema che viene considerato nel presente lavoro di tesi, sia nei suoi caratteri essenziali e generali, sia nel particolare di una intersezione che, nel Comune di Bologna, è stata realizzata in luogo dell'intersezione semaforizzata precedente.
Resumo:
I terreni di Treporti, nella laguna di Venezia, sono caratterizzati da una fitta alternanza di strati con caratteristiche di compressibilità fortemente variabili, pertanto risulta alquanto complessa la determinazione e la scelta di parametri appropriati per la progettazione. La costruzione del terrapieno sperimentale, ed il contemporaneo impiego dell'assestimetro a basi multiple, ha permesso di misurare il comportamento deformativo del terreno in sito e le analisi retrospettive hanno simulato, in base a parametri di tentativo, il comportamento nel tempo dei terreni di fondazione. L'analisi a posteriori delle deformazioni è stata confrontata con le misure effettuate nel corso degli anni precedenti la fase di scarico, mentre oltre questa fase è stata eseguita una previsione confrontata con le tre misure eseguite dopo la fase di scarico, ottenendo in entrambi i casi un buon accordo tra simulazioni e misure. L’aderenza quasi perfetta ottenuta tra le curve ε-t calcolate e le corrispondenti curve ε-t sperimentali, fa ritenere che tutti i parametri geotecnici ottenuti dal modello, rispecchino con buona approssimazione quelli realmente mobilitati dai 40 m di sottosuolo interessati dal carico. Pertanto anche i risultati ottenuti in ordine all'influenza della consolidazione secondaria sugli abbassamenti totali, debbono ritenersi con buona approssimazione vicini al comportamento reale. Il modello è anche in grado di descrivere molto bene i cedimenti dei diversi strati di terreno e quello del piano di posa.
Resumo:
L’evolvere del sistema insediativo nelle Marche, dal dopoguerra ad oggi, ha condotto ad un diffuso sottoutilizzo dei piccoli centri storici ed all’abbandono, ormai definitivo, di quei borghi minori, privi di funzioni di pregio, privi ormai anche delle dotazioni minime funzionali all’abitare. Il piccolo nucleo di Sant’Arduino si inserisce in quel lungo elenco di borghi che, con il graduale abbandono dell’agricoltura, hanno subito un progressivo processo di spopolamento. Lungo la strada che da Macerata Feltria conduce verso il monte Carpegna, il complesso monumentale è quasi sospeso su un dirupo: un campanile senza campane, una chiesa sconsacrata e pochi edifici rustici da alcuni anni completamente abbandonati. E' tutto quello che rimane dell'antico castello e della Chiesa parrocchiale di Sant’Arduino, che oggi ha perso la propria autonomia amministrativa e si colloca nel Comune di Pietrarubbia. Questo lavoro vuole offrire un contributo al processo di valorizzazione dei nuclei minori di antico impianto, intento promosso dalla stessa Regione all’interno del progetto “Borghi delle Marche”. La sensibilizzazione per un recupero urbanistico e architettonico del patrimonio tradizionale minore si coniuga con la scelta di inserire l’intervento nel suo contesto culturale e geografico, cercando di impostare, non un isolato intervento di recupero, ma un anello di connessione in termini sociali, culturali e funzionali con le politiche di sviluppo del territorio. Il percorso individuato si è articolato su una prima fase di indagine volta ad ottenere una conoscenza del tema dei borghi abbandonati e del sistema dei borghi delle Marche, successivamente l’analisi storica e la lettura e l’indagine dell’oggetto, fasi propedeutiche all’elaborazione di un’ipotesi di intervento, per giungere all’individuazione della modalità di riuso compatibile con il rispetto dei valori storico, formali e culturali del luogo. Per questo la scelta del riuso turistico del complesso, trovando nella funzione di albergo diffuso la possibile e concreta conversione dei manufatti. Il tutto basandosi su un’approfondita ricerca storica e su un’analisi dei sistemi costruttivi tradizionali, inserendo gli interventi di restauro dell’esistente e di integrazione delle nuove strutture nel totale rispetto della fabbrica. L’idea che ha mosso l’intero lavoro parte dall’analisi della cultura rurale locale, che ha generato il patrimonio dell’architettura minore. L’alta valle del Foglia può rappresentare un territorio nuovamente appetibile se non perde le sue ricchezze; la valorizzazione e il recupero di quest’architettura diffusa può rappresentare un buon trampolino di lancio per riappropriarsi della storia e della tradizione del luogo.
Resumo:
L’area del Mar Ligure racchiusa nei confini internazionali del Santuario Pelagos dei Cetacei si distingue nel Mediterraneo sia per l’importanza bio-ecologica sia per la capillare diffusione del traffico navale, così intenso su base annua da profilare un serio rischio di disturbo acustico per i mammiferi marini. La mia tesi si inserisce nel progetto GIONHA i cui obiettivi sono monitorare, prevenire, e ridurre tale importante fonte di inquinamento. Il principale obiettivo è quello di analizzare i passaggi necessari per l’impostazione di un modello che simuli il percorso dell’onda sonora in acqua, per stimare il livello di rumore ricevuto da un cetaceo che si trovi in un punto qualunque dell’area. A tal fine l’attività di tesi ha comportato la comprensione delle premesse teoriche, la raccolta e la selezione dei dati e la scelta dei parametri di simulazione. La tesi presenta come risultati delle mappe di rumore utilizzate per testare il buon funzionamento del modello in un’area all’interno del Santuario. Alla luce di considerazioni ecologiche e del quadro normativo in vigore in Italia per il Santuario dei Cetacei, le mappe prodotte per questo progetto rappresentano un utile strumento per la gestione dell’area protetta ai fini della salvaguardia dei mammiferi marini e dell’ecosistema.
Resumo:
La produzione di materie plastiche da fonti rinnovabili è oggi uno dei principali obiettivi della chimica dei polimeri. Anche se i materiali termoplastici da fonte “bio” sono stati già ampiamente studiati, non si può affermare lo stesso per i termoidurenti. Le resine epossidiche sono ampiamente usate come rivestimenti, adesivi e materiali strutturali grazie alle loro eccezionali proprietà meccaniche e alla buona resistenza al calore. Nonostante ciò, la ricerca svolta in questo campo su tali materiali è molto limitata e la loro produzione deriva ancora dalla reazione tra epicloridrina, cancerogena, e bisfenolo A, sospettato di avere effetti sul sistema ormonale. Per questo, la possibilità di trovare un sostituto per il bisfenolo A è un punto cruciale della chimica per dare una risposta eco-sostenibile alla domanda dei consumatori. L’acido difenolo è stato identificato come un buon canditato per la sostituzione del bisfenolo A, grazie alla similarità delle loro strutture. Dal momento che esso deriva dalla reazione tra acido levulinico, derivante da biomassa e fenolo, è possibile considerarlo un reagente di origine bio. Lo scopo di questo lavoro è quello di sostituire il fenolo con composti fenolici di origine naturale come m-cresolo, guaiacolo, catecolo e resorcinolo. Le molecole risultanti saranno confrontate con il bisfenolo A per ciò che concerne la possibilità di formare i rispettivi glicidil eteri tramite reazione con epicloridrina. Questo permetterebbe la formazione di un pre-polimero epossidico proveniente da fonte rinnovabile in un prossimo futuro.
Resumo:
Sommario Il polo chimico di Ferrara, situato nella periferia nord occidentale del territorio comunale, rappresenta un’area ad alta concentrazione di stabilimenti, ai sensi dell’art. 13 del D.Lgs. 334/99 e s.m.i., ovvero un’area in cui sono presenti diversi stabilimenti a rischio di incidente rilevante, così definiti in base alle caratteristiche di pericolosità e dei quantitativi delle sostanze chimiche presenti. Per tali aree la norma di legge prevede la realizzazione di uno Studio di Sicurezza Integrato d’Area o SSIA. Allo SSIA del polo chimico ferrarese è stato dato avvio nel corso del 2012, in seguito ad un accordo tra la Regione Emilia Romagna, l’Agenzia Regionale di Protezione Civile, la Provincia di Ferrara, l’Ufficio Territoriale del Governo, il Comune di Ferrara, la Direzione Regionale dei Vigili del Fuoco, l’Agenzia Regionale Prevenzione e Ambiente e le stesse aziende presenti nel polo. La realizzazione dello SSIA prevede 6 fasi: 1) la definizione dei criteri metodologici da adottare per l’analisi del rischio; 2) la raccolta e l’analisi critica dei dati necessari all'analisi del rischio; 3) l’individuazione e la caratterizzazione delle sorgenti di rischio; 4) l’analisi delle conseguenze e la stima della frequenza di accadimento degli scenari incidentali che possono scaturire da ogni sorgente di rischio; 5) la ricomposizione, per tutti gli scenari di ogni sorgente e per tutte le sorgenti, delle frequenze e delle conseguenze negli indici di rischio; 6) l’analisi e la valutazione dei risultati ottenuti, al fine di interventi eventuali interventi per la riduzione e la mitigazione del rischio stesso. Il presente lavoro di tesi si inserisce nello Studio di Sicurezza Integrato d’Area del polo chimico di Ferrara ed in particolare nelle fasi 2), 3) e 4) sopra citate. Esso ha preso avvio durante un tirocinio svolto presso l’Agenzia Regionale di Protezione Civile ed ha avuto ad oggetto il trasporto di sostanze pericolose via strada e ferrovia nell'area dello SSIA. Il lavoro di tesi è così strutturato: a valle del capitolo 1 avente carattere introduttivo, si è descritta nel dettaglio l’area oggetto dello SSIA, con particolare riferimento alle vie di trasporto delle sostanze pericolose (capitolo 2). Successivamente (capitolo 3) si è illustrata la metodologia utilizzata per effettuare il censimento dei dati di trasporto delle sostanze pericolose forniti dalle aziende del polo e si sono presentati i risultati ottenuti. Infine (capitolo 4) si è eseguita l’analisi delle conseguenze degli scenari incidentali associati al trasporto di alcune delle sostanze movimentate per strada e ferrovia.
Resumo:
In questo lavoro abbiamo studiato la presenza di correzioni, dette unusuali, agli stati eccitati delle teorie conformi. Inizialmente abbiamo brevemente descritto l'approccio di Calabrese e Cardy all'entropia di entanglement nei sistemi unidimensionali al punto critico. Questo approccio permette di ottenere la famosa ed universale divergenza logaritmica di questa quantità. Oltre a questo andamento logaritmico son presenti correzioni, che dipendono dalla geometria su cui si basa l'approccio di Calabrese e Cardy, il cui particolare scaling è noto ed è stato osservato in moltissimi lavori in letteratura. Questo scaling è dovuto alla rottura locale della simmetria conforme, che è una conseguenza della criticità del sistema, intorno a particolari punti detti branch points usati nell'approccio di Calabrese e Cardy. In questo lavoro abbiamo dimostrato che le correzioni all'entropia di entanglement degli stati eccitati della teoria conforme, che può anch'essa essere calcolata tramite l'approccio di Calabrese e Cardy, hanno lo stesso scaling di quelle osservate negli stati fondamentali. I nostri risultati teorici sono stati poi perfettamente confermati dei calcoli numerici che abbiamo eseguito sugli stati eccitati del modello XX. Sono stati inoltre usati risultati già noti per lo stato fondamentale del medesimo modello per poter studiare la forma delle correzioni dei suoi stati eccitati. Questo studio ha portato alla conclusione che la forma delle correzioni nei due differenti casi è la medesima a meno di una funzione universale.
Resumo:
Il Business Plan è un importante strumento ai fini della pianificazione strategica delle imprese, siano esse già avviate o in fase di start up. Le varie funzioni che esso svolge, sono di natura sia interna all’impresa, evidenziando all’alta direzione le conseguenze economiche e finanziarie di determinate decisioni, che esterna all’impresa, volta ad illustrare il progetto ai vari stake-holders. L’obiettivo del presente lavoro è di offrire un contributo a coloro cui compete il compito di redigere un Business Plan, in ordine ai contenuti, ai criteri e agli strumenti logici e tecnici per la sua redazione, avendo comunque ben presente che ogni progetto imprenditoriale si caratterizza con peculiarità proprie. Pertanto, nella prima parte del presente lavoro, dopo un illustrazione delle molteplici funzioni del Business Plan, verranno fornite precise e concrete indicazioni su come deve essere articolato un buon piano d’impresa, soffermandosi in particolare sui contenuti dei vari argomenti che occorre esaminare all’interno dello stesso. Nella seconda parte verrà descritta la nascita e la struttura della Rebernig Supervisioni S.r.l., azienda con la quale ho collaborato per la redazione del presente lavoro. Nella terza parte, verrà invece sviluppato un vero e proprio Business Plan, riferito ad un caso con concreto, quello dell’azienda Rebernig Supervisioni S.r.l., per il lancio di un nuovo prodotto sul mercato dell’illuminazione. Un sentito ringraziamento al management della Rebernig Supervisioni S.r.l. per la collaborazione prestata e per il tempo da loro dedicato, fornendo in tal modo un importante contributo ai fini della redazione del presente lavoro.
Resumo:
Obiettivo dii questo elaborato è cercare di dimostrare come il Web e i Social Media non sono solo dei nuovi canali di comunicazione ma costituiscono una testimonianza del radicale cambiamento che modifica la comunicazione aziendale per come è stata concepita fino ad oggi. Nascita e sviluppo del Web e passaggio dal marketing tradizionale al web marketing saranno temi centrali nella parte introduttiva. Frutto di un’analisi approfondita sarà il tema del Social media marketing, ponendo particolare attenzione ai social media più utilizzati, all’impatto che le aziende hanno con questi, i canali di comunicazione utilizzati dalle aziende e quali sono i leader del settore, quindi, le aziende, che hanno attuato ottime campagne nei social networks. In un ultima parte verranno esaminati gli strumenti attraverso i quali è possibile monitorare i comportamenti degli utenti, come ascoltarli nei social media per entrare in relazione con loro e misurare i risultati delle attività di comunicazione (Web analytics, Social media monitoring); verranno inoltre analizzati gli aspetti per una buona strategia di comunicazione aziendale nel web quindi dando uno sguardo ad un buon piano di comunicazione e alla web & brand reputation.
Resumo:
Scopo primario della tesi è studiare e progettare un sistema informatico che proponga un buon livello di innovazione tecnologica in relazione al contesto applicativo di riferimento, ovvero relativamente al supporto al lavoro cooperativo di operatori in scenari d'emergenza. In particolare, la tesi si concentra sul'ecosistema software che ruota attorno al singolo operatore con l'obiettivo di dotarlo di uno strumento informatico che gli consenta di avvalersi di un efficace ed efficiente supporto per l'esecuzione delle proprie azioni sul campo (in generale, per la prima assistenza ai pazienti, triage e monitoraggio di parametri vitali). A tal proposito, l'ambito tecnologico di riferimento è quello del Pervasive Mobile Computing, con specifico riferimento ai sistemi context-aware e a quelli con comportamenti fortemente autonomi. Inoltre, al fine di dotare l'operatore di un supporto per l'interazione con il sistema stesso in modalità hands-free, sono stati analizzati i dispositivi wearable di tipo "see-through"; in particolare, i recenti glasses per realtà aumentata. La progettazione del sistema e il conseguente sviluppo del prototipo (che implementa le caratteristiche più significative ed innovative), è stata guidata da un'ispirazione basata sul modello ad agenti (integrato a quello ad oggetti), rivisitando opportunamente l'utilizzo dei componenti offerti dalla tecnologia Android, al fine di ottenere un prodotto software robusto e modulare facilmente manutenibile ed estendibile. Infine, per garantire a ciascun operatore rapida fruibilità del sistema sono state sfruttate le potenzialità offerte dall'uso di smartcard NFC ed inoltre è stato progettato un protocollo di comunicazione ad hoc, basato su stack Bluetooth, per l'integrazione degli AR-Glasses all'intero sistema.
Resumo:
La dinamica dell'assetto di un satellite artificiale rappresenta uno degli aspetti più delicati della missione che esso stesso andrà a svolgere in orbita attorno ad un qualche corpo celeste, quale appunto il pianeta Terra. Il seguente lavoro di tesi si propone di analizzare la causa di una delle principali componenti di disturbo dell'assetto appena menzionato, preponderante per satelliti dalle piccole dimensioni, fornendo la spiegazione, validata attraverso una simulazione, della messa a punto di un metodo sperimentale per la valutazione della stessa. La componente in questione è la coppia di disturbo magnetica, ed è generata dall'interazione tra il campo magnetico terrestre ed il cosiddetto 'dipolo magnetico residuo' del satellite stesso, ossia quel campo magnetico che esso, in modalità operativa e non, risulta generare a causa del materiale ferromagnetico presente al suo interno, e delle correnti elettriche circolanti nei vari cavi conduttori. Ci si è dunque occupati dell'analisi e messa a punto di un metodo che possa consentire sperimentalmente di rilevare l'entità del dipolo residuo. Il lavoro di simulazione è stato svolto prendendo in considerazione le dimensioni e le possibili caratteristiche del dipolo residuo del micro-satellite ESEO (European Student Earth Orbiter), sviluppato da studenti di diverse università europee ed ora in fase di progetto dettagliato (fase C) presso i laboratori dell'azienda ALMASpace S.r.l. di Forlì. Il metodo in esame consiste nel rilevare il campo magnetico generato dal satellite, posto all'interno di un sistema tridimensionale di bobine di Helmholtz per avere una zona libera da campi magnetici esterni. Il rilevamento del dipolo avviene per mezzo di un magnetometro a tre assi, e dalla suddetta misura si può pervenire alla conoscenza delle componenti del dipolo stesso, quali posizione, orientamento ed intensità; siccome però la misura del magnetometro non è ideale, ma risulta affetta da errori, per una più corretta caratterizzazione del dipolo è necessario utilizzare un numero maggiore di magnetometri (oppure, il che è lo stesso, un unico magnetometro spostato mano a mano) in punti diversi attorno al satellite in modo da avere più misure di campo magnetico e poter così sfruttare una procedura numerica di ottimizzazione per risalire alle componenti del dipolo. Questa intera parte di calcolo è stata realizzata in MatLab®, simulando quindi le misure ottenute dai magnetometri, 'sporcandole' con i predetti errori, ed utilizzando le funzioni di minimizzazione lsqnonlin ed fmincon per verificare la funzionalità del sistema; si sono infatti analizzati i grafici rappresentanti i livelli di errore commessi dall'algoritmo di stima sulle varie componenti del dipolo, per le tipologie di errore dei magnetometri menzionate in precedenza. Si è così cercato di suggerire una configurazione ottimale di magnetometri in grado di fornire una stima caratterizzata da un buon compromesso tra numero di magnetometri da utilizzare non troppo elevato ed errore derivante accettabile.
Resumo:
Il presente studio, condotto nell'ambito dell'amministrazione comunale, porta alla realizzazione di un database terminologico trilingue in italiano, francese e tedesco, dei relativi sistemi concettuali e del glossario. L'obiettivo del lavoro è di realizzare strumenti che permettano di veicolare in francese e in tedesco la terminologia utilizzata all'interno dell'ambito analizzato. I sistemi concettuali e le schede terminologiche nelle due lingue di arrivo possono essere inoltre consultate da un pubblico francese o tedesco che voglia comprendere la struttura del comune italiano. Dopo aver presentato, nel primo capitolo, un possibile ambito di utilizzo di un glossario sull'amministrazione comunale, ci si dedica all'ente locale di prossimità. Il secondo capitolo è infatti stato dedicato al comune, alla sua storia e a come si presenta oggi in Italia, in Francia e in Germania, soffermandosi in quest'ultimo paese sulla struttura del comune nel Land Renania Settentrionale-Vestfalia. Nel terzo capitolo ci si concentra sul metodo di lavoro utilizzato nell'ambito della ricerca terminologica, passando dalla teoria alla pratica: dopo una prima parte nozionistica dedicata alla definizione dei concetti di terminologia, termine, linguaggi specialistici e del modus operandi abitualmente utilizzato, si passa infatti all'esperienza personale che ha condotto alla realizzazione dei prodotti finali. Nel quarto capitolo si presenta dapprima la definizione di sistema concettuale e inseguito sono inseriti i sistemi concettuali in italiano, francese e tedesco corredati da una breve introduzione che, assieme alla legenda, si propone come chiave di lettura degli stessi. Nel quinto capitolo sono infine presentate la definizione di scheda terminologica, elemento centrale del termbase, e le schede trilingui in italiano, francese e tedesco. Il database terminologico, gli schemi concettuali e il glossario sono realizzati a partire dal punto di vista italiano: essi rispecchiano infatti la struttura dell'ente amministrativo di base in Italia nelle lingue prese in esame.
Resumo:
La tesi si sviluppa attorno a 6 capitoli che, ripercorrendo le peculiarità storiche, linguistiche ed economiche di Moldova e Transnistria, tenteranno di mettere in luce i contrasti salienti del rapporto tra Chişinău e Tiraspol. Il capitolo 1 si concentra sulla comparazione di alcune fonti (provenienti da est e da ovest) che hanno ricostruito la storia della Moldova della Grande Romania e della Moldavia sovietica. In tal modo sarà possibile dimostrare che la regione di interesse è stata oggetto di una manipolazione intenzionale del proprio passato asservita ai centri di potere che miravano alla supremazia del territorio. Il capitolo 2 ripercorre le fasi dell’epoca di industrializzazione della Transnistria che, a partire dagli anni ’90, si suppone abbia permesso a Tiraspol di sganciarsi de facto dal governo moldavo. Il capitolo 3 si sofferma sui motivi che spinsero la popolazione del Dnestr ad appoggiare la secessione trascinandola nel conflitto del 1992. Una volta tracciata la cornice storica lungo i capitoli 1, 2 e 3, il capitolo 4 presenterà il multiforme panorama linguistico dell’attuale Repubblica Moldova soffermandosi sul ruolo della lingua russa, scintilla della secessione transnistriana. Il capitolo 5 offre uno spunto di riflessione sull’incidenza di Mosca nella separazione moldava per mezzo di uno studio dell’economia della Transnistria. Il capitolo 6, infine, rivela che gli argomenti trattati nel corso dei 5 capitoli precedenti sono tutti tasselli imprescindibili dell’identità nazionale transnistriana e permette di muovere alcune ipotesi sui metodi attuati da Tiraspol per garantire la fedeltà nazionale della propria popolazione facendo perno sul controllo dei mass media.
Resumo:
In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.