952 resultados para Tipologia lítica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'ambito delle teorie dello sviluppo, un filone di studi, originato dai lavori di North (1973) e consolidatosi negli ultimi anni, individua nelle istituzioni, definite come le regole del gioco o i vincoli disegnati dagli uomini per disciplinare i loro rapporti, i fattori fondamentali dello sviluppo economico. Le istituzioni, nel modello elaborato da Acemoglu, Johnson e Robinson (2004), sono il frutto di interazioni dinamiche tra potere politico de jure, determinato dalle istituzioni politiche, e potere politico de facto, determinato dalla distribuzione delle risorse economiche. Sulla base di questa prospettiva teorica, questa tesi propone uno studio di carattere quantitativo sulla qualità istituzionale, la traduzione operativa del concetto di istituzioni, composta dalle tre fondamentali dimensioni di democrazia, efficienza ed efficacia del governo e assenza di corruzione. La prima parte, che analizza sistematicamente pro e contro di ciascuna tipologia di indicatori, è dedicata alla revisione delle misure quantitative di qualità istituzionale, e individua nei Worldwide Governance Indicators la misura più solida e consistente. Questi indici sono quindi utilizzati nella seconda parte, dove si propone un'analisi empirica sulle determinanti della qualità istituzionale. Le stime del modello di regressione cross-country evidenziano che la qualità istituzionale è influenzata da alcuni fattori prevalentemente esogeni come la geografia, la disponibilità di risorse naturali e altre caratteristiche storiche e culturali, insieme ad altri fattori di carattere più endogeno. In quest'ultima categoria, i risultati evidenziano un effetto positivo del livello di sviluppo economico, mentre la disuguaglianza economica mostra un impatto negativo su ciascuna delle tre dimensioni di qualità istituzionale, in particolare sulla corruzione. Questi risultati supportano la prospettiva teorica e suggeriscono che azioni di policy orientate alla riduzione delle disparità sono capaci di generare sviluppo rafforzando la democrazia, migliorando l'efficienza complessiva del sistema economico e riducendo i livelli di corruzione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel corso del mio lavoro di ricerca mi sono occupata di identificare strategie che permettano il risparmio delle risorse a livello edilizio e di approfondire un metodo per la valutazione ambientale di tali strategie. La convinzione di fondo è che bisogna uscire da una visione antropocentrica in cui tutto ciò che ci circonda è merce e materiale a disposizione dell’uomo, per entrare in una nuova era di equilibrio tra le risorse della terra e le attività che l’uomo esercita sul pianeta. Ho quindi affrontato il tema dell’edilizia responsabile approfondendo l’ambito delle costruzioni in balle di paglia e terra. Sono convinta che l’edilizia industriale abbia un futuro molto breve davanti a sé e lascerà inevitabilmente spazio a tecniche non convenzionali che coinvolgono materiali di semplice reperimento e posa in opera. Sono altresì convinta che il solo utilizzo di materiali naturali non sia garanzia di danni ridotti sull’ecosistema. Allo stesso tempo ritengo che una mera certificazione energetica non sia sinonimo di sostenibilità. Per questo motivo ho valutato le tecnologie non convenzionali con approccio LCA (Life Cycle Assessment), approfondendo gli impatti legati alla produzione, ai trasporti degli stessi, alla tipologia di messa in opera, e ai loro possibili scenari di fine vita. Inoltre ho approfondito il metodo di calcolo dei danni IMPACT, identificando una carenza nel sistema, che non prevede una categoria di danno legata alle modifiche delle condizioni idrogeologiche del terreno. La ricerca si è svolta attraverso attività pratiche e sperimentali in cantieri di edilizia non convenzionale e attività di ricerca e studio sull’LCA presso l’Enea di Bologna (Ing. Paolo Neri).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Utilizzando fonti della più diversa tipologia (liturgiche, agiografiche, storiche, letterarie, archeologiche ed epigrafiche), lo studio condotto sulla Passio s. Prisci e sulla Vita s. Castrensis, entrambe con ogni probabilità composte da monaci benedettini a Capua tra X e XI secolo, si concentra innanzitutto sulle vicende che in quell'arco di tempo resero possibile la permanenza delle comunità di Montecassino e di S. Vincenzo al Volturno nel centro campano e sul riflesso che la loro presenza ebbe sulla vita politica e culturale della città. La Passio s. Prisci acquista una valenza non solo religiosa ma anche politica se messa in relazione con la quasi contemporanea istituzione della metropolia capuana; la Vita s. Castrensis, per la netta prevalenza dell'elemento fantastico e soprannaturale che la caratterizza, appare meno legata alle contingenze storico-politiche e più vicina ai topoi della tradizione agiografica e popolare. I capitoli centrali della tesi sono dedicati alla figura di Quodvultdeus, vescovo cartaginese esiliato dai Vandali nel V secolo, la cui vicenda, narrata da Vittore di Vita nell'Historia persecutionis africanae provinciae ha funto da modello per le agigrafie campane. La ricerca prende dunque in considerazione le fonti letterarie, i ritrovamenti archeologici e le testimonianze epigrafiche che confermerebbero la testimonianza di Vittore, riflettendo inoltre sui rapporti di natura commerciale che nel V secolo intercorsero tra Africa e Campania e sul forte legame esistente, già a partire dal secolo precedente, tra le Chiese delle due regioni, fattori che potrebbero aver facilitato l'arrivo degli esuli cartaginesi a Napoli. L'ultima parte del lavoro è volta a rintracciare le ragioni storiche e letterarie che possono aver spinto gli autori dei testi a trasformare due santi di sicura origine campana in vescovi africani venuti dal mare, favorendo la diffusione del topos nell'agiografia campana medievale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’idea da cui nasce questa tesi è quella di introdurre in Blender un Add-on in linguaggio Python che permetta di applicare alcune deformazioni di tipo surface-based a mesh poligonali. Questa tipologia di deformazioni rappresentano l’alternativa alle deformazioni di mesh poligonali tramite rigging ( cioè l’aggiunta di uno scheletro per controllare e per animare la mesh) e caging (cioè l’utilizzo di una struttura di controllo di tipo reticolare che propaga la sua deformazione su un oggetto in essa immerso), che di solito sono le prescelte in computer animation e in modellazione. Entrambe le deformazioni indicate sono già estremamente radicate in Blender, prova ne è il fatto che esiste più di un modificatore che le implementa, già integrato in codice nativo. Si introduce inizialmente la tecnica di deformazione di mesh poligonali tramite elasticità discreta, che è stata realizzata, quindi, presenteremo diverse metodologie di deformazione. Illustreremo poi come modellare, creare ed editare delle mesh in Blender. Non ci soffermeremo su dettagli puramente dettati dall’interfaccia utente, cercheremo invece di addentrarci nei concetti e nelle strutture teoriche, allo scopo di avere le basi logiche per definire una Add-on che risulti veramente efficace e utile all’interno del sistema di modellazione. Approfondiremo la struttura di due modificatori chiave per la deformazioni di mesh : Lattice Modifier e Mesh Deform Modifier che implementano una metodologia di tipo space-based. Infine ci concentreremo sulla parte di scripting Python in Blender. Daremo un’idea delle strutture dati, dei metodi e delle funzioni da utilizzare per interagire con l’ambiente circostante, con i singoli oggetti ed in particolare con le Mesh e daremo un esempio di script Python. Andremo infine a descrivere l’implementazione della deformazione elastica mediante add-on Python in Blender.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le reti veicolari, anche dette VANET, sono da tempo oggetto di studio. Durante il periodo di ricerca svolto presso l'Università della California Los Angeles (UCLA) è stato possibile studiare i protocolli adatti allo scambio di contenuti fra i veicoli secondo il paradigma del Named Data Networking (NDN). Il Named Data Networking rappresenta un nuovo modello di comunicazione per il reperimento dei contenuti all'interno della rete. Nelle VANET ogni veicolo è potenzialmente un fornitore di contenuti, oltre che un richiedente. L'infrastruttura di riferimento posta all'interno del campus universitario permette il reperimento di dati necessario allo studio del problema, non solo da un punto di vista pratico ma anche da un punto di vista teorico. Infatti, data la tipologia dei test e le difficoltà intrinseche che essi comportano, l'attività di simulazione svolge un ruolo importante per lo sviluppo e lo studio del protocollo all'interno delle reti veicolari. L'attività di ricerca svolta si articola nei seguenti aspetti: introduzione al nuovo paradigma di comunicazione: principi del Named Data Networking, funzionamento di NDN, reti veicolari, applicabilità di NDN alle VANET; modelli di mobilità per le reti veicolari: linee guida per la costruzione di un modello di mobilità, situazione attuale dei modelli disponibili, simulatori di rete, strumenti utilizzati e il loro funzionamento; attività di simulazione: pianificazione e implementazione di diverse tipologie di scenari di reti veicolari; analisi dei dati raccolti dalla fase precedente: vengono elaborati i dati raccolti e si cerca di catturarne gli aspetti più significativi. L'obiettivo è quello di condurre uno studio di fattibilità sull'applicazione di NDN alle reti mobili, in particolare alle reti veicolari in ambito urbano. Al momento in cui è iniziata la collaborazione con il gruppo di ricerca del Network Research Lab di UCLA, era da poco stata rilasciata la prima versione di NDN contenente l'estensione pensata per il veicolare, quindi non erano presenti in letteratura studi condotti per questo tipo di scenari. Lo scopo è quello di estrarre informazioni e ricavarne significative indicazioni sulle prestazioni del sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comprensione delle formulazioni analitiche e dei metodi tradizionali per il calcolo puntuale dello Sky View Factor (SVF), un parametro adimensionale in grado di esprimere con un singolo valore l’influenza dei fattori morfologici sulla porzione di volta celeste visibile da un punto. Valutazione delle performance dei software di mappatura dello SVF in area urbana al variare di tipologia e qualità del dato di input e dei parametri utilizzati. Al fine di studiare degli aspetti algoritmici dei modelli esistenti, è stato sviluppato uno script in linguaggio MATLAB per apportare miglioramenti alle tecniche esaminate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi si inserisce nel contesto del progetto europeo Theseus, che ha l’obiettivo di pianificare strategie di difesa sostenibili nei confronti dell’erosione costiera e del rischio di inondazioni. E’ stata indagata la zona intertidale di sei spiagge della costa emiliano-romagnola, diverse per caratteristiche morfodinamiche, grado di antropizzazione e modalità di gestione contro l’erosione. Lido di Spina, Bellocchio e lido di Dante sono siti più naturali, Cervia, Cesenatico e Cesenatico sud sono antropizzati per la presenza di strutture di difesa costiera o attività di bulldozing. Lo scopo principale è stato quello di valutare la risposta della componente macrobentonica a variazioni morfodinamiche conseguenti alla differente gestione. I principali risultati possono essere così riassunti. Bellocchio, sito naturale, si è rivelato il più differente per tipologia di sedimento, fine e argilloso, e comunità presenti, con specie non tipiche delle spiagge sabbiose, quali Polydora e Mytilus galloprovincialis. Lido di Dante, anch’esso naturale, si pone all’opposto, con un sedimento più grossolano e caratterizzato sia dalla dominanza di Lentidium mediterraneum, la cui presenza evidenzia il maggiore grado di idrodinamismo del sito, sia dalle specie Scolelepis squamata ed Eurydice spinigera, tipiche delle spiagge sabbiose esposte al moto ondoso. Cervia, Cesenatico e Cesenatico sud presentano un numero di specie e di individui minore rispetto agli altri siti, come probabile conseguenza della gestione antropica, e comunità che rispecchiano le variazioni idrodinamiche dovute alla presenza di barriere. In generale, le differenze individuate sia fra le comunità che fra i descrittori sedimentari e morfodinamici, sembrano dovute alle caratteristiche peculiari dei siti e dal grado di antropizzazione piuttosto che dalla presenza di un vero e proprio gradiente morfodinamico o geografico. Questi risultati portano un contributo sostanziale alla problematica generale dell’impatto conseguente ai cambiamenti climatici e alla messa in opera di programmi di gestione sostenibili da un punto di vista anche ambientale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduzione: La malattia mani-piedi-bocca è una patologia infettiva tipica della prima infanzia causata dagli enterovirus, in particolare i sierotipi Coxsackievirus A16 ed Enterovirus 71. A partire dal 2008, ne è stata descritta un’epidemia da Coxsackievirus A6, in genere accompagnata da febbre elevata e che si distingue per lo sviluppo di piccole vescicole che progrediscono a lesioni vescicolo-bollose e a bolle vere e proprie. Inoltre, nei pazienti affetti da dermatite atopica, le lesioni tendono a localizzarsi sulle aree eczematose. Abbiamo quindi svolto uno studio osservazionale prospettico per descrivere le caratteristiche cliniche delle forme atipiche di malattia mani-piedi-bocca. Metodi: Sono stati arruolati i pazienti affetti da una forma atipica di malattia mani-piedi-bocca giunti consecutivamente presso l’Ambulatorio di Dermatologia Pediatrica del Policlinico S.Orsola-Malpighi di Bologna tra gennaio 2012 e febbraio 2014. Abbiamo valutato distribuzione, tipologia ed estensione delle lesioni. In un gruppo di pazienti è stata inoltre eseguita l’identificazione virale sul fluido vescicolare. Risultati: Abbiamo arruolato 47 pazienti (68% maschi) con un’età mediana di 22 mesi. Sono stati individuati 3 aspetti clinici principali: 1) forma acrale (distribuzione delle lesioni prevalentemente acrale), nel 62% dei soggetti; 2) eczema coxsackium (lesioni localizzate su aree eczematose), nel 23% dei soggetti; 3) forma diffusa (estensione delle lesioni al tronco), nel 15% dei soggetti. Inoltre, nell’80% circa dei pazienti si riscontravano macule purpuriche acrali, circa la metà dei pazienti aveva lesioni con aspetto purpurico e il 72% un interessamento dei glutei. In 9 su 11 soggetti genotipizzati è stato isolato il Coxsackievirus A6. Conclusioni: Questo studio ha permesso di descrivere tre fenotipi di malattia mani-piedi-bocca atipica, che deve essere correttamente identificata al fine di non porre diagnosi errate quali varicella, eczema herpeticum, vasculiti, impetigine, e di potere così procedere ad una gestione appropriata della patologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La messa a punto di tecniche come il patch clamp e la creazione di doppi strati lipidici artificiali (artificial bilayers) ha permesso di effettuare studi su canali ionici per valutarne la permeabilità, la selettività ionica, la dipendenza dal voltaggio e la cinetica, sia in ambito di ricerca, per analizzarne il funzionamento specifico, sia in quello farmaceutico, per studiare la risposta cellulare a nuovi farmaci prodotti. Tali tecniche possono essere inoltre impiegate nella realizzazione di biosensori, combinando così i vantaggi di specificità e sensibilità dei sistemi biologici alla veloce risposta quantitativa degli strumenti elettrochimici. I segnali in corrente che vengono rilevati con questi metodi sono dell’ordine dei pA e richiedono perciò l’utilizzo di strumentazioni molto costose e ingombranti per amplificarli, analizzarli ed elaborarli correttamente. Il gruppo di ricerca afferente al professor Tartagni della facoltà di ingegneria di Cesena ha sviluppato un sistema miniaturizzato che possiede molte delle caratteristiche richieste per questi studi. L’obiettivo della tesi riguarda la caratterizzazione sperimentale di tale sistema con prove di laboratorio eseguite in uno spazio ridotto e senza l’impiego di ulteriori strumentazioni ad eccezione del PC. In particolare le prove effettuate prevedono la realizzazione di membrane lipidiche artificiali seguita dall’inserimento e dallo studio del comportamento di due particolari canali ionici comunemente utilizzati per questa tipologia di studi: la gramicidina A, per la facilità d’inserimento nella membrana e per la bassa conduttanza del singolo canale, e l’α-emolisina, per l’attuale impiego nella progettazione e realizzazione di biosensori. Il presente lavoro si sviluppa in quattro capitoli di seguito brevemente riassunti. Nel primo vengono illustrate la struttura e le funzioni svolte dalla membrana cellulare, rivolgendo particolare attenzione ai fosfolipidi e alle proteine di membrana; viene inoltre descritta la struttura dei canali ionici utilizzati per gli esperimenti. Il secondo capitolo comprende una descrizione del metodo utilizzato per realizzare i doppi strati lipidici artificiali, con riferimento all’analogo elettrico che ne risulta, ed una presentazione della strumentazione utilizzata per le prove di laboratorio. Il terzo e il quarto capitolo sono dedicati all’elaborazione dei dati raccolti sperimentalmente: in particolare vengono prima analizzati quelli specifici dell’amplificatore, quali quelli inerenti il rumore che si somma al segnale utile da analizzare e la variabilità inter-prototipo, successivamente si studiano le prestazioni dell’amplificatore miniaturizzato in reali condizioni sperimentali e dopo aver inserito i canali proteici all’interno dei bilayers lipidici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo elaborato è stata trattata la caratterizzazione tramite simulazioni e prove in laboratorio di un circuito in grado di estrarre e accumulare energia elettrica, la quale viene generata da vibrazioni meccaniche tramite l'uso di dispositivi piezoelettrici. Partendo da una tipologia di circuito già esistente è stata studiata una variante nel sistema di conversione dell'energia, in questo caso il convertitore implementato è un convertitore di tipo flyback. Dopo aver studiato il circuito in dettaglio, è stata realizzata una prima simulazione circuitale mediante software Ltspice. Sono stati quindi analizzati gli andamenti delle tensioni di uscita e di ingresso durante il processo di carica della capacità, applicando in ingresso differenti tensioni. Infine i dati ottenuti sono stati elaborati in un foglio elettronico per poter ricavare l'andamento del rendimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La firma grafometrica è la sottoscrizione autografa eseguita con uno stilo elettronico su un dispositivo di acquisizione digitale e rappresenta ad oggi nel panorama delle tipologie di firma elettroniche una realtà a tutti gli effetti realizzabile. Questa tipologia di firma elettronica fonda il proprio valore sulle caratteristiche di universalità, unicità, permanenza e collezionabilità dei dati biometrici. Il successo della firma grafometrica è da ricercare invece nella sua stessa natura di firma, in quanto l'uomo da sempre è stato abituato ad eseguire il gesto dell'apposizione della propria firma autografa a dichiarazione della propria volontà. La profonda informatizzazione degli ultimi anni e la recente normativa hanno quindi permesso di trasferire la semplicità di questo gesto dal contesto analogico a quello digitale. I vantaggi derivanti dall'utilizzo della firma grafomentrica sono molteplici: innanzitutto il suo utilizzo comporta la completa dematerializzazione della gestione documentale aziendale con considerevoli risparmi dati dall'annullamento dei costi di stampa ed archiviazione dei documenti stessi, comporta inoltre una maggiore velocità di esecuzione dei processi documentali (dalla realizzazione dei documenti alla ricerca degli stessi) ed infine rende possibile l’ottenimento di documenti già predisposti per la conservazione a norma (con conseguente mantenimento della validità legale nel tempo). Come conseguenza di questa trasposizione dall'analogico al digitale si sono presentate tuttavia problematiche derivanti dalla natura stessa del nuovo contesto; la realizzazione di soluzioni di firma grafometrica richiede quindi una forte attenzione, al fine di evitare che i dati biometrici possano essere utilizzati impropriamente. Questa tesi è quindi volta a descrivere sia a livello normativo che tecnologico questa tipologia di firma elettronica avanzata. Nel corso della trattazione verranno inoltre fornite delle linee guida per la realizzazione di un corretto processo di apposizione della firma grafometrica a tutela della sicurezza dei dati biometrici dell'individuo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

questa tesi propone una prospettiva completa sull'accelerometro, descrivendone le caratteristiche le tipologie, gli utilizzi che se ne possono fare e gli ambiti di applicazione. Sviluppa anche argomenti che riguardano interfacce e piattaforme per l'interazione con il sensore e algoritmi machine learning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo studio ci siamo proposti di investigare i sistemi di modulazione automatica della dose sui sistemi TC Multislice (Automatic Exposure Control – AEC) da tre diversi produttori, aventi differenti indicatori di qualità delle immagini. Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria - Policlinico Sant’Orsola-Malpighi di Bologna e consiste in un’analisi quantitativa della dose impiegata durante esami di Tomografia Computerizzata Multi-Slice (TCMS) e delle rispettive immagini radiologiche. Le immagini sono state acquisite con : GE LightSpeed VCT 64 e GE LightSpeed 16 (AEC AutomA 3D longitudinale e angolare), Siemens Sensation 16 (AEC CARE Dose 4D combinato), Philips Brilliance 16 e iCT 64 (separati in AEC ZDOM longitudinale e AEC DDOM angolare). Le acquisizioni TCMS sono state effettuate a differenti kV e mA di riferimento, al fine di investigarne gli effetti sulla modulazione, impiegando algoritmi di ricostruzione standard presenti su ogni macchina. Due fantocci antropomorfi simulanti la zona del torace e dell’addome sono stati utilizzati per simulare un paziente standard posizionato come in un esame clinico di routine ; a questo proposito, sono stati impiegati protocolli elicoidali standard con e senza modulazione. Sono inoltre stati testati differenti valori di indice di qualità delle immagini. Il profilo dei mA lungo la lunghezza è stato ottenuto utilizzando ImageJ, un programma open source comunemente utilizzato per l’elaborazione di immagini; i mAs sono stati normalizzati ad un fattore che tiene conto delle differenti geometrie e delle filtrazioni dei diversi scanner tomografici analizzati nell’esperienza. Il rumore è stato valutato tramite la scelta di determinate ROI (Region Of Interest) localizzate in aree il più possibili uniformi disponibili lungo i fantocci. Abbiamo registrato che una variazione del Noise Index o dei mAs di riferimento a seconda della tipologia di macchina analizzata risulta in uno shift dei profili di dose; lo stesso si è verificato quando sono stati cambiato kV o mA nella scout di acquisizione. Sistemi AEC longitudinali e combinati hanno mostrato profili di mAs normalizzati simili tra loro, con valori elevati evidenziati nella zona delle spalle e zona pelvi; sono state osservate differenze del 30-40% tra i differenti scanner tomografici. Solo in un caso di macchina analizzata si è verificato un comportamento opposto rispetto alle altre due tipologie di macchina in esame. A dispetto della differente natura dei sistemi AEC, i risultati ottenuti dai protocolli combinati e longitudinali sono simili tra loro. Il rumore presente nelle immagini è aumentato ad un livello accettabile e la sua uniformità lungo la direzione di scan è migliorata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fino a qualche anno fa, la conversione di documenti cartacei in documenti digitali appariva come una vera e propria utopia. Quest’oggi invece pensiamo al digitale di qualsiasi tipologia come fosse un fattore prioritario, scontato ed immediato, da poterlo considerare una vera a propria dipendenza. Mentre una volta i documenti venivano depositati in archivi talvolta rudi e polverosi, spiacevoli da recuperare, sia per tempistiche sia per condizioni, oggi la quotidianità è così frenetica che occorre ottenere tutto in modo tempestivo. Un’ evoluzione socio-culturale ha portato all’elaborazione di tecniche sempre più sofisticate di ottimizzazione nel campo; si parla di “dematerializzazione dei documenti” o “processo di conservazione sostitutiva”, innovazione che ha determinato una vera e propria rivoluzione nella Pubblica Amministrazione, nei rapporti tra privati, nell’Ordinamento Giuridico e nella scienza del diritto, poiché è radicalmente mutata la concezione di “documento” così com’è conosciuto da migliaia di anni, nella sua natura res signata, “cosa “ che riporta informazioni. Il concetto di ”smaterializzazione” non è un’ assoluta novità se si pensa alle transazioni finanziarie di enormi quantità di denaro, che da anni avvengono in tutto il mondo, grazie a “documenti informatici”, senza che passi di mano una sola banconota. Lo scopo di questa tesi è approfondire il processo di conservazione sostitutiva, partendo dalle figure ad esso legate, per poi continuare con le regole tecniche di adozione, la validità probatoria dei documenti informatici, i formati, i metadati utilizzati, e così via.