995 resultados para SINCRONIZAÇÃO DE CIO
Resumo:
Capire come ottenere l'informazione accessibile, cioè quanta informazione classica si può estrarre da un processo quantistico, è una delle questioni più intricate e affascinanti nell'ambito della teoria dell'informazione quantistica. Nonostante l'importanza della nozione di informazione accessibile non esistono metodi generali per poterla calcolare, esistono soltanto dei limiti, i più famosi dei quali sono il limite superiore di Holevo e il limite inferiore di Josza-Robb-Wootters. La seguente tesi fa riferimento a un processo che coinvolge due parti, Alice e Bob, che condividono due qubits. Si considera il caso in cui Bob effettua misure binarie sul suo qubit e quindi indirizza lo stato del qubit di Alice in due possibili stati. L'obiettivo di Alice è effettuare la misura ottimale nell'ottica di decretare in quale dei due stati si trova il suo qubit. Lo strumento scelto per studiare questo processo va sotto il nome di 'quantum steering ellipsoids formalism'. Esso afferma che lo stato di un sistema di due qubit può essere descritto dai vettori di Bloch di Alice e Bob e da un ellissoide nella sfera di Bloch di Alice generato da tutte le possibili misure di Bob. Tra tutti gli stati descritti da ellissoidi ce ne sono alcuni che manifestano particolari proprietà, per esempio gli stati di massimo volume. Considerando stati di massimo volume e misure binarie si è riuscito a trovare un limite inferiore all'informazione accessibile per un sistema di due qubit migliore del limite inferiore di Josza-Robb-Wootters. Un altro risultato notevole e inaspettato è che l'intuitiva e giustificata relazione 'distanza tra i punti nell'ellissoide - mutua informazione' non vale quando si confrontano coppie di punti ''vicine'' tra loro e lontane dai più distanti.
Resumo:
Internet of Energy for Electric Mobility è un progetto di ricerca europeo il cui scopo consiste nello sviluppo di infrastrutture di comunicazione, siano esse sia hardware che software, volte alla facilitazione, supporto e miglioramento di tutte quelle operazioni legate al processo di ricarica di auto elettriche. A tale progetto vi ha aderito anche l’Università di Bologna ed è stato oggetto di studio di Federico Montori e Simone Rondelli. Il primo ha dato il là allo sviluppo del progetto realizzandovi, in una fase embrionale, una piattaforma legata alla gestione di un servizio cittadino (bolognese) per la gestione di ricariche elettriche, un’applicazione mobile in grado di interagire con tale servizio ed un simulatore per la piattaforma. In un lavoro durato oltre un anno, Simone Rondelli ha ripreso il progetto di Federico Montori riscrivendone le componenti in maniera tale da migliorarne le funzionalità ed aggiungerne anche di nuove; in particolare ha realizzato in maniera efficiente un’applicazione mobile la quale si occupa di gestire la prenotazione di colonnine elettriche di ricarica e di monitorare lo stato attuale di un’auto peso, livello batteria, ecc... ). Nel marzo del 2014 è cominciato il mio contributo nel contesto di Internet of Energy di cui ne ho ereditato tutta l’architettura derivante dai due sviluppi precedenti. Il mio compito è stato quello di realizzare (cioè emulare) una colonnina di ricarica auto elettrica, tramite la piattaforma elettronica Arduino, la quale al suo primo avvio informa il database semantico del sistema (SIB) della sua presenza in maniera tale che il simulatore sia in grado di poter far ricaricare un’auto anche a questa nuova colonnina. Di conseguenza ho fatto in modo di instaurare (tramite socket) una comunicazione tra il simulatore e la colonnina così che il simulatore informi la colonnina che è stata raggiunta da un’auto e, viceversa, la colonnina informi il simulatore sullo stato di ricarica dell’auto in modo che quest’ultima possa ripartire al termine della ricarica. Ho anche realizzato un’applicazione mobile in grado di comunicare con la colonnina, il cui scopo è quello di ottenere un codice di ricarica che poi l’utente deve digitare per autenticarsi presso di essa. Realizzando tale tipo di contributo si è data dunque la possibilità di integrare una componente ”reale” con componenti simulate quali le auto del simulatore di Internet of Energy e si sono poste le basi per estensioni future, le quali permettano di integrare anche più componenti che si registrano nel sistema e danno dunque la possibilità di essere utilizzate dalle auto elettriche.
Resumo:
La strategia di diversificazione ha l’obiettivo di sviluppare la presenza competitiva di un’impresa in una molteplicità di settori, non necessariamente correlati. Un’impresa diversificata ha le competenze e il vantaggio di realizzare, quindi, una quota significativa del proprio volume d’affari in settori diversi da quello di origine, o comunque considerato come principale. Ciò che ha suscitato in me maggiore interesse, nell'ambito delle strategie e delle decisioni aziendali e in particolar modo lo studio della diversificazione del mercato, è cercare di capire quali siano le ragioni che conducono le aziende, di grandi e piccole dimensioni, ad ampliare il proprio raggio d’azione. Oggetto di studio e di analisi è il caso IBM – International Business Machine – considerata, a tutt'oggi, una delle più grandi aziende che, da oltre un secolo, opera nel settore informatico. Lo scopo di questo elaborato è cercare di capire quali siano stati in questi lunghi anni e quali tuttora sono gli obiettivi del management aziendale di IBM, che hanno portato ad un lento addio della divisione hardware e puntato su nuove aree di business, cercando di analizzare, nel dettaglio, la strategia di diversificazione attuata. Nel primo capitolo verrà esposta la strategia di diversificazione. Per inquadrare l'ambito di discussione di questo elaborato, verranno esposti i punti fondamentali dell’analisi di settore, la gestione delle imprese diversificate e le decisioni di portafoglio. Il secondo capitolo verterà sull'analisi approfondita dell'azienda, al quale si fa riferimento con una Company Overview che non può prescindere dalla storia della società, passando per le origini e le prime innovazioni in ambito informatico per arrivare fino ai successi di oggi con una particolare focalizzazione al periodo buio attraversato negli anni ‘80. Dopo aver fotografato l’impresa, nella terza e ultima parte, cercherò di ripercorrere, cronologicamente, attraverso i modelli teorici precedentemente esposti, le decisioni manageriali, le strategie e le scelte che hanno portato IBM a diversificare.
Resumo:
Nel corso degli ultimi anni le problematiche legate al ruolo vettore delle zanzare stanno emergendo sia per quanto riguarda l’uomo che gli animali allevati e selvatici. Diversi arbovirus come West Nile, Chikungunya, Usutu e Dengue, possono facilmente spostarsi a livello planetario ed essere introdotti anche nei nostri territori dove possono dare avvio a episodi epidemici. Le tecniche di monitoraggio e sorveglianza dei Culicidi possono essere convenientemente utilizzate per il rilevamento precoce dell’attività virale sul territorio e per la stima del rischio di epidemie al fine dell’adozione delle opportune azioni di Sanità Pubblica. Io scopo della ricerca del dottorato è inserito nel contesto dei temi di sviluppo del Piano regionale sorveglianza delle malattie trasmesse da vettori in Emilia Romagna. La ricerca condotta è inquadrata prevalentemente sotto l’aspetto entomologico applicativo di utilizzo di dispositivi (trappole) che possano catturare efficacemente possibili insetti vettori. In particolare questa ricerca è stata mirata allo studio comparativo in campo di diversi tipi di trappole per la cattura di adulti di zanzara, cercando di interpretare i dati per capire un potenziale valore di efficacia/efficienza nel rilevamento della circolazione virale e come supporto alla pianificazione della rete di sorveglianza dal punto di vista operativo mediante dispositivi adeguati alle finalità d’indagine. Si è cercato di trovare un dispositivo idoneo, approfondendone gli aspetti operativi/funzionali, ai fini di cattura del vettore principale del West Nile Virus, cioè la zanzara comune, da affiancare all’unica tipologia di trappola usata in precedenza. Le prove saranno svolte sia in campo che presso il laboratorio di Entomologia Medica Veterinaria del Centro Agricoltura Ambiente “G. Nicoli” di Crevalcore, in collaborazione con il Dipartimento di Scienze e Tecnologie Agroambientali della Facoltà di Agraria dell’Università di Bologna.
Resumo:
Una teoria degli insiemi alternativa alla più nota e diffusa teoria di Zermelo-Fraenkel con l'Assioma di Scelta, ZFC, è quella proposta da W. V. O. Quine nel 1937, poi riveduta e corretta da R. Jensen nel 1969 e rinominata NFU (New foundations with Urelementen). Anche questa teoria è basata sui concetti primitivi di insieme e appartenenza, tuttavia differisce notevolmente da quella usuale perché si ammettono solo formule stratificate, cioè formule in cui è rispettata una gerarchizzazione elemento-insieme che considera priva di significato certe scritture. L'unico inconveniente di NFU è dovuto alle conseguenze della stratificazione. I pregi invece sono notevoli: ad esempio un uso molto naturale delle relazioni come l'inclusione, o la possibilità di considerare insiemi anche collezioni di oggetti troppo "numerose" (come l'insieme universale) senza il rischio di cadere in contraddizione. NFU inoltre risulta essere più potente di ZFC, in quanto, grazie al Teorema di Solovay, è possibile ritrovare in essa un modello con cardinali inaccessibili di ZFC ed è ammessa la costruzione di altri modelli con cardinali inaccessibili della teoria classica.
Resumo:
Il lavoro si divide in quattro capitoli in cui il candidato cerca di stabilire i rapporti intertestuali tra il Sindbad, un libro di matrice orientale, e la Disciplina Clericalis da una parte e il Decameron dall’altra. 1- Nel primo capitolo il candidato ha trattato l’origine e la diffusione del Il libro di Sindbad e della Disciplina Clericalis. Il libro di Sindbad è di indubbia origine orientale. Si diffonde in oriente e poi in Occidente. Giunge in Italia nel Dodicesimo secolo. L’altra opera è la Disciplina Clericalis, di Pietro Alfonsi, un-opera di origine orientale. 2- Nel secondo capitolo il candidato ha svolto una attenta ricerca sulla visione boccacciano verso il mondo orientale, arabo-islamico in particolare. 3- Nel terzo capitolo il candidato mette a confronto la struttura narrativa del Sindbad con quella del Decameron, rilevando gli elementi principali che accomunano le due strutture delle due opere sono. Nella parte finale del capitolo il candidato mette in discussione il termine con cui viene definita la struttura narrativa, cioè la cosiddetta cornice, dando una nuova terminologia alla struttura. 4- Nel quarto e ultimo capitolo il candidato cerca di rintracciare le fonti di alcune novelle decameroniane. Le fonti si dividono in due parti: scritte e orali. Nella prima parte mette a confronto alcune novelle del Decameron con racconti della Disciplina Clericalis e del Sette Savi. La seconda parte invece studia le fonti orali di altre novelle decameroniane le cui radici affondano nella tradizione orientale, arabo-islamica soprattutto. La prima novella è la (I, 5) della marchesana Monferrato. La (V, 9), la (VIII, 2), e l’ultima novella in questa parte è la (X, 3).
Resumo:
La tesi affronta la vita e la riflessione politica di Beatrice Potter collocandola all’interno del pensiero politico britannico ed europeo della fine dell’Ottocento e dei primi decenni del Novecento. Rispetto alla maggior parte della bibliografia disponibile, risulta un’autonomia e un’originalità anche rispetto alla riflessione del marito Sidney Webb. La riflessione politica di Potter è caratterizzata in primo luogo dalla ricerca del significato immediatamente politico di quella scienza sociale, che si sta affermando come approccio scientifico dominante nell’intero panorama europeo. Il lavoro è diviso in tre ampi capitoli così suddivisi: il primo ricostruisce l’eredità intellettuale di Potter, con particolare attenzione al rapporto con la filosofia evoluzionista di Herbert Spencer, suo mentore e amico. In questo capitolo vengono anche discussi i contributi di John Stuart Mill, Joseph Chamberlain, Alfred Marshall e Karl Marx e la loro influenza sull’opera di Potter. Il secondo capitolo prende in esame la sua opera prima dell’incontro con il marito e mostra come lo studio della povertà, del lavoro, della metropoli, della cooperazione e delle condizioni delle donne getti le basi di tutta la produzione successiva della partnership. Lo studio politico della povertà, cioè la messa a punto di una scienza amministrativa del carattere sociale del lavoro, rappresenta uno degli elementi principali di quella che viene qui definita un’epistemologia della democrazia. Il terzo capitolo riprende il tema cruciale della democrazia nella sua accezione «industriale» e indaga il ruolo funzionale dello Stato, anche in relazione alla teoria pluralista di Harold Laski, al socialismo guildista di George D. H. Cole e all’idealismo di Bernard Bosanquet. Centrale in questo confronto del pensiero di Potter con il più ampio dibattito degli anni venti e trenta sulla sovranità è la concezione della decadenza della civiltà capitalista e dell’emergere di una new civilisation, dopo la conversione al comunismo sovietico.
Resumo:
L’accoppiamento di diverse operazioni unitarie può in certi casi portare ad una cosiddetta “intensificazione di processo”, cioè ad un aumento sostanziale delle rese, dell’efficienza e della sostenibilità. Nel presente lavoro sono state pertanto analizzate le potenzialità di accoppiamento della fotocatalisi, il più studiato tra i “processi di ossidazione avanzata”, sia con alcuni processi a membrana per la sintesi verde di aromi sia con l’ozonizzazione per la depurazione di acque. È stato dimostrato che in entrambi i casi l’ottenimento di una significativa intensificazione di processo dipende in gran parte dai parametri operativi, in particolare dal rapporto, delta, tra la velocità caratteristica di fotocatalisi e quella del processo accoppiato. Nel caso della sintesi di aromi, in cui la fotocatalisi viene accoppiata con la pervaporazione o con la dialisi ricircolando al reattore il retentato dalla cella con la membrana. Il parametro delta dipende dalla velocità di reazione, dalle proprietà di trasporto delle membrane e naturalmente dal volume del rettore e dall’area della membrana. La reazione fotocatalitica produce l’aroma, ad esempio vanillina da acido ferulico, per ossidazione parziale e grazie al recupero del prodotto se ne evita l’ulteriore ossidazione aumentandone pertanto la resa. L’operare in apparati separati offre diversi vantaggi come la possibilità di variare senza vincoli il rapporto tra area della membrana e volume del reattore, ma impone di considerare anche il grado effettivo di accoppiamento dei processi. In questo caso, come evidenziato dal modello matematico, un sufficientemente elevato rapporto di ricircolo consente comunque di integrare efficacemente i processi. Nell’ozonizzazione fotocatalitica si hanno due importanti vantaggi: l’aumento della velocità di degradazione grazie alla sinergia tra i processi e la capacità di controllare la formazione di prodotti pericolosi. La sinergia viene massimizzata ad un valore ottimale di delta, mentre la formazione dei prodotti indesiderati viene controllata operando secondo le procedure che sono state individuate.
Resumo:
Il lavoro di ricerca è rivolto ad indagare l’emersione di schemi di variazione comuni all’arte e al design, limitatamente al contesto italiano e in un arco di tempo che va dalla metà degli anni Sessanta del secolo scorso a oggi. L’analisi vuole rintracciare, mediante l’applicazione della metodologia fenomenologica, un sentire condiviso tra le due discipline e, nel pieno rispetto dei relativi linguaggi e con nessuna volontà di sudditanza degli uni rispetto agli altri, individuare i rapporti di corrispondenza omologica capaci di mettere in luce lo spirito del tempo che le ha generate. La ricerca si pone l’obiettivo di estendere gli studi sul contemporaneo attraverso un’impostazione che intende applicare gli strumenti metodologici della critica d’arte all’evoluzione stilistica delle tendenze del design italiano. Non si è voluto redigere una “storia” del design italiano ma, considerata anche l’ampiezza dell’argomento, si è necessariamente proceduto a delimitare il territorio di applicazione scegliendo di prendere in considerazione il solo settore del design dell’arredo. Si è dunque optato per una visione globale delle vicende del design del prodotto, tesa ad indagare gli snodi principali, concentrando pertanto l’analisi su alcuni protagonisti della cultura del progetto, ossia su quelle figure risultate dominanti nel proprio tempo perché capaci con il loro lavoro di dare un contribuito determinante alla comprensione delle fasi evolutive del design italiano. Gli strumenti utili a condurre l’analisi provengono principalmente dalla metodologia binaria individuata dallo storico dell’arte Heinrich Wölfflin e dagli studi di Renato Barilli, il cui impianto culturologico ha fornito un indispensabile contributo al processo di sistematizzazione dei meccanismi di variazione interni alle arti; sia quelli di tipo orizzontale, di convergenza reciproca con gli altri saperi, che di tipo verticale, in rapporto cioè con le scoperte scientifiche e tecnologiche della coeva cultura materiale.
Resumo:
La misura delle distanze in astrofisica non è affatto semplice, ma è molto importante per capire le dimensioni dell'Universo e le caratteristiche dei corpi celesti. Inoltre per descrivere le enormi distanze astronomiche sono state introdotte delle apposite unità di misura, quali l'Unità Astronomica, l'anno luce e il parsec. Esistono vari modi per calcolare le distanze: i metodi geometrici, basati sulla parallasse; gli indicatori primari, utilizzano le cosiddette candele standard, cioè oggetti di cui è nota la magnitudine assoluta, per calcolare le distanze di galassie vicine, e sono calibrati sulle misure dei metodi geometrici; gli indicatori secondari, utilizzano gli indicatori primari come calibri per poter calcolare le distanze di galassie ed ammassi di galassie lontani. Quindi le distanze si calcolano attraverso una serie di passaggi successivi, creando così una vera e propria scala, in cui ogni gradino corrisponde ad un metodo che viene calibrato sul precedente. Con i metodi geometrici da Terra sono state misurate distanze fino a poche centinaia di parsec, con il satellite Ipparcos si è arrivati ai Kiloparsec e col satellite Gaia saranno note le distanze di tutte le stelle della galassia. Con gli indicatori primari è stato possibile calcolare le distanze delle galassie vicine e con quelli secondari le distanze di galassie ed ammassi lontani, potendo così stimare con la Legge di Hubble le dimensioni dell'Universo. In questo elaborato verranno analizzati diversi metodi: i vari tipi di parallasse (quella annua e di ammasso in particolare), il fit di sequenza principale per gli ammassi stellari, le stelle variabili (Cefeidi classiche, W Virginis, RR Lyrae), le Supernovae di tipo Ia, la relazione di Tully-Fisher, il Piano Fondamentale e la Legge di Hubble.
Resumo:
Partiamo dal lavoro di Kolmogorov per definire una misura della quantità di informazione contenuta in una stringa tramite un approccio computazionale: la complessità di una stringa è la lunghezza del più corto programma capace di produrla. Vediamo poi gli sviluppi moderni di questa teoria, in particolare i contributi di Chaitin, e notiamo subito i forti legami con la teoria della probabilità e con l'entropia di Shannon. Successivamente proponiamo di identificare le stringhe casuali (nel senso intuitivo) con quelle algoritmicamente incomprimibili, seguendo l'idea che minore comprimibilità significhi minore regolarità e dunque maggiore casualità. Infine vediamo che, in effetti, le stringhe incomprimibili soddisfano tutte le proprietà stocastiche effettivamente verificabili, cioè le proprietà che la teoria della probabilità attribuisce a successioni di variabili aleatorie indipendenti e identicamente distribuite. Facciamo ciò in maniera generale utilizzando la notevole teoria di Martin-Löf e poi vediamo in dettaglio l'aspetto della normalità di Borel.
Resumo:
Partendo dal campione di AGN presente nella survey di XMM-COSMOS, abbiamo cercato la sua controparte ottica nel database DR10 della Sloan Digital Sky Survey (SDSS), ed il match ha portato ad una selezione di 200 oggetti, tra cui stelle, galassie e quasar. A partire da questo campione, abbiamo selezionato tutti gli oggetti con un redshift z<0.86 per limitare l’analisi agli AGN di tipo 2, quindi siamo giunti alla selezione finale di un campione di 30 sorgenti. L’analisi spettrale è stata fatta tramite il task SPECFIT, presente in IRAF. Abbiamo creato due tipi di modelli: nel primo abbiamo considerato un’unica componente per ogni riga di emissione, nel secondo invece è stata introdotta un’ulteriore com- ponente limitando la FWHM della prima ad un valore inferiore a 500 km\s. Le righe di emissione di cui abbiamo creato un modello sono le seguenti: Hβ, [NII]λλ 6548,6581, Hα, [SII]λλ 6716,6731 e [OIII]λλ 4959,5007. Nei modelli costruiti abbiamo tenuto conto della fisica atomica per quel che riguarda i rapporti dei flussi teorici dei doppietti dell’azoto e dell’ossigeno, fissandoli a 1:3 per entrambi; nel caso del modello ad una componente abbiamo fissato le FWHM delle righe di emissione; mentre nel caso a due componenti abbiamo fissato le FWHM delle componenti strette e larghe, separatamente. Tenendo conto del chi-quadro ottenuto da ogni fit e dei residui, è stato possibile scegliere tra i due modelli per ogni sorgente. Considerato che la nostra attenzione è focalizzata sulla cinematica dell’ossigeno, abbiamo preso in considerazione solo le sorgenti i cui spettri mostravano la riga suddetta, cioè 25 oggetti. Su questa riga è stata fatta un’analisi non parametrica in modo da utilizzare il metodo proposto da Harrison et al. (2014) per caratterizzare il profilo di riga. Sono state determinate quantità utili come il 2 e il 98 percentili, corrispondenti alle velocità massime proiettate del flusso di materia, e l’ampiezza di riga contenente l’80% dell’emissione. Per indagare sull’eventuale ruolo che ha l’AGN nel guidare questi flussi di materia verso l’esterno, abbiamo calcolato la massa del gas ionizzato presente nel flusso e il tasso di energia cinetica, tenendo conto solo delle componenti larghe della riga di [OIII] λ5007. Per la caratterizzazione energetica abbiamo considerato l’approccio di Cano-Diaz et al (2012) e di Heckman (1990) in modo da poter ottenere un limite inferiore e superiore della potenza cinetica, adottando una media geometrica tra questi due come valore indicativo dell’energetica coinvolta. Confrontando la potenza del flusso di gas con la luminosità bolometrica dell’AGN, si è trovato che l’energia cinetica del flusso di gas è circa lo 0.3-30% della luminosità dell’AGN, consistente con i modelli che considerano l’AGN come principale responsabile nel guidare questi flussi di gas.
Resumo:
Lo studio effettuato raccoglie informazioni al fine di svolgere un’analisi globale delle tecniche attualmente in uso, o in fase di studio, nel campo della localizzazione di dispositivi all’interno di un ambiente chiuso, ovvero laddove non è possibile sfruttare la copertura del sistema GPS. La panoramica è frutto dell’analisi e dello studio di paper tecnici pubblicati dai collaboratori dell’IEEE, fruibili all’interno del portale IEEE Xplore. A corredo di questo studio è stata sviluppata una applicazione per dispositivi Android basata sulla tecnica del Wi-Fi fingerprint; l’applicazione, che rappresenta un primo approccio alle tecniche di localizzazione, è a tutti gli effetti un sistema standalone per la localizzazione, consente cioè di costruire sia la mappa per la localizzazione, partendo da un ambiente sconosciuto, sia di ottenere la posizione dell’utente all’interno di una mappa conosciuta. La tesi si conclude con una analisi dei risultati e delle performance ottenute dall’applicazione in un uso comune, al fine di poter valutare l’efficacia della tecnica presa in considerazione. I possibili sviluppi futuri sono analizzati in un capitolo a parte e trovano spazio in ambienti nei quali si vogliono offrire servizi "context-based", ovvero basati sulla posizione esatta dell’utente.
Resumo:
La tesi dottorale si incentra sull'analisi del principio di precauzione e sulla sua portata applicativa in quella che possiamo definire “la vita del medicinale”. La disamina prende le sue mosse dalla teoria generale relativa al principio di precauzione e ne indaga, in primis, le sue origini e la sua evoluzione e successivamente ne considera la trasposizione giuridica nel settore ambientale e della salute umana. Si può sintetizzare, in via generale, come il ricorso al principio di precauzione avvenga quando il rischio connesso ad un evento non è un rischio determinato, ma è un rischio potenziale, cioè non supportato da dati scientifici che dimostrino in modo chiaro la connessione esistente tra avvenimento e danni (causa – effetto). In particolare, i dati scientifici che tentano di analizzare detto rischio non sono sufficienti o non sono giunti ad un risultato concludente e quindi la valutazione che viene fatta non consente di determinare il rischio con sufficiente certezza. La tesi dottorale focalizza la sua attenzione sull’applicazione del principio di precauzione ad un particolare bene, il medicinale; la necessità di minimizzare i rischi derivanti dall’assunzione del farmaco richiede un presidio dei pubblici poteri e di conseguenza questo comporta la necessità di “amministrare” il medicinale anche attraverso una serie di autorizzazioni amministrative quali l’autorizzazione alla produzione, l’autorizzazione all’immissione in commercio, l’autorizzazione alla distribuzione ed alla commercializzazione.
Resumo:
La presente tesi ha come obiettivo quello di illustrare il flusso informativo che gestisce lo scambio dei dati relativi a cure radioterapiche nell’ambiente di medicina nucleare. La radioterapia comprende tutte quelle cure a base di sostanze radioattive o radiazioni che vengono somministrate a scopo diagnostico o terapeutico. Le due tecniche più utilizzate sono la brachiradioterapia e la radioterapia a fasci esterni. La prima è utilizza solo in casi selezionati di tumori direttamente accessibili e la sua caratteristica principale è la rapida diminuzione della dose con l'allontanarsi dalla sorgente, la seconda tecnica invece consiste nell’irradiare la zona interessata dall’esterno, utilizzando come sorgente di radiazioni una macchina chiamata acceleratore lineare, posta all’esterno del corpo del paziente. Questa terapia ha come obiettivo primario quello di ottenere la migliore distribuzione di dose nel volume bersaglio, risparmiando quanto più possibile i tessuti sani. Già dalla nascita della radioterapia, questa tecnica era caratterizzata dalla presenza di immagini digitali, cioè al contrario di altri reparti radiologici dove le immagini diagnostiche venivano impresse su pellicole, qui le informazioni circolavano già in formato elettronico. Per questo motivo già da subito si è avvertita l’esigenza di trovare una modalità per lo scambio, in maniera efficiente e sicura, di dati clinici per organizzare al meglio la cura del paziente e la pianificazione, anche con macchinari di diversi produttori, del trattamento radioterapico. In tutto questo ha svolto un ruolo fondamentale la proposta di IHE del framework di medicina nucleare, dove si dettavano linee guida per coordinare in maniera semplice e vantaggiosa l’integrazione informativa dei vari attori del processo di cura radioterapico.