951 resultados para memorie di massa, memorie secondarie, dati digitali, hard disk
Resumo:
Le caratteristiche strutturali dell’occhio dei Cetacei sono state in passato oggetto di studio. Tuttavia, i dati relativi alla stratigrafia della retina ed alle caratteristiche morfologiche dei neuroni gangliari in essa presenti sono piuttosto ridotti; per questo motivo, l’obiettivo della presente ricerca è stato quello di studiare, mediante metodiche di immunoistochimica, l’uso della microscopia ottica e di opportuni software di analisi immagine, le caratteristiche morfologiche della retina e delle cellule gangliari in essa presenti in differenti specie di Cetacei. Per la presente ricerca sono stati utilizzate come specie di riferimento i seguenti Delfinidi: tursiope (Tursiops truncatus) e stenella striata (Stenella coeruleoalba). Le analisi sulle sezioni interessano l’area, la densità dei neuroni gangliari, la stratigrafia della retina e l’analisi morfometrica degli strati e dei neuroni. I risultati ottenuti indicano come la retina del tursiope e della stenella striata, nonostante un'organizzazione di base assai simile a quella degli altri Mammiferi, mostri caratteristiche qualitative sue proprie. Gli strati retinici sono quelli che si osservano in tutti i Mammiferi e lo spessore totale della retina è, nel tursiope (101,23 µm ) e nella stenella striata (108.35 µm ), pressochè simile ai Mammiferi terrestri (110-220 µm). Nell'ambito della retina, lo strato che presento lo spesso medio maggiore è quello dei granuli interni (SNE); tale dato non coincide con quanto osservato in altri Mammiferi. I neuroni gangliari presenti nella retina di tursiope e stenella striata mostrano, analogamente a quanto osservato in altri Cetacei, una bassa densità cellulare. Nel tursiope e nella stenella striata le aree a maggiore densità cellulare presentano neuroni multipolari di dimensioni minori rispetto a quelle con bassa densità. Questo dato potrebbe indicare una "cellularità" (quantità di superficie occupata da cellule) costante nei differenti distretti retinici. I neuroni gangliari presenti nella retina di tursiope e stenella striata sono disposti in un unico strato, come osservato in numerosi altri Cetacei, ma differisce da quanto osservato nel capodoglio (Physeter macrocephalus) dove tali cellule si dispongono in strati multipli. Neuroni gangliari di grandi dimensioni sono stati osservati sia nel tursiope che nella stenella striata. Tale dato coincide con quanto osservato in altri Odontoceti ed in alcuni Misticeti. Allo stato attuale non è ancora stato dato un chiaro significato funzionale alle cellule gangliari giganti. Un possibile ruolo potrebbe essere quello di condurre, in animali di grossa mole, l'impulso nervoso molto velocemente, grazie alla presenza di un assone provvisto di un diametro notevole. Tale interpretazione non è da tutti accettata in quanto Mammiferi terrestri di grandi dimensioni non presentano nella loro retina neuroni gangliari giganti.
Resumo:
Nello studio di questa tesi è stata descritta una ricerca condotta allo scopo di fornire un contributo alla conoscenza della biodiversità analizzando la componente macrofaunistica subfossile e recente del Phylum Mollusca del Canale di Sicilia e del Golfo di Cadice. Tali organismi sono già da tempo noti in questi ambienti poiché associati a biocostruzioni a coralli bianchi presenti lungo i margini continentali atlantici e mediterranei i cui costituenti principali sono gli sclerattiniari coloniali Lophelia pertusa e Madrepora oculata. Tuttavia ben poco si conosce sull’ecologia di queste specie che si ritrovano spesso influenzate da scambi idrologici e biologici attraverso lo Stretto di Gibilterra. Nel corso di questo studio sono state analizzate 7 carote sedimentarie marine campionate durante diverse campagne oceanografiche: 6 carotaggi atlantici prelevati durante la campagna oceanografica Meteor nel Golfo di Cadice e 1 carota campionata nel Canale di Sicilia durante la campagna oceanografica MARCOS guidata dall’ISMAR-CNR di Bologna, sulla quale si concentra l’attenzione di questo lavoro. I dati raccolti sono stati analizzati in maniere quantitativa, per questo è stato utilizzato il software per analisi statistiche “Past3” e sono stati combinati con l’analisi qualitativa dei campioni in modo da ottenere il maggior numero di informazioni. Tra le analisi statistiche sono state effettuate il calcolo di tutti gli indici di dominanza, diversità, di equiripartizione e ricchezza specifica (Simpson, Shannon, Evenness e Margalef) e l’analisi multivariata NMDS (Non-metric Multi-Dimensional Scaling). Infine è stata effettuata l’analisi delle associazioni trofiche distribuite in una carota. Il risultato ha evidenziato un’elevata biodiversità per campioni prelevati in profondità e il ritrovamento di organismi appartenenti all’ultimo glaciale.
Resumo:
La sezione d’urto totale adronica gioca un ruolo fondamentale nel programma di fisica di LHC. Un calcolo di questo parametro, fondamentale nell’ambito della teoria delle interazioni forti, non é possibile a causa dell’inapplicabilità dell’approccio perturbativo. Nonostante ciò, la sezione d’urto può essere stimata, o quanto meno le può essere dato un limite, grazie ad un certo numero di relazioni, come ad esempio il Teorema Ottico. In questo contesto, il detector ALFA (An Absolute Luminosity For ATLAS) sfrutta il Teorema Ottico per determinare la sezione d’urto totale misurando il rate di eventi elastici nella direzione forward. Un tale approccio richiede un metodo accurato di misura della luminosità in condizioni sperimentali difficoltose, caratterizzate da valori di luminosità istantanea inferiore fino a 7 ordini di grandezza rispetto alle normali condizioni di LHC. Lo scopo di questa tesi è la determinazione della luminosità integrata di due run ad alto β*, utilizzando diversi algoritmi di tipo Event-Counting dei detector BCM e LUCID. Particolare attenzione è stata riservata alla sottrazione del fondo e allo studio delle in- certezze sistematiche. I valori di luminosità integrata ottenuti sono L = 498.55 ± 0.31 (stat) ± 16.23 (sys) μb^(-1) and L = 21.93 ± 0.07 (stat) ± 0.79 (sys) μb^(-1), rispettivamente per i due run. Tali saranno forniti alla comunità di fisica che si occupa della misura delle sezioni d’urto protone-protone, elastica e totale. Nel Run II di LHC, la sezione d’urto totale protone-protone sarà stimata con un’energia nel centro di massa di 13 TeV per capire meglio la sua dipendenza dall’energia in un simile regime. Gli strumenti utilizzati e l’esperienza acquisita in questa tesi saranno fondamentali per questo scopo.
Resumo:
Il seguente elaborato ha lo scopo di analizzare il comportamento torsionale di diverse tipologie strutturali, valutare la veridicità del metodo “Alpha” per strutture ad un piano e successivamente testare la validità del metodo per strutture multipiano. Nel primo capitolo è stato introdotto inizialmente il problema, poi sono stati definiti per il sistema oggetto di studio l’equazione del moto e i diversi parametri che intervengono. Tra questi parametri di rilevante importanza si hanno l’indice di torsioflessibilità e l’eccentricità. Infine è stato definito il metodo “Alpha” per la determinazione della massima risposta rotazionale. Nel secondo capitolo è stata eseguita una valutazione analitica del parametro di torsioflessibilità per il caso specifico di struttura con due setti disposti ad uguale distanza dal centro di massa sia per il caso di struttura a pianta quadrata che per quella a pianta rettangolare. Nel terzo e nel quarto capitolo è stata effettuata una valutazione dell’indice di torsioflessibilità e dell’eccentricità, sia per strutture a pianta quadrata che per strutture a pianta rettangolare, caratterizzate da diversi elementi resistenti disposti in differenti posizioni. In particolare è stato analizzato come cambia l’indice di torsioflessibilità al variare dell’eccentricità per una stessa struttura. Nel quinto e sesto capitolo sono riportati i risultati delle analisi modali condotte per tutti i casi visti nei capitoli precedenti: nel caso ad un piano e nel caso di strutture multipiano (cinque e dieci piani). Nel settimo e ottavo capitolo sono riportati i risultati delle analisi time-history eseguite per le stesse strutture, dalle quali sono stati determinati gli spostamenti al fine di eseguire una verifica del metodo per strutture ad un piano e studiare i risultati ottenuti per strutture multipiano. Il lavoro svolto si conclude con il nono capitolo in cui sono stati riportati i risultati e le conclusioni.
Resumo:
Il BIM (Building Information Modeling ) è un processo coordinato per agevolare l’integrazione delle informazioni pertinenti alle varie fasi di progettazione dell’opera edilizia. La rappresentazione digitale di un edificio, completa di tutte le sue parti ed informazioni sempre aggiornate, affidabili ed accessibili, aiuta il confronto decisionale, la produzione di elaborati, la stima dei costi e tanti altri aspetti del processo edilizio che vengono così ad essere trattati in maniera più efficiente, immediata e con meno sprechi rispetto a molti approcci tradizionali ancora in uso. Con queste premesse la tesi ha voluto indagare potenzialità e criticità di strumenti progettuali avanzati per giungere ad una costruzione efficace e sostenibile. A questo scopo Revit di Autodesk si è dimostrato un software che permette di avere in un unico spazio di lavoro tutti i dati pertinenti alle figure professionali che intervengono durante il processo edilizio. Nel modello BIM realizzato per progettare realisticamente una villetta monofamiliare localizzata a Mezzojuso, in provincia di Palermo, sono stati esaminati molteplici aspetti: dal modello fisico, alla visualizzazione grafica 2D e 3D, alla modellazione parametrica di un modello concettuale energetico che coinvolge analisi di comfort termico ed igrometrico, ad un modello dei venti (per arrivare ad un design energetico ottimale). Il metodo di progetto è stato applicato facendo largo uso di elementi parametrici non standard nei modelli 3D e di altri prodotti realmente esistenti nel mercato italiano. Il risultato finale è stato quello di giungere ad una valutazione delle geometrie più idonee per il controllo degli spazi rispetto alla normativa locale, allo studio di più tipologie di pacchetti murari per risolvere i problemi di raffrescamento estivo e isolamento invernale, alla realizzazione di un computo metrico di massima: sono stati solo questi alcuni degli aspetti considerati per approcciare la tematica da un più ampio punto di vista multidisciplinare.
Resumo:
Lo scopo di questo lavoro è costruire uno strumento per valutare il senso del numero negli studenti di due scuole secondarie di primo grado, l'una che predilige una didattica di stampo tradizionale, l'altra innovativa. Dopo aver descritto il senso del numero nelle quattro componenti cognitive e comportamentali individuate si analizzano i risultati dei suddetti studenti ad un test, composto da quesiti presi dalle valutazioni nazionali INVALSI ed internazionali TIMSS, i quali conducono ad osservare se e come una di queste ultime componenti è prevalente rispetto ad un'altra, e se il senso del numero può andare perso nel corso degli anni se si privilegia un approccio formale all'aritmetica piuttosto che la creazione di ambienti di apprendimento significativi che possano stimolare la creatività, la scoperta e la coproduzione di conoscenza.
Resumo:
Panoramica delle caratteristiche dei database NoSQL, con dettaglio su MongoDB: filosofia di progettazione, modello dei dati, indicizzazione, algoritmo Map-Reduce e gestione della memoria.
Resumo:
Il lavoro svolto si concentra sul trasporto di carica e spin in dispositivi trilayer La0.7Sr0.3MnO3/SrTiO3/Co multifunzionali. Questi dispositivi mostrano sia magnetoresistenza che resistive switching, con un'interessante interazione fra i due effetti. Le giunzioni SrTiO3 sono state scelte per questo lavoro sia per via dei precedenti studi su SrTiO3 come barriera in dispositivi spintronici (cioè dispositivi con magnetoresistenza), sia perché sono promettenti come materiale base per costruire memristor (cioè dispositivi con resistive switching). Il lavoro di tesi è stato svolto all'Istituto per lo studio dei materiali nanostrutturati (ISMN-CNR) a Bologna. Nella prima parte di questa tesi illustrerò la fisica dietro al resistive switching e alla magnetoresistenza di dispositivi trilayer, mostrando anche risultati di studi su dispositivi simili a quelli da me studiati. Nella seconda parte mostrerò la complessa fisica degli ossidi utilizzati nei nostri dispositivi e i possibili meccanismi di trasporto attraverso essi. Nell'ultima parte descriverò i risultati ottenuti. I dispositivi La0.7Sr0.3MnO3/SrTiO3/Co sono stati studiati tramite caratterizzazione elettrica, di magnetotrasporto e con spettroscopia di impedenza. Le misure ottenute hanno mostrato una fisica molto ricca dietro al trasporto di spin e carica in questi dispositivi, e la mutua interazione fra fenomeni spintronici e di resistive switching rappresenta una chiave per comprendere la fisica di questi fenomeni. Analisi dati della dipendenza della resistenza della temperature e caratteristiche corrente-tensioni saranno usati per quantificare e descrivere il trasporto in questi dispositivi.
Resumo:
Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.
Resumo:
L’ obiettivo della tesi proposta è volto ad illustrare come la malattia diabetica può essere gestita a livello domiciliare attraverso dispositivi di monitoraggio della glicemia sempre più innovativi. La malattia diabetica è un disturbo metabolico che ha come manifestazione principale un aumento del livello di zucchero nel sangue (glicemia) dovuto ad una ridotta produzione di insulina, l’ormone secreto dal pancreas per utilizzare gli zuccheri e gli altri componenti del cibo e trasformarli in energia. È una delle patologie croniche a più ampia diffusione nel mondo, in particolare nei Paesi industrializzati, e costituisce una delle più rilevanti e costose malattie sociali della nostra epoca, soprattutto per il suo carattere di cronicità, per la tendenza a determinare complicanze nel lungo periodo e per il progressivo spostamento dell’insorgenza verso età giovanili. Le tecnologie applicate alla terapia del diabete hanno consentito negli ultimi vent’anni di raggiungere traguardi molto importanti, soprattutto per quanto riguarda l’ottimizzazione del controllo assiduo dei valori glicemici cercando di mantenerli il più costante possibile e ad un livello simile a quello fisiologico. La comunicazione medico-paziente è stata rivoluzionata dalla telemedicina che, offrendo la possibilità di una comunicazione agevole, permette di ottimizzare l’utilizzo dei dati raccolti attraverso l’automonitoraggio glicemico e di facilitare gli interventi educativi. I glucometri, che misurano la glicemia ‘capillare’, insieme ai microinfusori, sistemi di erogazione dell’insulina sia in maniera continua (fabbisogno basale), che ‘a domanda’ (boli prandiali), hanno sostanzialmente modificato l’approccio e la gestione del diabete da parte del medico, ma soprattutto hanno favorito al paziente diabetico un progressivo superamento delle limitazioni alle normali attività della vita imposte dalla malattia. Con il monitoraggio continuo della glicemia 24 ore su 24 infatti, si ha avuto il vantaggio di avere a disposizione un elevato numero di misurazioni puntiformi nell’arco della giornata attraverso sensori glicemici, che applicati sulla pelle sono in grado di ‘rilevare’ il valore di glucosio a livello interstiziale, per diversi giorni consecutivi e per mezzo di un trasmettitore wireless, inviano le informazioni al ricevitore che visualizza le letture ottenute dal sensore. In anni recenti, il concetto di SAP (Sensor-Augmented Insulin Pump) Therapy, è stato introdotto a seguito di studi che hanno valutato l’efficacia dell’utilizzo della pompa ad infusione continua di insulina (CSII, continuous subcutaneous insulin infusion) associato ai sistemi di monitoraggio in continuo della glicemia (CGM, continuous glucose monitoring) per un significativo miglioramento del controllo glicemico e degli episodi sia di ipoglicemia sia di iperglicemia prolungata. Oggi, grazie ad una nuova funzione è possibile interrompere automaticamente l’erogazione di insulina da parte del microinfusore quando la glicemia, rilevata dal sensore, scende troppo velocemente e raggiunge un limite di allarme. Integrare lettura della glicemia, infusione e sospensione automatica dell’erogazione di insulina in caso di ipoglicemia ha ovviamente aperto la porta al pancreas artificiale.
Resumo:
La Fibrillazione Atriale (FA) è una delle aritmie più frequentemente riscontrate nella pratica clinica, ma i meccanismi che la generano e che la sostengono non sono ancora oggi ben chiari. L’obiettivo di questo lavoro di tesi è indagare il substrato aritmogeno della FA con particolare attenzione al legame tra rimodellamento elettrico e strutturale. La tecnica di riferimento per la valutazione della fibrosi è la risonanza magnetica con iniezione di mezzo di contrasto e acquisizione ritardata. Tipicamente, però, la presenza di fibrosi viene valutata durante la procedura di ablazione transcatetere mediante l’analisi dei potenziali elettrici rilevati, considerando le zone a basso potenziale indicative della presenza di alterazioni strutturali. In questo lavoro sono stati elaborati dati di Risonanza Magnetica (RM), in particolare sequenze Angio-RM e DE-RM. Dalle sequenze Angio-RM è stato ricostruito un modello 3D paziente-specifico dell’atrio, mentre dalle sequenze DE-RM sono state ricavate informazioni relative alla presenza di tessuto atriale fibrotico. Al modello 3D è stata poi sovrapposta l’informazione sull’intensità di grigio del dato DE-RM per poter visualizzare la localizzazione delle zone di fibrosi sulla superficie 3D dell’atrio. Sono stati anche esportati dal sistema di mappaggio elettroanatomico EnSite NavX (St. Jude Medical) i dati relativi alla geometria dell’atrio e ai potenziali registrati durante lo svolgimento della procedura di ablazione. Da questi dati è stato possibile ricostruire in ambiente Matlab le mappe di voltaggio raffiguranti i potenziali registrati durante la procedura. Per poter studiare e valutare il legame esistente tra rimodellamento elettrico e strutturale, sono state confrontate le mappe di voltaggio e le superfici raffiguranti fibrosi. Questo lavoro di tesi è stato svolto in collaborazione con l’U.O. di Cardiologia dell’Ospedale Bufalini di Cesena e la St. Jude Medical.
Resumo:
Il Cryptolocker è un malware diffuso su scala globale appartenente alla categoria ransomware. La mia analisi consiste nel ripercorrere le origini dei software maligni alla ricerca di rappresentanti del genere con caratteristiche simili al virus che senza tregua persevera a partire dal 2013: il Cryptolocker. Per imparare di più sul comportamento di questa minaccia vengono esposte delle analisi del malware, quella statica e quella dinamica, eseguite sul Cryptolocker (2013), CryptoWall (2014) e TeslaCrypt (2015). In breve viene descritta la parte operativa per la concezione e la configurazione di un laboratorio virtuale per la successiva raccolta di tracce lasciate dal malware sul sistema e in rete. In seguito all’analisi pratica e alla concentrazione sui punti deboli di queste minacce, oltre che sugli aspetti tecnici alla base del funzionamento dei crypto, vengono presi in considerazione gli aspetti sociali e psicologici che caratterizzano un complesso background da cui il virus prolifica. Vengono confrontate fonti autorevoli e testimonianze per chiarire i dubbi rimasti dopo i test. Saranno questi ultimi a confermare la veridicità dei dati emersi dai miei esperimenti, ma anche a formare un quadro più completo sottolineando quanto la morfologia del malware sia in simbiosi con la tipologia di utente che va a colpire. Capito il funzionamento generale del crypto sono proprio le sue funzionalità e le sue particolarità a permettermi di stilare, anche con l’aiuto di fonti esterne al mio operato, una lista esauriente di mezzi e comportamenti difensivi per contrastarlo ed attenuare il rischio d’infezione. Vengono citati anche le possibili procedure di recupero per i dati compromessi, per i casi “fortunati”, in quanto il recupero non è sempre materialmente possibile. La mia relazione si conclude con una considerazione da parte mia inaspettata: il potenziale dei crypto, in tutte le loro forme, risiede per la maggior parte nel social engineering, senza il quale (se non per certe categorie del ransomware) l’infezione avrebbe percentuali di fallimento decisamente più elevate.
Resumo:
Il lavoro presentato in questa Tesi si basa sul calcolo di modelli dinamici per Galassie Sferoidali Nane studiando il problema mediante l'utilizzo di funzioni di distribuzione. Si è trattato un tipo di funzioni di distribuzione, "Action-Based distribution functions", le quali sono funzioni delle sole variabili azione. Fornax è stata descritta con un'appropriata funzione di distribuzione e il problema della costruzione di modelli dinamici è stato affrontato assumendo sia un alone di materia oscura con distribuzione di densità costante nelle regioni interne sia un alone con cuspide. Per semplicità è stata assunta simmetria sferica e non è stato calcolato esplicitamente il potenziale gravitazionale della componente stellare (le stelle sono traccianti in un potenziale gravitazionale fissato). Tramite un diretto confronto con alcune osservabili, quali il profilo di densità stellare proiettata e il profilo di dispersione di velocità lungo la linea di vista, sono stati trovati alcuni modelli rappresentativi della dinamica di Fornax. Modelli calcolati tramite funzioni di distribuzione basati su azioni permettono di determinare in maniera autoconsistente profili di anisotropia. Tutti i modelli calcolati sono caratterizzati dal possedere un profilo di anisotropia con forte anisotropia tangenziale. Sono state poi comparate le stime di materia oscura di questi modelli con i più comuni e usati stimatori di massa in letteratura. E stato inoltre stimato il rapporto tra la massa totale del sistema (componente stellare e materia oscura) e la componente stellare di Fornax, entro 1600 pc ed entro i 3 kpc. Come esplorazione preliminare, in questo lavoro abbiamo anche presentato anche alcuni esempi di modelli sferici a due componenti in cui il campo gravitazionale è determinato dall'autogravità delle stelle e da un potenziale esterno che rappresenta l'alone di materia oscura.
Resumo:
L’effetto dell’informatica e dell’automazione sulle procedure medico sanitarie si sta manifestando in maniera sempre più ampia, portando notevoli vantaggi per la salute e il benessere di tutti i pazienti e al tempo stesso ponendo sfide sempre più complesse alle istituzioni sanitarie e ai produttori di dispositivi medico-sanitari. Al di là dei meriti del singolo prodotto o tecnologia, esiste un fattore strategico che dovrebbe essere sempre considerato nel momento di progettare un software o un dispositivo da utilizzare in ambito sanitario (da parte dei produttori) o nel momento di pianificare l’acquisto di sistemi medicali o diagnostici complessi (da parte delle istituzioni sanitarie): l’aspetto dell’Integrazione, ovvero la capacità del sistema di inserirsi in maniera semplice, efficace e poco costosa in un Workflow (flusso di lavoro) completamente integrato. Nel primo capitolo di questo elaborato finale è stato fatto un quadro generale sull’organizzazione del flusso di lavoro in radiologia e sono stati trattati i vari standard di comunicazione e scambio dati in ambito clinico, in primis DICOM, HL7 e IHE. L’oggetto del secondo capitolo è l’organizzazione e gli obbiettivi del Dipartimento di Radiologia attuati dal Gruppo Villa Maria (GVM) e il confronto di questi ultimi con il contenuto del documento: ‘Linee guida per l’assicurazione di qualita` in teleradiologia ‘che è stata redatta dal Istituto Superiore di Sanita` destinata ad apportare, non solo ai medici radiologi ed ai TSRM ma anche agli altri professionisti della sanità coinvolti, gli elementi di informazione e di metodo per l’organizzazione della teleradiologia nel rispetto delle esigenze della deontologia medica, della sicurezza del paziente, compreso il consenso, anche per quanto riguarda la radioprotezione, la privacy e la qualità. Nel terzo capitolo sono elencati gli strumenti con cui il Dipartimento di radiologia intende perseguire i suoi obbiettivi. Il quarto capitolo tratta la mia esperienza presso una clinica esterna al GVM, in particolare la clinica Santo Stefano, di Porto Potenza Picena, dove sono stati fatti dei test volti a valutare i tempi di caricamento di esami di TAC e RMN sul cloud di GVM.
Resumo:
Le reti devono essere in grado di gestire i modelli di traffico generati dalle nuove applicazioni, per questo si sta concentrando un interesse senza precedenti nella storia di Internet parlando di Software Defined Networking (SDN), un nuovo modo di concepire le reti. SDN è un paradigma che permette di dividere il piano di controllo dal piano dati consentendo il controllo della rete da un dispositivo unico centralizzato,il controller. In questa tesi abbiamo voluto esaminare due specifici casi di studio, affinché si dimostri come SDN possa fornire il miglior supporto per risolvere il problema delle architetture tradizionali, e uno strumento utile per progettare SDN. Per primo viene analizzato Procera, utilizzato nelle reti domestiche e nelle reti campus per dimostrare che, grazie ad esso, è possibile ridurre la complessità di un’intera rete. Poi è stato visto AgNos, un’architettura basata su azioni svolte da agenti rappresentando così un ottimo strumento di lavoro sia perché gli agenti sono implementati nei controller di rete e sia perché AgNos ha la peculiarità di fornire all’utente (o al sistema) un livello stabile di concretezza. Inoltre sono stati analizzati due problemi comuni su Internet: 1.la mitigazione degli attacchi Ddos, dove i domini SDN collaborano per filtrare i pacchetti dalla fonte per evitare l’esaurimento delle risorse 2.l’attuazione di un meccanismo di prevenzione per risolvere il problema dell’attacco Dos nella fase iniziale rendendo l’aggressione più facile da gestire. L’ultimo argomento trattato è il sistema Mininet, ottimo strumento di lavoro in quanto permette di emulare topologie di rete in cui fanno parte host, switch e controller, creati utilizzando il software. Rappresenta un ottimo strumento per implementare reti SDN ed è molto utile per lo sviluppo, l'insegnamento e la ricerca grazie alla sua peculiarità di essere open source.