146 resultados para Gwyn, Nell, 1650-1687.
Resumo:
L’HTA rappresenta un valido strumento per operare un’analisi dell’impatto clinico,economico e organizzativo di apparecchiature sempre più tecnologicamente sofisticate.Il SIC si inserisce nella valutazione multidisciplinare con le metodologie dell’HTA garantendo appropriatezza e aggiornamento del patrimonio tecnologico per rendere più efficiente l’erogazione delle prestazioni sanitarie.L’HTA dalla valutazione dei bisogni analizza l’applicabilità clinica.Un SIC deve essere in grado di elaborare dati tecnici,gestionali e clinici mediante il software di gestione della manutenzione del parco macchine che nel caso dell’AOSP BO è TMS che gestisce tutte le fasi del ciclo di vita di un’apparecchiatura biomedica.Il ruolo strategico del SIC prevede la programmazione degli investimenti e la valutazione rigorosa nella scelta del rinnovo tecnologico (urgente o programmato) o del potenziamento del parco tecnologico.L’algoritmo analizzato va a individuare diverse categorie di apparecchiature del Sant’Orsola e valuta modello per modello se e quanto risulta efficiente dopo un’attenta analisi il loro trasferimento all’interno del nuovo Polo Cardio Toraco Vascolare inaugurato il 14 dicembre 2015,determinando così un eventuale rinnovo tecnologico,aggiornamento,fuori uso o mantenimento in vita della strumentazione in esame.Le fasi dell’algoritmo finalizzato alla definizione dei recuperi delle apparecchiature medicali nell’ambito dei progetti di riqualificazione tecnologica sono: 1.Normativo (rispondenza a prescrizioni generali relative alla sicurezza e verifiche particolari.Si definisce anche un’analisi dei rischi). 2.Funzionale (si analizzano su TMS l’età dell’apparecchiatura,i tempi di disservizio,il numero e la frequenza delle azioni di manutenzione, le parti consumabili). 3.Economico (costi degli interventi e mantenimento dell'apparecchiatura, spese relative ai pezzi di ricambio o materiale deperibile,contratto di assistenza). 4.Prestazionale (valutazione dello stato del sistema in toto).
Resumo:
I movimenti lenti delle colate in terra sono una caratteristica geomorfologica comune nell’Appennino settentrionale e sono uno dei principali agenti di modellazione del paesaggio. Spesso case e piccoli centri abitati sorgono in zone affette da questo tipo di movimento franoso e di conseguenza subiscono danni causati da piccoli spostamenti. In questo lavoro di Tesi vengono presentati i risultati ottenuti dall’interferometria radar ad apertura sintetica (InSAR) mediante elaborazione tramite StaMPS (Stanford Method of Persistent Scatterers), utilizzando la tecnica avanzata Small Baseline Subset (Berardino et al., 2002). Questo metodo informatico è applicato alle acquisizioni rilevate dai satelliti Envisat e COSMO-SkyMed in orbita ascendente e discendente, ottenendo una copertura di dati che va dal 2004 al 2015, oltre ad un rilevamento geologico-geomorfologico in dettaglio eseguito nell’area di studio. Questa tecnica di telerilevamento è estremamente efficace per il monitoraggio dei fenomeni di deformazione millimetrica che persistono sulla superficie terrestre, basata sull'impiego di serie temporali d’immagini radar satellitari (Ferretti et al., 2000). Lo studio è stato realizzato nel paese di Gaggio Montano nell’Appennino bolognese. In questa zona sono stati identificati diversi corpi di frana che si muovono con deformazioni costanti durante il tempo di investigazione e grazie ai risultati ottenuti dai satelliti è possibile confrontare tale risultato. Gli spostamenti misurati con il metodo InSAR sono dello stesso ordine di grandezza dei movimenti registrati dai sondaggi inclinometrici. Le probabili cause dell’instabilità di versante a Gaggio Montano sono di natura antropica, in quanto alti tassi di deformazione sono presenti nelle zone dove sorgono case di recente costruzione e complessi industriali. Un’altra plausibile spiegazione potrebbe essere data dalla ricarica costante d’acqua, proveniente dagli strati dei Flysch verso l’interno del complesso caotico sottostante, tale dinamica causa un aumento della pressione dell’acqua nelle argille e di conseguenza genera condizioni d’instabilità sul versante. Inoltre, i depositi franosi rilevati nell’area di studio non mostrano nessun tipo di variazione dovuta ad influenze idrologiche. Per questo motivo le serie temporali analizzare tendo ad essere abbastanza lineari e costanti nel tempo, non essendo influenzate da cicli stagionali.
Resumo:
La presente tesi intende analizzare il ruolo dell’interprete nel settore della salute mentale tra neutralità e partecipazione attiva. La ricerca è stata condotta nel Belgio francofono, dove il processo di professionalizzazione e armonizzazione ha portato alla creazione di due figure distinte: il mediatore interculturale che opera negli ospedali e l’interprete per i servizi pubblici. Entrambi lavorano nell’ambito della salute mentale. Benché questo settore presenti caratteristiche peculiari che influenzano la partecipazione dell’interprete, non esiste un codice deontologico specifico: quello dei mediatori interculturali è ideato sulle necessità dell’ambito medico, gli interpreti per i servizi pubblici hanno un codice etico generico. Sono stati intervistati quattordici interpreti al fine di ottenere una maggiore comprensione relativa a come concepiscono il loro ruolo, al rispetto del codice deontologico e alla gestione delle emozioni, in un contesto altamente emotivo come quello di una seduta psicoterapeutica. I risultati sono stati analizzati con un metodo qualitativo.
Resumo:
Negli ultimi anni l'utilizzo di ciclotroni per la produzione di radionuclidi, impiegati nell'ambito della Medicina Nucleare, è diventato un processo sempre più diffuso e numerosi sono i modelli commercialmente disponibili. L'impiego di questo tipo di apparecchiature porta a considerare questioni rilevanti legate alla radioprotezione che coinvolgono una serie di aspetti complessi sia nella fase progettuale del sistema, sia nell'ottenimento delle necessarie autorizzazioni. In particolare, uno dei problemi radioprotezionistici da affrontare è legato alla dispersione in ambiente di aeriformi radioattivi, prodotti dall'interazione di flussi di particelle secondarie con l'aria. In questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria dell'Ospedale Sant'Orsola di Bologna, si è cercato di caratterizzare l'emissione di tali gas radioattivi considerando l'effetto del sistema di ventilazione. E' stata eseguita un'estesa campagna di misurazioni in diversi punti di campionamento, collocati lungo il percorso di estrazione dell'aria: dal bunker fino all'immissione in ambiente. Sono stati ideati e realizzati dei compatti sistemi di campionamento che hanno permesso di definire, attraverso un sistema di spettrometria gamma equipaggiato con rivelatore al HPGe, una sistematica procedura per la determinazione di concentrazione di attività. I risultati ottenuti mostrano come, durante la routine di produzione di 18F mediante ciclotrone, il processo più rilevante di attivazione dell'aria sia la produzione di 41Ar (T1/2=109.34 minuti), unico radionuclide identificato in tutte le misurazioni. Infine, sulla base dei dati sperimentali ottenuti, è stata effettuata una valutazione della dose rilasciata alla popolazione locale. Il risultato, pari a 0.19 µSv/anno, può essere considerato trascurabile rispetto alla soglia di "non rilevanza radiologica", a dimostrazione di come le tipiche procedure in ambito di Medicina Nucleare possano essere considerate del tutto giustificate.
Resumo:
All’interno di questo progetto ci proponiamo di creare un infrastruttura cloud grazie a Openstack, un supporto software Opensurce. Grazie a questa infrastruttura effettueremo dei test per valutare le varie tecniche di migrazione messe a disposizione da OpenStack, le loro caratteristiche e le loro prestazioni. Nel primo capitolo introduciamo i concetti base del cloud e delle tecnologie a cui esso è strettamente legato. In particolare definiremo i concetti di Infrastructure as a Service (IaaS) e di virtualizzazione che riguardano nello specifico il nostro caso di studio. Nel secondo capitolo viene descritto nel dettaglio OpenStack e i vari moduli di cui esso è composto. Nel terzo capitolo vengono descritte le varie tipologie di migrazione disponibili in OpenStack in tutte le loro fasi e vengono anticipate alcune considerazioni sui vantaggi e svantaggi che la scelta di una determinata tipologia di migrazione porta. Nel quarto e quinto capitolo vengono descritti rispettivamente l’infrastruttura utilizzata, il processo per crearla e i test a cui è stata sottoposta l’infrastruttura. Nel sesto capitolo vengono analizzati i risultati dei test da cui dedurre un quadro più completo sul comportamento e l’applicabilità delle varie migrazioni nei diversi scenari. Infine viene presentato nell'ultimo capitolo il sunto dei risultati dei test effettuati insieme ai possibili sviluppi futuri
Resumo:
Nel corso della sua storia, l’uomo ha sempre cercato nuovi modi per superare i suoi limiti naturali di osservazione e di percezione visiva. Il Telerilevamento (TLR) può essere considerato una tappa di questo cammino verso una visione più completa e complessiva dell’ambiente in cui vive. Sfruttando le conoscenze dei fenomeni d’interazione tra la radiazione elettromagnetica e i corpi naturali, il TRL permette di avere informazioni accurate sullo stato fisico di un corpo a partire dalla misura della radiazione emessa dalla sua superficie. Nel caso specifico del telerilevamento satellitare, l'osservazione su un'ampia scala spaziale permette di ottenere informazioni estremamente dettagliate su vaste aree geografiche e su parametri atmosferici di notevole interesse meteorologico come le precipitazioni. Le precipitazioni infatti rappresentano uno dei parametri meteorologici di maggiore importanza per la sua diretta interazione col sistema climatico planetario e le attività antropiche. La comprensione e la previsione del tempo e del clima richiede dei buoni dati relativi alle precipitazioni ed è proprio qui che entrano in gioco le microonde che, lavorando su ampie lunghezze d’onda, sono in grado di fare un sondaggio della parte interna della nube. Tutto ciò è possibile, in particolare, grazie all'uso di piattaforme (come aerei o satelliti) che consentono di riprendere a distanza più o meno ravvicinata il territorio, e di sensori che ne scrutano le caratteristiche e le condizioni.
Resumo:
L'identificazione di un blazar è molto difficile, questo è un oggetto molto particolare e che ha un'attività molto ricca. Nella pratica l'identificazione di un blazar avviene confrontando la sua emissione in banda radio con la sua emissione in banda gamma, che sono entrambe proprie dei blazar. Il problema è che non si dispone di un telescopio in grado di rivelare con estrema precisione entrambe le bande, quindi si procede utilizzando i dati radio provenienti da un dato radiotelescopio e i dati in banda gamma provenienti da un altro telescopio. Quando le emissioni nelle due bande presentano, ad esempio, una variabilità simultanea, l'identificazione è certa. Ma questa minoranza di casi non è molto frequente e quindi spesso si procede con un'analisi probabilistica basata sulle posizioni delle sorgenti. Il lancio di Fermi nel 2008 ha portato ad un fortissimo aumento del numero di sorgenti gamma note e, fra queste, la maggior parte sono blazar. Una significativa frazione di queste sorgenti Fermi (circa il 30%) rimane non identificata. In questo lavoro vengono inizialmente caratterizzate le proprietà radio dei blazar e in particolare dei blazar gamma noti finora. In seguito verrà approfondita l'analisi delle sorgenti Fermi non identificate per stabilire una possibile compatibilità con le proprietà dei blazar e quindi per cercare di capire se queste sorgenti possano essere a loro volta dei blazar non ancora riconosciuti.
Resumo:
La tesi da me realizzata si può riassumere in due fasi: lo studio delle normative Europee che regolamentano la produzione di piastrelle di ceramica; le verifiche del rispetto di tali normative in laboratorio (Centro Ceramico Bologna) sulle piastrelle di ceramica che richiedevano la certificazione di qualità. Ho avuto la possibilità di collaborare con il Centro Ceramico di Bologna per osservare da vicino le procedure effettuate per testare le piastrelle di ceramica. Lo studio della certificazione di quailtà ha richiesto un approfondimento sul concetto della qualità, del processo di qualità e dei fattori che influenzano la progettazione dei prodotti (normative ed esigenze del consumatore).
Resumo:
Uno degli aspetti più influenti sulla qualità chimica e biologica dell’acqua di laghi e invasi, caratteristico del bacino di Ridracoli, è rappresentato dalla stratificazione termica, un processo di formazione di volumi d’acqua a diversa densità che può verificarsi allorquando, in alcune circostanze e, nello specifico, durante la stagione estiva, si instauri una condizione stabile in cui l’acqua riscaldata dalla radiazione solare sovrasta quella più fredda e densa del fondo. Una delle conseguenze di tali variazioni termiche è che esse inducono cambiamenti nei livelli di ossigeno disciolto, favorendo l’instaurarsi di processi di degradazione anaerobica della materia organica e determinando la formazione di un chimismo ostile per l’attività biologica. I cicli stagionali, redox-dipendenti, di Ferro e Manganese tra la colonna d’acqua e i sedimenti sono caratteristici di questi ambienti ed una loro risospensione in forma disciolta è stato rilevato nell’ipolimnio dell’invaso di Ridracoli, stagionalmente anossico. Questo studio, collocato all’interno di un ampio progetto finanziato da Romagna Acque Società delle Fonti S.p.A. con la Facoltà di Scienze Ambientali – Campus di Ravenna ed il CNR-ISMAR, si è posto come obiettivo l’individuazione dei fattori che controllano la distribuzione e la mobilità degli elementi chimici all’interno del sistema acqua-sedimento dell’invaso di Ridracoli ed è articolato in tre diverse fasi: • Indagine della composizione chimica del sedimento; • Analisi ed interpretazione della composizione chimica delle acque interstiziali • Stima del flussi attraverso l’interfaccia acqua-sedimento mediante l’utilizzo di una camera bentica e l’applicazione della prima legge di Fick sulla diffusione. Al termine del lavoro è stato possibile ricostruire un quadro diagenetico generale contraddistinto da una deplezione degli accettori di elettroni principali (O2 e NO3-) entro i primi millimetri di sedimento, da un consumo immediato di SO42- e da una graduale riduzione degli ossidi di Mn (IV) e Fe (III), con formazione di gradienti negativi ed il rilascio di sostanze disciolte nella colonna d’acqua.
Resumo:
Un analisi delle problematiche sulla sicurezza e sulla privacy riguardante l'IoT suddivisa nei Layer dei quali si compone, dai piccoli sensori ai fornitori di servizi nel Cloud. In coda anche una breve trattazione delle emergenti questioni etiche e sociali.
Resumo:
Il presente elaborato analizza la figura della fangirl geek e del linguaggio tipico della nerd culture attraverso la traduzione di un estratto del libro "The Fangirl's Guide to the Galaxy" di Sam Maggs. In particolare, l'autrice ha tentato di contestualizzare certi termini nati su Internet per un pubblico italiano e approfondire il fenomeno delle fangirl, spesso vittime di stereotipi. Nei due capitoli che compongono l’elaborato si è voluto dare spazio all'analisi etimologica del termine fangirl, all'approfondimento in ottica femminista dell’evoluzione moderna di questa categoria e all'impatto che la nerd culture ha nel mondo di oggi. Il secondo capitolo analizza la traduzione di una parte del Capitolo 4 dedicato al femminismo geek. L'analisi traduttiva si concentra sulla resa dello humor e di uno slang ormai consolidato e conosciuto in inglese.
Resumo:
L’energia è uno dei più importanti fattori dello sviluppo di ogni attività sociale ed economica. La carenza o addirittura l’assenza di risorse energetiche nazionali non può che incidere negativamente sullo sviluppo di un Paese. La disponibilità, in particolare, di fonti energetiche fossili da valorizzare accortamente influisce positivamente sulle possibilità di sviluppo socio-economico, industriale ed occupazionale di un Paese e quindi sul benessere sociale, oltre a costituire valida alternativa alla loro importazione con ovvi benefici sulla riduzione o addirittura azzeramento della dipendenza da altri Paesi produttori e quindi sulla bilancia dei pagamenti. A causa delle ridotte potenzialità giacimentologiche, tali che la produzione di idrocarburi liquidi e gassosi si attesti attualmente su valori inferiori al 10% rispetto al fabbisogno energetico, l’Italia è altamente dipendente dall’importazione di combustibili fossili e ha quindi evidente necessità di utilizzare appieno le riserve nazionali di idrocarburi oltre che di incrementare la fase di ricerca nell’ottica di scoperta di nuovi giacimenti che possono reintegrare le riserve prodotte. Gli idrocarburi esistenti nel sottosuolo marino nazionale costituiscono una risorsa che contribuisce apprezzabilmente alla sicurezza energetica del Paese, poiché gran parte della percentuale di produzione nazionale deriva da quanto prodotto nell’offshore italiano. L’industria italiana degli idrocarburi ha avuto da sempre particolare attenzione alla ricerca tecnologica, alla capacità tecnico-professionale, alla cultura mineraria nelle sue diverse diramazioni disciplinari, adottando metodologie operative improntate al rigoroso rispetto della normativa nazionale di settore che si colloca tra le più rigide in campo internazionale, sia per quanto riguarda la sicurezza delle operazioni e degli addetti ai lavori sia la tutela ambientale.
Resumo:
La prima parte dell’elaborato ripercorre la storia dell’introduzione delle tecnologie all’interno delle istituzioni scolastiche, sia dal punto di vista pratico, sia dal punto di vista legislativo, che ha accompagnato questo ingresso tutt’altro che lineare, a partire dagli anni ’80 fino ai giorni nostri grazie alle ultime introduzioni avvenute con la messa in atto del Piano Nazionale Scuola Digitale. Vengono poi descritti alcuni software utilizzati nelle scuole sia in passato che in tempi più recenti per arrivare agli ultimi sviluppi e agli applicativi online per lo studio della matematica. Infine nell’ultimo capitolo è descritta un’unità didattica riguardante lo studio della probabilità, ideata per gli allievi di una scuola secondaria di secondo grado che utilizza la LIM e alcuni software adeguati all’argomento proposto. Quello che emerge, però, è la difficoltà sia nella diffusione delle tecnologie nella scuola, sia nel loro utilizzo da parte dei docenti. Spesso gli insegnanti non hanno un livello adeguato di formazione in ambito tecnologico e quindi non sono in grado di sfruttare pienamente le potenzialità offerte. Il cammino per arrivare ad una completa formazione del personale docente e per la completa digitalizzazione delle scuole è ancora lungo e tortuoso. Tuttavia è importante ricordare che le tecnologie non possono essere la risposta a tutto, bensì un efficace mezzo per attirare l’attenzione e soprattutto stimolare la fantasia di alunni e docenti. Inoltre non si può pensare alcuna tecnologizzazione senza prima aver posto e consolidato le basi di un qualsivoglia argomento da proporre in classe con l’ausilio di software e hardware.
Resumo:
L'elaborato si propone di analizzare il comportamento degli utenti nell'utilizzo di editor collaborativi per documenti di testo. La soluzione proposta è chiamata UICEM, uno strumento che include una versione modificata di Etherpad Lite per monitorare e memorizzare le azioni svolte dagli utenti, le quali poi vengono recuperate, analizzate e aggregate.
Resumo:
Negli ultimi anni, l'avanzamento incredibilmente rapido della tecnologia ha portato allo sviluppo e alla diffusione di dispositivi elettronici portatili aventi dimensioni estremamente ridotte e, allo stesso tempo, capacità computazionali molto notevoli. Più nello specifico, una particolare categoria di dispositivi, attualmente in forte sviluppo, che ha già fatto la propria comparsa sul mercato mondiale è sicuramente la categoria dei dispositivi Wearable. Come suggerisce il nome, questi sono progettati per essere letteralmente indossati, pensati per fornire continuo supporto, in diversi ambiti, a chi li utilizza. Se per interagire con essi l’utente non deve ricorrere obbligatoriamente all'utilizzo delle mani, allora si parla di dispositivi Wearable Hands Free. Questi sono generalmente in grado di percepire e catture l’input dell'utente seguendo tecniche e metodologie diverse, non basate sul tatto. Una di queste è sicuramente quella che prevede di modellare l’input dell’utente stesso attraverso la sua voce, appoggiandosi alla disciplina dell’ASR (Automatic Speech Recognition), che si occupa della traduzione del linguaggio parlato in testo, mediante l’utilizzo di dispositivi computerizzati. Si giunge quindi all’obiettivo della tesi, che è quello di sviluppare un framework, utilizzabile nell’ambito dei dispositivi Wearable, che fornisca un servizio di riconoscimento vocale appoggiandosi ad uno già esistente, in modo che presenti un certo livello di efficienza e facilità di utilizzo. Più in generale, in questo documento si punta a fornire una descrizione approfondita di quelli che sono i dispositivi Wearable e Wearable Hands-Free, definendone caratteristiche, criticità e ambiti di utilizzo. Inoltre, l’intento è quello di illustrare i principi di funzionamento dell’Automatic Speech Recognition per passare poi ad analisi, progettazione e sviluppo del framework appena citato.