163 resultados para Reale Accademia virgiliana di scienze, lettere ed arti.
Resumo:
Principale obiettivo della ricerca è quello di ricostruire lo stato dell’arte in materia di sanità elettronica e Fascicolo Sanitario Elettronico, con una precipua attenzione ai temi della protezione dei dati personali e dell’interoperabilità. A tal fine sono stati esaminati i documenti, vincolanti e non, dell’Unione europea nonché selezionati progetti europei e nazionali (come “Smart Open Services for European Patients” (EU); “Elektronische Gesundheitsakte” (Austria); “MedCom” (Danimarca); “Infrastruttura tecnologica del Fascicolo Sanitario Elettronico”, “OpenInFSE: Realizzazione di un’infrastruttura operativa a supporto dell’interoperabilità delle soluzioni territoriali di fascicolo sanitario elettronico nel contesto del sistema pubblico di connettività”, “Evoluzione e interoperabilità tecnologica del Fascicolo Sanitario Elettronico”, “IPSE - Sperimentazione di un sistema per l’interoperabilità europea e nazionale delle soluzioni di Fascicolo Sanitario Elettronico: componenti Patient Summary e ePrescription” (Italia)). Le analisi giuridiche e tecniche mostrano il bisogno urgente di definire modelli che incoraggino l’utilizzo di dati sanitari ed implementino strategie effettive per l’utilizzo con finalità secondarie di dati sanitari digitali , come Open Data e Linked Open Data. L’armonizzazione giuridica e tecnologica è vista come aspetto strategico per ridurre i conflitti in materia di protezione di dati personali esistenti nei Paesi membri nonché la mancanza di interoperabilità tra i sistemi informativi europei sui Fascicoli Sanitari Elettronici. A questo scopo sono state individuate tre linee guida: (1) armonizzazione normativa, (2) armonizzazione delle regole, (3) armonizzazione del design dei sistemi informativi. I principi della Privacy by Design (“prottivi” e “win-win”), così come gli standard del Semantic Web, sono considerate chiavi risolutive per il suddetto cambiamento.
Resumo:
A 7 anni dall’avvio dell’ attuazione della Politica di Coesione dell’Unione Europea 2007- 2013, l’Italia ha il tasso di assorbimento dei Fondi Strutturali più basso d’Europa, insieme alla Romania, e rischia di subire un disimpegno delle risorse, che rappresenterebbe un gravissimo fallimento economico e politico. Il contributo di questo lavoro al dibattito sull’uso dei Fondi strutturali in Italia è duplice. Da una parte, per la prima volta, si propone uno studio sistematico delle criticità nella gestione del periodo 2007-2013, che hanno causato l’attuale ritardo nella spesa. Dall’altra, si affronta il problema italiano sia da una prospettiva europea sia nella sua dimensione nazionale, indagando le differenze regionali nella performance di spesa e proponendo un’analisi basata su tre dimensioni principali delle criticità: finanziaria, politica, amministrativa. L’approccio della ricerca consiste nella convergenza di dati quantitativi e qualitativi, raccolti durante un periodo di ricerca a Bruxelles e presso le Autorità di Gestione dei Programmi Operativi cofinanziati dal FESR. La questione dell’assorbimento finanziario e del ritardo nell’attuazione è stata indagata da tre punti di vista. Una prospettiva “storica”, che ha raccontato il ritardo strutturale nell’utilizzo dei Fondi Strutturali in Italia e che ha chiarito come il problema italiano, prima dell’attuale ciclo 2007-2013, sia stato non di quantità, ma di qualità della spesa. La seconda prospettiva è stata di respiro europeo, ed è servita a indagare le cause del basso livello di assorbimento finanziario dell’Italia suggerendo alcuni elementi utili a comprendere le ragioni di un simile divario con gli altri Paesi. Infine, la prospettiva nazionale e regionale ha svelato l’esistenza di un mix complesso, e micidiale, che ha letteralmente paralizzato la spesa italiana dei Fondi. Un mix di fattori finanziari, politici e amministrativi che non ha avuto eguali negli altri Paesi, e che si è concentrato soprattutto, ma non esclusivamente, nelle regioni dell’Obiettivo Convergenza.
Resumo:
The uncertainties in the determination of the stratigraphic profile of natural soils is one of the main problems in geotechnics, in particular for landslide characterization and modeling. The study deals with a new approach in geotechnical modeling which relays on a stochastic generation of different soil layers distributions, following a boolean logic – the method has been thus called BoSG (Boolean Stochastic Generation). In this way, it is possible to randomize the presence of a specific material interdigitated in a uniform matrix. In the building of a geotechnical model it is generally common to discard some stratigraphic data in order to simplify the model itself, assuming that the significance of the results of the modeling procedure would not be affected. With the proposed technique it is possible to quantify the error associated with this simplification. Moreover, it could be used to determine the most significant zones where eventual further investigations and surveys would be more effective to build the geotechnical model of the slope. The commercial software FLAC was used for the 2D and 3D geotechnical model. The distribution of the materials was randomized through a specifically coded MatLab program that automatically generates text files, each of them representing a specific soil configuration. Besides, a routine was designed to automate the computation of FLAC with the different data files in order to maximize the sample number. The methodology is applied with reference to a simplified slope in 2D, a simplified slope in 3D and an actual landslide, namely the Mortisa mudslide (Cortina d’Ampezzo, BL, Italy). However, it could be extended to numerous different cases, especially for hydrogeological analysis and landslide stability assessment, in different geological and geomorphological contexts.
Resumo:
I Comuni incarnano idealmente delle piazze in cui il dibattito politico può svilupparsi in assenza di particolari filtri ed intermediazioni, con un rapporto diretto tra cittadini ed istituzioni. Essi costituiscono uno snodo di centrale importanza nell'esercizio della sovranità popolare e, al contempo, sono terreno fertile per la sperimentazione di modelli di partecipazione democratica. Prendendo come punto di vista l'esperienza dei Comuni italiani, si è scelto di focalizzare l'attenzione su uno degli strumenti “istituzionali” – nonché uno tra i più tradizionali – di partecipazione popolare, ovvero il referendum, nelle diverse forme ed accezioni che rientrano nel campo semantico di tale espressione. Questa è generalmente impiegata per indicare tutte quelle votazioni popolari non elettive su questioni politicamente rilevanti, formulate attraverso un quesito con due o più risposte alternative tra loro. L'analisi della disciplina legislativa degli istituti di partecipazione negli enti locali e lo studio delle disposizioni statutarie e regolamentari previste dai singoli Comuni, nonché le informazioni raccolte da alcuni casi di studio, rappresentano, in questo contesto, l'occasione per indagare le caratteristiche peculiari dell'istituto referendario, la sua effettività ed il suo impatto sulla forma di governo. In particolare, si è verificata positivamente la compatibilità del referendum, classificato dalla prevalente dottrina come istituto di democrazia diretta, con le forme attuali di democrazia rappresentativa. Si è tentato, altresì, un accostamento ai concetti di democrazia partecipativa e deliberativa, evidenziando come manchi del tutto, nel procedimento referendario (che pure è dotato di massima inclusività) un momento di confronto “deliberativo”. Il raffronto tra le esperienze riscontrate nei diversi Comuni ha consentito, inoltre, di ricercare le cause di alcuni aspetti critici (scarsa affluenza, mancata trasformazione del voto in decisioni politiche, aumento del conflitto) e, al contempo, di individuarne possibili soluzioni, tracciate sulla scorta delle migliori pratiche rilevate.
Resumo:
Il lavoro di ricerca è rivolto ad indagare l’emersione di schemi di variazione comuni all’arte e al design, limitatamente al contesto italiano e in un arco di tempo che va dalla metà degli anni Sessanta del secolo scorso a oggi. L’analisi vuole rintracciare, mediante l’applicazione della metodologia fenomenologica, un sentire condiviso tra le due discipline e, nel pieno rispetto dei relativi linguaggi e con nessuna volontà di sudditanza degli uni rispetto agli altri, individuare i rapporti di corrispondenza omologica capaci di mettere in luce lo spirito del tempo che le ha generate. La ricerca si pone l’obiettivo di estendere gli studi sul contemporaneo attraverso un’impostazione che intende applicare gli strumenti metodologici della critica d’arte all’evoluzione stilistica delle tendenze del design italiano. Non si è voluto redigere una “storia” del design italiano ma, considerata anche l’ampiezza dell’argomento, si è necessariamente proceduto a delimitare il territorio di applicazione scegliendo di prendere in considerazione il solo settore del design dell’arredo. Si è dunque optato per una visione globale delle vicende del design del prodotto, tesa ad indagare gli snodi principali, concentrando pertanto l’analisi su alcuni protagonisti della cultura del progetto, ossia su quelle figure risultate dominanti nel proprio tempo perché capaci con il loro lavoro di dare un contribuito determinante alla comprensione delle fasi evolutive del design italiano. Gli strumenti utili a condurre l’analisi provengono principalmente dalla metodologia binaria individuata dallo storico dell’arte Heinrich Wölfflin e dagli studi di Renato Barilli, il cui impianto culturologico ha fornito un indispensabile contributo al processo di sistematizzazione dei meccanismi di variazione interni alle arti; sia quelli di tipo orizzontale, di convergenza reciproca con gli altri saperi, che di tipo verticale, in rapporto cioè con le scoperte scientifiche e tecnologiche della coeva cultura materiale.
Resumo:
L’approccio chirurgico agli adenomi ipofisari ACTH secernenti è la terapia d’elezione nell’uomo. L’ipofisectomia transfenoidale è invece una tecnica poco diffusa in ambito veterinario. La terapia più diffusa nel cane con ipercortisolismo ipofisi dipendente (PDH) è di tipo medico e prevede la somministrazione di farmaci inibitori della sintesi del cortisolo. Gli adenomi ipofisari possono aumentare di volume e determinare una conseguente sintomatologia neurologica; in questi casi le uniche opzioni terapeutiche sono rappresentate dall’asportazione chirurgica della neoplasia e dalla radioterapia. Nella presente tesi vengono descritti 8 interventi di ipofisectomia transfenoidale effettuati su 7 cani con macroadenoma ipofisario presso il Dipartimento di Scienze Mediche Veterinarie dell’Università di Bologna. La difficoltà maggiore per il chirurgo è rappresentata dalla localizzazione della fossa ipofisaria rispetto ai punti di repere visibile in tomografia computerizzata o in risonanza magnetica nucleare, oltre ai problemi di sanguinamento durante la rimozione della neoplasia. Nel periodo post-operatorio maggiori complicazioni si riscontrano in soggetti con adenomi ipofisari di maggiori dimensioni. Al contrario, in presenza di adenomi di dimensioni più contenute, la ripresa post-operatoria risulta più rapida e il tasso di successo maggiore. Al fine di poter eseguire nel cane l’exeresi mirata della sola neoplasia ipofisaria, al pari di quanto avviene nell’uomo, è stato condotto uno studio sulla tomografia computerizzata (TC) in 86 cani con PDH. Il protocollo TC non ha tuttavia permesso di individuare con precisione la posizione della neoplasia per guidare il chirurgo nella sua rimozione. In due casi riportati nel presente lavoro si è verificata una recidiva della neoplasia ipofisaria. In un soggetto si è optato per il reintervento, mentre nell’altro caso per la radioterapia. Entrambe le opzioni hanno garantito una buona qualità di vita per più di un anno dall’intervento terapeutico. Questi casi clinici dimostrano come il reintervento e la radioterapia possano essere considerate valide opzioni in caso di recidiva.
Resumo:
Introduzione: La sindrome delle gambe senza riposo (RLS) è un disturbo caratterizzato da sensazione spiacevole disestesica generalmente agli arti inferiori, che si presenta o peggiora nelle ore serali-notturne e che migliora con il movimento. Studi clinici hanno mostrato una maggiore prevalenza di RLS negli emicranici, mentre mancano studi condotti su popolazione generale non selezionata. Lo scopo di questo studio era quello di valutare la associazione tra emicrania e RLS in una popolazione italiana adulta. Inoltre è stata valutata l’associazione tra RLS e cefalea fenotipizzata attraverso metodica di principal components analysis (PCA). Materiali e metodi: la presenza di RLS e di emicrania è stata determinata attraverso questionari basati sui criteri diagnostici correnti in un campione di 1567 partecipanti di un fase preliminare di uno studio in corso sulla popolazione adulta della Val Venosta (BZ). Risultati: gli emicranici hanno presentato un significativo maggior rischio di soffrire di RLS rispetto ai non emicranici, anche dopo aggiustamento per fattori confondenti come età, sesso, depressione, ansia e qualità del sonno (p = 0.049). Questa associazione non era modificata dalla presenza di aura emicranica, di cause possibili di RLS secondaria e dalla frequenza di attacchi emicranici. Inoltre la RLS non era risultata significativamente associata alla cefalea di tipo tensivo (TTH). Dall’analisi di associazione tra RLS e cefalea fenotipizzata attraverso PCA era emerso che la componente 1, caratterizzata da sintomi di sensitivizzazione del sistema nervoso centrale (SNC), correlava significativamente con la presenza di RLS (p = 0.021). Conclusioni: RLS ed emicrania sono risultate associate nel nostro campione di popolazione adulta; inoltre la RLS ha mostrato una correlazione significativa con i sintomi di sensitivizzazione del SNC legati agli attacchi di cefalea. Questa associazione potrebbe risiedere in una possibile base patogenetica comune.
Resumo:
Il lavoro è incentrato sull’applicazione ed integrazione di differenti tecniche di indagine geofisica in campo ambientale e ingegneristico/archeologico. Alcuni esempi sono stati descritti al fine di dimostrare l’utilità delle metodologie geofisiche nella risoluzione di svariate problematiche. Nello specifico l’attenzione è stata rivolta all’utilizzo delle tecniche del Ground Penetrating Radar e del Time Domain Reflectometry in misure condotte su un corpo sabbioso simulante una Zona Insatura. L’esperimento è stato realizzato all’interno di un’area test costruita presso l’azienda agricola dell’Università La Tuscia di Viterbo. Hanno partecipato al progetto le Università di Roma Tre, Roma La Sapienza, La Tuscia, con il supporto tecnico della Sensore&Software. Nello studio è stato condotto un approccio definito idrogeofisico al fine di ottenere informazioni da misure dei parametri fisici relativi alla Zona Insatura simulata nell’area test. Il confronto e l’integrazione delle due differenti tecniche di indagine ha offerto la possibilità di estendere la profondità di indagine all’interno del corpo sabbioso e di verificare l’utilità della tecnica GPR nello studio degli effetti legati alle variazioni del contenuto d’acqua nel suolo, oltre a determinare la posizione della superficie piezometrica per i differenti scenari di saturazione. Uno specifico studio è stato realizzato sul segnale radar al fine di stabilire i fattori di influenza sulla sua propagazione all’interno del suolo. Il comportamento dei parametri dielettrici nelle condizioni di drenaggio e di imbibizione del corpo sabbioso è stato riprodotto attraverso una modellizzazione delle proprietà dielettriche ed idrologiche sulla base della dimensione, forma e distribuzione dei granuli di roccia e pori, nonché sulla base della storia relativa alla distribuzione dei fluidi di saturazione all’interno del mezzo. La modellizzazione è stata operata sulle basi concettuali del Differential Effective Medium Approximation.
Resumo:
L’uso frequente dei modelli predittivi per l’analisi di sistemi complessi, naturali o artificiali, sta cambiando il tradizionale approccio alle problematiche ambientali e di rischio. Il continuo miglioramento delle capacità di elaborazione dei computer facilita l’utilizzo e la risoluzione di metodi numerici basati su una discretizzazione spazio-temporale che permette una modellizzazione predittiva di sistemi reali complessi, riproducendo l’evoluzione dei loro patterns spaziali ed calcolando il grado di precisione della simulazione. In questa tesi presentiamo una applicazione di differenti metodi predittivi (Geomatico, Reti Neurali, Land Cover Modeler e Dinamica EGO) in un’area test del Petén, Guatemala. Durante gli ultimi decenni questa regione, inclusa nella Riserva di Biosfera Maya, ha conosciuto una rapida crescita demografica ed un’incontrollata pressione sulle sue risorse naturali. L’area test puó essere suddivisa in sotto-regioni caratterizzate da differenti dinamiche di uso del suolo. Comprendere e quantificare queste differenze permette una migliore approssimazione del sistema reale; é inoltre necessario integrare tutti i parametri fisici e socio-economici, per una rappresentazione più completa della complessità dell’impatto antropico. Data l’assenza di informazioni dettagliate sull’area di studio, quasi tutti i dati sono stati ricavati dall’elaborazione di 11 immagini ETM+, TM e SPOT; abbiamo poi realizzato un’analisi multitemporale dei cambi uso del suolo passati e costruito l’input per alimentare i modelli predittivi. I dati del 1998 e 2000 sono stati usati per la fase di calibrazione per simulare i cambiamenti nella copertura terrestre del 2003, scelta come data di riferimento per la validazione dei risultati. Quest’ultima permette di evidenziare le qualità ed i limiti per ogni modello nelle differenti sub-regioni.