921 resultados para Reale Accademia virgiliana di scienze, lettere ed arti.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Principale obiettivo della ricerca è quello di ricostruire lo stato dell’arte in materia di sanità elettronica e Fascicolo Sanitario Elettronico, con una precipua attenzione ai temi della protezione dei dati personali e dell’interoperabilità. A tal fine sono stati esaminati i documenti, vincolanti e non, dell’Unione europea nonché selezionati progetti europei e nazionali (come “Smart Open Services for European Patients” (EU); “Elektronische Gesundheitsakte” (Austria); “MedCom” (Danimarca); “Infrastruttura tecnologica del Fascicolo Sanitario Elettronico”, “OpenInFSE: Realizzazione di un’infrastruttura operativa a supporto dell’interoperabilità delle soluzioni territoriali di fascicolo sanitario elettronico nel contesto del sistema pubblico di connettività”, “Evoluzione e interoperabilità tecnologica del Fascicolo Sanitario Elettronico”, “IPSE - Sperimentazione di un sistema per l’interoperabilità europea e nazionale delle soluzioni di Fascicolo Sanitario Elettronico: componenti Patient Summary e ePrescription” (Italia)). Le analisi giuridiche e tecniche mostrano il bisogno urgente di definire modelli che incoraggino l’utilizzo di dati sanitari ed implementino strategie effettive per l’utilizzo con finalità secondarie di dati sanitari digitali , come Open Data e Linked Open Data. L’armonizzazione giuridica e tecnologica è vista come aspetto strategico per ridurre i conflitti in materia di protezione di dati personali esistenti nei Paesi membri nonché la mancanza di interoperabilità tra i sistemi informativi europei sui Fascicoli Sanitari Elettronici. A questo scopo sono state individuate tre linee guida: (1) armonizzazione normativa, (2) armonizzazione delle regole, (3) armonizzazione del design dei sistemi informativi. I principi della Privacy by Design (“prottivi” e “win-win”), così come gli standard del Semantic Web, sono considerate chiavi risolutive per il suddetto cambiamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A 7 anni dall’avvio dell’ attuazione della Politica di Coesione dell’Unione Europea 2007- 2013, l’Italia ha il tasso di assorbimento dei Fondi Strutturali più basso d’Europa, insieme alla Romania, e rischia di subire un disimpegno delle risorse, che rappresenterebbe un gravissimo fallimento economico e politico. Il contributo di questo lavoro al dibattito sull’uso dei Fondi strutturali in Italia è duplice. Da una parte, per la prima volta, si propone uno studio sistematico delle criticità nella gestione del periodo 2007-2013, che hanno causato l’attuale ritardo nella spesa. Dall’altra, si affronta il problema italiano sia da una prospettiva europea sia nella sua dimensione nazionale, indagando le differenze regionali nella performance di spesa e proponendo un’analisi basata su tre dimensioni principali delle criticità: finanziaria, politica, amministrativa. L’approccio della ricerca consiste nella convergenza di dati quantitativi e qualitativi, raccolti durante un periodo di ricerca a Bruxelles e presso le Autorità di Gestione dei Programmi Operativi cofinanziati dal FESR. La questione dell’assorbimento finanziario e del ritardo nell’attuazione è stata indagata da tre punti di vista. Una prospettiva “storica”, che ha raccontato il ritardo strutturale nell’utilizzo dei Fondi Strutturali in Italia e che ha chiarito come il problema italiano, prima dell’attuale ciclo 2007-2013, sia stato non di quantità, ma di qualità della spesa. La seconda prospettiva è stata di respiro europeo, ed è servita a indagare le cause del basso livello di assorbimento finanziario dell’Italia suggerendo alcuni elementi utili a comprendere le ragioni di un simile divario con gli altri Paesi. Infine, la prospettiva nazionale e regionale ha svelato l’esistenza di un mix complesso, e micidiale, che ha letteralmente paralizzato la spesa italiana dei Fondi. Un mix di fattori finanziari, politici e amministrativi che non ha avuto eguali negli altri Paesi, e che si è concentrato soprattutto, ma non esclusivamente, nelle regioni dell’Obiettivo Convergenza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The uncertainties in the determination of the stratigraphic profile of natural soils is one of the main problems in geotechnics, in particular for landslide characterization and modeling. The study deals with a new approach in geotechnical modeling which relays on a stochastic generation of different soil layers distributions, following a boolean logic – the method has been thus called BoSG (Boolean Stochastic Generation). In this way, it is possible to randomize the presence of a specific material interdigitated in a uniform matrix. In the building of a geotechnical model it is generally common to discard some stratigraphic data in order to simplify the model itself, assuming that the significance of the results of the modeling procedure would not be affected. With the proposed technique it is possible to quantify the error associated with this simplification. Moreover, it could be used to determine the most significant zones where eventual further investigations and surveys would be more effective to build the geotechnical model of the slope. The commercial software FLAC was used for the 2D and 3D geotechnical model. The distribution of the materials was randomized through a specifically coded MatLab program that automatically generates text files, each of them representing a specific soil configuration. Besides, a routine was designed to automate the computation of FLAC with the different data files in order to maximize the sample number. The methodology is applied with reference to a simplified slope in 2D, a simplified slope in 3D and an actual landslide, namely the Mortisa mudslide (Cortina d’Ampezzo, BL, Italy). However, it could be extended to numerous different cases, especially for hydrogeological analysis and landslide stability assessment, in different geological and geomorphological contexts.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I Comuni incarnano idealmente delle piazze in cui il dibattito politico può svilupparsi in assenza di particolari filtri ed intermediazioni, con un rapporto diretto tra cittadini ed istituzioni. Essi costituiscono uno snodo di centrale importanza nell'esercizio della sovranità popolare e, al contempo, sono terreno fertile per la sperimentazione di modelli di partecipazione democratica. Prendendo come punto di vista l'esperienza dei Comuni italiani, si è scelto di focalizzare l'attenzione su uno degli strumenti “istituzionali” – nonché uno tra i più tradizionali – di partecipazione popolare, ovvero il referendum, nelle diverse forme ed accezioni che rientrano nel campo semantico di tale espressione. Questa è generalmente impiegata per indicare tutte quelle votazioni popolari non elettive su questioni politicamente rilevanti, formulate attraverso un quesito con due o più risposte alternative tra loro. L'analisi della disciplina legislativa degli istituti di partecipazione negli enti locali e lo studio delle disposizioni statutarie e regolamentari previste dai singoli Comuni, nonché le informazioni raccolte da alcuni casi di studio, rappresentano, in questo contesto, l'occasione per indagare le caratteristiche peculiari dell'istituto referendario, la sua effettività ed il suo impatto sulla forma di governo. In particolare, si è verificata positivamente la compatibilità del referendum, classificato dalla prevalente dottrina come istituto di democrazia diretta, con le forme attuali di democrazia rappresentativa. Si è tentato, altresì, un accostamento ai concetti di democrazia partecipativa e deliberativa, evidenziando come manchi del tutto, nel procedimento referendario (che pure è dotato di massima inclusività) un momento di confronto “deliberativo”. Il raffronto tra le esperienze riscontrate nei diversi Comuni ha consentito, inoltre, di ricercare le cause di alcuni aspetti critici (scarsa affluenza, mancata trasformazione del voto in decisioni politiche, aumento del conflitto) e, al contempo, di individuarne possibili soluzioni, tracciate sulla scorta delle migliori pratiche rilevate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di ricerca è rivolto ad indagare l’emersione di schemi di variazione comuni all’arte e al design, limitatamente al contesto italiano e in un arco di tempo che va dalla metà degli anni Sessanta del secolo scorso a oggi. L’analisi vuole rintracciare, mediante l’applicazione della metodologia fenomenologica, un sentire condiviso tra le due discipline e, nel pieno rispetto dei relativi linguaggi e con nessuna volontà di sudditanza degli uni rispetto agli altri, individuare i rapporti di corrispondenza omologica capaci di mettere in luce lo spirito del tempo che le ha generate. La ricerca si pone l’obiettivo di estendere gli studi sul contemporaneo attraverso un’impostazione che intende applicare gli strumenti metodologici della critica d’arte all’evoluzione stilistica delle tendenze del design italiano. Non si è voluto redigere una “storia” del design italiano ma, considerata anche l’ampiezza dell’argomento, si è necessariamente proceduto a delimitare il territorio di applicazione scegliendo di prendere in considerazione il solo settore del design dell’arredo. Si è dunque optato per una visione globale delle vicende del design del prodotto, tesa ad indagare gli snodi principali, concentrando pertanto l’analisi su alcuni protagonisti della cultura del progetto, ossia su quelle figure risultate dominanti nel proprio tempo perché capaci con il loro lavoro di dare un contribuito determinante alla comprensione delle fasi evolutive del design italiano. Gli strumenti utili a condurre l’analisi provengono principalmente dalla metodologia binaria individuata dallo storico dell’arte Heinrich Wölfflin e dagli studi di Renato Barilli, il cui impianto culturologico ha fornito un indispensabile contributo al processo di sistematizzazione dei meccanismi di variazione interni alle arti; sia quelli di tipo orizzontale, di convergenza reciproca con gli altri saperi, che di tipo verticale, in rapporto cioè con le scoperte scientifiche e tecnologiche della coeva cultura materiale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’approccio chirurgico agli adenomi ipofisari ACTH secernenti è la terapia d’elezione nell’uomo. L’ipofisectomia transfenoidale è invece una tecnica poco diffusa in ambito veterinario. La terapia più diffusa nel cane con ipercortisolismo ipofisi dipendente (PDH) è di tipo medico e prevede la somministrazione di farmaci inibitori della sintesi del cortisolo. Gli adenomi ipofisari possono aumentare di volume e determinare una conseguente sintomatologia neurologica; in questi casi le uniche opzioni terapeutiche sono rappresentate dall’asportazione chirurgica della neoplasia e dalla radioterapia. Nella presente tesi vengono descritti 8 interventi di ipofisectomia transfenoidale effettuati su 7 cani con macroadenoma ipofisario presso il Dipartimento di Scienze Mediche Veterinarie dell’Università di Bologna. La difficoltà maggiore per il chirurgo è rappresentata dalla localizzazione della fossa ipofisaria rispetto ai punti di repere visibile in tomografia computerizzata o in risonanza magnetica nucleare, oltre ai problemi di sanguinamento durante la rimozione della neoplasia. Nel periodo post-operatorio maggiori complicazioni si riscontrano in soggetti con adenomi ipofisari di maggiori dimensioni. Al contrario, in presenza di adenomi di dimensioni più contenute, la ripresa post-operatoria risulta più rapida e il tasso di successo maggiore. Al fine di poter eseguire nel cane l’exeresi mirata della sola neoplasia ipofisaria, al pari di quanto avviene nell’uomo, è stato condotto uno studio sulla tomografia computerizzata (TC) in 86 cani con PDH. Il protocollo TC non ha tuttavia permesso di individuare con precisione la posizione della neoplasia per guidare il chirurgo nella sua rimozione. In due casi riportati nel presente lavoro si è verificata una recidiva della neoplasia ipofisaria. In un soggetto si è optato per il reintervento, mentre nell’altro caso per la radioterapia. Entrambe le opzioni hanno garantito una buona qualità di vita per più di un anno dall’intervento terapeutico. Questi casi clinici dimostrano come il reintervento e la radioterapia possano essere considerate valide opzioni in caso di recidiva.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio dell'attività, dei flussi e delle procedure di un terminal container. Identificazione di problematiche e riprogettazione del gate-in del terminal. Integrazione di nuove tecnologie ed automazione. Valutazione tecnico economica del progetto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un sistema mobile di comunicazione è un sistema di telecomunicazioni in cui è possibile mantenere la connessione o legame tra due o più utenti, anche nelle situazioni di mobilità totale o parziale degli stessi utenti. I sistemi radiomobili si stanno evolvendo dalla creazione del 1G (prima generazione) al 4G (quarta generazione). I telefoni di ogni generazione si differenziano in quattro aspetti principali : accesso radio, velocità di trasmissione dati, larghezza di banda e sistemi di commutazione. In questa tesi si affronta il tema dei sistemi 5G , negli ambienti terrestri e satellitari , in quanto sono l'ultima evoluzione dei sistemi mobili . Si introduce il passaggio dalla prima alla connessione di quarta generazione , al fine di capire perché 5G sta per cambiare la nostra vita . Quello che mi colpisce è il sito italiano www.Repubblica.it che dice : " con la nuova generazione 5 possiamo affidare le intere porzioni nette di vita". La tecnologia cellulare , infatti , ha cambiato radicalmente la nostra società e il nostro modo di comunicare . In primo luogo è cambiata la telefonia vocale , per poi trasferirsi all' accesso dati , applicazioni e servizi. Tuttavia , Internet non è stato ancora pienamente sfruttato dai sistemi cellulari. Con l'avvento del 5G avremo l'opportunità di scavalcare le capacità attuali di Internet . Il sistema di comunicazione di quinta generazione è visto come la rete wireless reale , in grado di supportare applicazioni web wireless a livello mondiale ( wwww ). Ci sono due punti di vista dei sistemi 5G : evolutivo e rivoluzionario. Dal punto di vista evolutivo, i sistemi 5G saranno in grado di supportare wwww permettendo una rete altamente flessibile come un Adhoc rete wireless dinamica ( DAWN ) . In questa visione tecnologie avanzate, tra cui antenna intelligente e modulazione flessibile , sono le chiavi per ottimizzare le reti wireless ad hoc. Dal punto di vista rivoluzionario, i sistemi 5G dovrebbe essere una tecnologia intelligente in grado di interconnettere tutto il mondo senza limiti . Un esempio di applicazione potrebbe essere un robot wireless con intelligenza artificiale .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esposizione delle basi teoriche e delle tecniche di apprendimento in robotica, analisi del concetto di self-awareness ed esempi applicativi, concetti derivati quali continous self modelling e self-reflection, e casi di studio esemplificativi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Per far fronte alla necessità di sviluppo incrementale ed evolutivo dell'IT, è necessario un continuo rinnovamento del sistema aziendale. Negli ultimi anni, il progresso informatico è stato caratterizzato dall'espansione delle tecnologie Cloud, in grado di semplificare la complessità amministrativa delle aziende, aumentare la scalabilità dei sistemi e ridurre i costi di produzione. Nel corso di questo elaborato analizzerò nel dettaglio come il Cloud sia capace di rivoluzionare, in primis dal punto di vista amministrativo, ma non solo, i sistemi informatici moderni, valutando i molteplici benefici da esso generati e gli inevitabili trade-off che ne derivano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi si occupa dell’analisi delle caratteristiche costituenti un sistema informativo destinato alla gestione della logistica e della produzione di piccole realtà imprenditoriali e, successivamente, della definizione di una possibile struttura modulare dello stesso sistema. Il lavoro, frutto di una collaborazione (tirocinio formativo) presso una società di consulenza organizzativa e informatica, prende le mosse dallo studio di una serie di trattazioni riguardanti i seguenti temi: gestione delle scorte e della produzione, lean production, cambiamento organizzativo e reingegnerizzazione dei processi aziendali, sistemi informativi e informatici, rapporto tra piccole-medie imprese e tecnologie dell’informazione. Da un iniziale introduzione sulle tematiche legate alla gestione dell’informazione in ambito aziendale, si procede ad una descrizione dell’utilizzo delle informazioni, in particolare in riferimento alle tecniche di reingegnerizzazione dei processi aziendali. In seguito, viene analizzato il più ampio concetto delle tecnologie a supporto dell’informazione, e della loro relazione con le piccole e medie imprese italiane. Successivamente, si offre una panoramica dei metodi più utilizzati per la pianificazione e programmazione della produzione e per la gestione delle scorte, differenziandoli tra metodi a fabbisogno e metodi a ripristino. Infine, si procede alla presentazione di una configurazione originale di un sistema informativo gestionale, tramite descrizione approfondita dei moduli di base costituenti, anche attraverso l’ausilio di diagrammi esplicativi, ed il confronto tra il proprio metodo di programmazione materiali ed il più famoso metodo MRP (Material Requirements Planning), diffuso nella maggior parte dei software gestionali in commercio; quest’ultimi verranno confrontati con la soluzione presentata tramite mappa di posizionamento. In conclusione, vengono esposte le ragioni di possibile successo del sistema presentato, mettendo in evidenza l’ormai appurata imprescindibilità dei sistemi informativi gestionali, sottolineata dalla crescita costante della loro adozione da parte delle imprese italiane. In particolare, viene posto l’accento sul fatto che il bacino di mercato costituito dalle piccole imprese sia ancora in parte insoddisfatto. Sono proprio le piccole imprese, come verrà spiegato nel dettaglio, le beneficiarie del nuovo sistema progettato, grazie a determinate caratteristiche studiate ad hoc per questa cospicua fascia di mercato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il BIM (Building Information Modeling ) è un processo coordinato per agevolare l’integrazione delle informazioni pertinenti alle varie fasi di progettazione dell’opera edilizia. La rappresentazione digitale di un edificio, completa di tutte le sue parti ed informazioni sempre aggiornate, affidabili ed accessibili, aiuta il confronto decisionale, la produzione di elaborati, la stima dei costi e tanti altri aspetti del processo edilizio che vengono così ad essere trattati in maniera più efficiente, immediata e con meno sprechi rispetto a molti approcci tradizionali ancora in uso. Con queste premesse la tesi ha voluto indagare potenzialità e criticità di strumenti progettuali avanzati per giungere ad una costruzione efficace e sostenibile. A questo scopo Revit di Autodesk si è dimostrato un software che permette di avere in un unico spazio di lavoro tutti i dati pertinenti alle figure professionali che intervengono durante il processo edilizio. Nel modello BIM realizzato per progettare realisticamente una villetta monofamiliare localizzata a Mezzojuso, in provincia di Palermo, sono stati esaminati molteplici aspetti: dal modello fisico, alla visualizzazione grafica 2D e 3D, alla modellazione parametrica di un modello concettuale energetico che coinvolge analisi di comfort termico ed igrometrico, ad un modello dei venti (per arrivare ad un design energetico ottimale). Il metodo di progetto è stato applicato facendo largo uso di elementi parametrici non standard nei modelli 3D e di altri prodotti realmente esistenti nel mercato italiano. Il risultato finale è stato quello di giungere ad una valutazione delle geometrie più idonee per il controllo degli spazi rispetto alla normativa locale, allo studio di più tipologie di pacchetti murari per risolvere i problemi di raffrescamento estivo e isolamento invernale, alla realizzazione di un computo metrico di massima: sono stati solo questi alcuni degli aspetti considerati per approcciare la tematica da un più ampio punto di vista multidisciplinare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Realizzazione di un supporto CoAP per il framework Kura con le seguenti caratteristiche: 1. Ottima scalabilità, ad organizzazione gerarchica, con aggiunta e rimozione dinamica di nodi e gestione automatica delle disconnessioni. 2. Integrazione efficiente di tecnologie CoAP ed MQTT progettate appositamente per l’IoT tramite lo sviluppo di un pattern di comunicazione per la gestione degli scambi delle informazioni. 3. Un limitato uso di risorse con modifiche su entrambe le implementazioni standard dei protocolli usati in modo tale da adattarle agli obiettivi prefissati. Il tutto a un costo bassissimo, dato che si basa su tecnologie open e grazie alla possibilità di utilizzo su Raspberry Pi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’occhio è l’organo di senso responsabile della visione. Uno strumento ottico il cui principio di funzionamento è paragonabile a quanto avviene in una macchina fotografica. Secondo l’Organizzazione mondiale della sanità (WHO 2010) sulla Terra vivono 285 milioni di persone con handicap visivo grave: 39 milioni sono i ciechi e 246 milioni sono gli ipovedenti. Si evince pertanto la necessità di tecnologie in grado di ripristinare la funzionalità retinica nelle differenti condizioni fisiopatologiche che ne causano la compromissione. In quest’ottica, scopo di questa tesi è stato quello di passare in rassegna le principali tipologie di sistemi tecnologici volti alla diagnosi e alla terapia delle fisiopatologie retiniche. La ricerca di soluzioni bioingegneristiche per il recupero della funzionalità della retina in condizioni fisiopatologiche, coinvolge differenti aree di studio, come la medicina, la biologia, le neuroscienze, l’elettronica, la chimica dei materiali. In particolare, sono stati descritti i principali impianti retinali tra cui l’impianto di tipo epiretinale e subretinale, corticale e del nervo ottico. Tra gli impianti che ad oggi hanno ricevuto la certificazione dell’Unione Europea vi sono il sistema epiretinale Argus II (Second Sight Medical Products) e il dispositivo subretinale Alpha IMS (Retina Implant AG). Lo stato dell’arte delle retine artificiali, basate sulla tecnologia inorganica, trova tuttavia limitazioni legate principalmente a: necessità di un’alimentazione esterna, biocompatibilità a lungo termine, complessità dei processi di fabbricazione, la difficoltà dell’intervento chirurgico, il numero di elettrodi, le dimensioni e la geometria, l’elevata impedenza, la produzione di calore. Approcci bioingegneristici alternativi avanzano nel campo d’indagine della visione artificiale. Fra le prospettive di frontiera, sono attualmente in fase di studio le tecnologie optogenetiche, il cui scopo è la fotoattivazione di neuroni compromessi. Inoltre, vengono annoverate le tecnologie innovative che sfruttano le proprietà meccaniche, optoelettroniche e di biocompatibilità delle molecole di materiali organici polimerici. L’integrazione di funzioni fotoniche nell’elettronica organica offre nuove possibilità al campo dell’optoelettronica, che sfrutta le proprietà ottiche e elettroniche dei semiconduttori organici per la progettazione di dispositivi ed applicazioni optoelettronici nel settore dell’imaging e del rilevamento biomedico. La combinazione di tecnologie di tipo organico ed organico potrebbe aprire in prospettiva la strada alla realizzazione di dispositivi retinici ed impianti di nuova generazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio ha lo scopo di valutare e confrontare l'efficienza del packaging in “LID” con atmosfera modificata a confronto con il confezionamento più tradizionale in “stretch” con atmosfera ordinaria, sulla shelf-life di diversi prodotti avicoli quali petti e sovracosce di pollo e fese di tacchino. A tal fine sui prodotti diversamente confezionati sono state valutate le variazioni di alcuni parametri qualitativi analizzando e confrontando alcuni aspetti tecnologici (pH, colore, texture, capacità di ritenzione idrica) durante un periodo di stoccaggio di 15 giorni in diverse condizioni di refrigerazione: durante i primi 3 giorni a 0-2°C, dal terzo al quindicesimo giorno a 6-8°C, al fine di simulare condizioni di abuso termico ed accelerare i fenomeni di deterioramento.