912 resultados para Gestione della risorsa idrica,Piano SIMPO,Regime dei deflussi di magra,Sbarramento in alveo Po,Rubber dum
Resumo:
L’attività assicurativa svolge un ruolo cruciale nell’economia moderna: riduce le inefficienze di mercato, rendendo possibile per la c.d. economia reale il trasferimento di rischi il cui impatto potrebbe essere devastante qualora l’evento assicurato si verificasse. Questa funzione può naturalmente essere svolta anche in assenza di un canale distributivo indipendente, ma con un significativo aumento dei costi di transazione dovuti, in particolare, a un alto impatto dell’asimmetria informativa per i c.d. rischi non standardizzabili (c.d. commercial lines o business insurance). Tale funzione è tanto più importante nei c.d. cicli di hard market, in cui l’appetito per il rischio delle imprese assicuratrici diminuisce, il prezzo delle coperture aumenta e per le imprese diventa arduo trovare eque coperture sul mercato d’offerta. Lo studio evidenzia che gli intermediari indipendenti italiani non differiscono molto da quelli di altri Paesi per composizione di portafoglio, propensione all’intermediazione di rischi afferenti al segmento Aziende e capacità di selezionare con attenzione i rischi. Nel loro complesso, intermediari indipendenti e in esclusiva sembrano ancorati a modelli e logiche di sviluppo poco orientate al futuro, quali ad esempio poco significative politiche di costruzione di reti secondarie al loro interno. Questo orientamento impedisce a molti di loro di crescere. Le cause ostative alla diffusione del plurimandato sono i costi di transazione e i timori di ritorsione della mandante principale. Dato che l’acquisizione di ulteriori mandati dipende dal numero di clienti in portafoglio in termini di policy sarebbe opportuno, da un lato, riconoscere agli intermediari l’importanza degli investimenti in reti secondarie e, dall’altro, rimuovere tutte gli ostacoli (prevalentemente di natura regolamentare) che impediscono un’ulteriore riduzione dei costi di transazione.
Resumo:
Il carcinoma epatocellulare (HCC) è il più frequente tumore maligno del fegato e rappresenta il sesto tipo di tumore più comune nel mondo. Spesso i pazienti con HCC vengono diagnosticati a stadi piuttosto avanzati, quando le uniche opzioni terapeutiche in grado di migliorarne la sopravvivenza sono la chemoembolizzazione dell'arteria epatica ed il trattamento con l'inibitore multi-cinasico, Sorafenib. In questo contesto, la scoperta del ruolo centrale dei microRNA (miRNA) nella tumorigenesi umana risulta di fondamentale importanza per lo sviluppo di nuovi marcatori diagnostici e bersagli terapeutici. I microRNA (miRNA) sono delle piccole molecole di RNA non codificante, della lunghezza di 19-22 nucleotidi, filogeneticamente molto conservati, ed esercitano un ruolo cruciale nella regolazione di importanti processi fisiologici, quali sviluppo, proliferazione, differenziamento, apoptosi e risposta a numerosi segnali extracellulari e di stress. I miRNA sono inoltre responsabile della fine regolazione dell'espressione di centinaia di geni bersaglio attraverso il blocco della traduzione o la degradazione dell'mRNA target. Studi di profiling hanno evidenziato l'espressione aberrante di specifici miRNA in numerosi tipi di tumore umano. Lo scopo del presente lavoro è stato quello di individuare un pannello di miRNA deregolati nell'epatocarcinoma umano e di caratterizzare il ruolo biologico di tre miRNA deregolati nell'HCC, al fine di individuare alcuni dei meccanismi molecolari alla base della trasformazione maligna miRNA-associata. La nostra ricerca è stata inoltre focalizzata nell'individuazione di nuovi bersagli e strumenti terapeutici, quali i microRNA, per il trattamento combinato di HCC in stadio intermedio-avanzato.
Resumo:
Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.
Resumo:
Il Cloud Storage è un modello di conservazione dati su computer in rete, dove i dati stessi sono memorizzati su molteplici server, reali e/o virtuali, generalmente ospitati presso strutture di terze parti o su server dedicati. Tramite questo modello è possibile accedere alle informazioni personali o aziendali, siano essi video, fotografie, musica, database o file in maniera “smaterializzata”, senza conoscere l’ubicazione fisica dei dati, da qualsiasi parte del mondo, con un qualsiasi dispositivo adeguato. I vantaggi di questa metodologia sono molteplici: infinita capacita’ di spazio di memoria, pagamento solo dell’effettiva quantità di memoria utilizzata, file accessibili da qualunque parte del mondo, manutenzione estremamente ridotta e maggiore sicurezza in quanto i file sono protetti da furto, fuoco o danni che potrebbero avvenire su computer locali. Google Cloud Storage cade in questa categoria: è un servizio per sviluppatori fornito da Google che permette di salvare e manipolare dati direttamente sull’infrastruttura di Google. In maggior dettaglio, Google Cloud Storage fornisce un’interfaccia di programmazione che fa uso di semplici richieste HTTP per eseguire operazioni sulla propria infrastruttura. Esempi di operazioni ammissibili sono: upload di un file, download di un file, eliminazione di un file, ottenere la lista dei file oppure la dimensione di un dato file. Ogniuna di queste richieste HTTP incapsula l’informazione sul metodo utilizzato (il tipo di richista, come GET, PUT, ...) e un’informazione di “portata” (la risorsa su cui effettuare la richiesta). Ne segue che diventa possibile la creazione di un’applicazione che, facendo uso di queste richieste HTTP, fornisce un servizio di Cloud Storage (in cui le applicazioni salvano dati in remoto generalmene attraverso dei server di terze parti). In questa tesi, dopo aver analizzato tutti i dettagli del servizio Google Cloud Storage, è stata implementata un’applicazione, chiamata iHD, che fa uso di quest’ultimo servizio per salvare, manipolare e condividere dati in remoto (nel “cloud”). Operazioni comuni di questa applicazione permettono di condividere cartelle tra più utenti iscritti al servizio, eseguire operazioni di upload e download di file, eliminare cartelle o file ed infine creare cartelle. L’esigenza di un’appliazione di questo tipo è nata da un forte incremento, sul merato della telefonia mobile, di dispositivi con tecnologie e con funzioni sempre più legate ad Internet ed alla connettività che esso offre. La tesi presenta anche una descrizione delle fasi di progettazione e implementazione riguardanti l’applicazione iHD. Nella fase di progettazione si sono analizzati tutti i requisiti funzionali e non funzionali dell’applicazione ed infine tutti i moduli da cui è composta quest’ultima. Infine, per quanto riguarda la fase di implementazione, la tesi presenta tutte le classi ed i rispettivi metodi presenti per ogni modulo, ed in alcuni casi anche come queste classi sono state effettivamente implementate nel linguaggio di programmazione utilizzato.
Resumo:
Prendendo in esame diverse angolature d’analisi è indagata la situazione attuale della produzione tradizionale della ceramica salentina. La ricerca comprende la descrizione della situazione culturale attuale, l’analisi qualitativa e quantitativa dei dati raccolti sul campo e la costruzione di un quadro generale multidimensionale della rappresentazione di un’area culturale. Il primo capitolo della tesi tratta il problema teorico dei linguaggi specialistici e delle peculiarità a essi legati. La dottoranda fornisce un quadro completo ed esaustivo della bibliografia sia italiana che anglosassone sull’argomento affrontato. Questo capitolo fa da introduzione al problema della comunicazione specialistica nell’ambito della quale si svolgono le interviste. Il secondo capitolo presenta la metodologia utilizzata durante la ricerca svolta sul campo. La metodologia della ricerca sul campo include i metodi etnografici di osservazione partecipante e linguistico antropologici di interviste non strutturate. Il terzo capitolo della tesi è dedicato alla descrizione etnografica del processo produttivo. Questo capitolo ha un valore rilevante per l’intera ricerca poiché oltre ai termini italiani sono riportati tutti i termini tradizionali e descritti dettagliatamente i momenti della produzione. Va dimostrata una profonda conoscenza della lavorazione della ceramica nel Salento non solo nel suo stato attuale ma anche nel passato. Come parte conclusiva di questo capitolo è proposta una riflessione di carattere filosofico e antropologico sul ruolo dell’artigiano come Creatore, proponendo paragoni con la figura del Demiurgo platonico descritto nel “Timeo” e l’analisi del cambiamento dello statuto di oggetto da manufatto a oggetto industriale basandosi sul lavoro di Baudrillard. Il quarto capitolo è strutturato in modo diverso rispetto agli altri perché rappresenta la parte centrale della tesi e propone quattro diversi tipi di analisi linguistica possibile. La prima analisi riguarda l’ideologia linguistica e la sua espressione nel parlato inosservato. E’ fornita la prospettiva teorica sulla problematica di ideologia linguistica e dimostrata la conoscenza dei testi sia di natura sociologica (Althusser, Bourdieu, Gouldner, Hobsbawm, Thompson, Boas) che di natura linguistica (Schieffelin Bambi B., Woolard Kathryn A., Kroskrity Paul V., eds. 1998 Language ideologies : practice and theory. New York Oxford, Oxford University press). Golovko analizza i marcatori spazio-temporali utilizzati dagli artigiani per costruire le tassonomie del pronome “noi” e la contrapposizione “noi” – altri. Questa analisi consente di distinguere i diversi livelli d’inclusione ed esclusione del gruppo. Un altro livello di analisi include la valutazione degli usi del passato e del presente nel parlato per costruire le dimensioni temporali del discorso. L’analisi dei marcatori spazio-temporali consente di proporre una teoria sulla “distanza” tra i parlanti che influisce la scelta del codice oppure la sua modifica (passaggio dal dialetto all’italiano, la scelta della varietà a seconda dell’interlocutore). La parte dedicata all’ideologia si conclude con un’analisi profonda (sia quantitativa che qualitativa) dei verbi di moto che sono stati raggruppati in una categoria denominata dalla Golovko “verbi di fase” che rappresentano usi non standard dei verbi di moto per esprimere il passaggio da una fase all’altra. Il termine “fasale” prende spunto non dalla letteratura linguistica ma dal libro di Van Gennep “Les rites de passage” che discute dell’importanza dei riti di passaggio nella cultura africana e nella ricerca etnografica e folkloristica. È stato rilevato dalla dottoranda che i passaggi da una fase produttiva all’altra hanno un valore particolare anche nella produzione della ceramica e soprattutto negli usi particolari dei verbi di moto. Analizzati in profondità, questi usi particolari rispecchiano non solo fattori linguistici ma anche la visione e la percezione di queste fasi delicate in modo particolare dagli artigiani stessi. Sono stati descritti i procedimenti linguistici come personalizzazione e alienazione dell’oggetto. Inoltre la dottoranda ha dimostrato la conoscenza della letteratura antropologica non solo inerente la zona da lei studiata ma anche di altre come, ad esempio, dell’Africa Sub Sahariana. Nella parte successiva del quarto capitolo viene proposta un’altra chiave di lettura delle problematiche linguistiche: l’analisi del lessico utilizzato dagli artigiani per poter classificare i gruppi identitari presenti nella comunità studiata. E’ proposta l’analisi dei rapporti all’interno dei gruppi professionali che sono generalmente classificati come solidarietà e distinzione. La terminologia ha origine sociologica, infatti viene proposto un quadro teorico degli studi sulla solidarietà (Durkheim, Appandurai, Harré, Zoll) e l’adattamento del termine in questo senso coniato da Bourdieu “la distiction”. L’identità linguistica è affrontata sia dal punto di vista linguistico che dal punto di vista sociologico. Per svolgere l’analisi sulle identità assunte dagli artigiani e poter ricondurre la scelta volontaria e a volte non conscia di uno stile (consistente di un insieme di termini) inteso come espressione d’identità assunta dagli artigiani, la dottoranda riflette sul termine “stile” nella sua accezione sociolinguistica, com’è usuale negli studi anglosasoni di ultima generazione (Coupland, Eckert, Irvine e altri). La dottoranda fornisce una classificazione delle identità e ne spiega la motivazione basandosi sui dati empirici raccolti. La terza parte del quarto capitolo è dedicata all’analisi del linguaggio specialistico degli artigiani e alla descrizione dei tratti solitamente assegnati a questo tipo di linguaggio (monoreferenziaità, trasparenza, sinteticità e altri). La dottoranda svolge un’analisi di carattere semantico dei sinonimi presenti nel linguaggio degli artigiani, analizza il rapporto con la lingua comune, riporta l’uso delle metafore e casi di produttività linguistica. L’ultima parte del quarto capitolo consiste nell’analisi dei tratti non standard nel linguaggio degli artigiani classificati considerando il livello di variazione (lessico, morfologia e morfosintassi e sintassi) e spiegati con gli esempi tratti dalle interviste. L’autrice riflette sui cambiamenti avvenuti nella lingua parlata italiana e nella sua varietà regionale basandosi sui lavori “classici” della linguistica italiana (Berruto, Sobrero, Stehl, Bruni, D’Achille, Berretta, Tempesta e altri) studiandone attentamente i processi evidenziati nella sua descrizione. Lo scopo e l’apice della tesi consiste nell’analisi del repertorio linguistico degli artigiani e la discussione delle dinamiche in corso (livellamento del dialetto, convergenza e divergenza del dialetto, italianizzazione e regionalizzazione dell’italiano). La dottoranda propone un suo schema di rapporti tra italiano e dialetto motivando pienamente la sua teoria. A corollario la tesi è composta anche da un glossario dei termini tecnici e un album fotografico che aumentano l’interesse del lavoro dandogli un valore culturale.
Resumo:
La tesi ha come oggetto lo studio dei legami culturali posti in essere tra la Russia e l’Italia nel Settecento effettuato a partire dall’analisi del teatro di Arkhangelskoe (nei pressi di Mosca), ideato da Pietro Gonzaga. Ciò ha consentito di inquadrare l’atmosfera culturale del periodo neoclassico a partire da un’angolazione insolita: il monumento in questione, a dispetto della scarsa considerazione di cui gode all’interno degli studi di storia dell’arte, racchiude diverse ed interessanti problematiche artistiche. Queste ultime sono state tenute in debito conto nel processo dell’organizzazione della struttura del lavoro in relazione ai differenti livelli di analisi emersi in riferimento alla tematica scelta. Ogni capitolo rappresenta un punto di partenza che va utilizzato al fine di approfondire problematiche relative all’arte ed al teatro nei due Paesi, il tutto reso possibile grazie all’applicazione di un originale orientamento analitico. All’interno della tesi vengono infatti adoperati approcci e tecniche metodologiche che vanno dalla storia dell’arte all’analisi diretta dei monumenti, dall’interpretazione iconografica alla semiotica, per arrivare agli studi sociologici. Ciò alla fine ha consentito di rielaborare il materiale già noto e ampiamente studiato in modo convincente ed efficace, grazie al ragionamento sintetico adottato e alla possibilità di costruire paralleli letterari e artistici, frutto delle ricerche svolte nei diversi contesti. Il punto focale della tesi è rappresentato dalla figura di Pietro Gonzaga. Tra i decoratori e gli scenografi italiani attivi presso la corte russa tra il Settecento e l’Ottocento, questi è stato senza dubbio la figura più rilevante ed affascinante, in grado di lasciare una ricca eredità culturale e materiale nell’ambito dell’arte scenografica russa. Dimenticata per lungo tempo, l’opera di Pietro Gonzaga è attualmente oggetto di una certa riconsiderazione critica, suscitando curiosità e interesse da più parti. Guidando la ricerca su di un duplice binario, sia artistico che interculturale, si è quindi cercato di trovare alcune risonanze tra l’arte ed il pensiero di Gonzaga ed altre figure di rilievo non solo del suo secolo ma anche del Novecento, periodo in cui la cultura scenografica russa è riuscita ad affrancarsi dai dettami impartiti dalla lezione settecentesca, seguendo nuove ed originali strade espressive. In questo contesto spicca, ad esempio, la figura di Vsevolod Meyerchold, regista teatrale (uno dei protagonisti dell’ultimo capitolo della tesi) che ha instaurato un legame del tutto originale con i principi della visione scenica comunicati da Pietro Gonzaga. Lo sviluppo dell’argomento scelto ha richiesto di assumere una certa responsabilità critica, basandosi sulla personale sicurezza metodologica ed esperienza multidisciplinare al fine di tener conto dall’architettura, della teoria e della pratica teatrale – dalla conoscenza delle fonti fino agli studi del repertorio teatrale, delle specifiche artistiche locali, del contesto sociale dei due paesi a cavallo tra il ‘700 e l’‘800. Le problematiche toccate nella tesi (tra le quali si ricordano il ruolo specifico rivestito dal committente, le caratteristiche proprie della villa neoclassica russa, il fenomeno di ‘spettacoli muti’, la “teatralità” presente nel comportamento dei russi nell’epoca dei Lumi, la risonanza delle teorie italiane all’interno del arte russa) sono di chiara attualità per quanto concerne le ricerche relative al dialogo storico-artistico tra i due Paesi.
Resumo:
Questa tesi tratta del progetto di un impianto fotovoltaico ad isola. Il sistema si compone di diversi blocchi che verranno tutti analizzati nel corso della tesi con particolare enfasi al circuito di controllo e gestione della potenza. Le principali originalità consistono nell'utilizzo di un apposito circuito per l'avviamento dei carichi capacitivi (gestione delle inrush current) e un driver flottante per Cùk con pochi componenti discreti. Si è realizzato il prototipo che viene dettagliatamente descritto all'interno della dissertazione.
Resumo:
Lo sviluppo negli ultimi decenni di strumentazioni sempre più pratiche, versatili, veloci ed economicamente accessibili, ha notevolmente incrementato la capacità delle aziende, in particolar modo quelle operanti nel settore dell'industria alimentare, nel cogliere le potenzialità di una tecnologia che applica rigore scientifico a una materia a lungo considerata liminale e di secondaria rilevanza, quale quella cromatica. A fronte di ciò, si è ritenuto opportuno introdurre strumenti di misura formalizzati a livello internazionale, atti a individuare e verificare parametri di colore, i quali attestassero la qualità della materia prima utilizzata, nonché riconducibili a una tecnologia di produzione di massa. L’attuale progetto deriva dalla necessità di un’azienda produttrice di concentrati in pasta e semi-lavorati in polvere per la gelateria e la pasticceria, di introdurre un sistema di misurazione oggettiva del colore, che vada a sostituirsi a una valutazione soggettiva, a lungo ritenuta come unico metodo valido di analisi. Il ruolo rivestito all’interno di tale azienda ha consentito, grazie anche al supporto fornito dal Controllo Qualità, la realizzazione di un elaborato finale di sintesi, contenente i risultati delle analisi colorimetriche condotte su alcune paste concentrate. A partire dunque dalla letteratura scientifica elaborata in materia, si è proceduto inizialmente, alla realizzazione di una parte generale riguardante la descrizione del colore, delle sue proprietà e manifestazioni, e dei metodi di misurazione, ripercorrendo le tappe dalla nascita delle prime teorie fino all’adozione di uno spazio di colore universale; una seconda sperimentale, in cui si elaborano- tramite software statistici (Anova , Spectra Magic Nx)- i parametri colorimetrici e il pH dei singoli campioni. In particolare, la determinazione del colore su paste concentrate, ha permesso di valutare in maniera oggettiva le variazioni di colore in termini di coordinate L*, a*, b*, che avvengono durante il periodo di conservazione (24-36 mesi). Partendo dai dati oggettivi di colore, sono state definite semplici equazioni che descrivono l'andamento dei parametri in funzione dei mesi di conservazione e del pH del prodotto. Nell’ottica del miglioramento della gestione della qualità delle aziende specializzate nella produzione di semilavorati-concentrati per le gelaterie, il presente lavoro ha fornito uno spunto per la realizzazione e l’applicazione di un sistema di controllo del colore durante la conservazione del prodotto; ha anche permesso di definire le linee per un sistema di analisi colorimetrica utile alla messa a punto di un database aziendale comprensivo d’indici, stime e annotazioni. Tale database dovrà essere mirato all’ottenimento di un sempre più alto livello di qualità del prodotto, suggerendo allo stesso tempo possibili interventi correttivi (maggior standardizzazione del colore e possibile definizione di un adeguato intervallo di tolleranza), ma anche a un miglioramento nella gestione di problematiche in fase di produzione e quindi, l’incremento della capacità produttiva con conseguente riduzione dei tempi di evasione degli ordini. Tale contributo ha consentito a delineare le future prospettive di sviluppo favorendo l’implementazione (nella realtà aziendale) di un approccio strumentale e quindi oggettivo, in relazione alle più comuni problematiche di tipo colorimetrico, al fine di migliorare il valore qualitativo del prodotto.
Resumo:
L’università di Bologna, da sempre attenta alle nuove tecnologie e all’innovazione, si è dotata nel 2010 di un Identity Provider (IDP), ovvero un servizio per la verifica dell’identità degli utenti dell’organizzazione tramite username e password in grado di sollevare le applicazioni web (anche esterne all’organizzazione) dall’onere di verificare direttamente le credenziali dell’utente delegando totalmente la responsabilità sul controllo dell’identità digitale all’IDP. La soluzione adottata (Microsoft ADFS) si è dimostrata generalmente semplice da configurare e da gestire, ma ha presentato problemi di integrazione con le principali federazioni di identità regionali e italiane (FedERa e IDEM) a causa di una incompatibilità con il protocollo SAML 1.1, ancora utilizzato da alcuni dei servizi federati. Per risolvere tale incompatibilità il "CeSIA – Area Sistemi Informativi e Applicazioni" dell’Università di Bologna ha deciso di dotarsi di un Identity Provider Shibboleth, alternativa open source ad ADFS che presenta funzionalità equivalenti ed è in grado di gestire tutte le versioni del protocollo SAML (attualmente rilasciato fino alla versione 2.0). Il mio compito è stato quello di analizzare, installare, configurare e integrare con le federazioni IDEM e FedERa un’infrastruttura basata sull’IDP Shibboleth prima in test poi in produzione, con la collaborazione dei colleghi che in precedenza si erano occupati della gestione della soluzione Microsoft ADFS. Il lavoro che ho svolto è stato suddiviso in quattro fasi: - Analisi della situazione esistente - Progettazione della soluzione - Installazione e configurazione di un Identity Provider in ambiente di test - Deploy dell’Identity Provider in ambiente di produzione
Resumo:
A partire dalla fine degli anni ’80, gli impianti di molluschicoltura stanno subendo pesanti danni economici a causa dei sempre più frequenti divieti di raccolta dovuti alla comparsa di concentrazioni di biotossine algali all’interno dei tessuti dei molluschi oltre i limiti di legge. Lo scopo di questo lavoro è stato quello di determinare la distribuzione spaziale e temporale delle specie tossiche lungo le coste dell’Emilia Romagna e correlare la loro presenza alla rilevazione di biotossine marine nel tessuto dei mitili. Sono state effettuate analisi biotossicologiche per l’individuazione e quantificazione delle tossine responsabili della PSP, della ASP e delle tossine liposolubili (OAs, PTXs, AZAs e YTXs). Parallelamente è stato effettuato il monitoraggio delle specie fitoplanctoniche in grado di rendere i mitili tossici e, di conseguenza, responsabili di tali biointossicazioni. Le tossine che hanno superato il limite di legge, nel periodo di tempo considerato, sono state le yessotossine. Le analisi del fitoplancton tossico hanno evidenziato la presenza delle specie Gonyaulax spinifera, Lingulodinium polyedrum e Protoceratium reticulatum (sinonimo di Gonyaulax grindleyi). Le correlazioni effettuate mostrano che la specie G. spinifera è responsabile della chiusura degli allevamenti lungo la costa, a causa della produzione di homo-YTX, mentre la specie P. reticulatum produce prevalentemente YTX. Tale lavoro rappresenta il primo studio in campo in cui viene correlata la presenza delle due tossine, YTX e homo-YTX, con quella delle due alghe produttrici, confermando quanto riportato dalla letteratura. Tale lavoro intende offrire uno spunto, una base di partenza al fine di ottenere un quadro più dettagliato dell’andamento delle specie tossiche lungo la costa oggetto di studio.
Resumo:
La salute orale dei soggetti affetti da patologie sistemiche responsabili di disabilità fisiche e/o psichiche, in particolare in età evolutiva, è un obiettivo da perseguire di primaria importanza al fine di migliorare la qualità della vita del bambino e garantirgli un buon inserimento nel contesto sociale. Ricerche sperimentali e cliniche hanno individuato i momenti eziopatogenetici delle diverse problematiche che si riscontrano a carico del cavo orale, con una frequenza superiore nei pazienti disabili rispetto alla restante popolazione, attribuendo ai batteri formanti la placca e a quelli con la capacità di indurre un danno parodontale un ruolo chiave. Diversi sono stati i protocolli di prevenzione e terapia proposti nel tempo, costruiti proprio in relazione all’età del soggetto ed alla tipologia della disabilità; tuttavia risulta di fondamentale importanza chiarire il complesso rapporto tra la popolazione microbica orale e l'ospite nello stato di malattia. In un contesto del genere, intento del lavoro di ricerca è proprio quello di portare a termine un progetto di bonifica dentaria su un gruppo di pazienti in età compresa tra i 2 e i 17 anni, affetti da patologie sistemiche e patologie del cavo orale, sulla base di un profilo microbiologico, a partire da tamponi salivari e prelievi parodontali. Stilando il profilo microbiologico del “gruppo campione” e confrontandolo con quello di un gruppo di pazienti di controllo, lo studio si propone di riuscire a delineare i miglioramenti, qualora ci fossero, post terapia odontostomatologica e di riuscire a trovare una base microbiologica alle patologie extra -orali annesse.
Resumo:
La tesi affronta le questioni processuali connesse alla verifica dei reati di guida in stato di ebbrezza e di alterazione da droghe. La ricerca si sviluppa in tre direzioni. La prima parte studia la disciplina tedesca. L’analisi parte dalle norme sostanziali che definiscono le fattispecie incriminatrici contemplate dall’ordinamento osservato; s’interessa, poi, degli equilibri tra gli strumenti di captazione della prova utili ai reati in discorso ed il principio nemo tenetur se detegere (l’ estensione del diritto di difesa tedesco copre anche le prove reali e non prevede obblighi di collaborazione all’alcoltest). Prosegue, infine, con l’esame delle metodologie di acquisizione della prova, dall’etilometro agli screening per le droghe, sino al prelievo ematico coattivo, indispensabile per l’accertamento penale. La seconda sezione esamina gli artt. 186 e 187 del codice della strada italiano, alla luce del principio di libertà personale e del diritto a non autoincriminarsi. Particolarmente delicati gli equilibri rispetto a quest’ultimo: l’obbligatorietà di un atto potenzialmente autoaccusatorio è evitabile solo a pena di una severa sanzione. Occorre definire se il diritto di difesa copra anche il mero facere o garantisca il solo silenzio. Se si ammette, infatti, che il nemo tenetur sia applicabile anche alle prove reali, la collaborazione obbligatoria imposta al conducente è scelta incompatibile con il diritto di difesa: la disciplina italiana presenta, dunque, profili d’illegittimità costituzionale. La terza parte riguarda le problematiche processuali poste dai controlli stradali che emergono dall’analisi della giurisprudenza. Si affrontano, così, le diverse vicende della formazione della prova: ci si interroga sull’istituto processuale cui ricondurre gli accertamenti, sulle garanzie di cui goda il guidatore durante e dopo l’espletamento dell’atto, sulle eventuali sanzioni processuali derivanti da una violazione delle predette garanzie. Si esaminano, infine, le regole di apprezzamento della prova che guidano il giudice nella delicata fase valutativa.
Resumo:
La cippatura è un processo produttivo fondamentale nella trasformazione della materia prima forestale in biomassa combustibile che coinvolgerà un numero sempre più crescente di operatori. Scopo dello studio è stato quantificare la produttività e il consumo di combustibile in 16 cantieri di cippatura e determinare i livelli di esposizione alla polvere di legno degli addetti alla cippatura, in funzione di condizioni operative differenti. Sono state identificate due tipologie di cantiere: uno industriale, con cippatrici di grossa taglia (300-400kW) dotate di cabina, e uno semi-industriale con cippatrici di piccola-media taglia (100-150kW) prive di cabina. In tutti i cantieri sono stati misurati i tempi di lavoro, i consumi di combustibile, l’esposizione alla polvere di legno e sono stati raccolti dei campioni di cippato per l’analisi qualitativa. Il cantiere industriale ha raggiunto una produttività media oraria di 25 Mg tal quali, ed è risultato 5 volte più produttivo di quello semi-industriale, che ha raggiunto una produttività media oraria di 5 Mg. Ipotizzando un utilizzo massimo annuo di 1500 ore, il cantiere semi-industriale raggiunge una produzione annua di 7.410 Mg, mentre quello industriale di 37.605 Mg. Il consumo specifico di gasolio (L per Mg di cippato) è risultato molto minore per il cantiere industriale, che consuma in media quasi la metà di quello semi-industriale. Riguardo all’esposizione degli operatori alla polvere di legno, tutti i campioni hanno riportato valori di esposizione inferiori a 5 mg/m3 (limite di legge previsto dal D.Lgs. 81/08). Nei cantieri semi-industriali il valore medio di esposizione è risultato di 1,35 mg/m3, con un valore massimo di 3,66 mg/m3. Nei cantieri industriali si è riscontrato che la cabina riduce drasticamente l’esposizione alle polveri di legno. I valori medi misurati all’esterno della cabina sono stati di 0,90 mg/m3 mentre quelli all’interno della cabina sono risultati pari a 0,20 mg/m3.
Resumo:
Background: Cardiovascular disease (CVD) is a common cause of morbidity and mortality in childhood chronic kidney disease (CKD). Left ventricular hypertrophy (LVH) is known to be one of the earliest events in CVD development. Left ventricular diastolic function (DF) is thought to be also impaired in children with CKD. Tissue Doppler imaging (TDI) provide an accurate measure of DF and is less load dependent than conventional ECHO. Aim: To evaluate the LV mass and the DF in a population of children with CKD. Methods: 37 patients, median age: 10.4 (3.3-19.8); underlying renal disease: hypo/dysplasia (N=28), nephronophthisis (N=4), Alport (N=2), ARPKD (N=3), were analyzed. Thirty-eight percent of the patients were on stage 1-2 of CKD, 38% on stage 3, 16% on stage 4. Three patients were on dialysis. The most frequent factors related to CVD in CKD have been studied. LVH has been defined as a left ventricular mass index (LVMI) more than 35.7 g/h2,7. Results: Twenty-five patients (81%) had a LVH. LVMI and diastolic function index (E’/A’) were significantly related to the glomerular filtration rate (p<0.003 and p<0.004). Moreover the LVMI was correlated with the phosphorus and the hemoglobin level (p<0.0001 and p<0.004). LVH was present since the first stages of CKD (58% of patients were on stages 1-2). Early-diastolic myocardial velocity was reduced in 73% of our patients. We didn’t find any correlation between LVH and systemic hypertension. Conclusion: ECHO evaluation with TDI is suggested also in children prior to dialysis and with a normal blood pressure. If LVH is diagnosed, a periodic follow-up is necessary with the treatment of the modifiable risk factors (hypertension, disturbances of calcium, phosphorus and PTH, anemia ).