820 resultados para Nuove Attribuzioni
Resumo:
La governance del settore alimentare si fonda su una struttura multilivello, ove poteri locali, nazionali, sovranazionali e globali interagiscono. In tale assetto, ogni regolatore è chiamato a proteggere interessi diversi tra loro, tra cui l'ambiente, la salute umana, il benessere animale e la libera concorrenza. La regolazione del settore alimentare, inoltre, impone la considerazione di aspetti etici e culturali, dotati di una forte matrice territoriale. In questo sistema, i valori che entrano in gioco non sono egualmente rappresentati, ma quelli considerati "minori" sono sovente sovrastati dalle esigenze di protezione di un unico interesse: la libera concorrenza su scala globale. Ne deriva che la regolazione del settore alimentare necessita di un nuovo equilibrio. Questo può richiedere sia l'adozione di nuove regole - soprattutto a livello sovranazionale - sia un'interpretazione maggiormente inclusiva dei principi e delle regole già esistenti da parte delle Corti. Tuttavia, risulta maggiormente urgente e di immediata efficacia permettere ai soggetti interessati, siano essi privati o pubblici, di partecipare alla formulazione delle politiche e delle decisioni inerenti il settore alimentare. La partecipazione procedurale è in grado di soddisfare esigenze differenti e talvolta opposte, pertanto essa è regolata dal legislatore a seconda dello scopo finale prefissato. Principalmente, essa è vista come una applicazione diretta dei principi di democrazia e trasparenza; tuttavia, il suo reale impatto sul risultato finale delle decisioni pubbliche può scostarsi considerevolemente da tale paradigma. Lo scopo di tale lavoro è analizzare i diversi modelli partecipativi implementati nei vari livelli di governo, al fine di determinarne il reale impatto sui soggetti interessati e sul bilanciamento degli interessi in gioco. La conclusione dimostra un certo livello di perplessità per ciò che riguarda l'assetto di tali garanzie nella regolazione del settore alimentare, dove lo sviluppo del concetto di democrazia partecipativa e di bilancio tra gli interessi rilevanti è ancora acerbo.
Resumo:
Gli organismi vegetali mostrano una notevole capacità di adattamento alle condizioni di stress e lo studio delle componenti molecolari alla base dell'adattamento in colture cerealicole di interesse alimentare, come il frumento, è di particolare interesse per lo studio di varietà che consentano una buona produzione con basso input anche in condizioni ambientali non ottimali. L'esposizione delle colture cerealicole a stress termico durante determinate fasi del ciclo vitale influisce negativamente sulla resa e sulla qualità, a questo fine è necessario chiarire le basi genetiche e molecolari della termotolleranza per identificare geni e alleli vantaggiosi da impiegare in programmi di incrocio volti al miglioramento genetico. Numerosi studi dimostrano il coinvolgimento delle sHSP a localizzazione cloroplastica (in frumento sHSP26) nel meccanismo di acquisizione della termotolleranza e la loro interazione con diverse componenti del fotosistema II (PSII) che determinerebbe un’azione protettiva in condizioni di stress termico e altri tipi di stress. Lo scopo del progetto è quello di caratterizzare in frumento duro nuove varianti alleliche correlate alla tolleranza a stress termico mediate l'utilizzo del TILLING (Target Induced Local Lesion In Genome), un approccio di genetica inversa che prevede la mutagenesi e l'identificazione delle mutazioni indotte in siti di interesse. Durante la tesi sono state isolate e caratterizzate 3 sequenze geniche complete per smallHsp26 denominate TdHsp26-A1; TdHsp26-A2; TdHsp26-B1 e un putativo pseudogene denominato TdHsp26-A3. I geni isolati sono stati usati come target in analisi di TILLING in due popolazioni di frumento duro mutagenizzate con EMS (EtilMetanoSulfonato). Nel nostro studio sono stati impiegati due differenti approcci di TILLING: un approccio di TILLING classico mediante screening con High Resolution Melting (HRM) e un approccio innovativo che sfrutta un database di TILLING recentemente sviluppato. La popolazione di mutanti cv. Kronos è stata analizzata per la presenza di mutazioni in tutti e tre i geni individuati mediante ricerca online nel database di TILLING, il quale sfrutta la tecnica dell’exome capture sulla popolazione di TILLING seguito da sequenziamento ad alta processività. Attraverso questa tecnica sono state individuate, nella popolazione mutagenizzata di frumento duro cv. Kronos, 36 linee recanti mutazioni missenso. Contemporaneamente lo screening con HRM, effettuato su 960 genotipi della libreria di TILLING di frumento duro cv. Cham1 ha consentito di individuare mutazioni in una regione di 211bp di interesse funzionale del gene TdHsp26-B1, tra le quali 3 linee mutanti recanti mutazioni missenso in omozigosi. Alcune mutazioni missenso individuate sui due geni TdHsp26-A1 e TdHsp26-B1 sono state confermate in vivo nelle piante delle rispettive linee mutanti generando marcatori codominanti KASP (Kompetitive Allele Specific PCR) con cui è stato possibile verificare anche il grado di zigosità di tali mutazioni. Al fine di ridurre il numero di mutazioni non desiderate nelle linee risultate più interessanti, è stato eseguito il re-incrocio dei mutanti con i relativi parentali wild type ed inoltre sono stati generati alcuni doppi mutanti che consentiranno di comprendere meglio i meccanismi molecolari presieduti da questa classe genica. Gli individui F1 degli incroci sono stati poi genotipizzati con i medesimi marcatori KASP specifici per la mutazione di interesse per verificare la buona riuscita dell’incrocio. Questo approccio ha permesso di individuare ed implementare risorse genetiche utili ad intraprendere studi funzionali relativi al ruolo di smallHSP plastidiche implicate nella acquisizione di termotolleranza in frumento duro e di generare marcatori potenzialmente utili in futuri programmi di breeding.
Resumo:
La presente tesi di dottorato ha riguardato l'indagine fitochimica della biodiversità spontanea di Humulus lupulus L. in Emilia Romagna e la valutazione degli effetti del clima dell'Italia settentrionale sul metabolismo secondario di cultivar di luppolo. In particolare, lo studio ha previsto l'individuazione di ecotipi di luppolo provenienti da zone planiziali e collinari di'Emilia Romagna e Lombardia, la loro messa a dimora in un campo collezione appositamente allestito, e il monitoraggio della resa di campo e della produzione di metaboliti secondari di natura polare (acilfluoroglucinoli, flavonidi isoprenilati) e apolare (terpeni e sequiterpeni). Gli obiettivi primari sono stati la valutazione di entità da portare direttamente in coltivazione o da introdurre in percorsi di breeding del luppolo in Italia, oltre all'ottimizzazione di metodi innovativi per lo screening dell'intero germoplasma italiano. Per definire le caratteristiche fitochimiche dei coni di luppolo sono stati messi a punto metodi cromatografici HPLC-UV, HPLC-MS/MS e GC-MS e metodi spettroscopici 1H-NMR. Nel corso del triennio i metodi sono stati applicati a 10 cultivar e oltre 30 ecotipi , alcuni dei quali hanno fornito dati anche a conclusione dell'intero periodo di acclimatazione. Per tutti si è anche verificata la resilienza alle diverse condizioni climatiche incontrate Le analisi chimiche hanno permesso di individuare una sostanziale differenza tra gli ecotipi e le cultivar, con i primi che si caratterizzano per una produzione modesta di α-acidi e β-acidi e un profilo aromatico ricco di isomeri del selinene. Questo risultato può essere interessante per l’industria della birra nazionale e in particolare per il settore dei microbirrifici artigianali, in quanto i luppoli più pregiati sono proprio quelli con un basso contenuto di acidi amari e ricchi di oli essenziali che possano impartire alle birre prodotte note aromatiche particolari e legate al territorio. L’indagine agronomica monitorata su tre anni di produzione ha anche fatto emergere la resistenza degli ecotipi italiani al clima caldo e siccitoso e ha evidenziato invece come le cultivar estere abbiano limiti fisiologici a queste condizioni. Confrontando il profilo fitochimico delle cultivar coltivate in Italia con i prodotti acquistati nei paesi d’origine è emerso che il metabolismo secondario per alcune cultivar è particolarmente differente, come nel caso della cultivar Marynka, che rispetto agli standard commerciali ha prodotto in Italia coni ricchi di oli essenziali con alte quantità di trans-β-farnesene, cambiandone le caratteristiche da varietà amaricante ad aromatica. I risultati ottenuti dimostrano la fattibilità della coltivazione di Humulus lupulus L. sul territorio nazionale con ottime prospettive di produttività per gli ecotipi italiani. Inoltre da questi primi risultati è ora possibile intraprendere un programma di breeding per la creazione di nuove varietà, più resistenti al caldo e con le caratteristiche desiderate in base all’utilizzo del prodotto, sia per quanto riguarda l’industria della birra, sia la cosmetico-farmaceutica per la produzione di estratti.
Resumo:
La presente Tesi ha per oggetto lo sviluppo e la validazione di nuovi criteri per la verifica a fatica multiassiale di componenti strutturali metallici . In particolare, i nuovi criteri formulati risultano applicabili a componenti metallici, soggetti ad un’ampia gamma di configurazioni di carico: carichi multiassiali variabili nel tempo, in modo ciclico e random, per alto e basso/medio numero di cicli di carico. Tali criteri costituiscono un utile strumento nell’ambito della valutazione della resistenza/vita a fatica di elementi strutturali metallici, essendo di semplice implementazione, e richiedendo tempi di calcolo piuttosto modesti. Nel primo Capitolo vengono presentate le problematiche relative alla fatica multiassiale, introducendo alcuni aspetti teorici utili a descrivere il meccanismo di danneggiamento a fatica (propagazione della fessura e frattura finale) di componenti strutturali metallici soggetti a carichi variabili nel tempo. Vengono poi presentati i diversi approcci disponibili in letteratura per la verifica a fatica multiassiale di tali componenti, con particolare attenzione all'approccio del piano critico. Infine, vengono definite le grandezze ingegneristiche correlate al piano critico, utilizzate nella progettazione a fatica in presenza di carichi multiassiali ciclici per alto e basso/medio numero di cicli di carico. Il secondo Capitolo è dedicato allo sviluppo di un nuovo criterio per la valutazione della resistenza a fatica di elementi strutturali metallici soggetti a carichi multiassiali ciclici e alto numero di cicli. Il criterio risulta basato sull'approccio del piano critico ed è formulato in termini di tensioni. Lo sviluppo del criterio viene affrontato intervenendo in modo significativo su una precedente formulazione proposta da Carpinteri e collaboratori nel 2011. In particolare, il primo intervento riguarda la determinazione della giacitura del piano critico: nuove espressioni dell'angolo che lega la giacitura del piano critico a quella del piano di frattura vengono implementate nell'algoritmo del criterio. Il secondo intervento è relativo alla definizione dell'ampiezza della tensione tangenziale e un nuovo metodo, noto come Prismatic Hull (PH) method (di Araújo e collaboratori), viene implementato nell'algoritmo. L'affidabilità del criterio viene poi verificata impiegando numerosi dati di prove sperimentali disponibili in letteratura. Nel terzo Capitolo viene proposto un criterio di nuova formulazione per la valutazione della vita a fatica di elementi strutturali metallici soggetti a carichi multiassiali ciclici e basso/medio numero di cicli. Il criterio risulta basato sull'approccio del piano critico, ed è formulato in termini di deformazioni. In particolare, la formulazione proposta trae spunto, come impostazione generale, dal criterio di fatica multiassiale in regime di alto numero di cicli discusso nel secondo Capitolo. Poiché in presenza di deformazioni plastiche significative (come quelle caratterizzanti la fatica per basso/medio numero di cicli di carico) è necessario conoscere il valore del coefficiente efficace di Poisson del materiale, vengono impiegate tre differenti strategie. In particolare, tale coefficiente viene calcolato sia per via analitica, che per via numerica, che impiegando un valore costante frequentemente adottato in letteratura. Successivamente, per validarne l'affidabilità vengono impiegati numerosi dati di prove sperimentali disponibili in letteratura; i risultati numerici sono ottenuti al variare del valore del coefficiente efficace di Poisson. Inoltre, al fine di considerare i significativi gradienti tensionali che si verificano in presenza di discontinuità geometriche, come gli intagli, il criterio viene anche esteso al caso dei componenti strutturali intagliati. Il criterio, riformulato implementando il concetto del volume di controllo proposto da Lazzarin e collaboratori, viene utilizzato per stimare la vita a fatica di provini con un severo intaglio a V, realizzati in lega di titanio grado 5. Il quarto Capitolo è rivolto allo sviluppo di un nuovo criterio per la valutazione del danno a fatica di elementi strutturali metallici soggetti a carichi multiassiali random e alto numero di cicli. Il criterio risulta basato sull'approccio del piano critico ed è formulato nel dominio della frequenza. Lo sviluppo del criterio viene affrontato intervenendo in modo significativo su una precedente formulazione proposta da Carpinteri e collaboratori nel 2014. In particolare, l’intervento riguarda la determinazione della giacitura del piano critico, e nuove espressioni dell'angolo che lega la giacitura del piano critico con quella del piano di frattura vengono implementate nell'algoritmo del criterio. Infine, l’affidabilità del criterio viene verificata impiegando numerosi dati di prove sperimentali disponibili in letteratura.
Resumo:
La ricerca ricostruisce alcuni aspetti della vita politica, sociale e culturale di Reggio Emilia a partire dagli anni Quaranta dell’Ottocento. La campagna militare del 1848-49 e le vicende sociali e politiche che l’accompagnarono costituiscono il punto focale di questo lavoro che mette in evidenza come il complesso di quegli avvenimenti operò un mutamento irreversibile nella realtà cittadina, alimentando aspettative e ideali che non poterono più rimanere confinati nel sistema di governo ducale, divenuto asfittico e superato. Dopo una ricognizione generale della storiografia esistente si è evidenziata la necessità di una nuova lettura della storia cittadina che tenesse conto degli approcci metodologici più recenti e di aspetti fino ad oggi trascurati o completamente ignorati, ripartendo dai documenti ed ampliando la quantità e la tipologia delle fonti. E’ stato perciò condotto un incrocio sistematico tra la documentazione d’archivio pubblica (atti di governo, polizia, decreti, chirografi ducali) e le fonti di carattere privato, spesso assolutamente inedite (cronache, diari, epistolari), cercando di mantenere un approccio il più possibile aperto, mostrando una molteplicità di punti di vista e cogliendo il riflesso dei diversi orientamenti politici e personali attraverso la lettura degli avvenimenti cittadini da parte dei diversi testimoni dell’epoca. Coerentemente con i più recenti apporti della storiografia si è voluto sottolineare l’impatto decisivo che le Istituzioni scolastiche ducali, caratterizzate da notevole conformismo e oscurantismo, hanno avuto nella maturazione politica della generazione che ha guidato il Movimento del 1848. Per portare alla luce questi aspetti è stata proposta una rilettura del sistema educativo reggiano dal punto di vista funzionale e culturale, partendo dai ricordi degli ex studenti e dalla verifica della disciplina vigente all’interno di queste istituzioni. Non poteva essere tralasciata anche una profonda revisione della storia della Chiesa di Reggio Emilia durante il Risorgimento, pertanto si è proceduto ad uno spoglio su larga scala della documentazione conservata nell’archivio della Curia vescovile di Reggio Emilia che ha permesso di giungere ad una complessiva rivalutazione del ruolo del vescovo Cattani durante le vicende del 1848, portando alla luce un aspetto fino ad oggi assolutamente sottovalutato. Nella ricostruzione delle condizioni della Provincia sono stati sottolineati soprattutto gli aspetti sociali, ampliando il quadro in cui si sono svolte le vicende attraverso nuove fonti che hanno aiutato a non focalizzare la ricerca soltanto sui ceti dirigenti e sulle personalità di rilievo. Allo stesso modo si sono descritti i luoghi e le persone della città, cercando di tracciare un ritratto il più fedele possibile della realtà urbana attraverso testimonianze di tenore e mentalità differenti da quelle ‘ufficiali’. Per gli eventi del 1848 (e per quelli del 1859-60) è stato consultato un numero cospicuo di fondi conservati presso l’Archivio di Stato di Reggio, a questi si sono aggiunti gli apporti di molte fonti di carattere privato e di documenti inediti conservati presso l’Archivio di Stato di Torino. Il lavoro propone un’analisi approfondita delle vicende cittadine tra il marzo e l’agosto 1848 e apre a nuove considerazioni sia sul municipalismo, come chiave di lettura del movimento unitario, sia sulla creazione del consenso attorno all’unione dei ducati emiliani con il Regno dell’Alta Italia guidato da Carlo Alberto. Fondamentali sono risultati i fondi della Polizia Estense conservati presso l’Archivio di Stato di Reggio Emilia. Per la loro natura e per le caratteristiche del Ducato (in cui lo stesso duca interviene di persona nei provvedimenti di polizia) hanno permesso di tracciare un quadro assolutamente inedito della vita politica e sociale della Provincia, contribuendo ad arricchire ogni aspetto del lavoro di ricerca. Nell’ultima parte del lavoro sono state messe a confronto le informazioni raccolte sui volontari attraverso lo spoglio di tutte le fonti consultate. La ricerca si era precedentemente basata sugli elenchi dei militi compilati dopo l’unificazione nazionale, elenchi nei quali molte delle informazioni relative ai partecipanti delle campagne del 1848-49 erano andate perdute. Procedendo all’incrocio dei dati raccolti dalla polizia estense al momento del ritorno degli volontari in patria con quelli reperiti nei fondi privati, nelle cronache, nella memorialistica e negli epistolari è stato possibile ricostruire un panorama più completo delle diverse tipologie di combattenti e tracciare un quadro che alla fine risulta assai coerente con la situazione politica e sociale descritta nella prima parte della tesi. Per la prima volta vengono documentate le vicende di coloro che non appartenendo alle classi dirigenti cittadine si sono trovati a combattere per una sorta di azzardo personale nutrito di idealismo patriottico oppure perché inquadrati nei battaglioni dell’ex esercito estense passato al servizio del Governo provvisorio. Emergono l’estrema eterogeneità delle motivazioni e dei destini personali dei combattenti e sono portate alla luce alcune interessanti vicende personali e familiari. I dati sono stati raccolti in modalità digitale per la loro futura fruizione on-line che andrà ad aggiornare il database degli “Albi della memoria” curati da ISTORECO. (http://www.albimemoria-istoreco.re.it/).
Resumo:
La Sequenza Sismica Emiliana del 2012 ha colpito la zona compresa tra Mirandola e Ferrara con notevoli manifestazioni cosismiche e post-sismiche secondarie, soprattutto legate al fenomeno della liquefazione delle sabbie e alla formazione di fratturazioni superficiali del terreno. A fronte del fatto che la deformazione principale, osservata tramite tecniche di remote-sensing, ha permesso di individuare la posizione della struttura generatrice, ci si è interrogati sul rapporto tra strutture profonde e manifestazioni secondarie superficiali. In questa tesi è stato svolto un lavoro di integrazione di dati a varia scala, dalla superficie al sottosuolo, fino profondità di alcuni chilometri, per analizzare il legame tra le strutture geologiche che hanno generato il sisma e gli effetti superficiali percepiti dagli osservatori. Questo, non solo in riferimento allo specifico del sisma emiliano del 2012, ma al fine di trarre utili informazioni in una prospettiva storica e geologica sugli effetti di un terremoto “tipico”, in una regione dove le strutture generatrici non affiorano in superficie. Gli elementi analizzati comprendono nuove acquisizioni e rielaborazioni di dati pregressi, e includono cartografie geomorfologiche, telerilevamenti, profili sismici a riflessione superficiale e profonda, stratigrafie e informazioni sulla caratterizzazione dell’area rispetto al rischio sismico. Parte dei dati di nuova acquisizione è il risultato dello sviluppo e la sperimentazione di metodologie innovative di prospezione sismica in corsi e specchi d’acqua continentali, che sono state utilizzate con successo lungo il Cavo Napoleonico, un canale artificiale che taglia ortogonalmente la zona di massima deformazione del sisma del 20 Maggio. Lo sviluppo della nuova metodologia di indagine geofisica, applicata ad un caso concreto, ha permesso di migliorare le tecniche di imaging del sottosuolo, oltre a segnalare nuove evidenze co-sismiche che rimanevano nascoste sotto le acque del canale, e a fornire elementi utili alla stratigrafia del terreno. Il confronto tra dati geofisici e dati geomorfologici ha permesso di cartografare con maggiore dettaglio i corpi e le forme sedimentarie superficiali legati alla divagazione fluviale dall’VIII sec a.C.. I dati geofisici, superficiali e profondi, hanno evidenziato il legame tra le strutture sismogeniche e le manifestazioni superficiali seguite al sisma emiliano. L’integrazione dei dati disponibili, sia nuovi che da letteratura, ha evidenziato il rapporto tra strutture profonde e sedimentazione, e ha permesso di calcolare i tassi geologici di sollevamento della struttura generatrice del sisma del 20 Maggio. I risultati di questo lavoro hanno implicazioni in vari ambiti, tra i quali la valutazione del rischio sismico e la microzonazione sismica, basata su una caratterizzazione geomorfologico-geologico-geofisica dettagliata dei primi 20 metri al di sotto della superficie topografica. Il sisma emiliano del 2012 ha infatti permesso di riconoscere l’importanza del substrato per lo sviluppo di fenomeni co- e post-sismici secondari, in un territorio fortemente eterogeneo come la Pianura Padana.
Resumo:
Con l’avvento di Internet, il numero di utenti con un effettivo accesso alla rete e la possibilità di condividere informazioni con tutto il mondo è, negli anni, in continua crescita. Con l’introduzione dei social media, in aggiunta, gli utenti sono portati a trasferire sul web una grande quantità di informazioni personali mettendoli a disposizione delle varie aziende. Inoltre, il mondo dell’Internet Of Things, grazie al quale i sensori e le macchine risultano essere agenti sulla rete, permette di avere, per ogni utente, un numero maggiore di dispositivi, direttamente collegati tra loro e alla rete globale. Proporzionalmente a questi fattori anche la mole di dati che vengono generati e immagazzinati sta aumentando in maniera vertiginosa dando luogo alla nascita di un nuovo concetto: i Big Data. Nasce, di conseguenza, la necessità di far ricorso a nuovi strumenti che possano sfruttare la potenza di calcolo oggi offerta dalle architetture più complesse che comprendono, sotto un unico sistema, un insieme di host utili per l’analisi. A tal merito, una quantità di dati così vasta, routine se si parla di Big Data, aggiunta ad una velocità di trasmissione e trasferimento altrettanto alta, rende la memorizzazione dei dati malagevole, tanto meno se le tecniche di storage risultano essere i tradizionali DBMS. Una soluzione relazionale classica, infatti, permetterebbe di processare dati solo su richiesta, producendo ritardi, significative latenze e inevitabile perdita di frazioni di dataset. Occorre, perciò, far ricorso a nuove tecnologie e strumenti consoni a esigenze diverse dalla classica analisi batch. In particolare, è stato preso in considerazione, come argomento di questa tesi, il Data Stream Processing progettando e prototipando un sistema bastato su Apache Storm scegliendo, come campo di applicazione, la cyber security.
Resumo:
Nella società odierna, le telecomunicazioni costituiscono un’esigenza fondamentale della vita quotidiana. Difatti, il mercato della ICT (Information and Communications Technology) è in costante espansione, e viene accompagnato da un rapido sviluppo di nuove tecnologie. In particolare, si assiste a un sempre più rilevante ruolo svolto dalle comunicazioni ottiche, ovvero sfruttanti la luce: in questo contesto, il quale comprende diversi rami ingegneristici, si stanno progressivamente affermando nuove forme di comunicazione basate sulla luce visibile, la cosiddetta Visible Light Communication (VLC). Con questa Tesi ci si propone di implementare con Simulink e stateflow di Matlab il livello MAC (Medium Access Control), basato sullo standard IEEE 802.15.7 per le VLC e valutarne le prestazioni. Prescinde da questa Tesi la parte di implementazione su scheda stessa che è lasciata per sviluppi futuri. Nel capitolo uno si introducono le VLC e si discutono i principali scenari attuali dove possono diffondersi. Nel capitolo 2, si mostrano le principali linee guida afferenti agli standard che sono risultate necessarie per sviluppare lo strato MAC. Nei capitoli 3 e 4 si mostra come il layer sviluppato possa essere utilizzato in due principali situazioni: nel capitolo 3 è descritta la realizzazione di una comunicazione punto-punto, ovvero con un trasmettitore e un ricevitore; nel capitolo 4 è descritta l’implementazione di una rete di nodi, ambito in cui il livello MAC risulta indispensabile. Per ognuna delle situazioni si illustrano scelte e caratteristiche dei sistemi simulati e i risultati ottenuti, cercando di coprire diverse eventualità che intercorrono, più in generale, nella gestione e implementazione di sistemi di telecomunicazione wireless.
Resumo:
La misurazione del gradiente pressorio venoso (HVPG) viene utilizzata per diagnosticare la gravità della malattia del fegato ma si tratta di una pratica invasiva e che non può essere effettuata in tutti i pazienti. Per questo motivo sono state studiate nuove metodiche per riuscire ad analizzare la cirrosi, una tra le quali l’indagine ecografica. Un progetto in fase di svolgimento (progetto CLEVER) è stato avviato per riuscire a sviluppare, validare e trasferire nella pratica clinica un nuovo sistema basato sull'analisi di immagini ecografiche con mezzo di contrasto al fine di valutare la gravità della degenerazione della rete vascolare causata dalla cirrosi. L'obiettivo principale della ricerca è quello di sviluppare uno strumento completamente automatico per l'analisi in tempo reale della rete vascolare del fegato in grado di valutare la connettività vascolare e quantificare il grado di squilibrio della rete.
Resumo:
La tesi ha come oggetto di studio la progettazione e realizzazione in autocostruzione del padiglione temporaneo dal nome Modulo Eco in Piazzale della Pace a Parma. Per “autocostruzione” si intende il processo in cui il committente di un immobile partecipa attivamente alla fase realizzativa dello stesso. È un percorso molto impegnativo, che richiede una forte motivazione ma allo stesso tempo molto appagante. Ad oggi in Italia non esiste una normativa nazionale che codifichi le modalità e le regole dell’edificare in autocostruzione. La partecipazione attiva nel processo realizzativo di personale non addetto ai lavori aumenta automaticamente i rischi legati all’inesperienza e alla mancanza di formazione in materia. L’attenzione quindi alla sicurezza e soprattutto all’iniziale formazione dei nuovi operai in cantiere permette di ridurre notevolmente tali pericoli. Il progetto è stato ideato dall’associazione culturale Manifattura Urbana in collaborazione con il Comune di Parma. Posizionato in Piazzale della Pace, in pieno centro, questo spazio ospiterà l’ufficio Sportello Energia del Comune stesso. È infatti interesse dell’amministrazione dare un’importanza significativa alle tematiche energetiche, non lasciando tutte le relative riflessioni solamente a tecnici ma rivolgendosi invece direttamente ai cittadini, per informarli e sensibilizzarli. È stato quindi deciso di progettare e realizzare un padiglione temporaneo, facilmente costruibile (con l’aiuto di studenti, volontari e interessati), con un minimo impatto ambientale e allo stesso tempo ad alta efficienza energetica, non solo rispettante ma superante tutti gli standard di bassi consumi energetici previsti dalla normativa per le nuove costruzioni. Il progetto è totalmente autofinanziato dalle aziende fornitrici partner, che sponsorizzano in forma gratuita il materiale da costruzione e formano direttamente in cantiere i volontari per imparare a gestirlo, in cambio di visibilità all’interno del progetto.
Resumo:
Lo scopo di questa tesi è quello di analizzare a fondo il concetto sovrastruttura ferroviaria senza ballast e sottolinearne pregi e difetti rispetto a quella tradizionale con pietrisco, al fine di identificare chiaramente quando e dove i sistemi senza massicciata forniscono prestazioni migliori. L'aumento dei costi di manutenzione delle sovrastrutture ferroviarie al giorno d'oggi stanno aprendo la strada a nuovi sistemi, la maggior parte sviluppati in paesi che hanno linee di velocità elevate e tanti altri paesi si stanno preparando per aggiornare le proprie linee esistenti, nonché per creare nuove linee ferroviarie ad alta velocità. In molti casi i sistemi senza ballast sembrano avere le potenzialità per offrire un servizio per linee ad alta velocità più efficiente rispetto alle tracce tradizionali con ballast, soprattutto a causa della loro maggiore stabilità strutturale, del basso bisogno di manutenzione e del lungo ciclo di vita. Il primo capitolo è dedicato alla descrizione della struttura del binario tradizionale con ballast analizzando gli strati che formano la sovrastruttura. Il secondo capitolo è dedicato alla descrizione di varie tipologie, utilizzate nel mondo, di sovrastrutture ferroviarie senza ballast, di ognuna di esse sono state elencate le caratteristiche costruttive e prestazionali. Il terzo capitolo è dedicato al confronto tra le due tipologie di sovrastruttura, sono state descritte le capacità elastiche e deformative delle due soluzioni, il degrado cui incorrono le due soluzioni, gli stati sollecitanti a cui sono sottoposte e la risposta delle stesse. Di particolare importanza è il confronto di costo dei due sistemi e il rumore e le vibrazioni generate da questi; infatti negli ultimi anni questi sono gli aspetti fondamentali su cui si basa la scelta di un sistema costruttivo; a seguito di questo confronto è stato possibile trarre le conclusioni.
Resumo:
This paper analyzes the impact of Spain’s economic crisis on social reproduction strategies of Ecuadorian migrant families in Madrid and Quito. The paper analyzes circular migration experiences and more permanent returns to Ecuador. I argue that these strategies and migrants' greater or lesser capabilities to move between different migration destinations show significant gender differences. On the one hand, men and women make a differential use of their migratory status to deploy transnational strategies and expand their mobility. On the other hand, migrants’ degree of mobility and flexibility with regard to the labor market and transnational social reproduction are derivative of a specific gendered order and sexual division of labor.
Resumo:
El ensayo examina la cuestión de la aplicación de las reglas y de la capacidad real para tratar casos específicos, llegando a la conclusión de que es la excepción la que confirma la regla, a condición de que sea dialógicamente construida, para que sea interpretable y aplicable por parte de sus numerosos destinatarios en las políticas públicas más complejas y conflictuales, sobre todo a nivel local.
Resumo:
Con la crescita in complessità delle infrastrutture IT e la pervasività degli scenari di Internet of Things (IoT) emerge il bisogno di nuovi modelli computazionali basati su entità autonome capaci di portare a termine obiettivi di alto livello interagendo tra loro grazie al supporto di infrastrutture come il Fog Computing, per la vicinanza alle sorgenti dei dati, e del Cloud Computing per offrire servizi analitici complessi di back-end in grado di fornire risultati per milioni di utenti. Questi nuovi scenarii portano a ripensare il modo in cui il software viene progettato e sviluppato in una prospettiva agile. Le attività dei team di sviluppatori (Dev) dovrebbero essere strettamente legate alle attività dei team che supportano il Cloud (Ops) secondo nuove metodologie oggi note come DevOps. Tuttavia, data la mancanza di astrazioni adeguata a livello di linguaggio di programmazione, gli sviluppatori IoT sono spesso indotti a seguire approcci di sviluppo bottom-up che spesso risulta non adeguato ad affrontare la compessità delle applicazione del settore e l'eterogeneità dei compomenti software che le formano. Poichè le applicazioni monolitiche del passato appaiono difficilmente scalabili e gestibili in un ambiente Cloud con molteplici utenti, molti ritengono necessaria l'adozione di un nuovo stile architetturale, in cui un'applicazione dovrebbe essere vista come una composizione di micro-servizi, ciascuno dedicato a uno specifica funzionalità applicativa e ciascuno sotto la responsabilità di un piccolo team di sviluppatori, dall'analisi del problema al deployment e al management. Poichè al momento non si è ancora giunti a una definizione univoca e condivisa dei microservices e di altri concetti che emergono da IoT e dal Cloud, nè tantomento alla definzione di linguaggi sepcializzati per questo settore, la definzione di metamodelli custom associati alla produzione automatica del software di raccordo con le infrastrutture potrebbe aiutare un team di sviluppo ad elevare il livello di astrazione, incapsulando in una software factory aziendale i dettagli implementativi. Grazie a sistemi di produzione del sofware basati sul Model Driven Software Development (MDSD), l'approccio top-down attualmente carente può essere recuperato, permettendo di focalizzare l'attenzione sulla business logic delle applicazioni. Nella tesi viene mostrato un esempio di questo possibile approccio, partendo dall'idea che un'applicazione IoT sia in primo luogo un sistema software distribuito in cui l'interazione tra componenti attivi (modellati come attori) gioca un ruolo fondamentale.
Resumo:
Questo lavoro di tesi mira ad indagare, a livello preliminare, quali siano i vantaggi e gli svantaggi a livello strutturale legati alla possibilità di realizzare componenti per mezzi spaziali con tecnologie di Rapid Prototyping direttamente nello spazio: questa possibilità verrà confrontata con il caso in cui gli stessi componenti siano realizzati a terra e poi inviati nello spazio con un lanciatore. Nonostante si siano riscontrati dei limiti derivanti dalla carenza di dati tecnici sulle caratteristiche meccaniche dei materiali, è stata sviluppata una metodologia che ha fornito l’opportunità, seppur con grandi approssimazioni, di valutare il problema. Il punto di partenza dell’attività è stato quello di visionare figure ed immagini di mezzi spaziali e di scegliere alcuni componenti che possano essere oggetto di manutenzione o sostituzione in volo. Sei componenti sono stati poi modellati al CAD, ed è stata condotta un’analisi ad elementi finiti (FEM) mediante il software MSC Patran/Nastran, con lo scopo di simulare la risposta strutturale nelle diverse condizioni di carico prese in considerazione. Seppur a livello qualitativo e del tutto preliminare, sono stati svolti dei confronti in termini di massa e tensioni per valutare in quali casi sembra sia conveniente realizzare un componente a terra con tecnologie tradizionali, e in quali sembra sia vantaggioso utilizzare nuove tecnologie di prototipazione rapida stampando direttamente il componente nello spazio.