999 resultados para Analisi di vulnerabilità sismica strutture esistenti
Resumo:
L’oggetto della mia ricerca è la società multiculturale e il livello di sviluppo sociale delle comunità minoritarie in Macedonia, rispetto all’attuazione delle politiche e i programmi europei per la stabilizzazione democratica. L’indagine condotta nella mia tesi si è sviluppata esaminando i risultati ottenuti dai programmi CARDS, attuati per soddisfare gli obblighi stabiliti nell’Accordo di Stabilizzazione e Associazione e per l’implementazione dell’Accordo Quadro di Ohrid. Uno dei valori democratici, su cui l’UE è particolarmente attenta, ed al quale ha riservato un posto primario nei programmi CARDS, è la tutela dei diritti delle minoranze ossia il rispetto delle differenze culturali, linguistiche e religiose. L’obiettivo della mia indagine è stato quello di valutare l’impatto delle politiche europee sulla normativa macedone, concernente i diritti delle comunità minoritarie, ovvero il loro effetto sul consolidamento della società multiculturale e sullo status sociale delle comunità minoritarie in Macedonia. A tale scopo, in primo luogo sono stati esaminati gli emendamenti costituzionali e le modifiche legislative introdotti in seguito alla stipulazione dell’Accordo Quadro di Ohrid. L’analisi è stata incentrata nel verificare se la normativa macedone rientra nei parametri della normativa europea. I risultati ottenuti dimostrano quale è il tipo di multiculturalismo che promuove e garantisce la costituzione macedone. Attraverso l’analisi dei rapporti preparati dalla Commissione europea, relativi all’implementazione del Processo di Stabilizzazione e Associazione, è stato dimostrato come le politiche e i programmi europei hanno inciso sul consolidamento della società multiculturale. Analizzando invece i risultati dai rapporti relativi all’implementazione delle disposizioni dell’Accordo Quadro di Ohrid è stato valutato l’impatto che le politiche europee hanno avuto sullo sviluppo sociale delle comunità minoritarie in Macedonia. Per la valutazione di questo ultimo, sono state prese in considerazione il livello di partecipazione politica delle comunità minoritarie, la realizzazione delle richieste e delle questioni legate alla loro particolarità, l’ambito normativo regolato dal diritto di con-decisione, la rappresentanza delle comunità minoritarie nella sfera pubblica, il livello dell’accesso di istruirsi nella propria lingua e quindi il livello di istruzione e l’ambito e la libertà di usare la propria lingua nel settore pubblico. I concetti principali di questa ricerca sono: cooperazione, democrazia, multiculturalismo e sviluppo. Il termine cooperazione usato in questa ricerca si riferisce ai rapporti di cooperazione instaurati tra l’Unione Europea e la Macedonia nell’ambito dell’Accordo di Stabilizzazione e Associazione e dell’Accordo Quadro di Ohrid, ossia il sostegno dell’UE per la stabilizzazione democratica della Macedonia. Riferendosi a questa ultima, si fa riferimento al livello di garanzia di libera partecipazione dei cittadini, in ogni segmento della vita politica, sociale ed economica, senza discriminazioni etniche, linguistiche e religiose. Il termine multiculturalismo si riferisce alla società multiculturale ed è legato alla questione della politica della differenza, ossia del riconoscimento delle differenze culturali, che discendono dall’appartenenza ad una minoranza etnica e linguistica. Il multiculturalismo in questa ricerca viene analizzato, riferendosi alla multiculturalità della società macedone e ai diritti che la Costituzione macedone garantisce alle comunità minoritarie in Macedonia. Infine, per lo sviluppo in questa ricerca si fa riferimento allo sviluppo sociale delle comunità minoritarie, inteso e misurato tramite una seri di indicatori relativi all’occupazione (crescita di capitale sociale), all’educazione (capitale umano e qualifica di alta istruzione), alla partecipazione politica (occupazione dei posti principali nelle istituzione governative e della amministrazione pubblica), alla diffusione della cultura (uso e mantenimento della lingua e delle tradizioni) ecc. Prendendo in considerazione i principali concetti di questa tesi, il quadro teorico della ricerca sviluppa i nodi cruciali del dibattito sullo sviluppo e la democrazia, sul nesso tra democrazia e multiculturalismo e tra multiculturalismo e sviluppo. Attenendosi alle varie tesi, la ricerca avrà lo scopo di rilevare come si conciliano la società multiculturale macedone ed il modello democratico vigente. In questo contesto sarà fatto riferimento alle tesi fanno favoriscono la necessità di iniziare con la democrazia per poter innescare e sostenere il processo di sviluppo, alla tesi che sostiene la necessità di riconoscimento obbligatorio dei diritti collettivi nella società multiculturale, ossia dell’etnosviluppo delle comunità minoritarie. La ricerca è stata condotta tramite i seguenti metodi: - Il metodo descrittivo sarà usato per descrivere cosa è accaduto nel periodo di interesse di ricerca, riguardo i cambiamenti di natura sociale e politica delle minoranze in Macedonia. - Il metodo comparativo sarà applicato nella comparazione dell'efficacia delle leggi relative ai diritti delle minoranze e del loro status di sviluppo sociale e politico, prima e dopo l'attuazione e implementazione delle riforme europee. - Il metodo qualitativo sarà applicato per l’analisi di documenti, della legislatura e dei rapporti europei e nazionali. Le fonti usate in questa ricerca principalmente si basano su: - analisi di documenti e rapporti governativi, rapporti elaborati dalla Commissione Europea, dall’OSCE, dagli organi governativi e dalle organizzazioni non governative. - analisi di letteratura accademica, focalizzata sui problemi che sono oggetto di questa ricerca. - analisi di documenti pubblicati, come la gazzetta ufficiale, leggi costituzionali e atti legislativi, strategie nazionali e statistiche ufficiali. - analisi dei dati ottenuti da interviste e questionari.
Resumo:
Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.
Resumo:
La Tesi riprende il metodo di laoro imparato all'istituto La Cambre di Bruxelles: nell'Atelier scelto, ogni studente aveva effettuato l'analisi di un'area partendo da un tema dato. Da questa erano stati individuati i punti di forza e di debolezza, ai quali era stata data una risposta progettuale. Il lavoro di Tesi riprende questa impostazione: ad una prima parte di analisi del tema scelto, ossia della costruzione dell'architettura a partire da viste prospettiche, è stato analizzata l'area studio - la città di Cesena - individuando quelli che Lynch chiama "immagini deboli della città". Di queste, ne è stata scelta una alla quale è stata data una risposta progettuale: una torre.
Resumo:
Descrizione e analisi di una nuova proprietà del Dna: l'induzione di segnali elettromagnetici a bassa frequenza da parte di Dna in soluzione.
Resumo:
L’evoluzione dei sensori multispettrali e la prospettiva di sviluppo dei sensori iperspettrali nel campo del telerilevamento ottico offrono nuovi strumenti per l’indagine del territorio e rinnovano la necessità di ridefinire potenzialità, limiti e accuratezza delle metodologie tradizionali. Nel caso delle immagini iperspettrali, in particolare, l’elevatissima risoluzione spettrale apre nuove possibilità di sviluppo di modelli fisicamente basati per correlare grandezze radiometriche con indicatori fisico-chimici caratteristici delle superfici osservate, a prezzo però di maggiori oneri nella gestione del dato. Il presente lavoro mira appunto ad esaminare, per alcune applicazioni di carattere ambientale e attraverso casi di studio specifici, le criticità del problema del rilevamento da remoto nel suo complesso: dai problemi di correzione radiometrica delle immagini, all'acquisizione di dati di calibrazione sul campo, infine all'estrazione delle informazioni di interesse dal dato telerilevato. A tal fine sono stati sperimentati diversi modelli di trasferimento radiativo ed è stata sviluppata un’interfaccia per la gestione del modello 6SV. Per quest’ultimo sono state inoltre sviluppate routine specifiche per il supporto dei sensori Hyperion e World View 2. La ricerca svolta intende quindi offrire un contributo alla definizione di procedure operative ripetibili, per alcune applicazioni intimamente connesse all’indagine conoscitiva ed al monitoraggio dei processi in atto sul territorio. Nello specifico, si è scelto il caso di studio dell’oasi del Fayyum, in Egitto, per valutare il contenuto informativo delle immagini satellitari sotto tre diversi profili, soltanto in apparenza distinti: la classificazione della litologia superficiale, la valutazione dello stato di qualità delle acque ed il monitoraggio delle opere di bonifica. Trattandosi di un’oasi, le aree coltivate del Fayyum sono circondate dai suoli aridi del deserto libico. La mancanza di copertura vegetale rappresenta una condizione privilegiata per l’osservazione della litologia superficiale da remoto, auspicabile anche per la scarsa accessibilità di alcune aree. Il fabbisogno idrico dell’oasi è garantito dall’apporto di acque del fiume Nilo attraverso una rete di irrigazione che ha, come recettore finale, il lago Qarun, situato nella porzione più depressa dell’oasi. Questo lago, privo di emissari, soffre enormi problemi di salinizzazione, visto il clima iper-arido in cui si trova, e di inquinamento da fertilizzanti agricoli. Il problema della sostenibilità ambientale dello sfruttamento agricolo intensivo dell’oasi è un problema di deterioramento della qualità dell’acqua e della qualità dei suoli. È un problema che richiede una adeguata conoscenza del contesto geologico in cui questi terreni sono inseriti ed una capacità di monitoraggio degli interventi di bonifica ed estensione delle coltivazioni in atto; entrambe conoscenze necessarie alla definizione di un piano di sviluppo economico sostenibile. Con l’intento di contribuire ad una valutazione delle effettive potenzialità del telerilevamento come strumento di informazione territoriale, sono state sperimentate tecniche di classificazione di immagini multispettrali ASTER ed iperspettrali Hyperion di archivio per discriminare la litologia superficiale sulle aree adiacenti al lago Qarun nell’oasi del Fayyum. Le stesse immagini Hyperion di archivio più altre appositamente acquisite sono state utilizzate, assieme ad immagini multispettrali ALI, per la valutazione qualitativa e quantitativa di parametri di qualità delle acque, attraverso l’applicazione di modelli empirici di correlazione. Infine, per valutare l’ipotesi che il deterioramento della qualità delle acque possa essere correlato ai processi di bonifica ed estensione delle coltivazioni in atto negli ultimi decenni, le immagini dell’archivio Landsat sono state utilizzate per analisi di change detection. Per quanto riguarda il problema della validazione dei risultati, si è fatto uso di alcuni dati di verità a terra acquisiti nel corso di un survey preliminare effettuato nell’Ottobre 2010. I campioni di roccia prelevati e le misure di conducibilità elettrica delle acque del lago, benché in numero estremamente limitato per la brevità della missione e le ovvie difficoltà logistiche, consentono alcune valutazioni preliminari sui prodotti ottenuti dalle elaborazioni. Sui campioni di roccia e sabbie sciolte, in particolare, sono state effettuate misure di riflettività in laboratorio ed analisi mineralogiche dettagliate. Per la valutazione della qualità delle acque, più precisamente delle concentrazioni di clorofilla, la metodologia utilizzata per il caso di studio egiziano è stata applicata anche sul tratto costiero adriatico antistante le foci dei fiumi Tronto e Salinello. In questo sito sono state effettuate misure in situ di conducibilità elettrica ed il prelievo di campioni di acqua per la determinazione in laboratorio delle concentrazioni di clorofilla. I risultati ottenuti hanno evidenziato le potenzialità offerte dall’informazione spettrale contenuta nelle immagini satellitari e consentono l’individuazione di alcune pratiche operative. D’altro canto hanno anche messo in luce le carenze dei modelli attualmente esistenti, nonché le criticità legate alla correzione atmosferica delle grandezze radiometriche rilevate.
Resumo:
Questo testo si pone come obbiettivo l'analisi di fattibilità tecnica e l'introduzione all'implementazione di sistemi che permettano il riutilizzo di codice sorgente di applicazioni con necessità simili su dispositivi Smartphone. In particolare su sistemi Google Android. Questo è il concetto di personalizzazione di applicazioni, in pratica la costruzione di sistemi che permettano di generare applicazioni mobile attraverso interfacce user-friendly e mediante l'uso di codice modulare. L'obbiettivo è fornire una visione globale delle soluzioni e delle problematiche di questo campo, poste come linee guida per chi intendesse studiare questo contesto o dovesse sviluppare un progetto, anche complesso, inerente alla personalizzazione di applicazioni. Sarà implementato come esempio, un web service per la personalizzazione di applicazioni Android, in particolare webview, soffermandosi in particolare sulle problematiche legate alla paternità del software e delle firme digitali necessarie per la pubblicazione sul market Android. Saranno definite alcune scelte da prendere se si sviluppano applicazioni per terzi che in seguito saranno rilasciate sul market. Nella ultima parte sarà analizzata una strategia di customizzazione attraverso alcune buone pratiche, che permette attraverso l'uso di progetti libreria e direttamente nell'ambiente di sviluppo, di realizzare codice modulare e pronto per il market Android in diverse versioni.
Resumo:
Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.
Resumo:
Il termine cloud ha origine dal mondo delle telecomunicazioni quando i provider iniziarono ad utilizzare servizi basati su reti virtuali private (VPN) per la comunicazione dei dati. Il cloud computing ha a che fare con la computazione, il software, l’accesso ai dati e servizi di memorizzazione in modo tale che l’utente finale non abbia idea della posizione fisica dei dati e la configurazione del sistema in cui risiedono. Il cloud computing è un recente trend nel mondo IT che muove la computazione e i dati lontano dai desktop e dai pc portatili portandoli in larghi data centers. La definizione di cloud computing data dal NIST dice che il cloud computing è un modello che permette accesso di rete on-demand a un pool condiviso di risorse computazionali che può essere rapidamente utilizzato e rilasciato con sforzo di gestione ed interazione con il provider del servizio minimi. Con la proliferazione a larga scala di Internet nel mondo le applicazioni ora possono essere distribuite come servizi tramite Internet; come risultato, i costi complessivi di questi servizi vengono abbattuti. L’obbiettivo principale del cloud computing è utilizzare meglio risorse distribuite, combinarle assieme per raggiungere un throughput più elevato e risolvere problemi di computazione su larga scala. Le aziende che si appoggiano ai servizi cloud risparmiano su costi di infrastruttura e mantenimento di risorse computazionali poichè trasferiscono questo aspetto al provider; in questo modo le aziende si possono occupare esclusivamente del business di loro interesse. Mano a mano che il cloud computing diventa più popolare, vengono esposte preoccupazioni riguardo i problemi di sicurezza introdotti con l’utilizzo di questo nuovo modello. Le caratteristiche di questo nuovo modello di deployment differiscono ampiamente da quelle delle architetture tradizionali, e i meccanismi di sicurezza tradizionali risultano inefficienti o inutili. Il cloud computing offre molti benefici ma è anche più vulnerabile a minacce. Ci sono molte sfide e rischi nel cloud computing che aumentano la minaccia della compromissione dei dati. Queste preoccupazioni rendono le aziende restie dall’adoperare soluzioni di cloud computing, rallentandone la diffusione. Negli anni recenti molti sforzi sono andati nella ricerca sulla sicurezza degli ambienti cloud, sulla classificazione delle minacce e sull’analisi di rischio; purtroppo i problemi del cloud sono di vario livello e non esiste una soluzione univoca. Dopo aver presentato una breve introduzione sul cloud computing in generale, l’obiettivo di questo elaborato è quello di fornire una panoramica sulle vulnerabilità principali del modello cloud in base alle sue caratteristiche, per poi effettuare una analisi di rischio dal punto di vista del cliente riguardo l’utilizzo del cloud. In questo modo valutando i rischi e le opportunità un cliente deve decidere se adottare una soluzione di tipo cloud. Alla fine verrà presentato un framework che mira a risolvere un particolare problema, quello del traffico malevolo sulla rete cloud. L’elaborato è strutturato nel modo seguente: nel primo capitolo verrà data una panoramica del cloud computing, evidenziandone caratteristiche, architettura, modelli di servizio, modelli di deployment ed eventuali problemi riguardo il cloud. Nel secondo capitolo verrà data una introduzione alla sicurezza in ambito informatico per poi passare nello specifico alla sicurezza nel modello di cloud computing. Verranno considerate le vulnerabilità derivanti dalle tecnologie e dalle caratteristiche che enucleano il cloud, per poi passare ad una analisi dei rischi. I rischi sono di diversa natura, da quelli prettamente tecnologici a quelli derivanti da questioni legali o amministrative, fino a quelli non specifici al cloud ma che lo riguardano comunque. Per ogni rischio verranno elencati i beni afflitti in caso di attacco e verrà espresso un livello di rischio che va dal basso fino al molto alto. Ogni rischio dovrà essere messo in conto con le opportunità che l’aspetto da cui quel rischio nasce offre. Nell’ultimo capitolo verrà illustrato un framework per la protezione della rete interna del cloud, installando un Intrusion Detection System con pattern recognition e anomaly detection.
Resumo:
Gli impianti di depurazione rappresentano, nei contesti urbani, elementi di imprescindibile importanza nell’ambito di una corretta gestione e tutela della risorsa idrica e dell’ambiente. Il crescente grado di antropizzazione delle aree urbanizzate e parallelamente le sempre minori disponibilità in termini di spazi utilizzabili a fini depurativi comportano sempre di più la necessità di ottimizzare i processi di dimensionamento degli impianti. Inoltre, l’obiettivo di aumentare l’efficienza del ciclo depurativo andando a minimizzare i costi correlati alla gestione degli stessi indirizza verso una omogeneizzazione nei criteri di dimensionamento adottati. In questo senso, la normativa tecnica di settore risulta carente, andandosi a concentrare prevalentemente sul rispetto di fissati standard ambientali senza però fornire indicazioni precise sui criteri di progettazione da adottare per perseguire tali standard. La letteratura scientifica pur indicando range di possibili valori di riferimento da adottare, nel dimensionamento degli impianti, lascia un ampio margine di discrezionalità al progettista. La presente tesi si pone pertanto, a partire da tali valori di letteratura, di andare a definire da un lato le caratteristiche quali-quantitative del refluo in ingresso e dall’altro i valori di riferimento da adottare in sede di progettazione per perseguire gli obiettivi precedentemente indicati. La prima parte, di valenza generale, oltre alla caratterizzazione dell’influente descrive nel dettaglio le diverse fasi del processo e il loro dimensionamento che in tutte le sezioni, ad eccezione del biologico, viene effettuato attraverso equazioni semplificate mettendo a confronto e analizzando i parametri progettuali proposti da letteratura. Per quanto riguarda il comparto biologico la maggior complessità del fenomeno da descrivere rende difficile la valutazione delle grandezze che caratterizzano il funzionamento mediante l’utilizzo di equazioni semplificate. Per questo si è deciso di modellare questo comparto, unito a quello della sedimentazione, attraverso un software (WEST) che permette non solo di simulare il processo ma anche, attraverso le analisi di scenario, di determinare quelli che sono i valori progettuali puntuali che consentono di ottenere da un lato una minimizzazione dei costi dell’impianto, sia costruttivi che gestionali, e dall’altro la massimizzazione delle rese depurative. Nello specifico si è fatto riferimento ad impianto fanghi attivi a schema semplificato con potenzialità fissata pari a 10000 AE. Il confronto con i dati di esercizio di alcuni impianti di analoga tipologia ha evidenziato che una buona capacità dello strumento di modellazione utilizzato di descrivere i processi. E’ possibile quindi concludere che tali strumenti, affiancati ad una lettura critica dei risultati ottenuti possono essere ottimi strumenti di supporto sia in fase di progettazione che in prospettiva di gestione dell’impianto al fine di ottimizzare i processi e quindi i costi.
Resumo:
Photovoltaic (PV) conversion is the direct production of electrical energy from sun without involving the emission of polluting substances. In order to be competitive with other energy sources, cost of the PV technology must be reduced ensuring adequate conversion efficiencies. These goals have motivated the interest of researchers in investigating advanced designs of crystalline silicon solar (c-Si) cells. Since lowering the cost of PV devices involves the reduction of the volume of semiconductor, an effective light trapping strategy aimed at increasing the photon absorption is required. Modeling of solar cells by electro-optical numerical simulation is helpful to predict the performance of future generations devices exhibiting advanced light-trapping schemes and to provide new and more specific guidelines to industry. The approaches to optical simulation commonly adopted for c-Si solar cells may lead to inaccurate results in case of thin film and nano-stuctured solar cells. On the other hand, rigorous solvers of Maxwell equations are really cpu- and memory-intensive. Recently, in optical simulation of solar cells, the RCWA method has gained relevance, providing a good trade-off between accuracy and computational resources requirement. This thesis is a contribution to the numerical simulation of advanced silicon solar cells by means of a state-of-the-art numerical 2-D/3-D device simulator, that has been successfully applied to the simulation of selective emitter and the rear point contact solar cells, for which the multi-dimensionality of the transport model is required in order to properly account for all physical competing mechanisms. In the second part of the thesis, the optical problems is discussed. Two novel and computationally efficient RCWA implementations for 2-D simulation domains as well as a third RCWA for 3-D structures based on an eigenvalues calculation approach have been presented. The proposed simulators have been validated in terms of accuracy, numerical convergence, computation time and correctness of results.
Resumo:
In questa tesi sono illustrate alcune sperimentazioni finalizzate alla standardizzazione del ciclo produttivo della sogliola comune (Solea solea) in cattività. E’ stato creato un parco di riproduttori selvatici ed è stata standardizzata la riproduzione ad un livello compatibile con la realtà produttiva del settore. Indagini genetiche di assegnazione parentale hanno evidenziato come alcuni esemplari siano stati predominanti negli accoppiamenti e nel conseguente contributo alla generazione della prole. Ciò ha determinato una diminuzione della variabilità genetica dei discendenti. La composizione quali-quantitativa degli acidi grassi delle uova è stata correlata con la sopravvivenza larvale nel corso di un’intera stagione riproduttiva. Tale composizione non ha subito importanti variazioni su scala temporale e sembra essere stata influenzata dall’alimentazione somministrata ai riproduttori nel periodo precedente alla riproduzione. Le analisi di interazione tra momento riproduttivo e qualità delle uova hanno confermato che è stato possibile ottenere uova di buona qualità in termini di sopravvivenza larvale nel corso di tutta la stagione riproduttiva. Larve di sogliola sono state svezzate precocemente 13 giorni dopo la schiusa riducendo l’impiego di cibo vivo a favore di micro diete commerciali. Tale svezzamento ha ridotto le performance di accrescimento, ma non la sopravvivenza e lo sviluppo della metamorfosi quando comparati ad un trattamento standard. La riduzione del cibo vivo ha ottimizzato i costi di produzione e migliorato l’igiene in vasca. L’ontogenesi di precursori di enzimi digestivi è stata determinata tramite PCR quantitativa. I risultati di espressione di tripsinogeno, chimotripsinogeno e amilasi hanno mostrato come tali enzimi rivestano un ruolo chiave nei processi digestivi delle prime fasi larvali. Esemplari giovanili hanno ottenuto un significativo maggiore indice di accrescimento e migliore indice di conversione quando alimentati con diete sperimentali contenenti un elevato tenore proteico. Un aumento dell’incidenza di vacuoli lipidici a livello epatico è stato osservato all’aumentare del tenore proteico della dieta.
Resumo:
Il BPA è un composto aromatico precursore di materiali plastici e additivi chimici, ed è entrato a far parte della categoria dei contaminanti che alterano il sistema endocrino con molteplici effetti negativi sulla salute umana (azione di mimesi estrogenica, alterazioni della funzione tiroidea e dei sistemi riproduttivo, nervoso ed immunitario). Nella fase produttiva industriale si hanno emissioni accidentali di BPA durante il trattamento e la lavorazione dei monomeri plastici. Piccole frazioni di BPA possono essere ingerite dall’uomo poiché la sostanza migra nel tempo dal contenitore alimentare al contenuto (es. bevanda in lattina o contenitore per microonde) soprattutto se esposto ad alte temperature. Anche il contatto con composti acidi o basici, la presenza di elevati livelli di cloruro di sodio o di oli vegetali, è in grado di provocare un incremento del rilascio di BPA dai materiali polimerici. Il BPA viene rilasciato dai biberon in policarbonato, che in molti Paesi sono stati ritirati dal commercio nel 2011, e da bottiglie di acqua riutilizzabili. Infine, la carta termica degli scontrini e delle fotocopie rilasciano BPA. Nell’adulto la tossicità del BPA sembra modesta, tuttavia l'esposizione nel feto e nel neonato può risultare deleteria. Al di là della tossicità, l'aspetto che al momento preoccupa maggiormente è l'effetto che il BPA ha anche a basse dosi sul metabolismo: diversi studi in tutto il mondo correlano questa sostanza all'incidenza di diabete, ipertensione, obesità e problemi cardiaci. L’attenzione per il BPA è piuttosto recente a livello umano, mentre è assai ridotta per la salute dell’ecosistema. Tuttavia è noto che il BPA è presente anche come contaminante dei suoli, e pur essendo stato documentato il suo bioaccumulo negli organismi vegetali, non sono disponibili informazioni precedenti relativi agli effetti del BPA sugli organismi animali del suolo, in linea con il fatto che il suolo è stato una matrice ambientale molto trascurata. Il presente lavoro di tesi quindi si pone come uno studio pilota per valutare la possibile tossicità del BPA su organismi modello che vivono in questa matrice. In questo studio è stato scelto come bioindicatore “sentinella” il lombrico Eisenia andrei, il comune verme rosso, come suggeriscono le linee guida internazionali (OECD, OCSE). I possibili effetti biologici del Bisfenolo A nei lombrichi sono stati indagati sia attraverso endpoint del ciclo vitale (accrescimento, riproduzione e mortalità), sia attraverso una batteria di biomarker (generali e specifici). Data la mancanza di osservazioni precedenti si è scelto un approccio integrato tra i parametri del ciclo vitale, in genere meno sensibili ma ecologicamente più rilevanti, e i biomarker, risposte più sensibili che possono rappresentare segnali precoci di allarme inerenti l’esposizione a contaminanti ambientali o l’effetto di questi ultimi sugli organismi indagati, ma non necessariamente predittivi sulla salute della comunità. Al momento non esistono batterie di biomarker specifiche per questa sostanza, quindi un ulteriore scopo della ricerca è stato quello di evidenziare biomarker utili ad indagare eventuali alterazioni biochimiche e funzionali nei lombrichi in risposta all’esposizione a dosi crescenti di bisfenolo A. Le risposte biologiche indagate sono: - la diminuzione della stabilità delle membrane lisosomiali, che indica una riduzione dello stato di salute generale degli organismi; - l’alterazione dell’attività degli enzimi catalasi e glutatione-S-trasferasi, indice di stress ossidativo o induzione di meccanismi di detossificazione; - la diminuzione dell’attività dell’enzima acetilcolinesterasi, la quale indica neurotossicità; - l’accumulo di lipofuscine o lipidi neutri, che è sintomo rispettivamente di stress ossidativo o alterazioni del metabolismo; - la variazione della malondialdeide, composto intermedio della perossidazione lipidica, indica un stress ossidativo in corso. Sulla base dei dati ottenuti possiamo dire che il BPA, alle concentrazioni ambientali, non costituisce un elemento di rischio ecologico per gli organismi sentinella Eisenia andrei. Alle concentrazioni più elevate (che superano quelle ambientali di almeno 10 volte) si osservano delle alterazioni sui livelli di lipidi neutri e lipofuscine che pur non essendo preoccupanti dal punto di vista ecologico sono indice di vulnerabilità, dato che si tratta di alterazioni del metabolismo in conseguenza delle quali gli animali accumulano residui normalmente degradati a livello lisosomiale. Questo accumulo nei lisosomi delle cellule del tessuto cloragogeno dei vermi, che rivestono il tubo digerente, sembrano indicare una esposizione attraverso la dieta a seguito della ingestione del terreno. E’interessante il fatto che l’accumulo di lipidi è in linea con le caratteristiche obesogene del BPA, ben manifestate nei mammiferi, uomo compreso. Tuttavia non ci sono ancora conoscenze sufficienti per stabilire se questo accumulo nei vermi sia dovuto ad una specifica alterazione degli enzimi di sintesi dei lipidi oppure più genericamente ad un aumento dello stress ossidativo. Molti studi stanno valutando la capacità del BPA di alterare la sintesi e il rilascio di lipidi in cellule umane e di ratto, ma non ci sono ancora studi di questo tipo per gli organismi edafici. E’ auspicabile che questo aspetto venga approfondito, ed eventualmente venga identificato un nuovo biomarker specifico dell’azione del BPA sull’accumulo di lipidi. Un altro aspetto che sarà interessante approfondire è il bioaccumulo: la valutazione del rischio ecotossicologico di una sostanza si basa anche sul potenziale di BCF che può essere pericoloso per il biota (incluso l’uomo) per trasferimento nella catena trofica. Considerando che non esistono ancora studi specifici del bioaccumulo del BPA in organismi del suolo, ed avendo messo in luce che l’assunzione della sostanza è avvenuta (probabilmente per via alimentare) ci si pone l’obiettivo futuro di valutare questo parametro nei lombrichi, in modo da avere un quadro più ampio degli effetti associati a questo interferente endocrino nei suoli.
Resumo:
Recenti analisi sull’intero trascrittoma hanno rivelato una estensiva trascrizione di RNA non codificanti (ncRNA), le quali funzioni sono tuttavia in gran parte sconosciute. In questo lavoro è stato dimostrato che alte dosi di camptotecina (CPT), un farmaco antitumorale inibitore della Top1, aumentano la trascrizione di due ncRNA antisenso in 5’ e 3’ (5'aHIF-1α e 3'aHIF-1α rispettivamente) al locus genico di HIF-1α e diminuiscono i livelli dell’mRNA di HIF-1α stesso. Gli effetti del trattamento sono Top1-dipendenti, mentre non dipendono dal danno al DNA alla forca di replicazione o dai checkpoint attivati dal danno al DNA. I ncRNA vengono attivati in risposta a diversi tipi di stress, il 5'aHIF-1α è lungo circa 10 kb e possiede sia il CAP in 5’ sia poliadenilazione in 3’ (in letteratura è noto che il 3'aHIF-1α è un trascritto di 1,7 kb, senza 5’CAP né poliadenilazione). Analisi di localizzazione intracellulare hanno dimostrato che entrambi sono trascritti nucleari. In particolare 5'aHIF-1α co-localizza con proteine del complesso del poro nucleare, suggerendo un suo possibile ruolo come mediatore degli scambi della membrana nucleare. È stata dimostrata inoltre la trascrizione dei due ncRNA in tessuti di tumore umano del rene, evidenziandone possibili ruoli nello sviluppo del cancro. È anche noto in letteratura che basse dosi di CPT in condizioni di ipossia diminuiscono i livelli di proteina di HIF-1α. Dopo aver dimostrato su diverse linee cellulari che i due ncRNA sopracitati non potessero essere implicati in tale effetto, abbiamo studiato le variazioni dell’intero miRnoma alle nuove condizioni sperimentali. In tal modo abbiamo scoperto che il miR-X sembra essere il mediatore molecolare dell’abbattimento di HIF-1α dopo trattamento con basse dosi di CPT in ipossia. Complessivamente, questi risultati suggeriscono che il fattore di trascrizione HIF-1α venga finemente regolato da RNA non-codificanti indotti da danno al DNA.
Resumo:
Questa tesi si pone come obiettivo l'analisi delle componenti di sollecitazione statica di un serbatoio, in acciaio API 5L X52, sottoposto a carichi di flessione e pressione interna attraverso il programma agli elementi finiti PLCd4, sviluppato presso l'International Center for Numerical Methods in Engineering (CIMNE - Barcelona). Questo tipo di analisi rientra nel progetto europeo ULCF, il cui traguardo è lo studio della fatica a bassissimo numero di cicli per strutture in acciaio. Prima di osservare la struttura completa del serbatoio è stato studiato il comportamento del materiale per implementare all'interno del programma una nuova tipologia di curva che rappresentasse al meglio l'andamento delle tensioni interne. Attraverso il lavoro di preparazione alla tesi è stato inserito all'interno del programma un algoritmo per la distribuzione delle pressioni superficiali sui corpi 3D, successivamente utilizzato per l'analisi della pressione interna nel serbatoio. Sono state effettuate analisi FEM del serbatoio in diverse configurazioni di carico ove si è cercato di modellare al meglio la struttura portante relativa al caso reale di "full scale test". Dal punto di vista analitico i risultati ottenuti sono soddisfacenti in quanto rispecchiano un corretto comportamento del serbatoio in condizioni di pressioni molto elevate e confermano la bontà del programma nell'analisi computazionale.
Resumo:
Il campo d’interesse della ricerca è stato l’attuale processo di ricentralizzazione del Social Housing nelle periferie urbane in una parte del contesto internazionale, che sembra stia portando le città a ricrearsi e ripensarsi grazie alla presa di coscienza delle differenze esistenti, rispetto al passato, nei nuovi processi di trasformazione nei quali la città è intesa sia come spazio costruito ma anche sociale. In virtù di quest’ultimi due aspetti complementari della città, oggi, il ruolo della periferia contemporanea sembra essere diversamente interpretato, così come gli interventi di riqualificazione di tipo assistenziale - migliorativo tenderebbero a trasformarne i suoi caratteri alla ricerca del “modello di città”. L’interesse alla tematica è inoltre scaturito dalla constatazione che alla base della crisi dei modelli d’intervento pubblico starebbero sia l’insostenibilità economica ma soprattutto l’errata lettura dei bisogni delle famiglie nella loro specificità e diversità e che in tal senso l’eventuale partecipazione della cittadinanza costituirebbe effettivamente una proposta valida, anche per risolvere la crescente domanda abitativa che si pone a livello mondiale. L’obiettivo della ricerca è stato quello d’analizzare, nel contesto internazionale del Social Housing, le caratteristiche di partecipazione e sussidiarietà che connotano particolarmente gli interventi di riqualificazione destinati a famiglie economicamente carenti, nello specifico analizzando i metodi e gli strumenti atti alla comunicazione partecipativa del progetto in aree urbane periferiche italiane e brasiliane. Nella prima e seconda fase della ricerca è stato svolto, rispettivamente, un lavoro di analisi bibliografica sul tema dell’emergenza casa e sulle nuove politiche abitative di sviluppo urbano ed uno specifico sulla tematica della riqualificazione partecipata del Social Housing in aree della periferia urbana, infine nella terza fase sono stati analizzati i casi di studio prescelti dando rilievo all’analisi delle caratteristiche e requisiti prestazionali delle tecniche partecipative di rappresentazione - comunicazione, più idonee ad influenzare positivamente il suddetto processo.