101 resultados para cambiamento organizzativo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo elaborato si pone l'obiettivo di analizzare e valutare la sostenibilità dell'intera filiera dell'olio di palma, che viene importato da paesi del Sud Est asiatico per essere utilizzato in Europa per scopi sia energetici che alimentari. Nell'introduzione è inquadrata la problematica dei biocombustibili e degli strumenti volontari che possono essere utilizzati per garantire ed incentivare la sostenibilità in generale e dei biocombustibili; è presente inoltre un approfondimento sull'olio di palma, sulle sue caratteristiche e sulla crescita che ha subito negli ultimi anni in termini di produzione e compra/vendita. Per questa valutazione sono stati impiegati tre importanti strumenti di analisi e certificazione della sostenibilità, che sono stati applicati ad uno specifico caso di studio: l'azienda Unigrà SpA. La certificazione RSPO (Roundtable on Sustainable Palm Oil) è uno strumento volontario per la garanzia della sostenibilità della filiera dell'olio di palma in termini economici (vitalità nel mercato), ambientali (risparmio delle emissioni di gas ad effetto serra o GHG, conservazione delle risorse naturali e della biodiversità) e sociali (preservazione delle comunità locali e miglioramento nella gestione delle aree di interesse). La Global Reporting Initiative è un'organizzazione che prevede la redazione volontaria di un documento chiamato bilancio di sostenibilità secondo delle linee guida standardizzate che permettono alle organizzazioni di misurare e confrontare le loro performance economiche, sociali e ambientali nel tempo. La Direttiva Comunitaria 2009/28/CE (Renewable Energy Directive o RED) è invece uno strumento cogente nel caso in cui le organizzazioni intendano utilizzare risorse rinnovabili per ottenere incentivi finanziari. A seguito di un calcolo delle emissioni di GHG, le organizzazioni devono dimostrare determinate prestazioni ambientali attraverso il confronto con delle soglie presenti nel testo della Direttiva. Parallelamente alla valutazione delle emissioni è richiesto che le organizzazioni aderiscano a dei criteri obbligatori di sostenibilità economica, ambientale e sociale, verificabili grazie a degli schemi di certificazione che rientrano all'interno di politiche di sostenibilità globale. Questi strumenti sono stati applicati ad Unigrà, un'azienda che opera nel settore della trasformazione e della vendita di oli e grassi alimentari, margarine e semilavorati destinati alla produzione alimentare e che ha recentemente costruito una centrale da 58 MWe per la produzione di energia elettrica, alimentata in parte da olio di palma proveniente dal sud-est asiatico ed in parte dallo scarto della lavorazione nello stabilimento. L'adesione alla RSPO garantisce all'azienda la conformità alle richieste dell'organizzazione per la commercializzazione e la vendita di materie prime certificate RSPO, migliorando l'immagine di Unigrà all'interno del suo mercato di riferimento. Questo tipo di certificazione risulta importante per le organizzazioni perché può essere considerato un mezzo per ridurre l'impatto negativo nei confronti dell'ambiente, limitando deforestazione e cambiamenti di uso del suolo, oltre che consentire una valutazione globale, anche in termini di sostenibilità sociale. Unigrà ha visto nella redazione del bilancio di sostenibilità uno strumento fondamentale per la valutazione della sostenibilità a tutto tondo della propria organizzazione, perché viene data uguale rilevanza alle tre sfere della sostenibilità; la validazione esterna di questo documento ha solo lo scopo di controllare che le informazioni inserite siano veritiere e corrette secondo le linee guida del GRI, tuttavia non da giudizi sulle prestazioni assolute di una organizzazione. Il giudizio che viene dato sulle prestazioni delle organizzazioni e di tipo qualitativo ma non quantitativo. Ogni organizzazione può decidere di inserire o meno parte degli indicatori per una descrizione più accurata e puntuale. Unigrà acquisterà olio di palma certificato sostenibile secondo i principi previsti dalla Direttiva RED per l'alimentazione della centrale energetica, inoltre il 10 gennaio 2012 ha ottenuto la certificazione della sostenibilità della filiera secondo lo schema Bureau Veritas approvato dalla Comunità Europea. Il calcolo delle emissioni di tutte le fasi della filiera dell'olio di palma specifico per Unigrà è stato svolto tramite Biograce, uno strumento di calcolo finanziato dalla Comunità Europea che permette alle organizzazioni di misurare le emissioni della propria filiera in maniera semplificata ed adattabile alle specifiche situazioni. Dei fattori critici possono però influenzare il calcolo delle emissioni della filiera dell'olio di palma, tra questi i più rilevanti sono: cambiamento di uso del suolo diretto ed indiretto, perché possono provocare perdita di biodiversità, aumento delle emissioni di gas serra derivanti dai cambiamenti di riserve di carbonio nel suolo e nella biomassa vegetale, combustione delle foreste, malattie respiratorie, cambiamenti nelle caratteristiche dei terreni e conflitti sociali; presenza di un sistema di cattura di metano all'oleificio, perché gli effluenti della lavorazione non trattati potrebbero provocare problemi ambientali; cambiamento del rendimento del terreno, che può influenzare negativamente la resa delle piantagioni di palma da olio; sicurezza del cibo ed aspetti socio-economici, perché, sebbene non inseriti nel calcolo delle emissioni, potrebbero provocare conseguenze indesiderate per le popolazioni locali. Per una valutazione complessiva della filiera presa in esame, è necessario ottenere delle informazioni puntuali provenienti da paesi terzi dove però non sono di sempre facile reperibilità. Alla fine della valutazione delle emissioni, quello che emerge dal foglio di Biograce e un numero che, sebbene possa essere confrontato con delle soglie specifiche che descrivono dei criteri obbligatori di sostenibilità, non fornisce informazioni aggiuntive sulle caratteristiche della filiera considerata. È per questo motivo che accanto a valutazioni di questo tipo è necessario aderire a specifici criteri di sostenibilità aggiuntivi. Il calcolo delle emissioni dell'azienda Unigrà risulta vantaggioso in quasi tutti i casi, anche considerando i fattori critici; la certificazione della sostenibilità della filiera garantisce l'elevato livello di performance anche nei casi provvisti di maggiore incertezza. L'analisi del caso Unigrà ha reso evidente come l'azienda abbia intrapreso la strada della sostenibilità globale, che si traduce in azioni concrete. Gli strumenti di certificazione risultano quindi dei mezzi che consentono di garantire la sostenibilità della filiera dell'olio di palma e diventano parte integrante di programmi per la strategia europea di promozione della sostenibilità globale. L'utilizzo e l'implementazione di sistemi di certificazione della sostenibilità risulta per questo da favorire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con questo lavoro ci si propone di esaminare il panorama del fumetto nel mondo a partire dalle ricerche di mercato a disposizione e l’argomento è stato scelto perché poco trattato in letteratura. I risultati ottenuti hanno portato a galla grosse lacune, soprattutto per quanto riguarda il reperimento di informazioni nel mercato del fumetto in Italia, all’interno del quale si è notato un cambiamento delle preferenze dei consumatori relativo al supporto da utilizzare per la fruizione dei contenuti, con uno spostamento verso il digitale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il sistema di misurazione delle performance (PMS) ha ricevuto particolare attenzione dalla ricerca in ambito accademico e dalle aziende che ogni anno investono risorse nell’implementazione e nel miglioramento di questo strumento. I ruoli assegnati al PMS possono essere: misurazione della performance, implementazione della strategia, comunicazione, allineamento dei comportamenti, apprendimento e miglioramento. Queste differenti finalità sottolineano quanto sia strategica un’efficace implementazione di tale strumento. Negli ultimi anni le aziende si trovano a dover competere in ambienti sempre più turbolenti e mutevoli. La capacità di adattarsi al cambiamento è fondamentale, pertanto anche il PMS deve essere aggiornato per garantire un’implementazione di Key Performance Indicators (KPIs) che siano appropriati e rilevanti, considerando le nuove priorità aziendali e le condizioni al contorno. Questa tesi ha come obiettivo quello di analizzare la revisione del PMS, in quanto un inappropriato set di KPIs implementati possono causare un indebolimento del potenziale di tale strumento ed ancor peggio un fallimento degli investimenti riguardanti tale strumento. L’approccio metodologico di questa tesi è un multiple case-study. Per avere una visione più ampia di come viene sviluppata la revisione del PMS nella pratica si è deciso di inserire nel campione aziende di grandi dimensioni operanti in differenti settori industriali. Le informazioni raccolte attraverso le interviste, hanno permesso di fornire un contributo non presente in letteratura: una categorizzazione delle revisioni svolte dalle aziende e riflessioni su di esse. La limitazione di questo studio è legata ad un basso numero interviste svolte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo della seguente trattazione, è quello di introdurre il concetto di efficienza energetica all’interno delle aziende, qualunque sia il loro campo d’applicazione. Per far ciò l’ISO ha emanato una nuova normativa a livello internazionale che ha il compito di aiutare le imprese ad implementare un corretto Sistema di Gestione dell’Energia. Dopo una breve introduzione sul panorama energetico nazionale, nel secondo capitolo verranno introdotte le due normative energetiche e verranno spiegate e commentate. Successivamente ci si concentrerà, a partire dal terzo capitolo, sulla grande distribuzione organizzata, la quale è stata analizzata come caso applicativo; in prima analisi verranno introdotti gli impianti presenti all’interno dei supermercati e che maggiormente impattano sul consumo energetico, in secondo analisi verranno analizzate alcune soluzioni che se correttamente implementate potrebbero portare miglioramenti in termini energetici ed economici all’interno delle GDO. Nell’ultimo capitolo si affronterà una vera e propria diagnosi energetica relativa ad un punto vendita nel quale è stato effettuato un sopralluogo per la raccolta dei dati e si analizzerà l’andamento dei consumi energetici e si introdurranno degli indici di performance appositamente pensati per un monitoraggio efficiente dei consumi energetici, infine si proporranno soluzioni espressamente pensate per il suddetto punto vendita. L’intero lavoro è stato svolto in collaborazione con una società di consulenza, la NIER Ingegneria; una società di servizi che ha come scopo la ricerca delle soluzioni più idonee a problemi di carattere prevalentemente organizzativo e tecnologico in riferimento ai settori ambiente, qualità, sicurezza, energia. Fondata nel 1977, il primo ambito lavorativo fu l’Energia: effettuò ricerche, realizzò simulazioni e banche dati, come la prima Banca Dati Metereologica italiana (su base oraria) e il calcolo dei gradi giorno per tutti i Comuni italiani. Caso raro in Italia, sono rimasti impegnati anche nel Nucleare occupandosi, prima, di sicurezza di reattori a fusione, poi di affidabilità e sicurezza della nuova macchina a fusione, l'ambizioso progetto internazionale Net/Iter. Negli anni '80, dal nucleare si sono allargati al settore dei Rischi e Incidenti rilevanti in campo industriale fornendo assistenza alle imprese e alla pubblica amministrazione e, successivamente, negli anni '90, alle attività di Analisi ambientali e di sicurezza con la produzione di piani di emergenza, manuali operativi, corsi di formazione e strategie di comunicazione ambientale. Infine, l’ Ambiente nelle sue molteplici articolazioni. Acqua, aria, suolo e sottosuolo sono stati oggetto di studi, ricerche e progetti svolti per Autorità Pubbliche, Enti di Ricerca e industrie nella direzione di uno sviluppo durevole e sostenibile. In ambito energetico si occupano di • Diagnosi e certificazioni energetiche • ISO 50001:2011 - Sistema di gestione per l'energia • Piani energetici ambientali • Simulazioni dinamiche di edifici ed impianti • Energie rinnovabili • Risparmio energetico • Attività di ricerca

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni si sente sempre più spesso parlare di cloud computing. L'idea di fondo di questo concetto è quella di pagare per il solo effettivo utilizzo di un servizio, disponibile sulla rete, avendo a disposizione la possibilità di poter variare le proprie risorse utilizzabili a seconda delle necessità, che potrebbero essere, per esempio, applicazioni standard oppure spazi di storage per i dati. Quando cominciò a diffondersi l'utilizzo del Web, la rete Internet veniva raffigurata come una nuvola (cloud) in modo tale che si rendesse l'idea di un'entità esterna rispetto alla nostra casa o al nostro posto di lavoro, un qualcosa cioè al di fuori dei luoghi abituali in cui vengono utilizzati i PC. Tale rappresentazione diventa ora utile per poter spiegare il concetto di cloud computing. Infatti, grazie a questa nuova tecnologia, dati e programmi normalmente presenti nei nostri computer potranno ora trovarsi sul cloud. Molti reparti IT sono costretti a dedicare una parte significativa del loro tempo a progetti di implementazione, manutenzione e upgrade che spesso non danno un vero valore per l'azienda. I team di sviluppo hanno cominciato quindi a rivolgersi a questa nuova tecnologia emergente per poter minimizzare il tempo dedicato ad attività a basso valore aggiunto per potersi concentrare su quelle attività strategiche che possono fare la differenza per un'azienda. Infatti un'infrastruttura come quella cloud computing promette risparmi nei costi amministrativi che raggiungono addirittura il 50% rispetto ad un software standard di tipo client/server. Questa nuova tecnologia sta dando inizio ad un cambiamento epocale nel mondo dello sviluppo delle applicazioni. Il passaggio che si sta effettuando verso le nuove soluzioni cloud computing consente infatti di creare applicazioni solide in tempi decisamente più brevi e con costi assai inferiori, evitando inoltre tutte le seccature associate a server, soluzioni software singole, aggiornamenti, senza contare il personale necessario a gestire tutto questo. L'obiettivo di questa tesi è quello di mostrare una panoramica della progettazione e dello sviluppo di applicazioni Web nel cloud computing, analizzandone pregi e difetti in relazione alle soluzioni software attuali. Nel primo capitolo viene mostrato un quadro generale in riferimento al cloud, mettendo in luce le sue caratteristiche fondamentali, esaminando la sua architettura e valutando vantaggi e svantaggi di tale piattaforma. Nel secondo capitolo viene presentata la nuova metodologia di progettazione nel cloud, operando prima di tutto un confronto con lo sviluppo dei software standard e analizzando poi l'impatto che il cloud computing opera sulla progettazione. Nel terzo capitolo si entra nel merito della progettazione e sviluppo di applicazioni SaaS, specificandone le caratteristiche comuni ed elencando le piattaforme di rilievo allo stato dell'arte. Si entrerà inoltre nel merito della piattaforma Windows Azure. Nel quarto capitolo viene analizzato nel particolare lo sviluppo di applicazioni SaaS Multi-Tenant, specificando livelli e caratteristiche, fino a spiegare le architetture metadata-driven. Nel quinto capitolo viene operato un confronto tra due possibili approcci di sviluppo di un software cloud, analizzando nello specifico le loro differenze a livello di requisiti non funzionali. Nel sesto capitolo, infine, viene effettuata una panoramica dei costi di progettazione di un'applicazione cloud.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente elaborato di tesi fornisce una descrizione delle principali caratteristiche implementative delle tecnologie attualmente maggiormente diffuse per la realizzazione di memorie a semiconduttore volatili e non. Inoltre espone in modo più dettagliato quali sono i materiali utilizzati, i principi alla base del funzionamento, le implementazioni architetturali ed i problemi delle nuove memorie non volatili Magnetoresistive (MRAM), Ferroelettriche (Fe-RAM) ed a Cambiamento di Fase (PCM). Infine, viene proposto un confronto tra le prestazioni delle diverse classi di dispositivi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. L’obbiettivo che ci poniamo con questa tesi è quindi quello di esplorare il nascente mondo del Cloud Computing, cercando di comprenderne a fondo le principali caratteristiche architetturali e focalizzando l’attenzione in particolare sullo sviluppo di applicazioni in ambiente Cloud, processo che sotto alcuni aspetti si differenzia molto dallo sviluppo orientato ad ambienti più classici. La tesi è così strutturata: nel primo capitolo verrà fornita una panoramica sul Cloud Computing nella quale saranno date anche le prime definizioni e verranno esposti tutti i temi fondamentali sviluppati nei capitoli successivi. Il secondo capitolo costituisce un approfondimento su un argomento specifico, quello dei Cloud Operating System, componenti fondamentali che permettono di trasformare una qualunque infrastruttura informatica in un’infrastruttura Cloud. Essi verranno presentati anche per mezzo di molte analogie con i classici sistemi operativi desktop. Con il terzo capitolo ci si addentra più a fondo nel cuore del Cloud Computing, studiandone il livello chiamato Infrastructure as a Service tramite un esempio concreto di Cloud provider: Amazon, che fornisce i suoi servizi nel progetto Amazon Web Services. A questo punto, più volte nel corso della trattazione di vari temi saremo stati costretti ad affrontare le problematiche relative alla gestione di enormi moli di dati, che spesso sono il punto centrale di molte applicazioni Cloud. Ci è parso quindi importante approfondire questo argomento in un capitolo appositamente dedicato, il quarto, supportando anche in questo caso la trattazione teorica con un esempio concreto: BigTable, il sistema di Google per la gestione della memorizzazione di grandi quantità di dati. Dopo questo intermezzo, la trattazione procede risalendo lungo i livelli dell’architettura Cloud, ricalcando anche quella che è stata l’evoluzione temporale del Cloud Computing: nel quinto capitolo, dal livello Infrastructure as a Service si passa quindi a quello Platform as a Service, tramite lo studio dei servizi offerti da Google Cloud Platform. Il sesto capitolo costituisce invece il punto centrale della tesi, quello che ne soddisfa l’obbiettivo principale: esso contiene infatti uno studio approfondito sullo sviluppo di applicazioni orientate all’ambiente Cloud. Infine, il settimo capitolo si pone come un ponte verso possibili sviluppi futuri, analizzando quali sono i limiti principali delle tecnologie, dei modelli e dei linguaggi che oggi supportano il Cloud Computing. In esso viene proposto come possibile soluzione il modello ad attori; inoltre viene anche presentato il framework Orleans, che Microsoft sta sviluppando negli ultimi anni con lo scopo appunto di supportare lo sviluppo di applicazioni in ambiente Cloud.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La green chemistry può essere definita come “l’utilizzo di una serie di principi che riducono o eliminano l’uso o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici”. . È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Lo scopo del presente lavoro di tesi è l’analisi degli impatti ambientali associati a processi chimici, ambito ancora poco sviluppato nella letteratura degli studi di LCA. Viene studiato e modellato il ciclo di vita (dall’ottenimento delle materie prime fino alla produzione del prodotto) della reazione di ammonossidazione per la produzione di acrilonitrile, valutando e comparando due alternative di processo: quella tradizionale, che utilizza propilene ( processo SOHIO), e le vie sintetiche che utilizzano propano, ad oggi poco sviluppate industrialmente. Sono stati pertanto creati sei scenari: due da propene (SOHIO FCC, con propene prodotto mediante Fluid Catalytic Cracking, e SOHIO Steam), e quattro da propano (ASAHI, MITSUBISHI, BP povero e ricco in propano). Nonostante la produzione dell’alcano abbia un impatto inferiore rispetto all’olefina, dovuto ai minori stadi di processo, dai risultati emerge che l’ammonossidazione di propano ha un impatto maggiore rispetto a quella del propene. Ciò è dovuto ai processi catalitici che utilizzano propano, che differiscono per composizione e prestazioni, rispetto a quelli da propene: essi risultano meno efficienti rispetto ai tradizionali, comportando maggiori consumi di reattivi in input . Dai risultati emerge che gli scenari da propano presentano maggiori impatti globali di quelli da propene per le categorie Cambiamento climatico, Formazione di materiale e Consumo di combustibili fossili. Invece per la categoria Consumo di metalli un impatto maggiore viene attribuito ai processi che utilizzano propene, per la maggior percentuale di metalli impiegata nel sistema catalitico, rispetto al supporto. L’analisi di contributo, eseguita per valutare quali sono le fasi più impattanti, conferma i risultati. Il maggior contributo per la categoria Consumo di combustibili fossili è ascrivibile ai processi di produzione del propano, dell’ammoniaca e del solfato di ammonio ( legato all’ammoniaca non reagita ). Stessi risultati si hanno per la categoria Cambiamento climatico, mentre per la categoria Formazione di materiale particolato, gli impatti maggiori sono dati dai processi di produzione del solfato di ammonio, del propano e dell’acido solforico (necessario per neutralizzare l’ammoniaca non reagita). Per la categoria Consumo di metalli, il contributo maggiore è dato dalla presenza del catalizzatore. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il bacino ligure, pur facendo parte della più grande area marina protetta del Mar Mediterraneo, il Santuario Pelagos, risulta essere una regione in cui le attività umane stanno condizionando la presenza di numerose specie di Cetacei. Fra tutte Tursiops truncatus, in virtù della sua distribuzione limitata per lo più alle acque basse (<200 metri) è la specie maggiormente soggetta alle conseguenze dirette e indirette dell’impatto antropico. Questo elaborato è stato condotto all’interno del più ampio progetto “Delfini Metropolitani” coordinato dall’Acquario di Genova. L’area di studio presa in esame è l’intero levante ligure con tre stazioni di ormeggio: Genova, Rapallo e Lerici. Tramite la tecnica della cattura-ricattura fotografica è stato possibile analizzare la distribuzione ed effettuare delle stime di abbondanza per il periodo di studio 2005 – 2012. Dai risultati e dal confronto con altri studi è emerso che il tursiope vive entro la piattaforma continentale e sembrerebbe che all’aumentare di quest’ultima aumenti la dimensione della popolazione. Per il periodo di studio considerato la popolazione non fa registrare trend demografici significativi, rimanendo costante fra 150 - 250 individui. In questo elaborato si sono anche studiate le differenze fra maschi e femmine nell’evoluzione dei marcaggi naturali. I risultati preliminari hanno mostrato una differenza significativa fra i due sessi. Il maschio ha un valore maggiore come cambiamento rispetto alle femmine, questo è dovuto al fatto che gli individui maschi hanno interazioni spesso aggressive per poter accedere alle femmine. Infine grazie all’analisi dell’evoluzione dei marcaggi naturali e delle differenze trovate, si è proposto un nuovo metodo per poter sessare gli animali. Questo qui proposto, comunque, è un metodo derivante da uno studio preliminare e si ha bisogno di successivi studi per testarne l’efficienza e l’affidabilità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con lo sviluppo di nuovi sistemi di telecomunicazione e con i progressi nelle applicazioni mediche ed industriali, l’uomo è sempre più esposto a campi elettromagnetici. Sorge quindi la volontà di indagare sui loro potenziali effetti nocivi, manifestatasi nel corso di diversi decenni di ricerca. Risultano di particolare interesse sanitario i campi elettromagnetici ad alta frequenza (HF-EMF) prodotti dai telefoni cellulari, in quanto il loro utilizzo implica il posizionamento dell’apparecchio in prossimità dell’orecchio, e quindi del cervello. Nel 2011 l’Agenzia Internazionale dell'OMS per la Ricerca sul Cancro (IARC), ha classificato gli HF-EMF come “possibilmente cancerogeni”, in quanto l’evidenza epidemiologica è stata giudicata “limitata”. Successivamente l’OMS si è espressa in favore di ulteriori ricerche giustificate dal crescente uso di telefoni cellulari, mentre non è stata richiesta l’adozione di misure precauzionali di limitazione al loro utilizzo. Emerge dunque la necessità di proseguire gli studi, che con questa tesi abbiamo indirizzato all’enzima acetilcolinesterasi (AChE). L’AChE svolge un ruolo importante nella trasmissione sinaptica in quanto catalizza l’idrolisi dell’acetilcolina (ACh), importante neurotrasmettitore nel sistema nervoso umano e animale. Lo studio dell’attività dell’AChE presenta una rilevante importanza dal punto di vista sanitario considerando che il deterioramento progressivo delle cellule neuronali, riscontrato nel Morbo di Alzheimer, è attribuito ad una diminuzione del livello del neurotrasmettitore ACh (Lane et al. 2005). A partire dagli anni 80, sono stati svolti studi sull’attività dell’enzima a seguito di esposizioni a EMF, i quali hanno evidenziato nella maggior parte dei casi un cambiamento dell’attività stessa. Il presente lavoro si avvale di un valido sistema di irraggiamento ad alta frequenza che simula l’esposizione ai segnali GSM; lo studio è stato svolto sulla linea cellulare PC12, cellule tumorali derivanti da feocromocitoma di ratto capaci di secernere e immagazzinare ACh e AChE. Sono state valutate in particolare l’attività enzimatica e l’espressione genica dell’AChE nelle cellule PC12 esposte ad una frequenza portante di 1,8 GHz con frequenza di modulazione di 217 Hz, condizioni alle quali lavorano comunemente gli apparati di telefonia mobile in modalità GSM, per un periodo di 24 h. I risultati ottenuti mostrano un aumento dell’attività dell’enzima AChE dei campioni irraggiati rispetto ai controlli, con variazione della Vmax ma non della Km, mentre non è stata rilevata alcuna variazione significativa dell’espressione genica, analizzata mediante PCR real-time. Nelle cellule PC12, si aveva una maggiore attività ed espressione genica dell’enzima in cellule trattate con forskolin e dbcAMP, impiegati come stimoli positivi. Questi risultati suggeriscono il coinvolgimento del sistema AMPc–dipendente nel controllo dell’espressione genica dell’enzima. L’AMPc, pur agendo tipicamente come secondo messaggero nella trasduzione del segnale chimico, in molte cellule di diversi organismi sembra essere aumentato anche in condizioni di stress. In particolare l’effetto si esplicava infatti sulla isoforma AChER, indotta in condizioni di stress. Il fatto che l’aumento dell’attività enzimatica di AChE indotto da HF-EMF non sia associato né all’aumento dell’affinità per il substrato, né all’aumento del numero di molecole, suggerisce l’ipotesi che i campi elettromagnetici ad alta frequenza agiscano sul microambiente di membrana che circonda l’enzima, per esempio determinando cambiamenti delle condizioni all’interno della matrice lipidica, influenzando fortemente la sua attività. Sarà interessante valutare in futuro come l’aumento della Vmax di reazione venga indotto in assenza di aumento dei trascritti genici. In conclusione il presente lavoro non fornisce risposte circa gli effetti del segnale GSM sulla salute umana, ma consente di affermare l’esistenza di un’interazione dei campi elettromagnetici con il modello biologico da noi utilizzato, richiamando l’attenzione sull’attività di questo enzima come possibile “indicatore” dell’interazione cellulare con tali segnali. Tale “indicatore”, ricercato da molti anni, non è mai stato individuato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dalla collaborazione fra il Comune di Ravenna ed ENI ha preso origine il progetto “RIGED – Ra” ossia il “Progetto di ripristino e gestione delle dune costiere ravennati”. Nell’ambito di tale attività sperimentale si è voluto effettuare una caratterizzazione dell’idrologia di una limitata, ma rappresentativa, porzione dell’acquifero freatico costiero situata in un cordone di dune posto nella Pineta di Lido di Classe, a sud di Foce Bevano. Lo studio si pone di essere rappresentativo per le caratteristiche idrogeologiche delle dune costiere adriatiche nella zona di Ravenna. A tale fine è stato valutato l’andamento di alcuni parametri chimico-fisici delle acque sotterranee; inoltre, è stata monitorata mensilmente la profondità della tavola d’acqua (water table - WT). Questi monitoraggi hanno permesso di descrivere la distribuzione delle acque dolci e di quelle salate nonché la loro dinamica stagionale. Infine, è stata eseguita un’analisi idro-geochimica con l’intento di valutare la tipologia delle acque presenti nell’area in esame e la loro eventuale variazione stagionale. Per la raccolta dei campioni è stata sfruttata l’innovativa metodologia a minifiltri utilizzata da alcuni anni nel nord dell’Europa, in modo particolare in Olanda. Questa tecnica ha due caratteristiche peculiari: i tempi di campionamento vengono ridotti notevolmente ed, inoltre, permette un’ottima precisione e rappresentatività delle acque di falda a diverse profondità poiché si effettua un campionamento ogni 0,50 m. L’unico limite riscontrato, al quale vi è comunque rimedio, è il fatto che la loro posizione risulti fissa per cui, qualora vi siano delle fluttuazioni dell’acquifero al di sopra del minifiltro più superficiale, queste non vengono identificate. È consigliato quindi utilizzare questo metodo di campionamento poiché risulta essere più performante rispetto ad altri (ad esempio al sistema che sfrutta lo straddle packers SolinstTM ) scegliendo tra due diverse strategie per rimediare al suo limite: si aggiungono minifiltri superficiali che nel periodo estivo si trovano nella zona vadosa dell’acquifero oppure si accompagna sempre il campionamento con una trivellata che permetta il campionamento del top della falda. Per quanto concerne la freatimetria il campionamento mensile (6 mesi) ha mostrato come tutta l’area di studio sia un sistema molto suscettibile all’andamento delle precipitazioni soprattutto per la fascia di duna prossima alla costa in cui la scarsa vegetazione e la presenza di sedimento molto ben cernito con una porosità efficace molto elevata facilitano la ricarica dell’acquifero da parte di acque dolci. Inoltre, sul cordone dunoso l’acquifero si trova sempre al di sopra del livello medio mare anche nel periodo estivo. Per questa caratteristica, nel caso l’acquifero venisse ricaricato artificialmente con acque dolci (Managed Aquifer Recharge), potrebbe costituire un efficace sistema di contrasto all’intrusione salina. Lo spessore d’acqua dolce, comunque, è molto variabile proprio in funzione della stagionalità delle precipitazioni. Nell’area retro-dunale, invece, nel periodo estivo l’acquifero freatico è quasi totalmente al di sotto del livello marino; ciò probabilmente è dovuto al fatto che, oltre ai livelli topografici prossimi al livello medio mare, vi è una foltissima vegetazione molto giovane, ricresciuta dopo un imponente incendio avvenuto circa 10 anni fa, la quale esercita una notevole evapotraspirazione. È importante sottolineare come durante la stagione autunnale, con l’incremento delle precipitazioni la tavola d’acqua anche in quest’area raggiunga livelli superiori a quello del mare. Dal monitoraggio dei parametri chimico – fisici, in particolare dal valore dell’Eh, risulta che nel periodo estivo l’acquifero è un sistema estremamente statico in cui la mancanza di apporti superficiali di acque dolci e di flussi sotterranei lo rende un ambiente fortemente anossico e riducente. Con l’arrivo delle precipitazioni la situazione cambia radicalmente, poiché l’acquifero diventa ossidante o lievemente riducente. Dalle analisi geochimiche, risulta che le acque sotterranee presenti hanno una composizione esclusivamente cloruro sodica in entrambe le stagioni monitorate; l’unica eccezione sono i campioni derivanti dal top della falda raccolti in gennaio, nei quali la composizione si è modificata in quanto, il catione più abbondante rimane il sodio ma non si ha una dominanza di un particolare anione. Tale cambiamento è causato da fenomeni di addolcimento, rilevati dall’indice BEX, che sono causati all’arrivo delle acque dolci meteoriche. In generale, si può concludere che la ricarica superficiale e la variazione stagionale della freatimetria non sono tali da determinare un processo di dolcificazione in tutto l’acquifero dato che, nelle zone più profonde, si rivela la presenza permanente di acque a salinità molto superiore a 10 g/L. La maggior ricarica superficiale per infiltrazione diretta nelle stagioni a più elevata piovosità non è quindi in grado di approfondire l’interfaccia acqua dolce-acqua salata e può solamente causare una limitata diluizione delle acque di falda superficiali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi fa parte di un piano monitoraggio sulla Pialassa dei Piomboni coordinato dal Centro Interdipartimentale di Ricerca per le Scienze Ambientali (CIRSA, Università di Bologna) il cui scopo è stato quello di valutare la presenza di batteri solfato-riduttori (sulphatereducing bacteria SRB) in questa laguna costiera sia nell'acqua che nei sedimenti. Lo sviluppo di odori sgradevoli che avviene periodicamente nella Pialassa dei Piomboni ha fatto sorgere la necessità di verificare l'eventuale presenza di questi batteri. La Pialassa dei Piomboni è una laguna costiera a nord della citta di Ravenna. Si tratta di un'area in evidente stato di degrado a causa di pesanti interventi di antropizzazione e industrializzazione che stanno determinando forti problemi di inquinamento. La qualità dell’acqua di tale bacino risente infatti dei numerosi scarichi inquinati provenienti dal polo industriale e portuale, e di ingenti carichi trofici di origine agricola che entrano in laguna soprattutto attraverso l'idrovora di San Vitale. Questi input di nutrienti stimolano la proliferazione fitoplanctonica, la quale aumenta l'input di materiale organico sul fondo con conseguente riduzione della disponibilita di ossigeno e cambiamento nella struttura dei popolamenti bentonici. L'ipossia che ne consegue determina la diffusione di batteri in grado di degradare anaerobicamente la materia organica, quali ad esempio i solfato-riduttori. Questi batteri utilizzano il solfato come accettore finale di elettroni, che viene ridotto a solfuro di idrogeno. La determinare della presenza di batteri solfato-riduttori nei campioni di acqua e sedimento è stata svolta mediante utilizzo di una metodologia molecolare basata sull’estrazione dell’eDNA (environmental DNA) dalle matrici ambientali e la successiva amplificazione (PCR) di un tratto genico codificante l’enzima solfito reduttasi (dissimilatory sulfite reductase dsrAB), specifico di questi batteri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ultimo decennio ha visto un radicale cambiamento del mercato informatico, con la nascita di un numero sempre maggiore di applicazioni rivolte all’interazione tra utenti. In particolar modo, l’avvento dei social network ha incrementato notevolmente le possibilità di creare e condividere contenuti sul web, generando volumi di dati sempre maggiori, nell’ordine di petabyte e superiori. La gestione di tali quantità di dati ha portato alla nascita di soluzioni non relazionali appositamente progettate, dette NoSQL. Lo scopo di questo documento è quello di illustrare come i sistemi NoSQL, nello specifico caso di MongoDB, cerchino di sopperire alle difficoltà d’utilizzo dei database relazionali in un contesto largamente distribuito. Effettuata l'analisi delle principali funzionalità messe a disposizione da MongoDB, si illustreranno le caratteristiche di un prototipo di applicazione appositamente progettato che sfrutti una capacità peculiare di MongoDB quale la ricerca full-text. In ultima analisi si fornirà uno studio delle prestazioni di tale soluzione in un ambiente basato su cluster, evidenziandone il guadagno prestazionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Attualmente il panorama informatico è dominato dai dispositivi mobile: smartphone e tablet pc dominano incontrastati la scena del mercato elettronico. Questo comporta un radicale ripensamento e cambiamento del software, le web app e le mobile application richiedono infatti una sempre maggiore reattività dell’interfaccia utente, la persistente connessione a Internet e l’interazione con una moltitudine di dispositivi esterni. Il progettista di software deve oggi far fronte a tutta una serie di problematiche, l’aumentata complessità dei sistemi e i sempre più ristretti tempi di sviluppo e consegna richiedono compromessi tra la semplicità delle tecniche di progettazione e l’efficienza del prodotto ottenuto. Le architetture ad eventi in primis, unitamente al paradigma di programmazione asincrona, si pongono come soluzione ottimale a queste esigenze. L’obbiettivo principale di questa tesi è quello di offrire una panoramica generale sullo stato dell’arte delle architetture ad eventi focalizzandosi sul ruolo che esse assumono nel contesto delle applicazioni moderne, intendendo principalmente con questo termine le web application e le mobile application. Partendo dal concetto di programmazione sincrona e parallela si giunge a descrivere un terzo modello, il modello asincrono, di fondamentale importanza per i sistemi event-driven. Utilizzando come principale linguaggio di riferimento JavaScript si affrontano le problematiche legate alla stesura del codice per la gestione degli eventi, l’asincronicità intrinseca degli eventi e l’utilizzo di funzioni di callback portano a produrre codice di difficile lettura e manutenzione. Si analizzano quindi in dettaglio i pattern fondamentali e le tecniche attualmente utilizzate per l’ottimizzazione della gestione del codice e delle problematiche esposte fornendo numerosi esempi esplicativi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il paesaggio lagunare porta i segni di importanti interventi antropici che si sono susseguiti dall’epoca romana ad oggi, a partire dalle prima centuriazioni, per seguire con le grandi opere di bonifica e deviazione dei fiumi sino alla rapida trasformazione di Jesolo Lido, da colonia elioterapica degli anni ‘30 a località turistica internazionale. L’insediamento nella zona “Parco Pineta” si propone come costruzione di un paesaggio artificiale, funzionale all’uso particolare del tempo libero in un grande spazio aperto, strettamente connesso alla città e aderente a luoghi precisamente connotati quali sono la pineta, il borgo, il canale e le residenze turistiche progettate dall’architetto Gonçalo Byrne. Le scale di progetto sono due, quella territoriale e quella architettonica. Il progetto mira a connettere i centri di Jesolo e Cortellazzo con un sistema di percorsi ciclabili. Il fiume Piave consente di combinare il turismo sostenibile con la possibilità di ripercorrere i luoghi delle memorie storiche legate al primo conflitto bellico mondiale. L’intenzione è quella di rendere Cortellazzo parte integrante di un itinerario storico, artistico e naturalistico. Il Parco Pineta si configurerebbe così come il punto di partenza di un percorso che risalendo il fiume collega il piccolo borgo di Cortellazzo con San Donà e con il suo già noto Parco della Scultura in Architettura. Alla scala territoriale è l’architettura del paesaggio, il segno materiale, l’elemento dominante e caratterizzante il progetto. L’articolazione spaziale dell’intervento è costruita seguendo la geometria dettata dall’organizzazione fondiaria e la griglia della città di fondazione, con l’intento chiaro di costruire un “fatto territoriale” riconoscibile. L’unità generale è affidata al quadrato della Grande Pianta entro il quale vengono definite le altre unità spaziali. L’insieme propone uno schema organizzativo semplice che, scavalcando il Canale Cavetta, ricongiunge le parti avulse del territorio. Il grande quadrato consente di frazionare gli spazi definendo sistemi integrati diversamente utilizzabili cosicché ogni parte dell’area di progetto abbia una sua connotazione e un suo interesse d’uso. In questo modo i vincoli morfologici dell’area permettono di costruire ambienti specificamente indirizzati non solo funzionalmente ma soprattutto nelle loro fattezze architettoniche e paesistiche. Oggetto di approfondimento della tesi è stato il dispositivo della piattaforma legata all’interpretazione del sistema delle terre alte e terre basse centrale nel progetto di Byrne. Sulla sommità della piattaforma poggiano gli edifici dell’auditorium e della galleria espositiva.