999 resultados para Educazione scientifica ed educazione alla sostenibilita
Resumo:
Il calcestruzzo è uno dei materiali più utilizzati nell’edilizia, ma il meno sostenibile. Per la sua produzione vengono sfruttate elevate quantità di risorse naturali non rinnovabili con un impatto ambientale non trascurabile, sia per le sostanze emesse in atmosfera, sia per le macerie derivate post utilizzo. L’ingresso nel XXI secolo ha segnato definitivamente l’affermazione del concetto di sviluppo sostenibile nei riguardi di tutti i processi produttivi dei beni, che devono essere necessariamente strutturati secondo una logica di risparmio energetico e di controllo della produzione di scorie e rifiuti, prevedendone un loro riutilizzo in altri settori, o un loro smaltimento senza provocare danni all’ambiente. Anche l’industria del cemento e del calcestruzzo è chiamata a svolgere il proprio ruolo per contribuire ad un miglior bilancio ecologico globale, indirizzando la ricerca verso possibilità d’impiego di materiali “innovativi”, che siano in grado di sostituire parzialmente o totalmente l’uso di materie prime non rinnovabili, tenendo conto dell’enorme richiesta futura di infrastrutture, soprattutto nei paesi in via di sviluppo. Negli ultimi anni si sta sempre più affermando il potenziale del riciclo dei materiali ottenuti dalla demolizione di edifici (C&DW – Construction and Demolition Waste), questo dovuto anche a politiche di gestione dei rifiuti che incentivano il risparmio, il riutilizzo, il riciclo e la valorizzazione dei beni. I calcestruzzi con aggregati di riciclo sono generalmente suddivisi in due macrogruppi: quelli ottenuti da aggregati di riciclo di solo calcestruzzo (RCA – Recycled Coarse Aggregate) e quelli da aggregati da demolizione totale (MRA – Mixed Recycled Aggregate) che però contengono molte impurità. Come anche uno può subito pensare gli aggregati riciclati hanno delle proprietà diverse da quelli naturali, questi contengono oltre l’aggregato naturale anche il legante coeso, polveri di laterizio, vetro, ceramica, plastica eccet., i quali offrono una miscela ricca di cloruri, solfati, silice amorfa ed altri componenti dannosi per la nuova miscela di calcestruzzo. In presenza di questi prodotti, gli aggregati non solo non soddisfano i requisiti chimici, ma influiscono negativamente anche sulle proprietà fisico-meccaniche del calcestruzzo. Per questo vedremmo in questa tesi tramite un accurata analisi degli aggregati, e del loro “contributo” per il corretto comportamento del calcestruzzo, leggendo criticamente come le normative regolano i requisiti che gli aggregati debbono soddisfare, vedendo le varie possibilità di riutilizzo dei materiali di riciclo da demolizione. La tesi mira all'incentivo dei materiali da riciclo, come scelta sostenibile per il futuro dell'edilizia. E' stato calcolato che la produzione totale di macerie da demolizione nel mondo, non supera il 20% in massa degli aggregati che vengono utilizzati per la produzione del calcestruzzo nei paesi sviluppati. Dai vari studi è stato valutato in media che col solo 20% di riciclato sostituito, le caratteristiche del calcestruzzo indurito cambiano di poco dal normale miscelato con aggregati naturali; ovviamente se gli aggregati da riciclo sono stati selezionati e sottoposti ai vari test delle norme europee standardizzate. Quindi uno può subito pensare in linea teorica, tralasciando i costi di gestione, trasporto eccet. , che basta utilizzare per ogni metro cubo di calcestruzzo 20% di riciclato, per rispondere allo smaltimento dei rifiuti da C&D; abbassando cosi i costi degli inerti naturali, sempre parlando di economie di scala. Questo è in linea teorica, ma riflette un dato rilevante. Nel presente lavoro si partirà da una veloce lettura sul comportamento del calcestruzzo, su i suoi principali costituenti, concentrandoci sugli aggregati, analizzandone le sue proprietà fisico-meccaniche, quali la granulometria, la resistenza meccanica e la rigidezza, valutando l’importanza dei legami coesivi tra aggregato alla pasta cementizia. Verranno inoltre analizzate le azioni deleterie che possono instaurarsi tra aggregato di riciclo e pasta cementizia. Dopo aver visto le varie politiche sulla gestione dei rifiuti, la legislazione passata e presente sull’uso dei materiali riciclati, si analizzeranno vari studi sulle proprietà fisico-meccaniche dei calcestruzzi con aggregati di riciclo seguiti da università e poli di ricerca internazionali. Se gli aggregati di riciclo sono selezionati con metodo, in presenza di piani di gestione regionale e/o nazionale, è possibile soddisfare le prestazioni richieste del calcestruzzo, nel rispetto delle politiche di sostenibilità economico-ambientali. Può essere il calcestruzzo riciclato una scelta non solo sostenibile, ma anche economica per il settore edile? Si può avere un calcestruzzo riciclato ad alte prestazioni? Quali sono le politiche da mettere in atto per un mercato di produzione sostenibile del riciclato? Questo e molto altro verrà approfondito nelle pagine seguenti di questa tesi.
Resumo:
L’evoluzione dei sensori multispettrali e la prospettiva di sviluppo dei sensori iperspettrali nel campo del telerilevamento ottico offrono nuovi strumenti per l’indagine del territorio e rinnovano la necessità di ridefinire potenzialità, limiti e accuratezza delle metodologie tradizionali. Nel caso delle immagini iperspettrali, in particolare, l’elevatissima risoluzione spettrale apre nuove possibilità di sviluppo di modelli fisicamente basati per correlare grandezze radiometriche con indicatori fisico-chimici caratteristici delle superfici osservate, a prezzo però di maggiori oneri nella gestione del dato. Il presente lavoro mira appunto ad esaminare, per alcune applicazioni di carattere ambientale e attraverso casi di studio specifici, le criticità del problema del rilevamento da remoto nel suo complesso: dai problemi di correzione radiometrica delle immagini, all'acquisizione di dati di calibrazione sul campo, infine all'estrazione delle informazioni di interesse dal dato telerilevato. A tal fine sono stati sperimentati diversi modelli di trasferimento radiativo ed è stata sviluppata un’interfaccia per la gestione del modello 6SV. Per quest’ultimo sono state inoltre sviluppate routine specifiche per il supporto dei sensori Hyperion e World View 2. La ricerca svolta intende quindi offrire un contributo alla definizione di procedure operative ripetibili, per alcune applicazioni intimamente connesse all’indagine conoscitiva ed al monitoraggio dei processi in atto sul territorio. Nello specifico, si è scelto il caso di studio dell’oasi del Fayyum, in Egitto, per valutare il contenuto informativo delle immagini satellitari sotto tre diversi profili, soltanto in apparenza distinti: la classificazione della litologia superficiale, la valutazione dello stato di qualità delle acque ed il monitoraggio delle opere di bonifica. Trattandosi di un’oasi, le aree coltivate del Fayyum sono circondate dai suoli aridi del deserto libico. La mancanza di copertura vegetale rappresenta una condizione privilegiata per l’osservazione della litologia superficiale da remoto, auspicabile anche per la scarsa accessibilità di alcune aree. Il fabbisogno idrico dell’oasi è garantito dall’apporto di acque del fiume Nilo attraverso una rete di irrigazione che ha, come recettore finale, il lago Qarun, situato nella porzione più depressa dell’oasi. Questo lago, privo di emissari, soffre enormi problemi di salinizzazione, visto il clima iper-arido in cui si trova, e di inquinamento da fertilizzanti agricoli. Il problema della sostenibilità ambientale dello sfruttamento agricolo intensivo dell’oasi è un problema di deterioramento della qualità dell’acqua e della qualità dei suoli. È un problema che richiede una adeguata conoscenza del contesto geologico in cui questi terreni sono inseriti ed una capacità di monitoraggio degli interventi di bonifica ed estensione delle coltivazioni in atto; entrambe conoscenze necessarie alla definizione di un piano di sviluppo economico sostenibile. Con l’intento di contribuire ad una valutazione delle effettive potenzialità del telerilevamento come strumento di informazione territoriale, sono state sperimentate tecniche di classificazione di immagini multispettrali ASTER ed iperspettrali Hyperion di archivio per discriminare la litologia superficiale sulle aree adiacenti al lago Qarun nell’oasi del Fayyum. Le stesse immagini Hyperion di archivio più altre appositamente acquisite sono state utilizzate, assieme ad immagini multispettrali ALI, per la valutazione qualitativa e quantitativa di parametri di qualità delle acque, attraverso l’applicazione di modelli empirici di correlazione. Infine, per valutare l’ipotesi che il deterioramento della qualità delle acque possa essere correlato ai processi di bonifica ed estensione delle coltivazioni in atto negli ultimi decenni, le immagini dell’archivio Landsat sono state utilizzate per analisi di change detection. Per quanto riguarda il problema della validazione dei risultati, si è fatto uso di alcuni dati di verità a terra acquisiti nel corso di un survey preliminare effettuato nell’Ottobre 2010. I campioni di roccia prelevati e le misure di conducibilità elettrica delle acque del lago, benché in numero estremamente limitato per la brevità della missione e le ovvie difficoltà logistiche, consentono alcune valutazioni preliminari sui prodotti ottenuti dalle elaborazioni. Sui campioni di roccia e sabbie sciolte, in particolare, sono state effettuate misure di riflettività in laboratorio ed analisi mineralogiche dettagliate. Per la valutazione della qualità delle acque, più precisamente delle concentrazioni di clorofilla, la metodologia utilizzata per il caso di studio egiziano è stata applicata anche sul tratto costiero adriatico antistante le foci dei fiumi Tronto e Salinello. In questo sito sono state effettuate misure in situ di conducibilità elettrica ed il prelievo di campioni di acqua per la determinazione in laboratorio delle concentrazioni di clorofilla. I risultati ottenuti hanno evidenziato le potenzialità offerte dall’informazione spettrale contenuta nelle immagini satellitari e consentono l’individuazione di alcune pratiche operative. D’altro canto hanno anche messo in luce le carenze dei modelli attualmente esistenti, nonché le criticità legate alla correzione atmosferica delle grandezze radiometriche rilevate.
Resumo:
Lo sviluppo negli ultimi decenni di strumentazioni sempre più pratiche, versatili, veloci ed economicamente accessibili, ha notevolmente incrementato la capacità delle aziende, in particolar modo quelle operanti nel settore dell'industria alimentare, nel cogliere le potenzialità di una tecnologia che applica rigore scientifico a una materia a lungo considerata liminale e di secondaria rilevanza, quale quella cromatica. A fronte di ciò, si è ritenuto opportuno introdurre strumenti di misura formalizzati a livello internazionale, atti a individuare e verificare parametri di colore, i quali attestassero la qualità della materia prima utilizzata, nonché riconducibili a una tecnologia di produzione di massa. L’attuale progetto deriva dalla necessità di un’azienda produttrice di concentrati in pasta e semi-lavorati in polvere per la gelateria e la pasticceria, di introdurre un sistema di misurazione oggettiva del colore, che vada a sostituirsi a una valutazione soggettiva, a lungo ritenuta come unico metodo valido di analisi. Il ruolo rivestito all’interno di tale azienda ha consentito, grazie anche al supporto fornito dal Controllo Qualità, la realizzazione di un elaborato finale di sintesi, contenente i risultati delle analisi colorimetriche condotte su alcune paste concentrate. A partire dunque dalla letteratura scientifica elaborata in materia, si è proceduto inizialmente, alla realizzazione di una parte generale riguardante la descrizione del colore, delle sue proprietà e manifestazioni, e dei metodi di misurazione, ripercorrendo le tappe dalla nascita delle prime teorie fino all’adozione di uno spazio di colore universale; una seconda sperimentale, in cui si elaborano- tramite software statistici (Anova , Spectra Magic Nx)- i parametri colorimetrici e il pH dei singoli campioni. In particolare, la determinazione del colore su paste concentrate, ha permesso di valutare in maniera oggettiva le variazioni di colore in termini di coordinate L*, a*, b*, che avvengono durante il periodo di conservazione (24-36 mesi). Partendo dai dati oggettivi di colore, sono state definite semplici equazioni che descrivono l'andamento dei parametri in funzione dei mesi di conservazione e del pH del prodotto. Nell’ottica del miglioramento della gestione della qualità delle aziende specializzate nella produzione di semilavorati-concentrati per le gelaterie, il presente lavoro ha fornito uno spunto per la realizzazione e l’applicazione di un sistema di controllo del colore durante la conservazione del prodotto; ha anche permesso di definire le linee per un sistema di analisi colorimetrica utile alla messa a punto di un database aziendale comprensivo d’indici, stime e annotazioni. Tale database dovrà essere mirato all’ottenimento di un sempre più alto livello di qualità del prodotto, suggerendo allo stesso tempo possibili interventi correttivi (maggior standardizzazione del colore e possibile definizione di un adeguato intervallo di tolleranza), ma anche a un miglioramento nella gestione di problematiche in fase di produzione e quindi, l’incremento della capacità produttiva con conseguente riduzione dei tempi di evasione degli ordini. Tale contributo ha consentito a delineare le future prospettive di sviluppo favorendo l’implementazione (nella realtà aziendale) di un approccio strumentale e quindi oggettivo, in relazione alle più comuni problematiche di tipo colorimetrico, al fine di migliorare il valore qualitativo del prodotto.
Resumo:
Oggetto dell’elaborato è il vaglio di ammissibilità dei ricorsi in materia civile avanti alla Corte di cassazione francese. Il primo dei tre capitoli ha ad oggetto alcuni aspetti storici ed ordinamentali ritenuti essenziali per una migliore comprensione del giudizio civile di cassation: dalle origini storiche della Corte di cassazione, alle funzioni attualmente attribuite alla Cour de cassation, sino alla presentazione dei membri che la compongono e delle differenti formazioni, non solo giudicanti, nelle quali può riunirsi; in tale capitolo trova, altresì, spazio una rassegna delle riforme che si sono susseguite negli ultimi decenni, volte, in maniera più o meno diretta, a contrastare il sovraccarico di ricorsi che affliggeva la S.C. francese ed a rafforzarne la funzione nomofilattica. Il secondo capitolo è interamente dedicato all’analisi della disciplina del processo civile avanti alla Cour de cassation. Dopo aver affrontato la questione della classificazione del mezzo di impugnazione, vengono illustrati i caratteri tradizionalmente attribuiti al pourvoi en cassation (assenza di effetto devolutivo e di effetto sospensivo), nonché la c.d. ouverture del ricorso, ossia le condizioni di ammissibilità dello stesso; sono, infine, descritti le fasi in cui si svolge il giudizio e l’esito del procedimento. L’attenzione si rivolge, nel terzo capitolo, a quel peculiare momento del giudizio rappresentato dal vaglio preliminare di ammissibilità del ricorso. Dopo un breve excursus storico, la tesi si sofferma sulla disciplina odierna, trattando, in particolare, i criteri offerti alle formazioni ridotte per la valutazione di ammissibilità del pourvoi; le peculiarità del procedimento volto alla dichiarazione di non-admission del ricorso; la natura, il contenuto e gli effetti della decisione della formation restreinte. Particolare attenzione è prestata, in tale capitolo, alle prassi applicative che integrano la scarna disciplina dell’istituto ed alla compatibilità del vaglio preliminare con la Convenzione Europea dei Diritti dell’Uomo.
Resumo:
Il lavoro è una rassegna di fonti letterarie antiche, greche e latine fino alla fine del II sec. d.C., della Liburnia, ossia la regione storica intorno al golfo del Quarnaro, comprese le isole. Oltre ad un’analisi dei singoli passi degli autori citati al termine di ogni città o altro luogo geografico indicato si trova una scheda riassuntiva in cui si fa il punto dei dati che derivano dalle fonti citate, per vedere in che cosa esse sono utili per tracciare un quadro complessivo dell’abitato nell’epoca antica. Naturalmente, per procedere ad un lavoro di questo genere, si fa un costante confronto con gli altri tipi di fonti presenti, in gran parte quelle archeologiche ed epigrafiche, necessarie per la storia sociale ed istituzionale delle località in questione. Laddove i toponimi non indichino città, ma altri luoghi piuttosto si dedica spazio alla localizzazione geografica in situazione spesso di contraddizione tra la dottrina, non sempre recente ed aggiornata con le ultime scoperte epigrafiche, in particolare di cippi confinari. Scopo finale della tesi è appunto quello di verificare luogo per luogo quali progressi possano essere fatti, per definire in modo preciso da un lato la geografia fisica della regione e dall’altro la storia istituzionale e la Romanizzazione dei centri, che non fu uniforme ed organica.
Resumo:
Non può dirsi ancora raggiunta una completa, appagante e condivisa definizione di criminalità organizzata: eppure tale concetto viene ampiamente utilizzato, entrando nel linguaggio comune e –soprattutto- in quello normativo e giurisprudenziale. Attraverso il susseguirsi di numerosi interventi legislativi, abbiamo assistito alla progressiva elaborazione del c.d. doppio binario: di una normativa, cioè, ad hoc per i reati di criminalità organizzata, caratterizzata da un rilevante arretramento delle ordinarie soglie di garanzia previste dall’ordinamento giuridico. Alla luce di prioritarie esigenze di legalità si giustifica l’impellente necessità di giungere alla elaborazione di una precisa definizione di criminalità organizzata. A tale fine, nel corso del presente lavoro, sono stati esaminati i principali approcci definitori individuati a livello socio-criminologico, giurisprudenziale ed in ambito normativo, con particolare attenzione al diritto penale e processual-penalistico; si è inoltre proceduto all’analisi delle principali definizioni riscontrabili a livello comunitario ed internazionale.
Resumo:
Progettazione del telaio di una macchina automatica formatrice per brik. Per giungere a tale risultato è stato fondamentale risalire alla definizione delle leggi di moto e dei sistemi a camme generanti il movimento delle parti, per poter calcolare correttamente i carichi in gioco sollecitanti la struttura.
Resumo:
Dopo aver introdotto l'argomento della certificazione energetica attraverso l'analisi delle direttive europee in materia, delle legislazioni nazionali, dei regolamenti regionali e delle procedure di calcolo (ITACA, LEED, etc.) si passa poi allo studio di un caso reale, la Masseria Sant'Agapito. All'inquadramento della masseria e delle attività connesse, segue un focus sull'edificio attualmente adibito a b&b, del quale si esegue la diagnosi sperimentale (termografia all'infrarosso, test di tenuta, etc.) e la certificazione con l'ausilio del software DOCET di ENEA. Si delineano quindi interventi atti alla riqualificazione energetica e alla riduzione dei consumi per tale edificio. In seguito si ipotizza un progetto di recupero funzionale, da attuarsi secondo i criteri della conservazione dell'esistente e della bioedilizia, impiegando materiali naturali e con un ciclo di vita a basso impatto ecologico. Alla progettazione d'involucro, segue la progettazione dell'impianto termico alimentato a biomassa, degli impianti solare termico (autocostruito) e fotovoltaico (inegrato in copertura) e del generatore mini-eolico. Tali tecnologie consentono, attraverso l'impiego di fonti di energia rinnovabile, la totale autosufficienza energetica e l'abbattimento delle emissioni climalteranti riferibili all'esercizio dell'edificio. La certificazione energetica di tale edificio, condotta questa volta con l'ausilio del software TERMUS di ACCA, consente una classificazione nella categoria di consumo "A".
Resumo:
Il lavoro di ricerca descrive il percorso che ha portato alla redazione del Piano Strutturale del Verde del Comune di Senigallia (AN), quale strumento capace di migliorare la qualità di vita ed il benessere della città, intesa come ecosistema, e dei cittadini, quali parte integrante e, al tempo stesso, fruitori di suddetto ecosistema. Lo studio ha pertanto previsto dapprima un'analisi approfondita e dettagliata dell’intero territorio comunale e, successivamente, la stesura di linee guida e la definizione di soluzioni progettuali tipo indirizzate ad una pianificazione e gestione sostenibile del territorio. Il lavoro svolto non si limita alla descrizione del Piano Strutturale del Verde, ma illustra anche un caso studio francese, quale modello di analisi dell'iter successivo, che è consigliabile seguire dopo l'approvazione di questo tipo di Piani, al fine di renderli concreti ed operativi ed attuare, quindi, le linee guida da essi definite. L’obiettivo risulta dunque quello di evitare che questo importante strumento di pianificazione e gestione del territorio sia dimenticato in un cassetto degli Uffici Comunali.
Resumo:
"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.
Resumo:
Le tecniche di polimerizzazione radicalica vivente hanno acquisito negli ultimi anni grande risonanza presso la comunità scientifica, grazie alla loro versatilità sia in termini di monomeri utilizzabili, che di condizioni operative. Oltre a ciò, esse permettono un buon controllo del peso molecolare e della struttura chimica del polimero e prevedono anche la possibilità di funzionalizzare facilmente i gruppi terminali delle catene. Tra queste tecniche, la Reversible Addition–Fragmentation chain Transfer polymerization (RAFT) risulta essere una delle più conosciute ed utilizzate, in quanto permette di ottenere materiali funzionalizzati con architetture molecolari particolarmente sofisticate e/o strutture in grado di autoorganizzarsi spazialmente. In questo contesto, sono stati sintetizzati mediante RAFT dei copolimeri anfifilici contenenti cromofori azobenzenici, in grado di autoassemblarsi in micelle sensibili a stimoli esterni, quali variazioni di temperatura e irraggiamento luminoso ad una adeguata lunghezza d’onda.
Resumo:
Analisi "dall'interno" del settore della comunicazione multimediale, attraverso l'analisi di un caso aziendale complesso vissuto in prima persona dall'autrice. Il caso tratta di un micro-distretto di aziende della Grafica, del Web e del Multimedia nel suo ciclo di vita dal 1998 al 2003, analizzando le mutazioni del comportamento organizzativo nelle sue differenti fasi di nascita, ascesa e declino. L'obiettivo è quello di identificare i comportamenti organizzativi favorevoli e contrari alla sopravvivenza nel settore, fornendo indicazioni per un corretto comportamento manageriale in un ambito creativo relativo ad una rete di imprese co-specializzate.
Resumo:
Nell’ambito del presente lavoro sperimentale sono state prese in considerazione differenti tecniche, tradizionali ed innovative, per la determinazione del contenuto di acqua presente negli oli extravergine di oliva. Seppur presente nell'olio in quantità limitata, l'acqua é in grado di favorire la dissoluzione e veicolare componenti minori idrofilici (come le molecole a struttura fenolica e polifenolica) all'interno di micelle inverse che si creano nella matrice lipidica quando alla superficie acqua-olio si aggregano composti anfifilici (come i digliceridi, i monogliceridi, gli acidi grassi liberi, i fosfolipidi etc.) che danno luogo alla formazione di aggregati colloidali. I risultati ottenuti su un set di 60 campioni hanno evidenziato come esistano correlazioni positive e soddisfacenti tra le diverse metodiche analitiche tradizionali quali la titolazione titrimetrica di Karl Fisher e quelle gravimetriche per essiccamento in stufa o mediante termobilancia. La migliore correlazione in termini di R2 con valore pari a circa 0,82 è stata ottenuta tra i metodi Karl Fisher ed essiccamento in stufa, mentre per esempio quella tra i due metodi gravimetrici (stufa e termobilancia) ha fatto registrare un valore inferiore (0,70). Pur essendosi verificate delle soddisfacenti correlazioni tra le tre tecniche tradizionali, i valori del contenuto in acqua dei campioni si sono presentati variabili in funzione dell'utilizzo di una modalità di misurazione rispetto all'altra. Tale variabilità é funzione di diversi fattori: la difficoltà di determinare l'acqua fortemente legata nel caso dei metodi per essiccamento; la perdita in peso causata anche da altri componenti in grado di volatilizzare alle condizioni analitiche adottate; la possibilità di formazione di composti non originariamente presenti come risultato di modificazioni chimiche indotte dall'elevata temperatura. Il contenuto di acqua è stato quindi stimato anche mediante una tecnica innovativa a basso costo basata su misure dielettriche. Considerato che l’olio extravergine di oliva è noto essere un ottimo isolante, il fenomeno dielettrico osservato risulta essere di natura capacitiva. Il risultato di correlazione ottenuto su un set di 23 oli extravergini di oliva applicando in parallelo questa tecnica rapida e la misura gravimetrica con stufa (che é un metodo ISO), è da considerarsi soddisfacente, con un R2 pari anche in questo caso a 0,82. In conclusione, le tecniche attualmente utilizzate per la determinazione del contenuto di acqua in oli extravergine di oliva risultano tra loro correlate. Considerando che tali tecniche tradizionali sono dispendiose o in termini di tempo (gravimetrico mediante stufa) o in termini di consumo di reagenti e solventi (titrimetrico con reattivo di Karl Fischer), il nuovo approccio sperimentato mediante misure capacitive può essere considerato molto interessante anche se, sicuramente, sarà da applicare ad un numero più ampio di campioni per rendere l'evidenza sperimentale più robusta.
Resumo:
Con questo mio lavoro di tesi ho voluto esplorare il fenomeno del maltrattamento e dell’abuso sui minori delineandone, sulla base della letteratura scientifica nazionale ed internazionale, gli aspetti clinici, epidemiologici ed i fattori di rischio. Un breve excursus giuridico illustrerà, poi, gli articoli di legge relativi alla tutela dei minori; in particolare, ci si soffermerà ad illustrare quegli articoli che normano i doveri dei sanitari nei confronti dell’autorità giudiziaria nel caso si sospetti un abuso su minori. La conoscenza della semeiotica dell’abuso, il suo riconoscimento all’interno di una diagnostica differenziale clinico-forense, la corretta repertazione e la consapevolezza che, un approccio autenticamente tutelante verso la vittima, deve sempre realizzarsi all’interno di una cornice giuridica fanno si che, il ruolo della medicina legale, competente in tutti questi ambiti, diventi senza ombra di dubbio “primum inter pares” all’interno dei team multidisciplinari ed interistituzionali che si occupano di minori vitti. Il gruppo scientifico in cui sono stata inserita e con cui si è proceduto alla redazione del manuale è il Gruppo di lavoro per l’abuso e il maltrattamento dell’infanzia coordinato dalla dott.ssa Maria Rosa Giolito ed ha coinvolto professionisti italiani afferenti a tre differenti aree sanitarie: quella ginecologica, quella medico-legale e quella pediatrica. Il testo elaborato è stato immaginato come un aiuto ai professionisti medici che si trovano a valutare un soggetto prepubere con sospetto di abuso sessuale. Non costituisce una linea-guida per la diagnosi di abuso sessuale, ma definisce alcuni requisiti essenziali e diffonde alcune conoscenze per evitare errori che possano ripercuotersi negativamente sulla valutazione clinica e sull’eventuale conseguente iter giudiziario.