1000 resultados para curva di ritenzione idrica
Resumo:
Nella definizione di incidente rilevante presente nelle Direttive Seveso, come pure nel loro recepimento nella legislazione italiana, rientrano eventi incidentali che abbiano conseguenze gravi per il bersaglio “ambiente”, sia in concomitanza sia in assenza di effetti dannosi per l’uomo. Tuttavia, a fronte di questa attenzione al bersaglio “ambiente” citata dalle norme, si constata la mancanza di indici quantitativi per la stima del rischio di contaminazione per i diversi comparti ambientali e, conseguentemente, anche di metodologie per il loro calcolo. Misure di rischio quantitative consolidate e modelli condivisi per la loro stima riguardano esclusivamente l’uomo, con la conseguenza che la valutazione di rischio per il bersaglio “ambiente” rimane ad un livello qualitativo o, al più, semi-quantitativo. Questa lacuna metodologica non consente di dare una piena attuazione al controllo ed alla riduzione del rischio di incidente rilevante, secondo l’obiettivo che le norme stesse mirano a raggiungere. E d‘altra parte il verificarsi periodico di incidenti con significativi effetti dannosi per l’ambiente, quali, ad esempio lo sversamento di gasolio nel fiume Lambro avvenuto nel febbraio 2010, conferma come attuale e urgente il problema del controllo del rischio di contaminazione ambientale. La ricerca presentata in questo lavoro vuole rappresentare un contributo per colmare questa lacuna. L’attenzione è rivolta al comparto delle acque superficiali ed agli sversamenti di liquidi oleosi, ovvero di idrocarburi insolubili in acqua e più leggeri dell’acqua stessa. Nel caso in cui il rilascio accidentale di un liquido oleoso raggiunga un corso d’acqua superficiale, l’olio tenderà a formare una chiazza galleggiante in espansione trasportata dalla corrente e soggetta ad un complesso insieme di trasformazioni fisiche e chimiche, denominate fenomeni di “oil weathering”. Tra queste rientrano l’evaporazione della frazione più volatile dell’olio e la dispersione naturale dell’olio in acqua, ovvero la formazione di una emulsione olio-in-acqua nella colonna d’acqua al di sotto della chiazza di olio. Poiché la chiazza si muove solidale alla corrente, si può ragionevolmente ritenere che l’evaporato in atmosfera venga facilmente diluito e che quindi la concentrazione in aria dei composti evaporati non raggiunga concentrazioni pericolose esternamente alla chiazza stessa. L’effetto fisico dannoso associato allo sversamento accidentale può pertanto essere espresso in doversi modi: in termini di estensione superficiale della chiazza, di volume di olio che emulsifica nella colonna d’acqua, di volume della colonna che si presenta come emulsione olio-in-acqua, di lunghezza di costa contaminata. In funzione di questi effetti fisici è possibile definire degli indici di rischio ambientale analoghi alle curve di rischio sociale per l’uomo. Come una curva di rischio sociale per l’uomo esprime la frequenza cumulata in funzione del numero di morti, così le curve di rischio sociale ambientale riportano la frequenza cumulata in funzione dell’estensione superficiale della chiazza, ovvero la frequenza cumulata in funzione del volume di olio che emulsifica in acqua ovvero la frequenza cumulata in funzione del volume di colonna d’acqua contaminato ovvero la frequenza cumulata in funzione della lunghezza di costa contaminata. Il calcolo degli indici di rischio così definiti può essere effettuato secondo una procedura analoga al calcolo del rischio per l’uomo, ovvero secondo i seguenti passi: 1) descrizione della sorgente di rischio; 2) descrizione del corso d’acqua che può essere contaminato in caso di rilascio dalla sorgente di rischio; 3) identificazione, degli eventi di rilascio e stima della loro frequenza di accadimento; 4) stima, per ogni rilascio, degli effetti fisici in termini di area della chiazza, di volume di olio emulsificato in acqua, di volume dell’emulsione olio-in-acqua, lunghezza di costa contaminata; 5) ricomposizione, per tutti i rilasci, degli effetti fisici e delle corrispondenti frequenze di accadimento al fine di stimare gli indici di rischio sopra definiti. Al fine di validare la metodologia sopra descritta, ne è stata effettuata l’applicazione agli stabilimenti a rischio di incidente rilevante presenti nei bacini secondari che fanno parte del bacino primario del Po. E’ stato possibile calcolare gli indici di rischio per ogni stabilimento, sia in riferimento al corso d’acqua del bacino secondario a cui appartengono, sia in riferimento al Po, come pure ottenere degli indici di rischio complessivi per ogni affluente del Po e per il Po stesso. I risultati ottenuti hanno pienamente confermato la validità degli indici di rischio proposti al fine di ottenere una stima previsionale del rischio di contaminazione dei corsi d’acqua superficiali, i cui risultati possano essere utilizzati per verificare l’efficacia di diverse misure di riduzione del rischio e per effettuare una pianificazione d’emergenza che consenta, in caso di incidente, di contenere, recuperare e favorire la dispersione dell’olio sversato.
Resumo:
Il progetto degli edifici privi di smorzatori viscosi eseguito adottando un fattore di riduzione delle forze R5 (fattore di struttura q del D.M.14/01/08) relativo ad uno smorzamento ξ = 5%, mentre per quelli equipaggiati con smorzatori viscosi il fattore di riduzione delle forze adottato sarà R30 = α R5 relativo ad uno smorzamento ξ = 30%, dove il parametro α è un valore tale da garantire un uguale o maggiore livello di sicurezza della struttura ed è assunto pari a 0,9 da analisi precedenti. Quello che in conclusione si vuole ottenere è che la richiesta di duttilità delle strutture con R30 e ξ = 30% sia minore o uguale di quella richiesta dalle strutture con R5 e ξ = 5%: μd30 ≤ μd5 Durante il percorso di tesi è stata anche valutata una procedura di definizione delle curve di Pushover manuale; la procedura indaga un modo rapido e concettualmente corretto per definire un ordine di grandezza della curva di capacità della struttura.
Resumo:
Elaborazione di un modello parametrico dei coefficienti della curva di Pacejka, al fine di rendere possibile la stima delle prestazioni dello pneumatico in tutte le condizioni di carico e di campanatura.
Resumo:
In quest’ultimi decenni si è assistito ad un notevole miglioramento nella terapia delle Leucemie Acute (LA) pediatriche, nonostante tutto si assiste oggi ad una fase di plateau della curva di sopravvivenza e le leucemie continuano a costituire la principale causa di morte pediatrica per malattia. Ulteriori progressi nel trattamento delle LA potrebbero essere ottenuti mediante studi di farmacogenomica che, identificando le componenti genetiche associate alla risposta individuale ai trattamenti farmacologici, consentono il disegno di terapie personalizzate e tumore-specifiche, ad alta efficacia e bassa tossicità per ciascun paziente. Il lavoro svolto è stato, dunque, finalizzato allo studio della farmacogenomica del farmaco antitumorale Clofarabina (CLO) nel trattamento delle LA pediatriche al fine di identificare marcatori genetici predittivi di risposta delle cellule leucemiche al farmaco, delucidare i meccanismi di resistenza cellulare ed individuare nuovi bersagli verso cui indirizzare terapie più mirate ed efficaci. L’analisi in vitro della sensibilità alla CLO di blasti provenienti da pazienti pediatrici affetti da Leucemia Acuta Linfoblastica (LAL) e Mieloide (LAM) ha consentito l’identificazione di due sottopopolazioni di cellule LAL ad immunofenotipo T a diversa sensibilità alla CLO. Mediante DNA-microarrays, si è identificata la “signature” genetica specificamente associata alla diversa risposta delle cellule LAL-T al farmaco. Successivamente, la caratterizzazione funzionale dei geni differenziali e l’analisi dei pathways hanno consentito l’identificazione specifica di potenziali biomarcatori di risposta terapeutica aprendo nuove prospettive per la comprensione dei meccanismi di resistenza cellulare alla CLO e suggerendo un nuovo bersaglio terapeutico per le forme LAL-T a bassa sensibilità al farmaco. In conclusione, nel lavoro svolto si sono identificati set di geni e pathways di rilievo biologico per la risposta delle cellule LAL-T alla CLO suggerendo marcatori genetici in grado di identificare i soggetti eleggibili per il trattamento o verso cui disegnare terapie innovative. Il lavoro è paradigma per l’applicazione della farmacogenomica in altre neoplasie.
Resumo:
L’invarianza spaziale dei parametri di un modello afflussi-deflussi può rivelarsi una soluzione pratica e valida nel caso si voglia stimare la disponibilità di risorsa idrica di un’area. La simulazione idrologica è infatti uno strumento molto adottato ma presenta alcune criticità legate soprattutto alla necessità di calibrare i parametri del modello. Se si opta per l’applicazione di modelli spazialmente distribuiti, utili perché in grado di rendere conto della variabilità spaziale dei fenomeni che concorrono alla formazione di deflusso, il problema è solitamente legato all’alto numero di parametri in gioco. Assumendo che alcuni di questi siano omogenei nello spazio, dunque presentino lo stesso valore sui diversi bacini, è possibile ridurre il numero complessivo dei parametri che necessitano della calibrazione. Si verifica su base statistica questa assunzione, ricorrendo alla stima dell’incertezza parametrica valutata per mezzo di un algoritmo MCMC. Si nota che le distribuzioni dei parametri risultano in diversa misura compatibili sui bacini considerati. Quando poi l’obiettivo è la stima della disponibilità di risorsa idrica di bacini non strumentati, l’ipotesi di invarianza dei parametri assume ancora più importanza; solitamente infatti si affronta questo problema ricorrendo a lunghe analisi di regionalizzazione dei parametri. In questa sede invece si propone una procedura di cross-calibrazione che viene realizzata adottando le informazioni provenienti dai bacini strumentati più simili al sito di interesse. Si vuole raggiungere cioè un giusto compromesso tra lo svantaggio derivante dall’assumere i parametri del modello costanti sui bacini strumentati e il beneficio legato all’introduzione, passo dopo passo, di nuove e importanti informazioni derivanti dai bacini strumentati coinvolti nell’analisi. I risultati dimostrano l’utilità della metodologia proposta; si vede infatti che, in fase di validazione sul bacino considerato non strumentato, è possibile raggiungere un buona concordanza tra le serie di portata simulate e osservate.
Resumo:
L’elaborato descrive la progettazione di un prototipo per misure spettroscopiche di desorbimento termico e i primi esperimenti effettuati con esso. Vengono descritti in dettaglio gli strumenti peculiari di tale apparato, come lo spettrometro di massa quadrupolo e la pompa a diffusione e le parti costruite ad hoc per tale dispositivo, ovvero la struttura del portacampione e del sostegno al forno utilizzato per il riscaldamento delle sostanze analizza- te. Particolare importanza `e posta nella descrizione della parte software del prototipo, che utilizza la tecnologia del DDE (Dynamic Data Exchange) per comunicare i dati tra due programmi diversi operanti su una medesima piattaforma; viene quindi illustrato il funzionamento del software comunicante direttamente con lo spettrometro e del programma LabView creato per il monitoraggio e il salvataggio dei dati raccolti da tale apparato. L’ultima parte dell’elaborato riguarda i primi esperimenti di spettroscopia di desorbimento termico effettuati, comprendendo sia quelli preliminari per testare la qualità del prototipo sia quelli da cui `e possibile ottenere una curva di desorbimento termico per i vari gas analizzati in camera, come ad esempio idrogeno.
Resumo:
In questo elaborato sono descritti la progettazione e lo sviluppo di un sistema tomografico con sorgente di raggi X da 300 kV per analisi nel campo dei Beni Culturali; in particolare sono stati effettuati test preliminari sia per verificare le prestazioni del tubo a raggi X e dello schermo scintillatore sia per avere indicazioni utili alla progettazione (e conseguente costruzione) del box di rivelazione. Il collaudo della sorgente di raggi X è stato eseguito con lo studio dell'andamento della dose integrale e/o del rateo di dose in funzione della tensione, della corrente e del tempo d'irraggiamento. La caratterizzazione dello schermo scintillatore di CsI(Tl) è basata sul confronto delle sue caratteristiche con uno schermo analogo di spessore differente nelle stesse condizioni sperimentali, attraverso lo studio dei parametri standard dei dispositivi per imaging, quali la curva di risposta, il rapporto segnale-rumore e la risoluzione spaziale. Inoltre, come ulteriore test, lo schermo scintillatore è stato utilizzato per l’indagine tomografica di alcuni pani di terra contenenti olle di epoca villanoviana. Per la progettazione del box rivelatore sono state invece svolte misure di tipo ottico. I vari test svolti in laboratorio hanno dato risultati positivi e hanno dimostrato la validità dei componenti scelti per il nuovo sistema tomografico, il cui assemblaggio verrà completato a breve, essendo stata ultimata proprio in queste settimane la costruzione del box di rivelazione.
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.
Resumo:
La proteinuria è un marker di danno renale nel cane. L’obiettivo dello studio è di valutare la capacità del dipstick urinario e dell’UPC di diagnosticare precocemente l’albuminuria nel cane. Sono stati raccolti 868 campioni di urina, con sedimento spento e assenza di ematuria, nell’Ospedale Didattico Veterinario della Facoltà di Medicina Veterinaria di Bologna. Per 550 campioni è stata effettuata l’analisi delle urine, la misurazione dell’UPC e dell’UAC, mentre UPC e UAC sono stati misurati in tutti gli 868 campioni. I campioni di urina sono stati analizzati con il metodo dipstick mediante lettura automatizzata. Utilizzando come valore di riferimento l’UAC è stata valutata l’accuratezza diagnostica del dipstick urinario e dell’UPC. L’intervallo di riferimento dell’UAC (0-0,024) è stato determinato utilizzando 60 cani sani. I dati raccolti sono stati classificati utilizzando differenti cut-off per il peso specifico urinario (1012 o 1030), per la proteinuria al dipstick (30 o 100 mg/dl), per l’UPC (0,2) e per l’UAC (0,024). Sono stati valutati l’agreement diagnostico e la correlazione di Spearman tra dipstick, UPC e UAC. E’ stata stimata l’accuratezza diagnostica misurando l’area al di sotto della curva di ROC nell’analisi dell’UAC. Il livello di significatività è stato definito per p < 0,05. Indipendentemente dal peso specifico urinario, l’agreement diagnostico tra dipstick, UPC e UAC è risultato forte (k=0,62 e k=0,61, rispettivamente; p<0,001) con valori di dipstick ≥30 mg/dl, debole (k=0,27 e k=0,26, rispettivamente; p<0,001) con valori di dipstick ≥100 mg/dl. L’accuratezza diagnostica del dipstick messa a confronto con UPC e con UAC è molto buona (AUC 0,84 e 0,84, rispettivamente; p<0,001) e i risultati negativi al dipstick presentano il 100% di sensitività. UPC e UAC sono fortemente correlate (r=0,90; p<0,001). Mettendo a confronto UPC e UAC, l’accuratezza diagnostica è risultata eccellente (AUC 0,94; p<0,001), con massima sensitività e specificità per UPC≥0.3.
Resumo:
Progetto SCATh allo ZHAW. Il dipartimento di meccatronica (IMS) dell'Università di scienze applicate di Winterthur (ZHAW), ha partecipato attivamente al progetto SCATh concentrandosi principalmente sullo sviluppo, il condizionamento, e la modellizzazione di un sensore di flusso che fosse facilmente applicabile e di piccole dimensioni in modo da poter essere applicato su catetere e permettere la misura diretta della grandezza fisica sopracitata. All'interno della struttura universitaria è stato possibile inizialmente analizzare il fenomeno che sta alla base del sensore, utilizzando conoscenze già presenti in dispositivi quali l'anemometria a filo caldo, che sfruttano lo scambio di calore tra sensore (riscaldato) e fluido sanguigno. La realizzazione del circuito di condizionamento è stato il passo successivo, necessario sia per mantenere il sensore ad una temperatura voluta e sia per leggere i dati di flusso mediante una tensione in uscita. Una volta effettuato ciò si è proceduto alla calibrazione del sensore (relazione tra flusso e tensione) ed infine alla trasposizione del circuito su LTspice. Nell' Introduzione (Capitolo 1) verranno presentati tutti i concetti preliminari, ossia i principi fisici, necessari a comprendere il funzionamento del sensore. Dunque dopo una breve definizione di flusso (riferito a liquidi) saranno presentati i principi di trasmissione del calore con particolare attenzione riservata alla convezione. Infine, parte dello stesso capitolo sarà dedicata ad una descrizione anatomica dell'aorta e dei rami collaterali. Successivamente nel secondo capitolo verrà analizzato, sia dal punto di vista statico che dal punto di vista dinamico, il circuito di condizionamento, ossia la circuiteria che sta a valle del sensore. Questo circuito permette al sensore di acquisire talune caratteristiche fondamentali per la misura di velocità ed inoltre consente la trasduzione da variabile fisica (velocità del flusso) a variabile elettrica (Tensione). In questo capitolo verrà inoltre fornita una descrizione delle relazioni matematiche fondamentali che legano la temperatura del sensore, la velocità del flusso e la tensione in uscita. Una descrizione del set sperimentale utilizzato per raccogliere dati sarà presente nel terzo capitolo. Qui si troverà una descrizione di tutte le attrezzature utilizzate al fine di poter testare il funzionamento del sensore. Nel quarto capitolo verranno visualizzati i risultati ottenuti facendo riferimento ai test effettuati prima su acqua e successivamente su sangue (suino). Verrà inoltre trovata la curva di calibrazione che permetterà di trovare una relazione biunivoca tra velocità del flusso e tensione in uscita. Infine, nel quinto capitolo verrà proposto un modello del circuito di condizionamento ottenuto mediante LTspice. Mediante il modello sarà possibile simulare un flusso di una velocità voluta e seguire l'andamento della tensione e della temperatura del sensore.
Resumo:
Ci rendiamo conto del valore dell’acqua solamente quando scarseggia. Fino ad oggi il problema poteva sembrare limitato ai Paesi più poveri di tale risorsa, ma le cose potrebbero cambiare perché l’acqua “di qualità” – ossia dolce e non inquinata – rappresenta solo una minima percentuale delle nostre riserve. E noi ne usiamo sempre di più: sia perché aumenta la popolazione della Terra, sia perché il maggiore benessere raggiunto da molti Paesi spinge la popolazione a consumare (e sprecare) più acqua. Un consumo che va esaminato non solo in termini “reali” (calcolando le quantità che si usano per la cura personale, per la cucina o per la pulizia della casa), ma anche “virtuali” (in termini di impronta idrica), stimando cioè tutta l’acqua che è stata utilizzata lungo l’intero ciclo di vita di un qualunque prodotto o servizio acquistato. Basti pensare che se si modificasse il proprio stile alimentare, passando ad esempio a prediligere una dieta più ricca di frutta, verdura e cereali, limitando la quantità di proteine animali, sarebbe possibile ridurre anche in modo significativo i consumi di acqua “virtuale”. Quindi, se da un lato la domanda cresce e dall’altro le risorse si riducono, anche per colpa dell’inquinamento e del cambiamento climatico, è sicuro che il valore economico dell’acqua aumenterà e le disuguaglianze, già oggi presenti, potranno portare nuovi attriti. Per questi motivi diventa fondamentale il concetto di Water Footprint, ossia l’analisi delle quantità di acqua utilizzata all’interno di tutta la filiera che porta alla produzione di un prodotto finito. Visto il mio corso di studi in ingegneria gestionale, ho deciso di concentrarmi principalmente sul concetto di Water Footprint all’interno dell’ambito industriale, analizzando in particolare il caso di un’azienda dell’Emilia Romagna. Ho scelto questo argomento perché sono sempre stato interessato all’ambiente e alla sua salvaguardia. Trattare nella tesi tale tema mi è sembrato utile per approfondire e diffondere concetti come quelli dell’impronta idrica e dell’acqua virtuale che, pur discussi a livello internazionale ormai da anni, tardano ancora ad essere affrontati in maniera ampia in Italia, che è il terzo Paese importatore netto di acqua virtuale al mondo.
Resumo:
Nel lavoro di Tesi ci si è occupati dello studio delle sorgenti appenniniche di Mulino delle Vene, site a Carpineti, in Provincia di Reggio Emilia, e della modellazione dei deflussi sotterranei nell’acquifero fratturato che le alimenta. In particolare, sono state eseguite delle analisi idrologiche con l'obiettivo di quantificare la variazione di risorsa idrica nell'area in risposta al trend di variazione dell'uso del suolo. Successivamente si sono caratterizzate le sorgenti di Mulino delle Vene e l'acquifero che le alimeta per mezzo di analisi idrogeologiche. Infine, si è realizzato un modello numerico agli elementi finiti in grado di simulare i deflussi sotterranei nel periodo di scarico delle sorgenti e in assenza di ricarica.
Resumo:
I GC rappresentano i laboratori ideali nei quali studiare la dinamica stellare e i suoi effetti sull'evoluzione stellare; infatti, sono gli unici sistemi astrofisici soggetti a quasi tutti i processi fisici noti nella dinamica stellare, entro il tempo scala dell'età dell'Universo. Questo lavoro di tesi si inserisce nell'ambito di un progetto di ricerca che mira ad una dettagliata caratterizzazione dell'evoluzione dinamica dei GC della Galassia. In particolare, la misura delle velocità radiali di un ampio campione di stelle poste a differenti distanze dal centro dell’ammasso permette di derivare il profilo di dispersione di velocità del sistema,il quale ne riflette lo stato dinamico ed è utile per verificare la possibile presenza di un buco nero di massa intermedia al centro dell'ammasso. Lo studio delle velocità radiali delle singole stelle può altresì fornire informazioni riguardo la distribuzione di massa del sistema,oltreché la presenza di un'eventuale rotazione. Inoltre, la conoscenza della sola distribuzione di densità non è sufficiente a vincolare univocamente i modelli e fornire una visione completa della fisica dei GC, in quanto ad ogni determinato profilo di densità possono corrispondere diverse condizioni dinamiche. La contemporanea conoscenza del profilo di dispersione di velocità e della eventuale curva di rotazione permette di rimuovere la degenerazione causata dalla sola conoscenza del profilo di densità. Seguendo un approccio multi-strumentale,è possibile campionare l'intera estensione radiale dell'ammasso globulare: con lo spettrografo FLAMES, le regioni esterne (da distanze di circa 20 arcsec dal centro fino al raggio mareale dell'ammasso), con lo spettrografo KMOS, quelle intermedie e con lo strumento IFU ad ottiche adattive SINFONI, le regioni centrali (pochi arcsec dal centro). Questo lavoro di tesi consiste nell'analisi di spettri ad alta risoluzione acquisiti con FLAMES per un grande campione di stelle (979) localizzate nelle regioni esterne dell'ammasso NGC 2808,con lo scopo di misurare le loro velocità radiali.
Resumo:
In questa tesi sono presentate la misura e la dimensione di Hausdorff, gli strumenti matematici che permettono di descrivere e analizzare alcune delle più importanti proprietà degli insiemi frattali. Inoltre viene introdotto il carattere di autosimilarità, comune a questi insiemi, e vengono mostrati alcuni tra i più noti esempi di frattali, come l'insieme di Cantor, la curva di Koch, l'insieme di Mandelbrot e gli insiemi di Julia. Di quest'ultimi sono presenti immagini ottenute tramite un codice Matlab.
Resumo:
I cambiamenti e le innovazioni sociali, che hanno caratterizzato il secolo scorso, hanno generato mutamenti significativi nella struttura dei consumi, legati in particolare a una maggiore consapevolezza dei consumatori e allo scoppio della crisi economica. Assume sempre maggiore importanza, all’interno delle politiche di brand management, il ruolo della Responsabilità Sociale d’Impresa, che spinge la Grande Distribuzione Organizzata a proporre prodotti con più alti standard qualitativi e di sicurezza. Il caso analizzato è quello della linea biologica ViviVerde Coop, la cui offerta di prodotti biologici a private label ha avuto un impatto molto positivo sul mercato. L’analisi dell’elasticità della curva di domanda di alcuni di questi prodotti nel periodo gennaio 2010-maggio 2012 rivela diversi valori positivi e maggiori di 1, indice del fatto che il prezzo non abbia avuto effetti negativi sulle vendite dei prodotti considerati. Tale evidenza risulta rilevante proprio in un periodo di profonda crisi economica che ha interessato, in modo significativo, anche i consumi alimentari.