101 resultados para Rustichelli-Valori


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi di dottorato focalizza su quei fenomeni nei quali è particolarmente visibile una diffusa propensione all’assunzione di responsabilità nei confronti del significato e delle conseguenze del proprio agire di mercato. La tesi esamina le implicazioni connesse ad una nuova etica del consumo sia dal punto di vista del consumatore sia da quello dell’impresa, in particolare indaga l’atteggiamento di consumatori e produttori rispetto a pratiche di responsabilità sociale di impresa. Nel primo capitolo “Dimensioni di un consumo in evoluzione” le griglie concettuali interpretative del fenomeno del consumo vengono distinte da quelle peculiari del sistema produttivo, arrivando all’individuazione di strumenti che svelano le logiche proprie del fenomeno indagato. In questo scenario la società complessa corrisponde alla società dei consumi e il consumo diventa area esperienziale, capace anche di creare senso, orizzonti valoriali e di assumere valenze interattive e simboliche. Nel secondo capitolo “Il cittadino consumatore” è stato rappresentato il variegato mondo del consumatore, quel cittadino che si esprime politicamente non solo con il voto ma anche attraverso le proprie pratiche di consumo che veicolano scelte, ideali, valori. Sono rappresentati i tanti volti del consumatore “responsabile”, “critico” ed “etico”, attraverso lo studio del commercio equo e solidale, i Gas, la finanza etica, tutti significativi segnali di mutamento con cui governi e imprese sono chiamati a confrontarsi. Vengono prese in esame ricerche nazionali e internazionali per meglio comprendere quanto e con quali modalità sono diffuse, nella popolazione, pratiche di consumo responsabile rispetto a ben identificate pratiche di Rsi. Nel terzo capitolo “La Responsabilità Sociale d’Impresa” si approfondisce il concetto di responsabilità sociale di impresa: sono illustrate le evoluzioni che questa prassi ha subito nel corso della storia, le sue differenti declinazioni attuali, gli elementi che la distinguono, i suoi strumenti. Nel quarto capitolo “La responsabilità sociale di impresa e la grande distribuzione” vengono analizzate le relazioni esistenti tra la grande distribuzione (Coop e Conad) e la Rsi, considerando anche il ruolo della grande distribuzione, nella metropoli, nelle scelte di consumo. Nello specifico si vogliono comprendere le strategie aziendali, la struttura organizzativa, i servizi, i prodotti “etici” distribuiti e la loro relazione con il consumatore. Il quinto capitolo “La ricerca” contiene la ricerca empirica, 60 interviste in profondità somministrate a consumatori di Coop e Conad e a elementi rappresentativi (dirigenti) delle aziende in questione; l’elaborazione dei dati avviene con l’analisi di contenuto attraverso la costruzione di frasi chiave. Le conclusioni finali a cui perveniamo cercano di fare luce sul mondo del consumo e su quello dell’impresa nel momento in cui si confrontano con la responsabilità del proprio agire. Emergono diversi elementi per sostenere che la cultura della responsabilità assume un peso tutt’altro che marginale nelle strategie di azione delle imprese e nell’analisi del comportamento dei consumatori. Il sistema impresa assume la responsabilità come elemento qualificante la propria politica industriale, legandolo alla sostenibilità, alla reputazione, al rapporto fiduciario con il cliente. Analizzando il ruolo dei cittadini consumatori nello spazio di riferimento, nell’impegno e nel tentativo di decidere, attraverso determinati consumi, il modo di vivere il proprio territorio, abbiamo forse compreso qualcosa in più. Si veicola attraverso le scelte di consumo un’idea di vivere la città per cui è imprescindibile la qualità della vita, perseguita anche attraverso l’approvazione o, di converso, il disconoscimento delle imprese e dei rispettivi prodotti. Nell’analisi dell’atteggiamento partecipativo del cittadino verso la propria sfera pubblica possiamo sostenere che la dimensione del consumo tracima di gran lunga il mercato prefigurando un differente modello di società.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La valutazione progressiva e il monitoraggio di una ferita difficile impongono misurazioni periodiche per valutare in modo qualitativo e quantitativo l'esistenza e l'entita della riepitelizzazione in rapporto alle pratiche terapeutiche effettuate. L'entità della guarigione nei primi 1530 giorni di trattamento, intesa come riduzione di area percentuale, nelle lesioni ulcerative di origine venosa permette secondo alcuni autori della letteratura scientifica, di avere delle informazioni prognostiche di guarigione completa a sei mesi. Altri autori invece mostrano casistiche analoghe indicando come nelle ulcere venose non si possa predire con facilità la guarigione a sei mesi.Le metodiche di misurazione delle ferite possono essere suddivise in bidimensionali e tridimensionali: nel primo gruppo troviamo la misurazione semplice, le metodiche di tracciamento, planimetria, analisi fotografica analogica e digitale. Queste metodiche misurano i diametri, il perimetro e l'area delle ferite. Nel secondo gruppo si collocano l'uso di righello Kundin, le metodiche di riempimento con alginato o con soluzione fisiologica, le metodiche stereofotogrammetriche e l'uso di strumenti laser. Queste metodiche permettono di calcolare con varie approssimazioni anche il volume delle ferite studiate. La tesi ha preso in esame un gruppo di 17 pazienti affetti da ulcere venose croniche effettuando misurazioni con lo strumento più accurato e preciso disponibile (minolta Vivid 900 laser + sensore) e acquisendo i dati con il software Derma. I pazienti sono stati misurati al primo accesso in ambulatorio, dopo 15 giorni e dopo sei mesi. Sono stati acquisiti i dati di area, perimetro, volume, profondità e guarigione a 6 mesi. L'analisi statistica condotta con modalità non parametriche di analisi dei ranghi non ha associato nessuno di questi valori ne' valori derivati ( delta V /delta A; Delta V/ Delta P) alla guarigione a 6 mesi. Secondo le analisi da noi effettuate, sebbene con l'incertezza derivata da un gruppo ridotto di pazienti, la guarigione delle lesioni ulcerative venose non è predicibile a 6 mesi utilizzando sistemi di misurazione di dimensioni, area e volume.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I materiali zirconiferi, in particolare i silicati di zirconio e l’ossido di zirconio, vengono ampiamente utilizzati in diverse applicazioni industriali: fra queste, l’industria delle piastrelle ceramiche e di produzione dei materiali refrattari ne consuma quantitativi consistenti. Misure di spettrometria gamma condotte su diversi campioni di materiale zirconifero (farine di zirconio e sabbie zirconifere) utilizzati nell’industria ceramica per la produzione del gres porcellanato e delle piastrelle smaltate, hanno messo in evidenza valori di concentrazione di attività superiori a quelli presenti mediamente sulla crosta terrestre (35, 30 Bqkg-1 per il 238U e il 232Th, rispettivamente [Unscear, 2000]). L’aggiunta del materiale zirconifero nella preparazione delle piastrelle ceramiche in particolare di quelle smaltate (in una percentuale in peso pari al 10-20%) del gres porcellanato (in una percentuale in peso di 1-10%) e delle lamine di gres porcellanato “sottile” (in una percentuale in peso dell’ordine del 30%), conferisce al prodotto finale un alto grado di bianco, buone caratteristiche meccaniche ed un elevato effetto opacizzante, ma comporta anche un arricchimento in radionuclidi naturali. L’obiettivo principale di questo lavoro di tesi è stato quello di mettere a punto una metodologia (teorica e sperimentale) per valutare l’incremento di esposizione che possono ricevere un lavoratore standard di una industria ceramica ed una persona del pubblico che soggiorna in un ambiente rivestito con piastrelle. Da un lato, la presenza di radioattività nelle sabbie zirconifere, utilizzate come materie prime per la produzione di piastrelle, porta a considerare il problema dell’incremento di esposizione che può subire un lavoratore impiegato in ambiente di lavoro dove sono stoccati e manipolati consistenti quantitativi di materiale, dall’altro il contenuto di radioattività nel prodotto finito porta a considerare l’esposizione per una persona della popolazione che soggiorna in una stanza rivestita con materiale ceramico. Le numerose misure effettuate, unitamente allo sviluppo dei modelli necessari per valutare le dosi di esposizione per le persone del pubblico e dei lavoratori impiegati nel processo di produzione di piastrelle ceramiche, hanno permesso di mettere a punto una procedura che fornisce le garanzie necessarie per dichiarare accettabili le condizioni di lavoro nelle industrie ceramiche e più in generale il rispetto delle norme radioprotezionistiche per gli occupanti di ambienti rivestiti con piastrelle italiane.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract. This thesis presents a discussion on a few specific topics regarding the low velocity impact behaviour of laminated composites. These topics were chosen because of their significance as well as the relatively limited attention received so far by the scientific community. The first issue considered is the comparison between the effects induced by a low velocity impact and by a quasi-static indentation experimental test. An analysis of both test conditions is presented, based on the results of experiments carried out on carbon fibre laminates and on numerical computations by a finite element model. It is shown that both quasi-static and dynamic tests led to qualitatively similar failure patterns; three characteristic contact force thresholds, corresponding to the main steps of damage progression, were identified and found to be equal for impact and indentation. On the other hand, an equal energy absorption resulted in a larger delaminated area in quasi-static than in dynamic tests, while the maximum displacement of the impactor (or indentor) was higher in the case of impact, suggesting a probably more severe fibre damage than in indentation. Secondly, the effect of different specimen dimensions and boundary conditions on its impact response was examined. Experimental testing showed that the relationships of delaminated area with two significant impact parameters, the absorbed energy and the maximum contact force, did not depend on the in-plane dimensions and on the support condition of the coupons. The possibility of predicting, by means of a simplified numerical computation, the occurrence of delaminations during a specific impact event is also discussed. A study about the compressive behaviour of impact damaged laminates is also presented. Unlike most of the contributions available about this subject, the results of compression after impact tests on thin laminates are described in which the global specimen buckling was not prevented. Two different quasi-isotropic stacking sequences, as well as two specimen geometries, were considered. It is shown that in the case of rectangular coupons the lay-up can significantly affect the damage induced by impact. Different buckling shapes were observed in laminates with different stacking sequences, in agreement with the results of numerical analysis. In addition, the experiments showed that impact damage can alter the buckling mode of the laminates in certain situations, whereas it did not affect the compressive strength in every case, depending on the buckling shape. Some considerations about the significance of the test method employed are also proposed. Finally, a comprehensive study is presented regarding the influence of pre-existing in-plane loads on the impact response of laminates. Impact events in several conditions, including both tensile and compressive preloads, both uniaxial and biaxial, were analysed by means of numerical finite element simulations; the case of laminates impacted in postbuckling conditions was also considered. The study focused on how the effect of preload varies with the span-to-thickness ratio of the specimen, which was found to be a key parameter. It is shown that a tensile preload has the strongest effect on the peak stresses at low span-to-thickness ratios, leading to a reduction of the minimum impact energy required to initiate damage, whereas this effect tends to disappear as the span-to-thickness ratio increases. On the other hand, a compression preload exhibits the most detrimental effects at medium span-to-thickness ratios, at which the laminate compressive strength and the critical instability load are close to each other, while the influence of preload can be negligible for thin plates or even beneficial for very thick plates. The possibility to obtain a better explanation of the experimental results described in the literature, in view of the present findings, is highlighted. Throughout the thesis the capabilities and limitations of the finite element model, which was implemented in an in-house program, are discussed. The program did not include any damage model of the material. It is shown that, although this kind of analysis can yield accurate results as long as damage has little effect on the overall mechanical properties of a laminate, it can be helpful in explaining some phenomena and also in distinguishing between what can be modelled without taking into account the material degradation and what requires an appropriate simulation of damage. Sommario. Questa tesi presenta una discussione su alcune tematiche specifiche riguardanti il comportamento dei compositi laminati soggetti ad impatto a bassa velocità. Tali tematiche sono state scelte per la loro importanza, oltre che per l’attenzione relativamente limitata ricevuta finora dalla comunità scientifica. La prima delle problematiche considerate è il confronto fra gli effetti prodotti da una prova sperimentale di impatto a bassa velocità e da una prova di indentazione quasi statica. Viene presentata un’analisi di entrambe le condizioni di prova, basata sui risultati di esperimenti condotti su laminati in fibra di carbonio e su calcoli numerici svolti con un modello ad elementi finiti. È mostrato che sia le prove quasi statiche sia quelle dinamiche portano a un danneggiamento con caratteristiche qualitativamente simili; tre valori di soglia caratteristici della forza di contatto, corrispondenti alle fasi principali di progressione del danno, sono stati individuati e stimati uguali per impatto e indentazione. D’altro canto lo stesso assorbimento di energia ha portato ad un’area delaminata maggiore nelle prove statiche rispetto a quelle dinamiche, mentre il massimo spostamento dell’impattatore (o indentatore) è risultato maggiore nel caso dell’impatto, indicando la probabilità di un danneggiamento delle fibre più severo rispetto al caso dell’indentazione. In secondo luogo è stato esaminato l’effetto di diverse dimensioni del provino e diverse condizioni al contorno sulla sua risposta all’impatto. Le prove sperimentali hanno mostrato che le relazioni fra l’area delaminata e due parametri di impatto significativi, l’energia assorbita e la massima forza di contatto, non dipendono dalle dimensioni nel piano dei provini e dalle loro condizioni di supporto. Viene anche discussa la possibilità di prevedere, per mezzo di un calcolo numerico semplificato, il verificarsi di delaminazioni durante un determinato caso di impatto. È presentato anche uno studio sul comportamento a compressione di laminati danneggiati da impatto. Diversamente della maggior parte della letteratura disponibile su questo argomento, vengono qui descritti i risultati di prove di compressione dopo impatto su laminati sottili durante le quali l’instabilità elastica globale dei provini non è stata impedita. Sono state considerate due differenti sequenze di laminazione quasi isotrope, oltre a due geometrie per i provini. Viene mostrato come nel caso di provini rettangolari la sequenza di laminazione possa influenzare sensibilmente il danno prodotto dall’impatto. Due diversi tipi di deformate in condizioni di instabilità sono stati osservati per laminati con diversa laminazione, in accordo con i risultati dell’analisi numerica. Gli esperimenti hanno mostrato inoltre che in certe situazioni il danno da impatto può alterare la deformata che il laminato assume in seguito ad instabilità; d’altra parte tale danno non ha sempre influenzato la resistenza a compressione, a seconda della deformata. Vengono proposte anche alcune considerazioni sulla significatività del metodo di prova utilizzato. Infine viene presentato uno studio esaustivo riguardo all’influenza di carichi membranali preesistenti sulla risposta all’impatto dei laminati. Sono stati analizzati con simulazioni numeriche ad elementi finiti casi di impatto in diverse condizioni di precarico, sia di trazione sia di compressione, sia monoassiali sia biassiali; è stato preso in considerazione anche il caso di laminati impattati in condizioni di postbuckling. Lo studio si è concentrato in particolare sulla dipendenza degli effetti del precarico dal rapporto larghezza-spessore del provino, che si è rivelato un parametro fondamentale. Viene illustrato che un precarico di trazione ha l’effetto più marcato sulle massime tensioni per bassi rapporti larghezza-spessore, portando ad una riduzione della minima energia di impatto necessaria per innescare il danneggiamento, mentre questo effetto tende a scomparire all’aumentare di tale rapporto. Il precarico di compressione evidenzia invece gli effetti più deleteri a rapporti larghezza-spessore intermedi, ai quali la resistenza a compressione del laminato e il suo carico critico di instabilità sono paragonabili, mentre l’influenza del precarico può essere trascurabile per piastre sottili o addirittura benefica per piastre molto spesse. Viene evidenziata la possibilità di trovare una spiegazione più soddisfacente dei risultati sperimentali riportati in letteratura, alla luce del presente contributo. Nel corso della tesi vengono anche discussi le potenzialità ed i limiti del modello ad elementi finiti utilizzato, che è stato implementato in un programma scritto in proprio. Il programma non comprende alcuna modellazione del danneggiamento del materiale. Viene però spiegato come, nonostante questo tipo di analisi possa portare a risultati accurati soltanto finché il danno ha scarsi effetti sulle proprietà meccaniche d’insieme del laminato, esso possa essere utile per spiegare alcuni fenomeni, oltre che per distinguere fra ciò che si può riprodurre senza tenere conto del degrado del materiale e ciò che invece richiede una simulazione adeguata del danneggiamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La studio della distribuzione spaziale e temporale della associazioni a foraminiferi planctonici, campionati in zone con differente regime idrografico, ha permesso di comprendere che molte specie possono essere diagnostiche della presenza di diverse masse d’acqua superficiali e sottosuperficiali e di diversi regimi di nutrienti nelle acque oceaniche. Parte di questo lavoro di tesi si basa sullo studio delle associazioni a foraminiferi planctonici attualmente viventi nel Settore Pacifico dell’Oceano Meridionale (Mare di Ross e Zona del Fronte Polare) e nel Mare Mediterraneo (Mar Tirreno Meridionale). L’obiettivo di questo studio è quello di comprendere i fattori (temperatura, salinità, nutrienti etc.) che determinano la distribuzione attuale delle diverse specie al fine di valutarne il valore di “indicatori” (proxies) utili alla ricostruzione degli scenari paleoclimatici e paleoceanografici succedutisi in queste aree. I risultati documentano che la distribuzione delle diverse specie, il numero di individui e le variazioni nella morfologia di alcuni taxa sono correlate alle caratteristiche chimico-fisiche della colonna e alla disponibilità di nutrienti e di clorofilla. La seconda parte del lavoro di tesi ha previsto l’analisi degli isotopi stabili dell’ossigeno e del rapporto Mg/Ca in gusci di N. pachyderma (sin) prelevati da pescate di micro zooplancton (per tarare l’equazione di paleo temperatura) da un box core e da una carota provenienti dalla zona del Fronte Polare (Oceano Pacifico meridionale), al fine di ricostruire le variazioni di temperatura negli ultimi 13 ka e durante la Mid-Pleistocene Revolution. Le temperature, dedotte tramite i valori degli isotopi stabili dell’ossigeno, sono coerenti con le temperature attuali documentate in questa zona e il trend di temperatura è paragonabile a quelli riportati in letteratura anche per eventi climatici come lo Younger Dryas e il mid-Holocene Optimum. I valori del rapporto Mg/Ca misurato tramite due diverse tecniche di analisi (laser ablation e analisi in soluzione) sono risultati sempre molto più alti dei valori riportati in letteratura per la stessa specie. La laser ablation sembra carente dal punto di vista del cleaning del campione e da questo studio emerge che le due tecniche non sono comparabili e che non possono essere usate indifferentemente sullo stesso campione. Per quanto riguarda l’analisi dei campioni in soluzione è stato migliorato il protocollo di cleaning per il trattamento di campioni antartici, che ha permesso di ottenere valori veritieri e utili ai fini delle ricostruzioni di paleotemperatura. Tuttavia, rimane verosimile l’ipotesi che in ambienti particolari come questo, con salinità e temperature molto basse, l’incorporazione del Mg all’interno del guscio risenta delle condizioni particolari e che non segua quindi la relazione esponenziale con la temperatura ampiamente dimostrata ad altre latitudini.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fenomeni di trasporto ed elettrostatici in membrane da Nanofiltrazione La capacità di predire le prestazioni delle membrane da nanofiltrazione è molto importante per il progetto e la gestione di processi di separazione a membrana. Tali prestazioni sono strettamente legate ai fenomeni di trasporto che regolano il moto dei soluti all’interno della matrice della membrana. Risulta, quindi, di rilevante importanza la conoscenza e lo studio di questi fenomeni; l’obiettivo finale è quello di mettere a punto modelli di trasporto appropriati che meglio descrivano il flusso dei soluti all’interno della membrana. A fianco dei modelli di trasporto ricopre, quindi, una importanza non secondaria la caratterizzazione dei parametri aggiustabili propri della membrana sulla quale si opera. La procedura di caratterizzazione di membrane deve chiarire le modalità di svolgimento delle prove sperimentali e le finalità che esse dovrebbero conseguire. Tuttavia, nonostante i miglioramenti concernenti la modellazione del trasporto di ioni in membrana ottenuti dalla ricerca negli ultimi anni, si è ancora lontani dall’avere a disposizione un modello univoco in grado di descrivere i fenomeni coinvolti in maniera chiara. Oltretutto, la palese incapacità del modello di non riuscire a prevedere gli andamenti sperimentali di reiezione nella gran parte dei casi relativi a miscele multicomponenti e le difficoltà legate alla convergenza numerica degli algoritmi risolutivi hanno fortemente limitato gli sviluppi del processo anche e soprattutto in termini applicativi. Non da ultimo, si avverte la necessità di poter prevedere ed interpretare l’andamento della carica di membrana al variare delle condizioni operative attraverso lo sviluppo di un modello matematico in grado di descrivere correttamente il meccanismo di formazione della carica. Nel caso di soluzioni elettrolitiche, infatti, è stato riconosciuto che la formazione della carica superficiale è tra i fattori che maggiormente caratterizzano le proprietà di separazione delle membrane. Essa gioca un ruolo importante nei processi di trasporto ed influenza la sua selettività nella separazione di molecole caricate; infatti la carica di membrana interagisce elettrostaticamente con gli ioni ed influenza l’efficienza di separazione degli stessi attraverso la partizione degli elettroliti dalla soluzione esterna all’interno dei pori del materiale. In sostanza, la carica delle membrane da NF è indotta dalle caratteristiche acide delle soluzioni elettrolitiche poste in contatto con la membrana stessa, nonché dal tipo e dalla concentrazione delle specie ioniche. Nello svolgimento di questo lavoro sono stati analizzati i principali fenomeni di trasporto ed elettrostatici coinvolti nel processo di nanofiltrazione, in particolare si è focalizzata l’attenzione sugli aspetti relativi alla loro modellazione matematica. La prima parte della tesi è dedicata con la presentazione del problema generale del trasporto di soluti all’interno di membrane da nanofiltrazione con riferimento alle equazioni alla base del modello DSP&DE, che rappresenta una razionalizzazione dei modelli esistenti sviluppati a partire dal modello DSPM, nel quale sono stati integrarti i fenomeni di esclusione dielettrica, per quanto riguarda la separazione di elettroliti nella filtrazione di soluzioni acquose in processi di Nanofiltrazione. Il modello DSP&DE, una volta definita la tipologia di elettroliti presenti nella soluzione alimentata e la loro concentrazione, viene completamente definito da tre parametri aggiustabili, strettamente riconducibili alle proprietà della singola membrana: il raggio medio dei pori all’interno della matrice, lo spessore effettivo e la densità di carica di membrana; in più può essere considerato un ulteriore parametro aggiustabile del modello il valore che la costante dielettrica del solvente assume quando confinato in pori di ridotte dimensioni. L’impostazione generale del modello DSP&DE, prevede la presentazione dei fenomeni di trasporto all’interno della membrana, descritti attraverso l’equazione di Nerst-Planck, e lo studio della ripartizione a ridosso dell’interfaccia membrana/soluzione esterna, che tiene in conto di diversi contributi: l’impedimento sterico, la non idealità della soluzione, l’effetto Donnan e l’esclusione dielettrica. Il capitolo si chiude con la presentazione di una procedura consigliata per la determinazione dei parametri aggiustabili del modello di trasporto. Il lavoro prosegue con una serie di applicazioni del modello a dati sperimentali ottenuti dalla caratterizzazione di membrane organiche CSM NE70 nel caso di soluzioni contenenti elettroliti. In particolare il modello viene applicato quale strumento atto ad ottenere informazioni utili per lo studio dei fenomeni coinvolti nel meccanismo di formazione della carica; dall’elaborazione dei dati sperimentali di reiezione in funzione del flusso è possibile ottenere dei valori di carica di membrana, assunta quale parametro aggiustabile del modello. che permettono di analizzare con affidabilità gli andamenti qualitativi ottenuti per la carica volumetrica di membrana al variare della concentrazione di sale nella corrente in alimentazione, del tipo di elettrolita studiato e del pH della soluzione. La seconda parte della tesi relativa allo studio ed alla modellazione del meccanismo di formazione della carica. Il punto di partenza di questo studio è rappresentato dai valori di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione con il modello di trasporto, e tali valori verranno considerati quali valori “sperimentali” di riferimento con i quali confrontare i risultati ottenuti. Nella sezione di riferimento è contenuta la presentazione del modello teorico “adsorption-amphoteric” sviluppato al fine di descrivere ed interpretare i diversi comportamenti sperimentali ottenuti per la carica di membrana al variare delle condizioni operative. Nel modello la membrana è schematizzata come un insieme di siti attivi di due specie: il gruppo di siti idrofobici e quello de siti idrofilici, in grado di supportare le cariche derivanti da differenti meccanismi chimici e fisici. I principali fenomeni presi in considerazione nel determinare la carica volumetrica di membrana sono: i) la dissociazione acido/base dei siti idrofilici; ii) il site-binding dei contro-ioni sui siti idrofilici dissociati; iii) l’adsorbimento competitivo degli ioni in soluzione sui gruppi funzionali idrofobici. La struttura del modello è del tutto generale ed è in grado di mettere in evidenza quali sono i fenomeni rilevanti che intervengono nel determinare la carica di membrana; per questo motivo il modello permette di indagare il contributo di ciascun meccanismo considerato, in funzione delle condizioni operative. L’applicazione ai valori di carica disponibili per membrane Desal 5-DK nel caso di soluzioni contenenti singoli elettroliti, in particolare NaCl e CaCl2 permette di mettere in evidenza due aspetti fondamentali del modello: in primis la sua capacità di descrivere andamenti molto diversi tra loro per la carica di membrana facendo riferimento agli stessi tre semplici meccanismi, dall’altra parte permette di studiare l’effetto di ciascun meccanismo sull’andamento della carica totale di membrana e il suo peso relativo. Infine vengono verificate le previsioni ottenute con il modello dal suddetto studio attraverso il confronto con dati sperimentali di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione disponibili per il caso di membrane CSM NE70. Tale confronto ha messo in evidenza le buone capacità previsionali del modello soprattutto nel caso di elettroliti non simmetrici quali CaCl2 e Na2SO4. In particolare nel caso un cui lo ione divalente rappresenta il contro-ione rispetto alla carica propria di membrana, la carica di membrana è caratterizzata da un andamento unimodale (contraddistinto da un estremante) con la concentrazione di sale in alimentazione. Il lavoro viene concluso con l’estensione del modello ADS-AMF al caso di soluzioni multicomponenti: è presentata una regola di mescolamento che permette di ottenere la carica per le soluzioni elettrolitiche multicomponenti a partire dai valori disponibili per i singoli ioni componenti la miscela.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di dottorato sono stati analizzati differenti strumenti impiegati per le stime di pericolosità sismica. Facendo riferimento alla Mappa di Pericolosità Sismica Italiana MPS04 (Gruppo di Lavoro MPS, 2004), redatta dall’Istituto Nazionale di Geofisica e Vulcanologia (INGV) e adottata come mappa di riferimento per il territorio nazionale ai sensi dell’Ordinanza PCM 3519 del 28 aprile 2006, All. 1b, è stato approfondito il calcolo dei tassi di sismicità attraverso la relazione di Gutenberg e Richter (1944). In particolare, si è proceduto attraverso un confronto tra i valori ottenuti dagli autori della Mappa (Gruppo di Lavoro MPS, 2004) e i valori ottenuti imponendo un valore costante e unico al parametro b della relazione (Gutenberg e Richter, 1944). Il secondo tema affrontato è stato l’analisi della presenza di eventi di origine non tettonica in un catalogo. Nel 2000 Wiemer e Baer hanno proposto un algoritmo che identifica e rimuove gli eventi di origine antropica. Alla metodologia di Wiemer e Baer (2000) sono state apportate delle modifiche al fine di limitare la rimozione di eventi naturali. Tale analisi è stata condotta sul Catalogo Strumentale della Sismicità Italiana (CSI 1.1; Castello et al., 2006) e sui cataloghi Europei disponibili online: Spagna e Portogallo, Francia, Nord Europa, Repubblica Ceca, Romania, Grecia. L’ultimo argomento trattato ha riguardato la presunta correlazione tra i meccanismi di fagliazione e il parametro b della relazione di Gutenberg e Richter (1944). Nel lavoro di Schorlemmer et al. (2005), tale correlazione è dimostrata calcolando il b-value su una griglia a scala mondiale raggruppando i terremoti in funzione dell’angolo di rake: i valori maggiori del parametro sono misurati per i terremoti che si originano in un regime distensivo, seguono quelli in un regime trascorrente mentre i valori minori si registrano nelle aree a regime compressivo. Il principale ostacolo per una applicazione del metodo al territorio italiano è rappresentato dal numero ridotto di terremoti per i quali è possibile avere indicazioni circa il meccanismo focale della sorgente: la correlazione è stata così valutata calcolando il b-value all’interno delle zone sismogenetiche definite per la realizzazione di MPS04 (Gruppo di Lavoro MPS, 2004), alle quali è stato nuovamente assegnato un meccanismo di fagliazione prevalente attraverso la somma del tensore momento. Sono inoltre allegati lavori altri lavori prodotti nell’ambito della pericolosità sismica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La valutazione dell’intensità secondo una procedura formale trasparente, obiettiva e che permetta di ottenere valori numerici attraverso scelte e criteri rigorosi, rappresenta un passo ed un obiettivo per la trattazione e l’impiego delle informazioni macrosismiche. I dati macrosismici possono infatti avere importanti applicazioni per analisi sismotettoniche e per la stima della pericolosità sismica. Questa tesi ha affrontato il problema del formalismo della stima dell’intensità migliorando aspetti sia teorici che pratici attraverso tre passaggi fondamentali sviluppati in ambiente MS-Excel e Matlab: i) la raccolta e l’archiviazione del dataset macrosismico; ii), l’associazione (funzione di appartenenza o membership function) tra effetti e gradi di intensità della scala macrosismica attraverso i principi della logica dei fuzzy sets; iii) l’applicazione di algoritmi decisionali rigorosi ed obiettivi per la stima dell’intensità finale. L’intera procedura è stata applicata a sette terremoti italiani sfruttando varie possibilità, anche metodologiche, come la costruzione di funzioni di appartenenza combinando le informazioni macrosismiche di più terremoti: Monte Baldo (1876), Valle d’Illasi (1891), Marsica (1915), Santa Sofia (1918), Mugello (1919), Garfagnana (1920) e Irpinia (1930). I risultati ottenuti hanno fornito un buon accordo statistico con le intensità di un catalogo macrosismico di riferimento confermando la validità dell’intera metodologia. Le intensità ricavate sono state poi utilizzate per analisi sismotettoniche nelle aree dei terremoti studiati. I metodi di analisi statistica sui piani quotati (distribuzione geografica delle intensità assegnate) si sono rivelate in passato uno strumento potente per analisi e caratterizzazione sismotettonica, determinando i principali parametri (localizzazione epicentrale, lunghezza, larghezza, orientazione) della possibile sorgente sismogenica. Questa tesi ha implementato alcuni aspetti delle metodologie di analisi grazie a specifiche applicazioni sviluppate in Matlab che hanno permesso anche di stimare le incertezze associate ai parametri di sorgente, grazie a tecniche di ricampionamento statistico. Un’analisi sistematica per i terremoti studiati è stata portata avanti combinando i vari metodi per la stima dei parametri di sorgente con i piani quotati originali e ricalcolati attraverso le procedure decisionali fuzzy. I risultati ottenuti hanno consentito di valutare le caratteristiche delle possibili sorgenti e formulare ipotesi di natura sismotettonica che hanno avuto alcuni riscontri indiziali con dati di tipo geologico e geologico-strutturale. Alcuni eventi (1915, 1918, 1920) presentano una forte stabilità dei parametri calcolati (localizzazione epicentrale e geometria della possibile sorgente) con piccole incertezze associate. Altri eventi (1891, 1919 e 1930) hanno invece mostrato una maggiore variabilità sia nella localizzazione dell’epicentro che nella geometria delle box: per il primo evento ciò è probabilmente da mettere in relazione con la ridotta consistenza del dataset di intensità mentre per gli altri con la possibile molteplicità delle sorgenti sismogenetiche. Anche l’analisi bootstrap ha messo in evidenza, in alcuni casi, le possibili asimmetrie nelle distribuzioni di alcuni parametri (ad es. l’azimut della possibile struttura), che potrebbero suggerire meccanismi di rottura su più faglie distinte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conoscenza delle esigenze luminose (intensità, spettro, durata minima, massima ed ottimale del fotoperiodo di illuminazione) e della tolleranza alle condizioni degli interni delle piante ad uso decorativo, è di fondamentale importanza per una giusta tecnica di progettazione (dimensionamento e dislocazione dei punti luce) dell’indoor plantscaping. Il lungo periodo di condizionamento al quale queste piante vengono sottoposte, caratterizzato principalmente dalla scarsa disponibilità di luce naturale e dagli alti livelli di concentrazione di CO2 determina una forte influenza sui processi morfo-fisiologici. Il presente studio analizza il fattore luminoso ed è articolato su più punti quali; • caratterizzazione della riposta fotosintetica all’intensità luminosa di 21 delle principali specie a fogliame decorativo comunemente utilizzate nella realizzazione degli spazi verdi indoor, per stabilire quali siano i minimi ed ottimali livelli di PAR tali da garantire una fotosintesi netta positiva e nel complesso le condizioni di maggior benessere per le piante; • quantificazione dell’incremento fotosintetico netto dovuto ad una maggior concentrazione di CO2 negli interni rispetto alla concentrazione CO2 atmosferica esterna, all’aumentare dell’ intensità luminosa artificiale sulle precedenti specie; • monitoraggio dell’andamento delle attività fotosintetiche durante il periodo di illuminazione di 8 ore comunemente utilizzato in un interno ad uso lavorativo, a PAR costante e variabile in Ficus elastica e Dieffenbachia picta, al fine di stabilire quali possano essere le durate e le modalità di somministrazione della luce per rendere massima la fotosintesi netta riducendo al minimo i consumi energetici dovuti all’accensione delle lampade; • valutazione della risposta morfo-fisiologica e fotosintetica a modificazioni dello spettro luminoso mediante l’uso di LED monocromatici colorati ad emissione nel bianco, blu e rosso in Ficus benjamina e Iresine herbistii al fine di stabilire se questo tipo di lampade possano essere utilizzate come fonte integrativa e/o sostitutiva nella realizzazione degli spazi verdi interni. Vengono analizzati il punto si compensazione alla luce (g), il punto di saturazione alla luce (s), l’efficienza quantica (AQE), il punto di respirazione al buio (Rd) e la fotosintesi netta massima (A max) per (Aglaonema commutatum, Asplenium nidus, Anthurium andreanum, Begonia rex, Calathea luoise, Calathea veitchiana, Calathea rufibarba, Calathea zebrina, Codiaeum variegatum, Cthenanthe oppenheimiana, Dieffenbakia picta, Ficus benjamina, Ficus elatica, Ficus longifolia, Fittonia verschaffeltii, Iresine herbistii, Philodendron erubescens, Philodendron pertusum, Potos aureus, Spathiphillum wallisi, Syngonium podophillum ) e classificate le specie in funzione di Amax in quattro categorie; A max < 2 µmol CO2 m-2 s-1, A max compresa tra 2 e 4 µmol CO2 m-2 s-1, Amax cpmpresa tra 4 e 6 µmol CO2 m-2 s-1, Amax > 6 µmol CO2 m-2 s-1, al fine di mettere in risalto la potenzialità fotosintetiche di ogni singola specie. I valori di PAR compresi tra (g) ed (s) forniscono le indicazioni sulle quali basarsi per scegliere una giusta lampada o dimensionare un punto luce per ogni singola specie e/o composizione. È stimata l’influenza di due livelli di concentrazione di CO2 ambientale (400 e 800 ppm) all’incrementare dell’intensità luminosa sul processo fotosintetico delle specie precedenti. Per quasi tutte le specie 800 ppm di CO2 non favoriscono nessun incremento all’attività fotosintetica ad eccezione di Ficus benjamina, Ficus elatica e Syngonium podophillum se non accompagnati da una disponibilità luminosa superiore alle 10 µmol m-2 s-1. Viene monitorato l’andamento dell’attività fotosintetica a PAR costante e variabile (intervallando periodi di 8 minuti a PAR 40 e 80) durante 8 ore di illuminazione su Ficus elastica e Dieffenbachia picta al fine di stabilire la miglior modalità di somministrazione della luce. La fotosintesi netta cumulativa per l’intera durata di illuminazione a PAR costante mostra un calo dopo alcune ore dall’attivazione in Dieffenbackia, e un andamento oscillatorio in Ficus. L’illuminazione alternata consente di raggiungere i quantitativi di CO2 organicata a 80 µmol m-2 s-1 di PAR, dopo 5 ore e mezza sia in Ficus che Dieffenbackia sebbene le potenzialità fotosintetiche delle due piante siano molto differenti. È stato valutato l’effetto dell’illuminazione artificiale mediante LED (15W) a luce bianca, blu e rossa monocromatica in rapporto alla luce neon(36W) bianca tradizionale (con differenti abbinamenti tra le lampade) sui principali parametri morfologici e fisiologici, in Ficus benjamin ‘Variegata’ e Iresine herbistii per verificare se tali fonti possono rappresentare una valida alternativa nella sostituzione o integrazione di altre lampade per gli spazi verdi indoor. Tutte le combinazioni LED indagate possono rappresentare un’alternativa di sostituzione alla coltivazione con neon ed un risparmio energetico di oltre il 50%. Una PAR di 20,6 µmol m-2 s-1 della singola lampada LED bianco è sufficiente per mantenere la pianta in condizioni di sopravvivenza con un consumo di 15W a fronte dei 36W necessari per il funzionamento di ogni neon. La combinazione LED bianco + LED blu monocromatico favorisce il contenimento della taglia della pianta, caratteristica gradita nella fase di utilizzo indoor, una maggior produzione di sostanza secca e un’attività fotosintetica più elevata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Da 25 anni la letteratura scientifica internazionale riporta studi su varie specie di microcrostacei copepodi ciclopoidi dei generi Macrocyclops, Megacyclops e Mesocyclops predatori di larve di 1a e 2a età di culicidi. Si tratta di prove di predazione in laboratorio e in pieno campo, in diverse aree del pianeta nessuna delle quali riguarda l’Italia o il resto d’Europa, contro principalmente Aedes aegypti (L.), Ae. albopictus (Skuse) e altre specie del genere Anopheles e Culex. L’allevamento massale di copepodi ciclopoidi appare praticabile e questo, assieme alle buone prestazioni predatorie, rende tali ausiliari candidati assai interessanti contro le due principali specie di zanzare, Culex pipiens L. e Ae. albpopictus, che nelle aree urbane e periurbane italiane riescono a sfruttare raccolte d’acqua artificiali di volume variabile e a regime idrico periodico o permanente. Pertanto lo scopo dello studio è stato quello di arrivare a selezionare una o più specie di copepodi candidati per la lotta biologica e valutarne la possibilità applicativa nell’ambito dei programmi di controllo delle zanzare nocive dell’ambiente urbano. L’argomento del tutto nuovo per il nostro paese, è stato sviluppato attraverso varie fasi ciascuna delle quali propedeutica a quella successiva. •Indagine faunistica nell’area di pianura e costiera sulle specie di ciclopoidi associate a varie tipologie di raccolte d’acqua naturali e artificiali (fossi, scoline, canali, risaie e pozze temporanee). I campionamenti sono stati condotti con l’obiettivo di ottenere le specie di maggiori dimensioni (≥1 mm) in ristagni con diverse caratteristiche in termini di qualità dell’acqua e complessità biocenotica. •Prove preliminari di predazione in laboratorio con alcune specie rinvenute negli ambienti campionati, nei confronti delle larve di Ae. albopictus e Cx. pipiens. Le prestazioni di predazione sono state testate sottoponendo ai copepodi larve giovani di zanzare provenienti da allevamento e calcolato il numero giornaliero di larve attaccate. •Implementazione di un allevamento pilota della specie valutata più interessante, Macrocyclops albidus (Jurine) (Cyclopoida, Cyclopidae, Eucyclopinae), per i risultati ottenuti in laboratorio in termini di numero di larve predate/giorno e per le caratteristiche biologiche confacenti agli ambienti potenzialmente adatti ai lanci. Questa parte della ricerca è stata guidata dalla finalità di mettere a punto una tecnica di allevamento in scala in modo da disporre di stock di copepodi dalla primavera, nonchè da criteri di economicità nell’impianto e nella sua gestione. •Prove di efficacia in condizioni di semicampo e di campo in raccolte d’acqua normalmente colonizzate dai culicidi in ambito urbano: bidoni per lo stoccaggio di acqua per l’irrigazione degli orti e tombini stradali. In questo caso l’obiettivo principale è stato quello di ottenere dati sull’efficienza del controllo di M. albidus nei confronti della popolazione culicidica selvatica e sulla capacità del copepode di colonizzare stabilmente tali tipologie di focolai larvali. Risultati e conclusioni Indagine faunistica e prove di predazione in laboratorio L’indagine faunistica condotta nell’area costiera ferrarese, in quella ravennate e della pianura bolognese ha portato al rinvenimento di varie specie di ciclopoidi mantenuti in laboratorio per la conduzione delle prove di predazione. Le specie testate sono state: Acanthocyclops robustus (G. O. Sars), Macrocyclops albidus (Jurine), Thermocyclops crassus (Fischer), Megacyclops gigas (Claus). La scelta delle specie da testare è stata basata sulla loro abbondanza e frequenza di ritrovamento nei campionamenti nonché sulle loro dimensioni. Ciascuna prova è stata condotta sottoponendo a un singolo copepode, oppure a gruppi di 3 e di 5 esemplari, 50 larve di 1a età all’interno di contenitori cilindrici in plastica con 40 ml di acqua di acquedotto declorata e una piccola quantità di cibo per le larve di zanzara. Ciascuna combinazione “copepode/i + larve di Ae. albopictus”, è stata replicata 3-4 volte, e confrontata con un testimone (50 larve di Ae. albopictus senza copepodi). A 24 e 48 ore sono state registrate le larve sopravvissute. Soltanto per M. albidus il test di predazione è stato condotto anche verso Cx. pipiens. Messa a punto della tecnica di allevamento La ricerca è proseguita concentrando l’interesse su M. albidus, che oltre ad aver mostrato la capacità di predare a 24 ore quasi 30 larve di Ae. albopictus e di Cx. pipiens, dalla bibliografia risulta tollerare ampi valori di temperatura, di pH e alte concentrazioni di vari inquinanti. Dalla ricerca bibliografica è risultato che i ciclopoidi sono facilmente allevabili in contenitori di varia dimensione e foggia somministrando agli stadi di preadulto alghe unicellulari (Chlorella, Chilomonas), protozoi ciliati (Paramecium, Euplotes), rotiferi e cladoceri. Ciò presuppone colture e allevamenti in purezza di tali microrganismi mantenuti in parallelo, da utilizzare come inoculo e da aggiungere periodicamente nell’acqua di allevamento dei ciclopoidi. Nel caso di utilizzo di protozoi ciliati, occorre garantirne lo sviluppo che avviene a carico di flora batterica spontanea a sua volta cresciuta su di un substrato organico quale latte, cariossidi bollite di grano o soia, foglie di lattuga, paglia di riso bollita con cibo secco per pesci, lievito di birra. Per evitare il notevole impegno organizzativo e di manodopera nonché il rischio continuo di perdere la purezza della colonia degli organismi da utilizzare come cibo, le prove comparative di allevamento hanno portato ad un protocollo semplice ed sufficientemente efficiente in termini di copepodi ottenibili. Il sistema messo a punto si basa sull’utilizzo di una popolazione mista di ciliati e rotiferi, mantenuti nell'acqua di allevamento dei copepodi mediante la somministrazione periodica di cibo standard e pronto all’uso costituito da cibo secco per gatti. Prova di efficacia in bidoni da 220 l di capacità La predazione è stata studiata nel biennio 2007-2008 in bidoni da 220 l di capacità inoculati una sola volta in aprile 2007 con 100 e 500 esemplari di M. albidus/bidone e disposti all’aperto per la libera ovideposizione della popolazione culicidica selvatica. L’infestazione preimmaginale culicidica veniva campionata ogni due settimane fino ad ottobre, mediante un retino immanicato a maglia fitta e confrontata con quella dei bidoni testimone (senza copepodi). Nel 2007 il tasso di riduzione medio delle infestazioni di Ae. albopictus nei bidoni con copepodi, rispetto al testimone, è del 99,90% e del 100,00% rispettivamente alle dosi iniziali di inoculo di 100 e 500 copepodi/bidone; per Cx. pipiens L. tale percentuale media è risultata di 88,69% e di 84,65%. Similmente, nel 2008 si è osservato ad entrambe le dosi iniziali di inoculo una riduzione di Ae. albopictus del 100,00% e di Cx. pipiens del 73,3%. La dose di inoculo di 100 copepodi per contenitore è risultata sufficiente a garantire un rapido incremento numerico della popolazione che ha raggiunto la massima densità in agosto-settembre e un eccellente controllo delle popolazioni di Ae. albopictus. Prova di efficacia in campo in serbatoi per l’acqua irrigua degli orti La prova è stata condotta a partire dalla metà di agosto 2008 interessando 15 serbatoi di varia foggia e capacità, variabile tra 200 e 600 l, utilizzati per stoccare acqua orti famigliari nel comune di Crevalcore (BO). Ai proprietari dei serbatoi era chiesto di gestire il prelievo dell’acqua e i rifornimenti come da abitudine con l’unica raccomandazione di non svuotarli mai completamente. In 8 contenitori sono stati immessi 100 esemplari di M.albidus e una compressa larvicida a base di Bacillus thuringiensis var. israelensis (B.t.i.); nei restanti 7 è stata soltanto immessa la compressa di B.t.i.. Il campionamento larvale è stato settimanale fino agli inizi di ottobre. Dopo l’introduzione in tutti i serbatoi sono stati ritrovati esemplari di copepodi, nonostante il volume di acqua misurato settimanalmente sia variato da pochi litri, in qualche bidone, fino a valori della massima capacità, per effetto del prelievo e dell’apporto dell’acqua da parte dei gestori degli orti. In post-trattamento sono state osservate differenze significative tra le densità larvali nelle due tesi solo al 22 settembre per Ae.albopictus Tuttavia in termini percentuali la riduzione media di larve di 3a-4a età e pupe nei bidoni con copepodi, rispetto al testimone, è stata de 95,86% per Ae. albopictus e del 73,30% per Cx. pipiens. Prova di efficacia in tombini stradali Sono state condotte due prove in due differenti località, interessando 20 tombini (Marano di Castenaso in provincia di Bologna nel 2007) e 145 tombini (San Carlo in provincia di Ferrara nel 2008), quest’ultimi sottoposti a spurgo e pulizia completa nei precedenti 6 mesi l’inizio della prova. L’introduzione dei copepodi nei tombini è stata fatta all’inizio di luglio nella prova di Marano di Castenaso e alla fine di aprile e giugno in quelli di San Carlo, a dosi di 100 e 50 copepodi/tombino. Prima dell’introduzione dei copepodi e successivamente ogni 2 settimane per due mesi, in ogni tombino veniva campionata la presenza culicidica e dei copepodi con dipper immanicato. Nel 2007 dopo l’introduzione dei copepodi e per tutto il periodo di studio, mediamente soltanto nel 77% dei tombini i copepodi sono sopravvissuti. Nel periodo di prova le precipitazioni sono state scarse e la causa della rarefazione dei copepodi fino alla loro scomparsa in parte dei tombini è pertanto da ricercare non nell’eventuale dilavamento da parte della pioggia, quanto dalle caratteristiche chimico-fisiche dell’acqua. Tra queste innanzitutto la concentrazione di ossigeno che è sempre stata molto bassa (0÷1,03 mg/l) per tutta la durata del periodo di studio. Inoltre, a questo fattore probabilmente è da aggiungere l’accumulo, a concentrazioni tossiche per M. albidus, di composti organici e chimici dalla degradazione e fermentazione dell’abbondante materiale vegetale (soprattutto foglie) in condizioni di ipossia o anossia. Nel 2008, dopo il primo inoculo di M. albidus la percentuale di tombini che al campionamento presentano copepodi decresce in modo brusco fino a raggiungere il 6% a 2 mesi dall’introduzione dei copepodi. Dopo 40 giorni dalla seconda introduzione, la percentuale di tombini con copepodi è del 6,7%. Nell’esperienza 2008 è le intense precipitazioni hanno avuto probabilmente un ruolo determinante sul mantenimento dei copepodi nei tombini. Nel periodo della prova infatti le piogge sono state frequenti con rovesci in varie occasioni di forte intensità per un totale di 342 mm. Sotto questi livelli di pioggia i tombini sono stati sottoposti a un continuo e probabilmente completo dilavamento che potrebbe aver impedito la colonizzazione stabile dei copepodi. Tuttavia non si osservano influenze significative della pioggia nella riduzione percentuale dei tombini colonizzati da copepodi e ciò fa propendere all’ipotesi che assieme alla pioggia siano anche le caratteristiche fisico-chimiche dell’acqua a impedire una colonizzazione stabile da parte di M. albidus. In definitiva perciò si è dimostrato che i tombini stradali sono ambienti ostili per la sopravvivenza di M. albidus, anche se, dove il ciclopoide si è stabilito permanentemente, ha dimostrato un certo impatto nei confronti di Ae. albopictus e di Cx. pipiens, che tuttavia è risultato non statisticamente significativo all’analisi della varianza. Nei confronti delle larve di Culex pipiens il copepode non permette livelli di controllo soddisfacente, confermando i dati bibliografici. Nei confronti invece di Ae. albopictus la predazione raggiunge buoni livelli; tuttavia ciò non è compensato dalla percentuale molto alta di tombini che, dopo periodi di pioggia copiosa o singoli episodi temporaleschi o per le condizioni di anossia rimangono senza i copepodi. Ciò costringerebbe a ripetute introduzioni di copepodi i cui costi attualmente non sono inferiori a quelli per trattamenti con prodotti larvicidi. In conclusione la ricerca ha portato a considerare Macrocyclops albidus un interessante ausiliario applicabile anche nelle realtà urbane del nostro paese nell’ambito di programmi integrati di contrasto alle infestazioni di Aedes albopictus. Tuttavia il suo utilizzo non si presta a tutti i focolai larvali ma soltanto a raccolte di acqua artificiali di un certo volume come i bidoni utilizzati per stoccare acqua da impiegare per l’orto e il giardino familiare nelle situazioni in cui non è garantita la copertura ermetica, lo svuotamento completo settimanale o l’utilizzo di sostanze ad azione larvozanzaricida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Definizione del problema: Nonostante il progresso della biotecnologia medica abbia consentito la sopravvivenza del feto, fuori dall’utero materno, ad età gestazionali sempre più basse, la prognosi a breve e a lungo termine di ogni nuovo nato resta spesso incerta e la medicina non è sempre in grado di rimediare completamente e definitivamente ai danni alla salute che spesso contribuisce a causare. Sottoporre tempestivamente i neonati estremamente prematuri alle cure intensive non ne garantisce la sopravvivenza; allo stesso modo, astenervisi non ne garantisce la morte o almeno la morte immediata; in entrambi i casi i danni alla salute (difetti della vista e dell’udito, cecità, sordità, paralisi degli arti, deficit motori, ritardo mentale, disturbi dell’apprendimento e del comportamento) possono essere gravi e permanenti ma non sono prevedibili con certezza per ogni singolo neonato. Il futuro ignoto di ogni nuovo nato, insieme allo sgretolamento di terreni morali condivisi, costringono ad affrontare laceranti dilemmi morali sull’inizio e sul rifiuto, sulla continuazione e sulla sospensione delle cure. Oggetto: Questo lavoro si propone di svolgere un’analisi critica di alcune strategie teoriche e pratiche con le quali, nell’ambito delle cure intensive ai neonati prematuri, la comunità scientifica, i bioeticisti e il diritto tentano di aggirare o di risolvere l’incertezza scientifica e morale. Tali strategie sono accomunate dalla ricerca di criteri morali oggettivi, o almeno intersoggettivi, che consentano ai decisori sostituti di pervenire ad un accordo e di salvaguardare il vero bene del paziente. I criteri esaminati vanno dai dati scientifici riguardanti la prognosi dei prematuri, a “fatti” di natura più strettamente morale come la sofferenza del paziente, il rispetto della libertà di coscienza del medico, l’interesse del neonato a sopravvivere e a vivere bene. Obiettivo: Scopo di questa analisi consiste nel verificare se effettivamente tali strategie riescano a risolvere l’incertezza morale o se invece lascino aperto il dilemma morale delle cure intensive neonatali. In quest’ultimo caso si cercherà di trovare una risposta alla domanda “chi deve decidere per il neonato?” Metodologia e strumenti: Vengono esaminati i più importanti documenti scientifici internazionali riguardanti le raccomandazioni mediche di cura e i pareri della comunità scientifica; gli studi scientifici riguardanti lo stato dell’arte delle conoscenze e degli strumenti terapeutici disponibili ad oggi; i pareri di importanti bioeticisti e gli approcci decisionali più frequentemente proposti ed adoperati; alcuni documenti giuridici internazionali riguardanti la regolamentazione della sperimentazione clinica; alcune pronunce giudiziarie significative riguardanti casi di intervento o astensione dall’intervento medico senza o contro il consenso dei genitori; alcune indagini sulle opinioni dei medici e sulla prassi medica internazionale; le teorie etiche più rilevanti riguardanti i criteri di scelta del legittimo decisore sostituto del neonato e la definizione dei suoi “migliori interessi” da un punto di vista filosofico-morale. Struttura: Nel primo capitolo si ricostruiscono le tappe più importanti della storia delle cure intensive neonatali, con particolare attenzione agli sviluppi dell’assistenza respiratoria negli ultimi decenni. In tal modo vengono messi in luce sia i cambiamenti morali e sociali prodotti dalla meccanizzazione e dalla medicalizzazione dell’assistenza neonatale, sia la continuità della medicina neonatale con il tradizionale paternalismo medico, con i suoi limiti teorici e pratici e con lo sconfinare della pratica terapeutica nella sperimentazione incontrollata. Nel secondo capitolo si sottopongono ad esame critico le prime tre strategie di soluzione dell’incertezza scientifica e morale. La prima consiste nel decidere la “sorte” di un singolo paziente in base ai dati statistici riguardanti la prognosi di tutti i nati in condizioni cliniche analoghe (“approccio statistico”); la seconda, in base alla risposta del singolo paziente alle terapie (“approccio prognostico individualizzato”); la terza, in base all’evoluzione delle condizioni cliniche individuali osservate durante un periodo di trattamento “aggressivo” abbastanza lungo da consentire la raccolta dei dati clinici utili a formulare una prognosi sicura(“approccio del trattamento fino alla certezza”). Viene dedicata una più ampia trattazione alla prima strategia perché l’uso degli studi scientifici per predire la prognosi di ogni nuovo nato accomuna i tre approcci e costituisce la strategia più diffusa ed emblematica di aggiramento dell’incertezza. Essa consiste nella costruzione di un’ “etica basata sull’evidenza”, in analogia alla “medicina basata sull’evidenza”, in quanto ambisce a fondare i doveri morali dei medici e dei genitori solo su fatti verificabili (le prove scientifiche di efficacia delle cure)apparentemente indiscutibili, avalutativi o autocertificativi della moralità delle scelte. Poiché la forza retorica di questa strategia poggia proprio su una (parziale) negazione dell’incertezza dei dati scientifici e sulla presunzione di irrilevanza della pluralità e della complessità dei valori morali nelle decisioni mediche, per metterne in luce i limiti si è scelto di dedicare la maggior parte del secondo capitolo alla discussione dei limiti di validità scientifica degli studi prognostici di cui i medici si avvalgono per predire la prognosi di ogni nuovo nato. Allo stesso scopo, in questo capitolo vengono messe in luce la falsa neutralità morale dei giudizi scientifici di “efficacia”, “prognosi buona”, “prognosi infausta” e di “tollerabilità del rischio” o dei “costi”. Nel terzo capitolo viene affrontata la questione della natura sperimentale delle cure intensive per i neonati prematuri al fine di suggerire un’ulteriore ragione dell’incertezza morale, dell’insostenibilità di obblighi medici di trattamento e della svalutazione dell’istituto del consenso libero e informato dei genitori del neonato. Viene poi documentata l’esistenza di due atteggiamenti opposti manifestati dalla comunità scientifica, dai bioeticisti e dal diritto: da una parte il silenzio sulla natura sperimentale delle terapie e dall’altra l’autocertificazione morale della sperimentazione incontrollata. In seguito si cerca di mostrare come entrambi, sebbene opposti, siano orientati ad occultare l’incertezza e la complessità delle cure ai neonati prematuri, per riaffermare, in tal modo, la precedenza dell’autorità decisionale del medico rispetto a quella dei genitori. Il quarto capitolo, cerca di rispondere alla domanda “chi deve decidere in condizioni di incertezza?”. Viene delineata, perciò, un’altra strategia di risoluzione dell’incertezza: la definizione del miglior interesse (best interest) del neonato, come oggetto, limite e scopo ultimo delle decisioni mediche, qualsiasi esse siano. Viene verificata l’ipotesi che il legittimo decisore ultimo sia colui che conosce meglio di ogni altro i migliori interessi del neonato. Perciò, in questo capitolo vengono esposte e criticate alcune teorie filosofiche sul concetto di “miglior interesse” applicato allo speciale status del neonato. Poiché quest’analisi, rivelando l’inconoscibilità del best interest del neonato, non consente di stabilire con sicurezza chi sia intitolato a prendere la decisione ultima, nell’ultimo capitolo vengono esaminate altre ragioni per le quali i genitori dovrebbero avere l’ultima parola nelle decisioni di fine o di proseguimento della vita. Dopo averle scartate, viene proposta una ragione alternativa che, sebbene non risolutiva, si ritiene abbia il merito di riconoscere e di non mortificare l’irriducibilità dell’incertezza e l’estrema complessità delle scelte morali, senza rischiare, però, la paralisi decisionale, il nichilismo morale e la risoluzione non pacifica dei conflitti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cosa e’ stato fatto e il fine della ricerca in questi tre anni si è esaminato il materiale edito sui sarcofagi del periodo in esame, sui culti funerari, i problemi religiosi ed artistici. Per trovare confronti validi si sono resi necessari alcuni viaggi sia in Italia che all’estero. Lo scopo della ricerca è stato quello di “leggere” i messaggi insiti nelle figurazioni delle casse dei sarcofagi, per comprendere meglio la scelta dei committenti verso determinati temi e la ricezione di questi ultimi da parte del pubblico. La tomba, infatti, è l’ultima traccia che l’uomo lascia di sé ed è quindi importante cercare di determinare l’impatto psicologico del monumento funerario sul proprietario, che spesso lo acquistava quando ancora era in vita, e sui familiari in visita alla tomba durante la celebrazione dei riti per i defunti. Nell’ultimo anno, infine, si è provveduto a scrivere la tesi suddivindendo i capitoli e i pezzi in base all’argomento delle figurazioni (mitologici, di virtù, etc.). I capitoli introduttivi Nel primo capitolo di introduzione si è cercato di dare un affresco per sommi capi del periodo storico in esame da Caracalla a Teodosio e della Chiesa di III e IV secolo, mettendo in luce la profonda crisi che gravava sull’Impero e le varie correnti che frammentavano il cristianesimo. In particolare alcune dispute, come quella riguardante i lapsi, sarà alla base di ipotesi interpretative riguardanti la raffigurazione del rifiuto dei tre giovani Ebrei davanti a Nabuchodonosor. Nel capitolo seguente vengono esaminati i riti funerari e il ruolo dei sarcofagi in tali contesti, evidenziando le diverse situazioni emotive degli osservatori dei pezzi e, quindi, l’importanza dei temi trattati nelle casse. I capitolo Questo capitolo tratta dei sarcofagi mitologici. Dopo una breve introduzione, dove viene spiegata l’entrata in uso dei pezzi in questione, si passa alla discussione dei temi, suddivisi in paragrafi. La prima classe di materiali è qualla con la “caduta di Fetonte” la cui interpretazione sembra chiara: una tragedia familiare. Il compianto sul corpo di un ragazzo morto anzi tempo, al quale partecipa tutto il cosmo. L’afflizione dei familiari è immane e sembra priva di una possibile consolazione. L’unico richiamo a riprendere a vivere è solo quello del dovere (Mercurio che richiama Helios ai propri impegni). La seconda classe è data dalle scene di rapimento divino visto come consolazione e speranza in un aldilà felice, come quelle di Proserpina e Ila. Nella trasposizione della storia di Ila è interessante anche notare il fatto che le ninfe rapitrici del giovane – defunto abbiano le sembianze delle parenti già morte e di un fanciullo, probabilmente la madre, la nonna e un fratello deceduto anzi tempo. La terza classe presenta il tema del distacco e dell’esaltazione delle virtù del defunto nelle vesti dei cacciatori mitici Mealeagro, Ippolito e Adone tutti giovani, forti e coraggiosi. In questi sarcofagi ancor più che negli altri il motivo della giovinezza negata a causa della morte è fondamentale per sottolineare ancora di più la disperazione e il dolore dei genitori rimasti in vita. Nella seguente categoria le virtù del defunto sono ancora il tema dominante, ma in chiave diversa: in questo caso l’eroe è Ercole, intento ad affrontare le sue fatiche. L’interpretazione è la virtù del defunto che lo ha portato a vincere tutte le difficoltà incontrate durante la propria vita, come dimostrerebbe anche l’immagine del semidio rappresentato in età diverse da un’impresa all’altra. Vi è poi la categoria del sonno e della morte, con i miti di Endimione, Arianna e Rea Silvia, analizzato anche sotto un punto di vista psicologico di aiuto per il superamento del dolore per la perdita di un figlio, un marito, o, ancora, della sposa. Accanto ai sarcofagi con immagini di carattere narrativo, vi sono numerosi rilievi con personaggi mitici, che non raccontano una storia, ma si limitano a descrivere situazioni e stati d’animo di felicità. Tali figurazioni si possono dividere in due grandi gruppi: quelle con cortei marini e quelle con il tiaso dionisiaco, facendo dell’amore il tema specifico dei rilievi. Il fatto che quello del tiaso marino abbia avuto così tanta fortuna, forse, per la numerosa letteratura che metteva in relazione l’Aldilà con l’acqua: l’Isola dei Beati oltre l’Oceano, viaggi per mare verso il mondo dei morti. Certo in questo tipo di sarcofagi non vi sono esplicitate queste credenze, ma sembrano più che altro esaltare le gioie della vita. Forse il tutto può essere spiegato con la coesistenza, nei familiari del defunto, della memoria retrospettiva e della proiezione fiduciosa nel futuro. Sostanzialmente era un modo per evocare situazioni gioiose e di godimento sensibile, riferendole ai morti in chiave beneaugurale. Per quanto rigurda il tiaso di Bacco, la sua fortuna è stata dettata dal fatto che il suo culto è sempre stato molto attivo. Bacco era dio della festa, dell’estasi, del vino, era il grande liberatore, partecipe della crescita e della fioritura, il grande forestiero , che faceva saltare gli ordinamenti prestabiliti, i confini della città con la campagna e le convenzioni sociali. Era il dio della follia, al quale le menadi si abbandonavano nella danza rituale, che aggrediva le belve, amante della natura, ma che penetra nella città, sconvolgendola. Del suo seguito facevano parte esseri ibridi, a metà tra l’ordine e la bestialità e animali feroci ammansiti dal vino. I suoi nemici hanno avuto destini orribili di indicibile crudeltà, ma chi si è affidato anima e corpo a lui ha avuto gioia, voluttà, allegria e pienezza di vita. Pur essendo un valente combattente, ha caratteri languidi e a tratti femminei, con forme floride e capelli lunghi, ebbro e inebriante. Col passare del tempo la conquista indiana di alessandro si intrecciò al mito bacchico e, a lungo andare, tutti i caratteri oscuri e minacciosi della divinità scomparirono del tutto. Un esame sistematico dei temi iconografici riconducibili al mito di Bacco non è per nulla facile, in quanto l’oggetto principale delle raffigurazioni è per lo più il tiaso o come corteo festoso, o come gruppi di figure danzanti e musicanti, o, ancora, intento nella vendemmia. Ciò che interessava agli scultori era l’atmosfera gioiosa del tiaso, al punto che anche un episodio importante, come abbiamo visto, del ritrovamento di Arianna si pèerde completamente dentro al corteo, affollatissimo di personaggi. Questo perché, come si è detto anche al riguardo dei corte marini, per creare immagini il più possibile fitte e gravide di possibilità associative. Altro contesto iconografico dionisiaco è quello degli amori con Arianna. Sui sarcofagi l’amore della coppia divina è raffigurato come una forma di stupore e rapimento alla vista dell’altro, un amore fatto di sguardi, come quello del marito sulla tomba della consorte. Un altro tema , che esalta l’amore, è senza ombra di dubbio quello di Achille e Pentesilea, allegoria dell’amore coniugale. Altra classe è qualla con il mito di Enomao, che celebra il coraggio virile e l’attitudine alla vittoria del defunto e, se è presente la scena di matrimonio con Ippodamia, l’amore verso la sposa. Infine vi sono i sarcofagi delle Muse: esaltazione della cultura e della saggezza del morto. II capitolo Accanto ad i grandi ambiti mitologici dei due tiasi del capitolo precedente era la natura a lanciare un messaggio di vita prospera e pacifica. Gli aspetti iconografici diq uesto tema sono due: le stagioni e la vita in un ambiente bucolico. Nonostante la varietà iconografica del soggetto, l’idea di fondo rimane invariata: le stagioni portano ai morti i loro doni affinchè possano goderne tutto l’anno per l’eternità. Per quanto riguarda le immagini bucoliche sono ispirate alla vita dei pastori di ovini, ma ovviamente non a quella reale: i committenti di tali sarcofagi non avevano mai vissuto con i pastori, né pensavano di farlo i loro parenti. Le immagini realistiche di contadini, pastori, pescatori, tutte figure di infimo livello sociale, avevano assunto tratti idilliaci sotto l’influsso della poesia ellenistica. Tutte queste visioni di felicità mancano di riferimenti concreti sia temporali che geografici. Qui non vi sono protagonisti e situazioni dialogiche con l’osservatore esterno, attraverso la ritrattistica. I defunti se appaiono sono all’interno di un tondo al centro della cassa. Nei contesti bucolici, che andranno via, via, prendendo sempre più piede nel III secolo, come in quelli filosofici, spariscono del tutto le scene di lutto e di cordoglio. Le immagini dovevano essere un invito a godersi la vita, ma dovevano anche dire qualcosa del defunto. In una visione retrospettiva, forse, si potrebbero intendere come una dichiarazione che il morto, in vita, non si era fatto mancare nulla. Nel caso opposto, poteve invece essere un augurio ad un’esistenza felice nell’aldilà. III capitolo Qui vengono trattati i sarcofagi con l’esaltazione e l’autorappresentazione del defunto e delle sue virtù in contesti demitizzati. Tra i valori ricorrenti, esaltati nei sarcofagi vi è l’amore coniugale espresso dal tema della dextrarum iunctio, simbolo del matrimonio, la cultura, il potere, la saggezza, il coraggio, esplicitato dalle cacce ad animali feroci, il valore guerriero e la giustizia, dati soprattutto dalle scene di battaglia e di giudizio sui vinti. IV capitolo In questo capitolo si è provato a dare una nuova chiave di lettura ai sarcofagi imperiali di S. Elena e di Costantina. Nel primo caso si tratterebbe della vittoria eterna sul male, mentre nel secondo era un augurio di vita felice nell’aldilà in comunione con Dio e la resurrezione nel giorno del giudizio. V capitolo Il capitolo tratta le mediae voces, quei pezzi che non trovano una facile collocazione in ambito religioso poiché presentano temi neutri o ambivalenti, come quelli del buon pastore, di Prometeo, dell’orante. VI capitolo Qui trovano spazio i sarcofagi cristiani, dove sono scolpite varie scene tratte dalle Sacre Scritture. Anche in questo caso si andati al di là della semplice analisi stilistica per cercare di leggere il messaggio contenuto dalle sculture. Si sono scoperte preghiere, speranze e polemiche con le correnti cristiane considerate eretiche o “traditrici” della vera fede, contro la tradizionale interpretazione che voleva le figurazioni essenzialmente didascaliche. VII capitolo Qui vengono esposte le conclusioni da un punto di vista sociologico e psicologico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La risposta emodinamica all'esercizio dinamico è stata oggetto di numerosi studi scientifici. Poca attenzione è stata invece rivolta agli aggiustamenti cardiovascolari che si verificano quando si interrompe uno sforzo dinamico. Al cessare dell' esercizio, la frequenza cardiaca e la contrattilità miocardica subiscono un decremento repentino e vengono rilasciati in quantità i prodotti finali del metabolismo muscolare, come lattato, ioni idrogeno, adenosina, sostanze in grado di indurre vasodilatazione nei gruppi muscolari precedentemente attivati determinando una riduzione del precarico, post-carico cardiaco, contrattilità miocardica e una dilatazione delle arteriole periferiche, così da mantenere le resistenze vascolari periferiche a un basso livello. Inoltre, si verificano alterazioni della concentrazione ematica di elettroliti, diminuzione delle catecolamine circolanti e si verifica un ipertono vagale : tutti questi fenomeni possono avere un effetto significativo sullo stato emodinamico. In questo studio si voleva valutare in che misura l’eventuale effetto ipotensivo dovuto all’esercizio fosse legato all’intensità del carico lavorativo applicato ed alla sua durata. Il campione esaminato comprendeva 20 soggetti maschi attivi. I soggetti venivano sottoposti a quattro test in giornate diverse. La prova da sforzo preliminare consisteva in una prova da sforzo triangolare massimale eseguita al cicloergometro con un protocollo incrementale di 30 Watt al minuto. Il test si articolava in una prima fase della durata di 3 minuti nei quali venivano registrati i dati basali, in una seconda fase della durata di tre minuti in cui il soggetto compiva un riscaldamento al cicloergometro, che precedeva l’inizio dello sforzo, ad un carico di 20 W. Al termine della prova venivano calcolati il massimo carico lavorativo raggiunto (Wmax) ed il valore di soglia anaerobica (SA). Dopo la prova da sforzo preliminare il soggetto effettuava 3 esercizi rettangolari di diversa intensità in maniera randomizzata così strutturati: test 70% SA; test 130% SA, 130% Wmax : prove da sforzo rettangolari ad un carico lavorativo pari alla percentuale indicatain relazione ai valori di SA e Wmax ottenuti nella prova da sforzo preliminare. Tali test duravano dieci minuti o fino all'esaurimento del soggetto. Le prova erano precedute da tre minuti di riposo e da tre minuti di riscaldamento. Il recupero aveva una durata di 30 minuti. La PA veniva misurata ogni 5 minuti durante lo sforzo, ogni minuto nei primi 5 minuti di recupero e successivamente ogni 5 minuti fino alla conclusione del recupero. Dai risultati emerge come l'effetto ipotensivo sia stato più marcato nel recupero dall'intensità di carico lavorativo meno elevata, cioè dopo il test 70%SA. C'è da considerare che la più bassa intensità di sforzo permetteva di praticare un esercizio significativamente più lungo rispetto ai test 130%SA e 130%Wmax. È quindi verosimile che anche la durata dell'esercizio e non solo la sua intensità abbia avuto un ruolo fondamentale nel determinare l'ipotensione nel recupero evidenziata in questo studio. L’effetto ipotensivo più evidente si è manifestato nelle prove a più bassa intensità ma con carico lavorativo totale più elevato. I dati supportano la tendenza a considerare non tanto l’intensità e la durata dell’esercizio in modo isolato, quanto piuttosto il carico lavorativo totale (intensità x durata). L'effetto ipotensivo registrato nello studio è da ascriversi soprattutto ad una persistente vasodilatazione susseguente allo sforzo. Infatti, nel recupero dal test 70%SA, le RVP si mantenevano basse rispetto ai valori di riposo. Tale dato potrebbe avere un grande valore clinico nella prescrizione dell'attività fisica più idonea nei soggetti ipertesi,che potrebbero beneficiare di un eventuale effetto ipotensivo successivo all'attività praticata. Pertanto in futuro bisognerà estendere lo studio ai soggetti ipertesi. La conferma di tale risultato in questi soggetti permetterebbe di scegliere correttamente l'intensità e la durata del carico lavorativo, in modo da calibrare lo sforzo al grado di patologia del soggetto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Although in Europe and in the USA many studies focus on organic, little is known on the topic in China. This research provides an insight on Shanghai consumers’ perception of organic, aiming at understanding and representing in graphic form the network of mental associations that stems from the organic concept. To acquire, process and aggregate the individual networks it was used the “Brand concept mapping” methodology (Roedder et al., 2006), while the data analysis was carried out also using analytic procedures. The results achieved suggest that organic food is perceived as healthy, safe and costly. Although these attributes are pretty much consistent with the European perception, some relevant differences emerged. First, organic is not necessarily synonymous with natural product in China, also due to a poor translation of the term in the Chinese language that conveys the idea of a manufactured product. Secondly, the organic label has to deal with the competition with the green food label in terms of image and positioning on the market, since they are easily associated and often confused. “Environmental protection” also emerged as relevant association, while the ethical and social values were not mentioned. In conclusion, health care and security concerns are the factors that influence most the food consumption in China (many people are so concerned about food safety that they found it difficult to shop), and the associations “Safe”, “Pure and natural”, “without chemicals” and “healthy” have been identified as the best candidates for leveraging a sound image of organic food .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca indaga le dinamiche socio - economiche in atto in rapporto con le trasformazioni territoriali e valuta in quale misura la pianificazione territoriale ed urbanistica sia in grado di soddisfare le attuali esigenze nella gestione del territorio, urbanizzato e non. La riflessione parte dalla necessità di capire come un territorio possa conservare vitalità nel momento in cui si ritrova all’interno di un sistema di dinamiche che non si rivolge più ad ambiti di riferimento vicini (fino ad una decina d’anni fa la competitività veniva misurata, generalmente, tra regioni contermini, al massimo con riferimento ai trend nazionali), ma che necessita di confrontarsi per lo meno con le realtà regionali europee, se non, per certi versi, con la scala mondiale, globale appunto. La generalità della tematica ha imposto, di conseguenza, l’individuazione di un case book al quale riferirsi così da approfondirla attraverso una conoscenza diretta di un preciso ambito territoriale. È stato scelto, quale esemplificazione, il territorio della regione Veneto, con particolare riferimento all’area centrale. La ragione di tale scelta è da individuarsi, oltre che in motivi meramente strumentali, nel fatto che il Veneto, tra le regioni italiane, tuttora si configura come un territorio soggetto a forti trasformazioni indotte dalle dinamiche socio - economiche. Infatti da un primo periodo veneto, legato alla costruzione dell’armatura territoriale articolata su una molteplicità di poli diffusi sul territorio, si è passati al Secondo Veneto, quello della diffusione produttiva, dei capannoni, della marmellata urbanistica, del consumo del suolo. L’epoca attuale risponde poi ad un Terzo Veneto, un periodo forse di transizione verso un nuovo assetto. Il punto di partenza è stato dunque quello della delimitazione dell’area di riferimento, attraverso il riconoscimento di quei caratteri territoriali che la contraddistinguono da altre aree all’interno della regione stessa e su scala europea. Dopo una prima descrizione in chiave descrittiva e storico - evolutiva rivolta alla comprensione dei fenomeni in atto (diffuso e frammentazione insediativa tra i principali) si è passati ad una lettura quantitativa che consentisse, da un lato, di comprendere meglio alcuni caratteri della Regione e, dall’altro, di confrontarla con la scala globale, che si è scelto essere per la realtà considerata quella dell’Unione Europea. Le problematiche, i punti di forza e di debolezza emersi hanno consentito di formulare alcune ipotesi volte al miglioramento del territorio dell’area centrale veneta attraverso un processo che individuasse, non solo gli attori interessati alla trasformazione, ma anche gli strumenti maggiormente idonei per la realizzazione degli stessi. Sono emerse così le caratteristiche che potrebbe assumere il Quarto Veneto, il Veneto che verrà. I temi trattati spaziano dall’individuazione dei metodi di governance che, tramite il processo di visioning, siano in grado di individuare le priorità, di definire l’intensità d’uso, la vocazione dei luoghi e chi siano gli operatori interessati, all’integrazione tra i valori della storia e della cultura territoriale con i nuovi modi del fare (nuove tecnologie), fino all’individuazione di strumenti di coesione economica, sociale e territoriale per scongiurare quei rischi di disgregazione insiti nella globalizzazione. La ricerca si è dunque concretizzata attraverso un approccio euristico alla problematica delle trasformazioni territoriali, in cui il tema della scala di riferimento (locale - globale), ha consentito di valutare esperienze, tecniche e progetti volti al raggiungimento di livelli di sviluppo territoriale ed urbano sostenibili.