730 resultados para Prodotti vegani


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro ha come obiettivo l’utilizzo del Geographical Information System (GIS) per effettuare analisi di sicurezza, monitoraggio e valutazioni di impatto ambientale. Oggi, la totalità delle operazioni GIS possono essere svolte con software open source e in questa sedi si è scelto di utilizzare il GIS GRASS (Geographic Resources Analysis Support System) disponibile nei termini della GNU public license (GPL), mostrando l’usabilità e le notevoli potenzialità di tale software, nonché la qualità dei prodotti ottenibili, mai inferiori ai prodotti e agli strumenti messi a disposizione dai più radicati e diffusi programmi proprietari. Nel capitolo 4, vedremo l’applicazione all’analisi delle conseguenze di ipotetici incidenti, durante le operazioni di dismissione dell’impianto di processamento del combustibile nucleare, di Bosco Marengo (AL). Nel capitolo 5, vedremo applicazioni nel campo del monitoraggio della qualità dell’aria tramite analisi di immagini satellitari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi affronta le problematiche relative ai nuovi scenari educativi nella cosiddetta Società della Conoscenza e alle sfide che essa richiede alla didattica nei nuovi “ambienti” formativi. Partendo dall’analisi della definizione della stessa come Società della Conoscenza si cerca di darne una lettura che ne metta in luce gli elementi principali che la caratterizzano aprendo alla riflessione sullo sguardo che essa dà al suo futuro e agli scenari verso i quali si orientano le sue sfide cognitive ed educative. In tale analisi non può mancare una riflessione sul legame tra la società contemporanea e le cosiddette nuove tecnologie (ICT: Information and Comunication Technologies). Le ICT, infatti, in misura sempre maggiore, hanno invaso la società e influenzato l’evoluzione della stessa assumendo un ruolo significativo nella vita quotidiana e nell’affermarsi della società della conoscenza. Il percorso di ricerca prende il via da questi interrogativi per ampliare la riflessione sulle nuove frontiere dell’educazione nella società della conoscenza. Quest’ultima, infatti, così come si caratterizza e come si evolve, identificando la sua priorità non solo nella diffusione dell’informazione, ma anche e soprattutto nella “costruzione” di conoscenza, impone un nuovo modo di pensare e approcciarsi all’educazione e alla formazione. Il longlife learning diventa l’elemento centrale ma non va inteso solo come possibilità date all’individuo adulto di riprendere percorsi formativi lasciati o intraprenderne di nuovi. Quello che cambia è la finalità stessa della formazione: è il concetto dell’apprendimento come potenzialità individuale (empowerment). Non basta avere accesso e acquisire un numero sempre maggiore di informazioni ma occorre sviluppare la capacità di acquisire strategicamente le informazioni per essere capaci di affrontare i continui cambiamenti e costruire nuove forme di sapere condiviso. Sul piano operativo le ICT permettono numerose nuove possibilità per la formazione, sia come strumenti a supporto della didattica, sia come mezzi di trasmissione delle informazioni e costruzione di conoscenza. L’e-learning si afferma con una sua impostazione e una sua metodologia, nonché con i suoi “oggetti” e i suoi “ambienti”. Nella tesi vengono illustrate le principali problematiche da considerare per la costruzione di percorsi formativi in rete (strumenti, contenuti, ruoli, comunicazione, valutazione) per presentare, infine, i materiali prodotti dall’autrice per l’erogazione on line di moduli didattici in due Unità Formative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lamantino (Trichechus manatus) appartiene alla famiglia dei Trichechidae, vivono nel golfo del messico e lungo le coste Atlantiche dell’America centrale. Considerando i comportamenti abituali di questa specie in natura risulta essere difficoltoso investigare il comportamento sociale. Spesso gli individui che producono un suono non riescono ad essere identificati e quindi il contesto in cui un segnale viene prodotto rimane sconosciuto. L’osservazione ed il monitoraggio di individui in ambiente controllato può portare un contributo considerevole nell’aumentare le conoscenze di questa specie. In questo studio abbiamo potuto osservare il comportamento di due giovani esemplari maschi mantenuti all’Acquario di Genova. In questo progetto di ricerca l’obbiettivo è quello di caratterizzare i comportamenti giornalieri e quindi le abitudini dei due esemplari in esame; inoltre mediante l’analisi dei vocalizzi e dei contesti nei quali vengono prodotti i segnali, si è cercato di individuare le abitudini acustiche di questi esemplari. Gli animali sono stati osservati per 8giorni per un totale di 192 ore di registrazioni acustiche e osservazioni comportamentali; i segnali sono stati registrati con l’ausilio di un idrofono su un PC, con un range di frequenza tra i 100Hz fino ai 22kHz. I segnali acustici cosi raccolti sono stati analizzati tramite Adobe Audition 3.0, che ha fornito le immagini dei vari spettri d’onda. Questi dati acustici e comportamentali hanno permesso di identificare 6 differenti pattern comportamentali e 10 tipologie di segnali acustici. L’analisi di questi dati hanno permesso di definire le abitudini comportamentali dei due esemplari le differenze e l’andamento della “giornata tipo”. Confrontando i contesti comportamentali nei quali i segnali sono stati emessi si sono potuti evidenziare i momenti in cui i segnali vengono emessi e quindi quando avviene comunicazione tra questi due esemplari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il fitoplancton è costituito da organismi molto importanti per l'ambiente marino e molto diversificati sia dal punto di vista morfologico che fisiologico.Questi organismi sono normalmente soggetti ai cambiamenti stagionali e alle variazioni dell'ambiente dovute sia a fenomeni naturali che all'impatto antropico, sempre più rilevante. Con questa tesi si è voluto approfondire l'effetto di erbicidi comunemente usati dall'uomo in agricoltura su delle microalghe flagellate rappresentative del Mar Adriatico. L'inquinante scelto è la Terbutilazina, sostanza utilizzata per il diserbo del mais e diffusa in tutta l'area padano-venera, come dimostrano i dati dei campionamenti ARPA, che riportano la presenza di Terbutilazina e del suo prodotto di degradazione Desetil-Terbutilazina a concentrazioni superiori al limite fissato sia nelle acque superficiali che in quelle sotterranee. Anche in mare come riportato in letteratura (Carafa et. al 2009)è stato riscontrato a concentrazioni superiori al limite previsto dalla normativa vigente in Italia. In particolare il meccanismo d'azione di questo erbicida interferisce con la fotosintesi, agendo sulle proteine di membrana dei cloroplasti, rimpiazzando il chinone accettore di elettroni QB della proteina D1 del fotosistema II. Più specie di microalghe fatte crescere in colture 'batch' sono state testate a diverse concentrazioni di erbicida in condizione di luce nutrienti costanti. Questi esperimenti sono stati inoltre condotti a due diverse temperature (20 e 25°C) per studiare l'effetto di questo inquinante in correlazione con l'attuale aumento di temperatura in atto nel pianeta. In una prima fase di screening è stato valutato l'effetto della Terbutilazina su 9 specie di flagellate rappresentative dell'Adriatico, tramite misure dell'efficienza fotosintetica. Grazie a questa prima fase sono state individuate le microalghe e le relative concentrazioni di Terbutilazina da utilizzare negli esperimenti. Per gli esperimenti, sono state scelte le due specie algali Gonyaulax spinifera e Prorocentrum minimum sulle quali si è approfondito lo studio dell'effetto dell'inquinante alle due temperature, attraverso una serie di analisi volte ad individuare le risposte in termini di crescita e di fisiologia delle alghe quali: conteggio delle cellule, torbidità, efficienza fotosintetica, consumo di nutrienti, quantità di clorofilla e di polisaccaridi extracellulari prodotti. La scelta di queste microalghe è stata dettata dal fatto che Gonyaulax spinifera si è rivelata la microalga più sensibile a concentrazioni di erbicida più vicine a quelle ambientali fra tutte le alghe valutate, mentre Prorocentrum minimum è fra le dinoflagellate più frequenti e rappresentative del Mar Adriatico (Aubry et al. 2004), anche se non particolarmente sensibile; infatti P. minimum è stato testato ad una concentrazione di erbicida maggiore rispetto a quelle normalmente ritrovate in ambiente marino. Dai risultati riportati nella tesi si è visto come l'erbicida Terbutilazina sia in grado di influenzare la crescita e la fotosintesi di microalghe flagellate dell'Adriatico anche a concentrazioni pari a quelle rilevate in ambiente, e si è evidenziato che gli effetti sono maggiori alle temperature in cui le microalghe hanno una crescita meno efficiente. Questi studi hanno messo in evidenza anche l'utilità delle misure di fotosintesi tramite fluorimetro PAM nel valutare le risposte delle microalghe agli erbicidi triazinici. Inoltre la diversa risposta delle microalghe osservata, potrebbe avere conseguenze rilevanti sulle fioriture estive di fitoplancton in caso di presenza in mare di Terbutilazina, anche a concentrazioni non particolarmente elevate. Questo lavoro si inserisce in un contesto più ampio di ricerca volto alla modellizzazione della crescita algale in presenza di inquinanti ed in concomitanza con le variazioni di temperatura. Infatti i dati ottenuti insieme a misure di carbonio cellulare, non ancora effettuate, saranno utili per la messa a punto di nuove parametrizzazioni che si avvicinino maggiormente ai dati reali, per poi simulare i possibili scenari futuri variando le condizioni ambientali e le concentrazioni dell'inquinante studiato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi si prefiggeva la produzione di nuovi materiali geopolimerici a partire da meta-caolino, come fonte allumino-silicatica, e silicato di sodio o potassio, come soluzione attivante. L’ambito di applicazione di questi materiali era il restauro di beni culturali, sia come riempimento di lacune che come adesivo nella giunzione di parti, che richiedeva un consolidamento a temperatura ambiente ed una trascurabile cessione di sali solubili da parte del materiale d’apporto, caratteristiche non facilmente realizzabili con i materiali tradizionali. Il progetto può essere temporalmente suddiviso in tre fasi principali: 1) caratterizzazione di tre caolini commerciali utilizzati come materie prime, analizzando la loro composizione chimica e mineralogica, la granulometria, la superficie specifica ed il comportamento termico. Sulla base dell’analisi termica è stato individuato l’intervallo di temperatura ottimale per la trasformazione in meta-caolini, mantenendo buone proprietà superficiali. 2) Caratterizzazione dei meta-caolini ottenuti, analizzando la composizione mineralogica, la granulometria, la superficie specifica ed il contenuto di Al(V). E’ stata inoltre valutata la loro attività pozzolanica, scegliendo sulla base di tutti i dati raccolti sei campioni per la fase successiva. 3) Preparazione di paste geopolimeriche utilizzando quantità di soluzione attivante (silicato di sodio o potassio) tali da raggiungere un rapporto molare SiO2/Al2O3 nella miscela di reazione pari a 3,6 e 4,0; sui prodotti così ottenuti sono state effettuate alcune prove di leaching in acqua. Sulla base risultati ottenuti in questo lavoro di tesi è stato possibile correlare le caratteristiche del caolino di partenza alla reattività nella reazione di geopolimerizzazione. È stato inoltre identificato l’intervallo di calcinazione per massimizzare la suddetta reattività e le condizioni per ridurre la cessione di sali solubili da parte del materiale geopolimerico. Sono stati inoltre evidenziati possibili effetti sinergici, legati alla presenza contemporanea di Na e K.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella presente tesi viene analizzato in modo approfondito il ciclo integrato dell'acciaio che è uno dei metodi più consolidati e affermati per la produzione sia di semilavorati, sia di prodotti finiti di acciaio. L'approccio all'analisi del ciclo integrato dell'acciaio è di tipo dinamico e basato sulla simulazione, vale a dire che si cerca di capire come e in che modo i vari fattori del ciclo integrato interagiscono e si influenzano fra di loro per cercare in seguto di esplicitare tali dinamiche in un unico modello di simulazione. Sino ad ora infatti nella letteratura si possono trovare modelli che analizzano separatamente solo alcuni aspetti del ciclo integrato dell'acciaio. L'intenzione ultima di questa tesi è quella di fornire uno strumento in più che possa far capire, date determinate caratteristiche e obiettivi dell'azienda, quale sia la direzione più plausibile e giustificabile da seguire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo di questa relazione è presentare i risultati raggiunti dalle attività di marketing svolte al fine di promuovere e valutare la piattaforma e-commerce di BF Servizi, azienda che opera come intermediario nella fornitura di servizi all’interno del contesto fieristico di Bologna Fiere. A fine del 2009 BF Servizi ha commissionato a Gecod lo sviluppo di un sistema informativo per le gestione integrata di tutti i processi rilevanti per il business aziendale. A ottobre 2010 viene completato e presentato uno dei moduli previsti dall’intero progetto: la piattaforma e-commerce. Questa si differenzia dagli altri sistemi di commercio online in quanto è stata progettata specificatamente allo scopo di permettere la prenotazione di servizi da parte delle aziende che partecipano alle manifestazioni svolte presso i padiglioni di Bologna Fiere. Le sue particolarità sono quindi sia l’utenza, che configura la creazione di relazioni B2B, sia la tipologia di articoli offerti, non prodotti ma servizi, sia l’ambiente, le fiere svolte a Bologna. A seguito di questo rinnovamento BF Servizi ha ritenuto opportuno adeguare al nuovo contesto anche le proprie tecniche di marketing introducendo, come strumento da usare per la loro attuazione, il web. All’interno dell’organico dell’azienda però non era presente una figura che avesse le competenze per poter integrare, ai normali canali usati per le iniziative di marketing, le opportunità offerte da Internet e che quindi potesse utilizzarle per raggiungere gli obiettivi prefissati per tali attività e cioè la promozione della piattaforma e-commerce e la misurazione del suo gradimento da parte dell’utenza. Le mie conoscenze maturate in ambito universitario hanno apportato quel contributo necessario alla loro realizzazione. La prima decisione è stata la scelta di quale tra le tecniche di web marketing fosse la migliore per le promozione della piattaforma e-commerce di BF Servizi. La disponibilità di un voluminoso numero di indirizzi email dei loro clienti e prospect ed una generale bassa alfabetizzazione informatica degli stessi ha portato a individuare quale soluzione più adeguata la tecnica dell’email marketing. La comunicazione ai clienti per mezzo email era già prevista ma senza che vi fosse ne una pianificazione ne un'analisi dei risultati. Era quindi necessario formalizzare un vero e proprio piano di marketing e successivamente migliorarne le performance. L’assenza di strumenti adeguati alla sua realizzazione ha richiesto che prima venisse svolto un benchmark del settore basato sul confronto di funzionalità, costi e facilità d'uso. Il servizio ESP di Mailchimp è risultato il vincitore in quanto assicurava una maggiore tutela della privacy, una migliore gestione dello spam e strumenti più efficaci per la creazione e l'analisi delle campagne email. Per la valutazione del gradimento della piattaforma e-commerce da parte degli utenti è stato deciso di progettare un’apposita indagine sottoforma di Usability Test e Online Survey. Per il primo è stato necessario l’utilizzo di un apposito servizio per la condivisione dello schermo in quanto in era impossibile far ritrovare il test e l’osservatore nel medesimo luogo. Per l’Online Survey, grazie ad un piccolo Benchmark, è stato deciso di utilizzare SurveyGizmo. All’interno dell’organico dell’azienda non è presente una figura di importanza strategia quale il Web Marketing Manager che abbia la responsabilità di coordinare tutte le attività legate alla vendita o al lancio di un prodotto o di un servizio. L’attività di marketing viene svolta da una figura interna all’azienda (il Responsabile Marketing) che si avvale della collaborazione sia di Gecod, per quanto riguarda l'area informatica, sia di BitBang per quanto riguarda alcune attività di web marketing. La realizzazione delle due attività ha fortemente risentito di questa frammentazione dei compiti, è stato infatti opportuno adeguare le pianificazione alle esigenze di Gecod. Nonostante questo i dati conseguiti dall'attività di email marketing sono stati utili a capire l'efficacia e l'efficienza di questa tecnica nel contesto di BF Servizi. Anche le informazioni raccolte durante l'indagine sono state sufficienti per poter dare un valore all'usabilità della piattaforma e-commerce. La pianificazione iniziale di un piano di email marketing richiede che vengano svolte varie verifiche per valutare la qualità ed inoltre richiede periodo medio-lungo per poter essere reso ottimale. Era quindi già chiaro sin dall'inizio come uno degli obiettivi fosse quello di progettare una buona base su cui apportare successive modifiche. Le prime campagne realizzate sarebbero state utili a ricavare le informazioni necessarie per correggere il piano di marketing. La tipologia di relazione che si instaura tra BF Servizi e i suoi clienti è particolare, la gran parte di essi infatti non vi mantiene un rapporto continuativo durante l’anno ma lo esaurisce in un unico momento poco prima del manifestarsi dell’evento fieristico. L'attenzione dei clienti verso le comunicazioni di BF Servizi è elevata solo in questo periodo e la pianificazione delle campagne ha dovuto tener conto di questo aspetto. Sono state realizzate le campagne solo per gli espositori che partecipavano agli eventi fieristici di Marca 2011, Artefiera 2011 e Fishing Show 2011, cioè le manifestazioni che si sono svolte durante il mio periodo di lavoro in azienda. Le performance delle campagne sono state buone e i dati raccolti hanno permesso di identificare quali siano gli aspetti da migliorare per poter renderle ancora migliori.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene affrontato il tema del tracciamento video, analizzando le principali tecniche, metodologie e strumenti per la video analytics. L'intero lavoro, è stato svolto interamente presso l'azienda BitBang, dal reperimento di informazioni e materiale utile, fino alla stesura dell'elaborato. Nella stessa azienda ho avuto modo di svolgere il tirocinio, durante il quale ho approfondito gli aspetti pratici della web e video analytics, osservando il lavoro sul campo degli specialisti del settore e acquisendo familiarità con gli strumenti di analisi dati tramite l'utilizzo delle principali piattaforme di web analytics. Per comprendere a pieno questo argomento, è stato necessario innanzitutto conoscere la web analytics di base. Saranno illustrate quindi, le metodologie classiche della web analytics, ovvero come analizzare il comportamento dei visitatori nelle pagine web con le metriche più adatte in base alle diverse tipologie di business, fino ad arrivare alla nuova tecnica di tracciamento eventi. Questa nasce subito dopo la diffusione nelle pagine dei contenuti multimediali, i quali hanno portato a un cambiamento nelle modalità di navigazione degli utenti e, di conseguenza, all'esigenza di tracciare le nuove azioni generate su essi, per avere un quadro completo dell'esperienza dei visitatori sul sito. Non sono più sufficienti i dati ottenuti con i tradizionali metodi della web analytics, ma è necessario integrarla con tecniche nuove, indispensabili se si vuole ottenere una panoramica a 360 gradi di tutto ciò che succede sul sito. Da qui viene introdotto il tracciamento video, chiamato video analytics. Verranno illustrate le principali metriche per l'analisi, e come sfruttarle al meglio in base alla tipologia di sito web e allo scopo di business per cui il video viene utilizzato. Per capire in quali modi sfruttare il video come strumento di marketing e analizzare il comportamento dei visitatori su di esso, è necessario fare prima un passo indietro, facendo una panoramica sui principali aspetti legati ad esso: dalla sua produzione, all'inserimento sulle pagine web, i player per farlo, e la diffusione attraverso i siti di social netwok e su tutti i nuovi dispositivi e le piattaforme connessi nella rete. A questo proposito viene affrontata la panoramica generale di approfondimento sugli aspetti più tecnici, dove vengono mostrate le differenze tra i formati di file e i formati video, le tecniche di trasmissione sul web, come ottimizzare l'inserimento dei contenuti sulle pagine, la descrizione dei più famosi player per l'upload, infine un breve sguardo sulla situazione attuale riguardo alla guerra tra formati video open source e proprietari sul web. La sezione finale è relativa alla parte più pratica e sperimentale del lavoro. Nel capitolo 7 verranno descritte le principali funzionalità di due piattaforme di web analytics tra le più utilizzate, una gratuita, Google Analytics e una a pagamento, Omniture SyteCatalyst, con particolare attenzione alle metriche per il tracciamento video, e le differenze tra i due prodotti. Inoltre, mi è sembrato interessante illustrare le caratteristiche di alcune piattaforme specifiche per la video analytics, analizzando le più interessanti funzionalità offerte, anche se non ho avuto modo di testare il loro funzionamento nella pratica. Nell'ultimo capitolo vengono illustrate alcune applicazioni pratiche della video analytics, che ho avuto modo di osservare durante il periodo di tirocinio e tesi in azienda. Vengono descritte in particolare le problematiche riscontrate con i prodotti utilizzati per il tracciamento, le soluzioni proposte e le questioni che ancora restano irrisolte in questo campo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Da 25 anni la letteratura scientifica internazionale riporta studi su varie specie di microcrostacei copepodi ciclopoidi dei generi Macrocyclops, Megacyclops e Mesocyclops predatori di larve di 1a e 2a età di culicidi. Si tratta di prove di predazione in laboratorio e in pieno campo, in diverse aree del pianeta nessuna delle quali riguarda l’Italia o il resto d’Europa, contro principalmente Aedes aegypti (L.), Ae. albopictus (Skuse) e altre specie del genere Anopheles e Culex. L’allevamento massale di copepodi ciclopoidi appare praticabile e questo, assieme alle buone prestazioni predatorie, rende tali ausiliari candidati assai interessanti contro le due principali specie di zanzare, Culex pipiens L. e Ae. albpopictus, che nelle aree urbane e periurbane italiane riescono a sfruttare raccolte d’acqua artificiali di volume variabile e a regime idrico periodico o permanente. Pertanto lo scopo dello studio è stato quello di arrivare a selezionare una o più specie di copepodi candidati per la lotta biologica e valutarne la possibilità applicativa nell’ambito dei programmi di controllo delle zanzare nocive dell’ambiente urbano. L’argomento del tutto nuovo per il nostro paese, è stato sviluppato attraverso varie fasi ciascuna delle quali propedeutica a quella successiva. •Indagine faunistica nell’area di pianura e costiera sulle specie di ciclopoidi associate a varie tipologie di raccolte d’acqua naturali e artificiali (fossi, scoline, canali, risaie e pozze temporanee). I campionamenti sono stati condotti con l’obiettivo di ottenere le specie di maggiori dimensioni (≥1 mm) in ristagni con diverse caratteristiche in termini di qualità dell’acqua e complessità biocenotica. •Prove preliminari di predazione in laboratorio con alcune specie rinvenute negli ambienti campionati, nei confronti delle larve di Ae. albopictus e Cx. pipiens. Le prestazioni di predazione sono state testate sottoponendo ai copepodi larve giovani di zanzare provenienti da allevamento e calcolato il numero giornaliero di larve attaccate. •Implementazione di un allevamento pilota della specie valutata più interessante, Macrocyclops albidus (Jurine) (Cyclopoida, Cyclopidae, Eucyclopinae), per i risultati ottenuti in laboratorio in termini di numero di larve predate/giorno e per le caratteristiche biologiche confacenti agli ambienti potenzialmente adatti ai lanci. Questa parte della ricerca è stata guidata dalla finalità di mettere a punto una tecnica di allevamento in scala in modo da disporre di stock di copepodi dalla primavera, nonchè da criteri di economicità nell’impianto e nella sua gestione. •Prove di efficacia in condizioni di semicampo e di campo in raccolte d’acqua normalmente colonizzate dai culicidi in ambito urbano: bidoni per lo stoccaggio di acqua per l’irrigazione degli orti e tombini stradali. In questo caso l’obiettivo principale è stato quello di ottenere dati sull’efficienza del controllo di M. albidus nei confronti della popolazione culicidica selvatica e sulla capacità del copepode di colonizzare stabilmente tali tipologie di focolai larvali. Risultati e conclusioni Indagine faunistica e prove di predazione in laboratorio L’indagine faunistica condotta nell’area costiera ferrarese, in quella ravennate e della pianura bolognese ha portato al rinvenimento di varie specie di ciclopoidi mantenuti in laboratorio per la conduzione delle prove di predazione. Le specie testate sono state: Acanthocyclops robustus (G. O. Sars), Macrocyclops albidus (Jurine), Thermocyclops crassus (Fischer), Megacyclops gigas (Claus). La scelta delle specie da testare è stata basata sulla loro abbondanza e frequenza di ritrovamento nei campionamenti nonché sulle loro dimensioni. Ciascuna prova è stata condotta sottoponendo a un singolo copepode, oppure a gruppi di 3 e di 5 esemplari, 50 larve di 1a età all’interno di contenitori cilindrici in plastica con 40 ml di acqua di acquedotto declorata e una piccola quantità di cibo per le larve di zanzara. Ciascuna combinazione “copepode/i + larve di Ae. albopictus”, è stata replicata 3-4 volte, e confrontata con un testimone (50 larve di Ae. albopictus senza copepodi). A 24 e 48 ore sono state registrate le larve sopravvissute. Soltanto per M. albidus il test di predazione è stato condotto anche verso Cx. pipiens. Messa a punto della tecnica di allevamento La ricerca è proseguita concentrando l’interesse su M. albidus, che oltre ad aver mostrato la capacità di predare a 24 ore quasi 30 larve di Ae. albopictus e di Cx. pipiens, dalla bibliografia risulta tollerare ampi valori di temperatura, di pH e alte concentrazioni di vari inquinanti. Dalla ricerca bibliografica è risultato che i ciclopoidi sono facilmente allevabili in contenitori di varia dimensione e foggia somministrando agli stadi di preadulto alghe unicellulari (Chlorella, Chilomonas), protozoi ciliati (Paramecium, Euplotes), rotiferi e cladoceri. Ciò presuppone colture e allevamenti in purezza di tali microrganismi mantenuti in parallelo, da utilizzare come inoculo e da aggiungere periodicamente nell’acqua di allevamento dei ciclopoidi. Nel caso di utilizzo di protozoi ciliati, occorre garantirne lo sviluppo che avviene a carico di flora batterica spontanea a sua volta cresciuta su di un substrato organico quale latte, cariossidi bollite di grano o soia, foglie di lattuga, paglia di riso bollita con cibo secco per pesci, lievito di birra. Per evitare il notevole impegno organizzativo e di manodopera nonché il rischio continuo di perdere la purezza della colonia degli organismi da utilizzare come cibo, le prove comparative di allevamento hanno portato ad un protocollo semplice ed sufficientemente efficiente in termini di copepodi ottenibili. Il sistema messo a punto si basa sull’utilizzo di una popolazione mista di ciliati e rotiferi, mantenuti nell'acqua di allevamento dei copepodi mediante la somministrazione periodica di cibo standard e pronto all’uso costituito da cibo secco per gatti. Prova di efficacia in bidoni da 220 l di capacità La predazione è stata studiata nel biennio 2007-2008 in bidoni da 220 l di capacità inoculati una sola volta in aprile 2007 con 100 e 500 esemplari di M. albidus/bidone e disposti all’aperto per la libera ovideposizione della popolazione culicidica selvatica. L’infestazione preimmaginale culicidica veniva campionata ogni due settimane fino ad ottobre, mediante un retino immanicato a maglia fitta e confrontata con quella dei bidoni testimone (senza copepodi). Nel 2007 il tasso di riduzione medio delle infestazioni di Ae. albopictus nei bidoni con copepodi, rispetto al testimone, è del 99,90% e del 100,00% rispettivamente alle dosi iniziali di inoculo di 100 e 500 copepodi/bidone; per Cx. pipiens L. tale percentuale media è risultata di 88,69% e di 84,65%. Similmente, nel 2008 si è osservato ad entrambe le dosi iniziali di inoculo una riduzione di Ae. albopictus del 100,00% e di Cx. pipiens del 73,3%. La dose di inoculo di 100 copepodi per contenitore è risultata sufficiente a garantire un rapido incremento numerico della popolazione che ha raggiunto la massima densità in agosto-settembre e un eccellente controllo delle popolazioni di Ae. albopictus. Prova di efficacia in campo in serbatoi per l’acqua irrigua degli orti La prova è stata condotta a partire dalla metà di agosto 2008 interessando 15 serbatoi di varia foggia e capacità, variabile tra 200 e 600 l, utilizzati per stoccare acqua orti famigliari nel comune di Crevalcore (BO). Ai proprietari dei serbatoi era chiesto di gestire il prelievo dell’acqua e i rifornimenti come da abitudine con l’unica raccomandazione di non svuotarli mai completamente. In 8 contenitori sono stati immessi 100 esemplari di M.albidus e una compressa larvicida a base di Bacillus thuringiensis var. israelensis (B.t.i.); nei restanti 7 è stata soltanto immessa la compressa di B.t.i.. Il campionamento larvale è stato settimanale fino agli inizi di ottobre. Dopo l’introduzione in tutti i serbatoi sono stati ritrovati esemplari di copepodi, nonostante il volume di acqua misurato settimanalmente sia variato da pochi litri, in qualche bidone, fino a valori della massima capacità, per effetto del prelievo e dell’apporto dell’acqua da parte dei gestori degli orti. In post-trattamento sono state osservate differenze significative tra le densità larvali nelle due tesi solo al 22 settembre per Ae.albopictus Tuttavia in termini percentuali la riduzione media di larve di 3a-4a età e pupe nei bidoni con copepodi, rispetto al testimone, è stata de 95,86% per Ae. albopictus e del 73,30% per Cx. pipiens. Prova di efficacia in tombini stradali Sono state condotte due prove in due differenti località, interessando 20 tombini (Marano di Castenaso in provincia di Bologna nel 2007) e 145 tombini (San Carlo in provincia di Ferrara nel 2008), quest’ultimi sottoposti a spurgo e pulizia completa nei precedenti 6 mesi l’inizio della prova. L’introduzione dei copepodi nei tombini è stata fatta all’inizio di luglio nella prova di Marano di Castenaso e alla fine di aprile e giugno in quelli di San Carlo, a dosi di 100 e 50 copepodi/tombino. Prima dell’introduzione dei copepodi e successivamente ogni 2 settimane per due mesi, in ogni tombino veniva campionata la presenza culicidica e dei copepodi con dipper immanicato. Nel 2007 dopo l’introduzione dei copepodi e per tutto il periodo di studio, mediamente soltanto nel 77% dei tombini i copepodi sono sopravvissuti. Nel periodo di prova le precipitazioni sono state scarse e la causa della rarefazione dei copepodi fino alla loro scomparsa in parte dei tombini è pertanto da ricercare non nell’eventuale dilavamento da parte della pioggia, quanto dalle caratteristiche chimico-fisiche dell’acqua. Tra queste innanzitutto la concentrazione di ossigeno che è sempre stata molto bassa (0÷1,03 mg/l) per tutta la durata del periodo di studio. Inoltre, a questo fattore probabilmente è da aggiungere l’accumulo, a concentrazioni tossiche per M. albidus, di composti organici e chimici dalla degradazione e fermentazione dell’abbondante materiale vegetale (soprattutto foglie) in condizioni di ipossia o anossia. Nel 2008, dopo il primo inoculo di M. albidus la percentuale di tombini che al campionamento presentano copepodi decresce in modo brusco fino a raggiungere il 6% a 2 mesi dall’introduzione dei copepodi. Dopo 40 giorni dalla seconda introduzione, la percentuale di tombini con copepodi è del 6,7%. Nell’esperienza 2008 è le intense precipitazioni hanno avuto probabilmente un ruolo determinante sul mantenimento dei copepodi nei tombini. Nel periodo della prova infatti le piogge sono state frequenti con rovesci in varie occasioni di forte intensità per un totale di 342 mm. Sotto questi livelli di pioggia i tombini sono stati sottoposti a un continuo e probabilmente completo dilavamento che potrebbe aver impedito la colonizzazione stabile dei copepodi. Tuttavia non si osservano influenze significative della pioggia nella riduzione percentuale dei tombini colonizzati da copepodi e ciò fa propendere all’ipotesi che assieme alla pioggia siano anche le caratteristiche fisico-chimiche dell’acqua a impedire una colonizzazione stabile da parte di M. albidus. In definitiva perciò si è dimostrato che i tombini stradali sono ambienti ostili per la sopravvivenza di M. albidus, anche se, dove il ciclopoide si è stabilito permanentemente, ha dimostrato un certo impatto nei confronti di Ae. albopictus e di Cx. pipiens, che tuttavia è risultato non statisticamente significativo all’analisi della varianza. Nei confronti delle larve di Culex pipiens il copepode non permette livelli di controllo soddisfacente, confermando i dati bibliografici. Nei confronti invece di Ae. albopictus la predazione raggiunge buoni livelli; tuttavia ciò non è compensato dalla percentuale molto alta di tombini che, dopo periodi di pioggia copiosa o singoli episodi temporaleschi o per le condizioni di anossia rimangono senza i copepodi. Ciò costringerebbe a ripetute introduzioni di copepodi i cui costi attualmente non sono inferiori a quelli per trattamenti con prodotti larvicidi. In conclusione la ricerca ha portato a considerare Macrocyclops albidus un interessante ausiliario applicabile anche nelle realtà urbane del nostro paese nell’ambito di programmi integrati di contrasto alle infestazioni di Aedes albopictus. Tuttavia il suo utilizzo non si presta a tutti i focolai larvali ma soltanto a raccolte di acqua artificiali di un certo volume come i bidoni utilizzati per stoccare acqua da impiegare per l’orto e il giardino familiare nelle situazioni in cui non è garantita la copertura ermetica, lo svuotamento completo settimanale o l’utilizzo di sostanze ad azione larvozanzaricida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Definizione del problema: Nonostante il progresso della biotecnologia medica abbia consentito la sopravvivenza del feto, fuori dall’utero materno, ad età gestazionali sempre più basse, la prognosi a breve e a lungo termine di ogni nuovo nato resta spesso incerta e la medicina non è sempre in grado di rimediare completamente e definitivamente ai danni alla salute che spesso contribuisce a causare. Sottoporre tempestivamente i neonati estremamente prematuri alle cure intensive non ne garantisce la sopravvivenza; allo stesso modo, astenervisi non ne garantisce la morte o almeno la morte immediata; in entrambi i casi i danni alla salute (difetti della vista e dell’udito, cecità, sordità, paralisi degli arti, deficit motori, ritardo mentale, disturbi dell’apprendimento e del comportamento) possono essere gravi e permanenti ma non sono prevedibili con certezza per ogni singolo neonato. Il futuro ignoto di ogni nuovo nato, insieme allo sgretolamento di terreni morali condivisi, costringono ad affrontare laceranti dilemmi morali sull’inizio e sul rifiuto, sulla continuazione e sulla sospensione delle cure. Oggetto: Questo lavoro si propone di svolgere un’analisi critica di alcune strategie teoriche e pratiche con le quali, nell’ambito delle cure intensive ai neonati prematuri, la comunità scientifica, i bioeticisti e il diritto tentano di aggirare o di risolvere l’incertezza scientifica e morale. Tali strategie sono accomunate dalla ricerca di criteri morali oggettivi, o almeno intersoggettivi, che consentano ai decisori sostituti di pervenire ad un accordo e di salvaguardare il vero bene del paziente. I criteri esaminati vanno dai dati scientifici riguardanti la prognosi dei prematuri, a “fatti” di natura più strettamente morale come la sofferenza del paziente, il rispetto della libertà di coscienza del medico, l’interesse del neonato a sopravvivere e a vivere bene. Obiettivo: Scopo di questa analisi consiste nel verificare se effettivamente tali strategie riescano a risolvere l’incertezza morale o se invece lascino aperto il dilemma morale delle cure intensive neonatali. In quest’ultimo caso si cercherà di trovare una risposta alla domanda “chi deve decidere per il neonato?” Metodologia e strumenti: Vengono esaminati i più importanti documenti scientifici internazionali riguardanti le raccomandazioni mediche di cura e i pareri della comunità scientifica; gli studi scientifici riguardanti lo stato dell’arte delle conoscenze e degli strumenti terapeutici disponibili ad oggi; i pareri di importanti bioeticisti e gli approcci decisionali più frequentemente proposti ed adoperati; alcuni documenti giuridici internazionali riguardanti la regolamentazione della sperimentazione clinica; alcune pronunce giudiziarie significative riguardanti casi di intervento o astensione dall’intervento medico senza o contro il consenso dei genitori; alcune indagini sulle opinioni dei medici e sulla prassi medica internazionale; le teorie etiche più rilevanti riguardanti i criteri di scelta del legittimo decisore sostituto del neonato e la definizione dei suoi “migliori interessi” da un punto di vista filosofico-morale. Struttura: Nel primo capitolo si ricostruiscono le tappe più importanti della storia delle cure intensive neonatali, con particolare attenzione agli sviluppi dell’assistenza respiratoria negli ultimi decenni. In tal modo vengono messi in luce sia i cambiamenti morali e sociali prodotti dalla meccanizzazione e dalla medicalizzazione dell’assistenza neonatale, sia la continuità della medicina neonatale con il tradizionale paternalismo medico, con i suoi limiti teorici e pratici e con lo sconfinare della pratica terapeutica nella sperimentazione incontrollata. Nel secondo capitolo si sottopongono ad esame critico le prime tre strategie di soluzione dell’incertezza scientifica e morale. La prima consiste nel decidere la “sorte” di un singolo paziente in base ai dati statistici riguardanti la prognosi di tutti i nati in condizioni cliniche analoghe (“approccio statistico”); la seconda, in base alla risposta del singolo paziente alle terapie (“approccio prognostico individualizzato”); la terza, in base all’evoluzione delle condizioni cliniche individuali osservate durante un periodo di trattamento “aggressivo” abbastanza lungo da consentire la raccolta dei dati clinici utili a formulare una prognosi sicura(“approccio del trattamento fino alla certezza”). Viene dedicata una più ampia trattazione alla prima strategia perché l’uso degli studi scientifici per predire la prognosi di ogni nuovo nato accomuna i tre approcci e costituisce la strategia più diffusa ed emblematica di aggiramento dell’incertezza. Essa consiste nella costruzione di un’ “etica basata sull’evidenza”, in analogia alla “medicina basata sull’evidenza”, in quanto ambisce a fondare i doveri morali dei medici e dei genitori solo su fatti verificabili (le prove scientifiche di efficacia delle cure)apparentemente indiscutibili, avalutativi o autocertificativi della moralità delle scelte. Poiché la forza retorica di questa strategia poggia proprio su una (parziale) negazione dell’incertezza dei dati scientifici e sulla presunzione di irrilevanza della pluralità e della complessità dei valori morali nelle decisioni mediche, per metterne in luce i limiti si è scelto di dedicare la maggior parte del secondo capitolo alla discussione dei limiti di validità scientifica degli studi prognostici di cui i medici si avvalgono per predire la prognosi di ogni nuovo nato. Allo stesso scopo, in questo capitolo vengono messe in luce la falsa neutralità morale dei giudizi scientifici di “efficacia”, “prognosi buona”, “prognosi infausta” e di “tollerabilità del rischio” o dei “costi”. Nel terzo capitolo viene affrontata la questione della natura sperimentale delle cure intensive per i neonati prematuri al fine di suggerire un’ulteriore ragione dell’incertezza morale, dell’insostenibilità di obblighi medici di trattamento e della svalutazione dell’istituto del consenso libero e informato dei genitori del neonato. Viene poi documentata l’esistenza di due atteggiamenti opposti manifestati dalla comunità scientifica, dai bioeticisti e dal diritto: da una parte il silenzio sulla natura sperimentale delle terapie e dall’altra l’autocertificazione morale della sperimentazione incontrollata. In seguito si cerca di mostrare come entrambi, sebbene opposti, siano orientati ad occultare l’incertezza e la complessità delle cure ai neonati prematuri, per riaffermare, in tal modo, la precedenza dell’autorità decisionale del medico rispetto a quella dei genitori. Il quarto capitolo, cerca di rispondere alla domanda “chi deve decidere in condizioni di incertezza?”. Viene delineata, perciò, un’altra strategia di risoluzione dell’incertezza: la definizione del miglior interesse (best interest) del neonato, come oggetto, limite e scopo ultimo delle decisioni mediche, qualsiasi esse siano. Viene verificata l’ipotesi che il legittimo decisore ultimo sia colui che conosce meglio di ogni altro i migliori interessi del neonato. Perciò, in questo capitolo vengono esposte e criticate alcune teorie filosofiche sul concetto di “miglior interesse” applicato allo speciale status del neonato. Poiché quest’analisi, rivelando l’inconoscibilità del best interest del neonato, non consente di stabilire con sicurezza chi sia intitolato a prendere la decisione ultima, nell’ultimo capitolo vengono esaminate altre ragioni per le quali i genitori dovrebbero avere l’ultima parola nelle decisioni di fine o di proseguimento della vita. Dopo averle scartate, viene proposta una ragione alternativa che, sebbene non risolutiva, si ritiene abbia il merito di riconoscere e di non mortificare l’irriducibilità dell’incertezza e l’estrema complessità delle scelte morali, senza rischiare, però, la paralisi decisionale, il nichilismo morale e la risoluzione non pacifica dei conflitti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro presentato si propone di fornire un contributo all'implementazione di indagini finalizzate a misurare l'evoluzione delle intenzioni d'acquisto del consumatore italiano nei confronti degli OGM, data anche l'impossibilità  al momento di avere indicazioni e dati sul comportamento (vista la quasi totale assenza dei prodotti OGM nella distribuzione, se si eccettuano i prodotti d'allevamento di animali alimentati con OGM per cui non è previsto nessun obbligo di etichettatura). Le coltivazioni transgeniche (Organismi Geneticamente Modificati) si stanno diffondendo abbastanza rapidamente nel contesto mondiale, dal 1996, primo anno in cui sono uscite dalla fase sperimentale, ad oggi. Nel 2008 la superficie globale delle colture biotech è stata di 125 milioni di ettari, circa il 9% in più rispetto ai 114 milioni del 2007, mentre il numero dei Paesi che hanno adottato varietà  GM è giunto a 25. Di questi sono soprattutto Usa, Canada, Argentina, Brasile, Cina e India a trainare la crescita; le colture più diffuse sono soia, mais, cotone e colza, prodotti destinati principalmente al segmento feed e al segmento no-food e solo in minima parte al segmento food (cioè all'alimentazione diretta umana). Molte più resistenze ha incontrato tale sviluppo nei Paesi dell'Unione europea. A tutt'oggi le coltivazioni GM hanno raggiunto estensioni significative solamente in Spagna, con alcune decine di migliaia di ettari di mais GM. Mais che peraltro è l'unica produzione per cui è stata autorizzata una varietà  GM alla coltivazione. Si intuisce in sostanza come in Europa si sia assunto un atteggiamento molto più prudente verso l'utilizzo su larga scala di tale innovazione scientifica, rispetto a quanto accaduto nei grandi Paesi citati in precedenza. Una prudenza dettata dal serrato dibattito, tuttora in corso, tra possibilisti e contrari, con contrapposizioni anche radicali, al limite dell'ideologia. D'altro canto, le indagini di Eurobarometro hanno messo in luce un miglioramento negli ultimi anni nella percezione dei cittadini europei verso le biotecnologie: dopo aver raggiunto un livello minimo di fiducia nel 1999, si è manifestata una lenta risalita verso i livelli di inizio anni '90, con percentuali di "fiduciosi" intorno al 55-60% sul totale della popolazione. Tuttavia, sebbene sulle biotecnologie in genere (l'Eurobarometro individua quattro filoni: alimenti contenenti OGM, terapie geniche, nanotecnologie e farmaci contenenti OGM), il giudizio sia abbastanza positivo, sugli alimenti permane un certo scetticismo legato soprattutto a considerazioni di inutilità  della tecnologia, di rischio percepito e di accettabilità morale: per citare il caso italiano, che, contrariamente a quello che si potrebbe pensare, è tra i più elevati nel contesto europeo, solamente un cittadino su tre valuta positivamente gli alimenti contenenti OGM. Se si analizza, inoltre, il sentiment del settore agricolo, nel quale il tema riveste anche un'importanza di natura economico-produttiva, in quanto incidente sui comportamenti e sulla strategie aziendali, sembra emergere un'apertura significativamente più elevata, se non una vera e propria frattura rispetto all'opinione pubblica. Infatti, circa due maiscoltori lombardi su tre (Demoskopea, 2008), cioè la tipologia di agricoltori che potrebbe beneficiare di tale innovazione, coltiverebbero mais GM se la normativa lo consentisse. Ebbene, in tale contesto diventa d'estremo interesse, sebbene di non facile praticabilità , lo studio e l'implementazione di modelli volti a monitorare le componenti che concorrono a formare l'intenzione e, in ultima analisi, il comportamento, dei consumatori verso gli OGM. Un esercizio da attuare per lo più tramite una serie di misurazioni indirette che devono fermarsi necessariamente all'intenzione nel caso italiano, mentre in altri Paesi che hanno avuto legislazioni più favorevoli all'introduzione degli OGM stessi nella produzione food può perseguire approcci d'analisi field, focalizzati non solo sull'intenzione, ma anche sul legame tra intenzione ed effettivo comportamento. Esiste una vasta letteratura che studia l'intenzione del consumatore verso l'acquisto di determinati beni. Uno degli approcci teorici che negli ultimi anni ha avuto più seguito è stato quello della Teoria del Comportamento Pianificato (Ajzen, 1991). Tale teoria prevede che l'atteggiamento (cioè l'insieme delle convinzioni, credenze, opinioni del soggetto), la norma soggettiva (cioè l'influenza dell'opinione delle persone importanti per l'individuo) e il controllo comportamentale percepito (ovvero la capacità , auto-percepita dal soggetto, di riuscire a compiere un determinato comportamento, in presenza di un'intenzione di ugual segno) siano variabili sufficienti a spiegare l'intenzione del consumatore. Tuttavia, vari ricercatori hanno e stanno cercando di verificare la correlazione di altre variabili: per esempio la norma morale, l'esperienza, l'attitudine al rischio, le caratteristiche socio-demografiche, la cosiddetta self-identity, la conoscenza razionale, la fiducia nelle fonti d'informazione e via discorrendo. In tale lavoro si è cercato, quindi, di esplorare, in un'indagine "pilota" quali-quantitativa su un campione ragionato e non probabilistico, l'influenza sull'intenzione d'acquisto di prodotti alimentari contenenti OGM delle variabili tipiche della Teoria del Comportamento Pianificato e di alcune altre variabili, che, nel caso degli OGM, appaiono particolarmente rilevanti, cioè conoscenza, fiducia nelle fonti d'informazione ed elementi socio-demografici. Tra i principali risultati da porre come indicazioni di lavoro per successive analisi su campioni rappresentativi sono emersi: - La conoscenza, soprattutto se tecnica, sembra un fattore, relativamente al campione ragionato analizzato, che conduce ad una maggiore accettazione degli OGM; le stesse statistiche descrittive mettono in luce una netta differenza in termini di intenzione d'acquisto dei prodotti contenenti OGM da parte del sub-campione più preparato sull'argomento; - L'esplorazione della fiducia nelle fonti d'informazione è sicuramente da approfondire ulteriormente. Dall'indagine effettuata risulta come l'unica fonte che influenza con le sue informazioni la decisione d'acquisto sugli OGM è la filiera agroalimentare. Dato che tali attori si caratterizzano per lo più con indicazioni contrarie all'introduzione degli OGM nei loro processi produttivi, è chiaro che se il consumatore dichiara di avere fiducia in loro, sarà  anche portato a non acquistare gli OGM; - Per quanto riguarda le variabili della Teoria del Comportamento Pianificato, l'atteggiamento mette in luce una netta preponderanza nella spiegazione dell'intenzione rispetto alla norma soggettiva e al controllo comportamentale percepito. Al contrario, queste ultime appaiono variabili deboli, forse perchè a tutt'oggi la possibilità  concreta di acquistare OGM è praticamente ridotta a zero ; - Tra le variabili socio-demografiche, l'influenza positiva del titolo di studio sulla decisione d'acquisto sembra confermare almeno in parte quanto emerso rispetto alla variabile "conoscenza"; - Infine, il fatto che il livello di reddito non influisca sull'intenzione d'acquisto appare abbastanza scontato, se si pensa, ancora una volta, come a tutt'oggi gli OGM non siano presenti sugli scaffali. Il consumatore non ha al momento nessuna idea sul loro prezzo. Decisamente interessante sarà  indagare l'incidenza di tale variabile quando il "fattore OGM" sarà  prezzato, presumibilmente al ribasso rispetto ai prodotti non OGM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’irrigidimento del contesto regolamentare europeo dovuto all’attuale condizione di contaminazione diffusa dell’ambiente, riscontrata in Italia e in molti altri paesi europei, ha visto l’esigenza sempre più pressante di razionalizzare le dosi dei fitofarmaci utilizzati in agricoltura. Lo sviluppo e l’utilizzo di nuovi prodotti coadiuvanti come specifici antideriva per erbicidi, rappresenta in questo senso, un’importante risorsa su cui si inizia a fare affidamento. In Francia, per esempio, già da alcuni anni ci sono normative che obbligano l’utilizzo in agricoltura di tali prodotti, mentre in Italia non si hanno ancora direttive precise a riguardo. In tal contesto l’obiettivo principale di questa ricerca, effettuata in collaborazione con la ditta Intrachem, è stato quello di studiare alcune caratteristiche funzionali relative a due prodotti, che verranno lanciati a breve sul mercato, come specifici antideriva per erbicidi. In particolar modo è stato fatto uno studio per verificare se ed eventualmente come, questi coadiuvanti (Gondor e Zarado) possono influenzare l’attività del principio attivo a cui vengono aggiunti, apportando variazioni relative alla sua efficacia. Lo schema di lavoro seguito ha previsto una prima fase di saggio dove venivano effettuati test dose-risposta, utilizzando diversi erbicidi a diverse concentrazioni. I test sono stati effettuati su alcune malerbe mono e dicotiledoni. In ciascuna di queste prove è stata valutata e confrontata la percentuale di sopravvivenza e il peso dei sopravvissuti tra le tesi trattate. Le tesi prevedevano trattamenti con erbicida e trattamenti con erbicida più uno dei due coadiuvanti. Nella seconda fase si è effettuato un approfondimento sulle tesi che hanno mostrato i risultati più interessanti, per capirne possibilmente le basi fisiologiche. In particolare si è verificato se l’aggiunta dei due antideriva potesse determinare cambiamenti durante la fase di assorbimento e di traslocazione del principio attivo all’interno della piantina, utilizzando molecole radiomarcate con C14. Dai risultati ottenuti si è potuto evidenziare come l’aggiunta dei coadiuvanti possa rendere più efficace l’azione dell’erbicida nei casi in cui le infestanti non vengono completamente controllate dagli stessi (stadio vegetativo troppo avanzato e resistenza all’erbicida). Non è stato sempre verificato che ad un miglioramento dell’efficacia coincida un aumento dell’assorbimento e della traslocazione del principio attivo, all’interno della pianta. In conclusione si è potuto constatare che Gondor e Zarado oltre a svolgere la loro funzione antideriva, non influenzano negativamente l’efficacia dell’erbicida, salvo poche eccezioni, ma al contrario possono potenziarne l’azione, nelle situazioni “border line”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La risposta emodinamica all'esercizio dinamico è stata oggetto di numerosi studi scientifici. Poca attenzione è stata invece rivolta agli aggiustamenti cardiovascolari che si verificano quando si interrompe uno sforzo dinamico. Al cessare dell' esercizio, la frequenza cardiaca e la contrattilità miocardica subiscono un decremento repentino e vengono rilasciati in quantità i prodotti finali del metabolismo muscolare, come lattato, ioni idrogeno, adenosina, sostanze in grado di indurre vasodilatazione nei gruppi muscolari precedentemente attivati determinando una riduzione del precarico, post-carico cardiaco, contrattilità miocardica e una dilatazione delle arteriole periferiche, così da mantenere le resistenze vascolari periferiche a un basso livello. Inoltre, si verificano alterazioni della concentrazione ematica di elettroliti, diminuzione delle catecolamine circolanti e si verifica un ipertono vagale : tutti questi fenomeni possono avere un effetto significativo sullo stato emodinamico. In questo studio si voleva valutare in che misura l’eventuale effetto ipotensivo dovuto all’esercizio fosse legato all’intensità del carico lavorativo applicato ed alla sua durata. Il campione esaminato comprendeva 20 soggetti maschi attivi. I soggetti venivano sottoposti a quattro test in giornate diverse. La prova da sforzo preliminare consisteva in una prova da sforzo triangolare massimale eseguita al cicloergometro con un protocollo incrementale di 30 Watt al minuto. Il test si articolava in una prima fase della durata di 3 minuti nei quali venivano registrati i dati basali, in una seconda fase della durata di tre minuti in cui il soggetto compiva un riscaldamento al cicloergometro, che precedeva l’inizio dello sforzo, ad un carico di 20 W. Al termine della prova venivano calcolati il massimo carico lavorativo raggiunto (Wmax) ed il valore di soglia anaerobica (SA). Dopo la prova da sforzo preliminare il soggetto effettuava 3 esercizi rettangolari di diversa intensità in maniera randomizzata così strutturati: test 70% SA; test 130% SA, 130% Wmax : prove da sforzo rettangolari ad un carico lavorativo pari alla percentuale indicatain relazione ai valori di SA e Wmax ottenuti nella prova da sforzo preliminare. Tali test duravano dieci minuti o fino all'esaurimento del soggetto. Le prova erano precedute da tre minuti di riposo e da tre minuti di riscaldamento. Il recupero aveva una durata di 30 minuti. La PA veniva misurata ogni 5 minuti durante lo sforzo, ogni minuto nei primi 5 minuti di recupero e successivamente ogni 5 minuti fino alla conclusione del recupero. Dai risultati emerge come l'effetto ipotensivo sia stato più marcato nel recupero dall'intensità di carico lavorativo meno elevata, cioè dopo il test 70%SA. C'è da considerare che la più bassa intensità di sforzo permetteva di praticare un esercizio significativamente più lungo rispetto ai test 130%SA e 130%Wmax. È quindi verosimile che anche la durata dell'esercizio e non solo la sua intensità abbia avuto un ruolo fondamentale nel determinare l'ipotensione nel recupero evidenziata in questo studio. L’effetto ipotensivo più evidente si è manifestato nelle prove a più bassa intensità ma con carico lavorativo totale più elevato. I dati supportano la tendenza a considerare non tanto l’intensità e la durata dell’esercizio in modo isolato, quanto piuttosto il carico lavorativo totale (intensità x durata). L'effetto ipotensivo registrato nello studio è da ascriversi soprattutto ad una persistente vasodilatazione susseguente allo sforzo. Infatti, nel recupero dal test 70%SA, le RVP si mantenevano basse rispetto ai valori di riposo. Tale dato potrebbe avere un grande valore clinico nella prescrizione dell'attività fisica più idonea nei soggetti ipertesi,che potrebbero beneficiare di un eventuale effetto ipotensivo successivo all'attività praticata. Pertanto in futuro bisognerà estendere lo studio ai soggetti ipertesi. La conferma di tale risultato in questi soggetti permetterebbe di scegliere correttamente l'intensità e la durata del carico lavorativo, in modo da calibrare lo sforzo al grado di patologia del soggetto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio riguarda l’applicazione della metodologia Life Cycle Assessment (LCA) ad una bottiglia di Passito di Pantelleria, prodotta dall’Azienda vitivinicola “Donnafugata” localizzata nel comune di Marsala in Sicilia. L’obiettivo di tale studio consiste nel quantificare e valutare le prestazioni energetico-ambientali derivanti dall’intero ciclo di vita del processo produttivo, nonché le fasi di produzione che presentano il maggiore impatto. Lo studio è stato ulteriormente approfondito effettuando una comparazione tra la produzione della singola bottiglia di Passito nei diversi anni 2007, 2008 e 2009 con lo scopo di determinare quali tra questi risulta avere il maggiore impatto ambientale. Gli impatti ambientali di un’Azienda vitivinicola risultano avere la loro particolare importanza in quanto la produzione di vino è un processo di natura complessa. Di conseguenza tali impatti possono compromettere le componenti fondamentali del processo produttivo, a partire dalle uve coltivate in vigna fino ad arrivare in cantina, dove avviene la trasformazione dell’uva in mosto e la successiva fase di vinificazione che determina il prodotto finale messo in commercio. Proprio attraverso il fluire delle seguenti fasi di trasformazione, in che misura queste consumano energia e producono emissioni? È importante sottolineare che lo studio del ciclo di vita di un prodotto può essere considerato come un supporto fondamentale allo sviluppo di schemi di etichettatura ambientale attraverso i quali è possibile indirizzare il consumatore finale verso beni più rispettosi dell’ambiente e fornire informazioni chiare e trasparenti sulle prestazioni ambientali del prodotto stesso. Allo stesso tempo tale strumento può essere adoperato dall’azienda per fornire garanzia delle credenziali ambientali del prodotto acquisendo così un vantaggio competitivo rispetto alle aziende concorrenti. Infatti, nell’ambito delle politiche comunitarie di prodotto, una delle applicazioni più significative della valutazione del ciclo di vita si ha nella dichiarazione ambientale di prodotto o EPD (Environmental Product Declaration). L’EPD è uno schema di certificazione volontaria che rappresenta un marchio di qualità ecologica per i prodotti, permettendo di comunicare informazioni oggettive, confrontabili e credibili relative alla prestazione ambientale degli stessi. Per essere convalidabili, le prestazioni ambientali presenti nelle EPD devono rispettare i requisiti stabiliti dal PCR- Product Category Rules, un documento nel quale sono presenti le regole per lo studio di una certa categoria di prodotto. Il presente lavoro può essere suddiviso in cinque step successivi. Il primo prevede la descrizione della metodologia LCA, adottata per la quantificazione dell’impatto ambientale, analizzandone singolarmente le quattro fasi principali che la caratterizzano; il secondo presenta la descrizione dell’Azienda vitivinicola e del Passito di Pantelleria, oggetto della valutazione, mettendo in evidenza anche le particolarità ambientali del territorio Pantesco in cui il prodotto prende vita; il terzo fornisce una descrizione delle caratteristiche principali dello strumento applicativo utilizzato per l’analisi, SimaPro nella versione 7.3; il quarto descrive le diverse attività di lavorazione svolte nel complesso processo di produzione della bottiglia di Passito, focalizzando l’attenzione sui componenti primari dell’oggetto di valutazione ed il quinto riguarda la descrizione dell’analisi LCA applicata alla singola bottiglia di Passito.