210 resultados para di(2-etyyliheksyyli)fosforihappo


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell’ultimo decenno si è assisitito ad una frenetica evoluzione delle tecnologie di connessione e trasferimento dati, dagli impianti di fibra ottica sempre più diffusi e performanti, alle varie tecnologie mobile UMTS e LTE. Tutto ciò ha permesso a sempre più persone di poter spendere una maggiore fetta del proprio tempo sulla rete sia per svago che per lavoro. Questo ha portato col tempo l’utente interattivo alla ricerca di servizi remoti che prima usufruiva in locale, sia per motivi di portabilità e di interconnessione, sia per una semplice questione di sincronizzazione fra i vari dispositivi posseduti. Il presente progetto di tesi si pone come obiettivo di indagare con occhio ingegneristico all’evoluzione della struttura del web fino ad identificare e analizzare l’attuale necessità di poter avere in rete tutti quei servizi anche completi e strutturalmente complessi che prima si aveva sul proprio desktop; tutto ciò attraverso l’esempio di un nuovo linguaggio di sviluppo per applicazioni web strutturate proposto da Google: DART. In questa analisi non si potrà prescindere dallo studio attento della tecnologia che sin dagli inizi della rete ha fatto da struttura al web ovvero l’Html e il suo ultimo standard Hmtl5. Nella prima parte verrà mostrata, attraverso un breve percorso, la nascita e lo sviluppo del web, sino ai giorni nostri. Si effettuerà quindi una panoramica, rivisitando tutti più importanti passi che hanno portato la rete internet ad essere ciò che oggi utilizziamo, ponendo una particolare attenzione alle attuali esigenze di progettazione della struttura dei servizi web. Nel secondo capitolo viene introdotta la tecnologia a base del web, l’Html; attraverso una breve analisi dell’evoluzione di quest’ultima si arriverà sino all’attuale HTML5 e alle funzionalità offerte nell’ottica della programmazione web strutturata. Nel terzo capitolo si analizzerà in maniera più approfondita la necessità di un web strutturato e le potenzialità del progetto Dart attraverso alcuni esempi esplicativi. Infine si trarranno alcune conclusioni sull’attuale situazione del web, sulla necessità di un web strutturato e sulla possibilità di riuscita del progetto Dart.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mia attività di tesi è stata svolta presso CEFLA Dental Group di Imola (BO). Essa ha trattato lo studio e il re-engineering del sistema attuale di imballaggio dei riuniti odontoiatrici ( vedi CAP 2 ),ponendo particolare attenzione all’utilizzo di materiali ecosostenibili e alla riduzione di tempi e costi. Il mio lavoro è stato suddiviso in quattro fasi ben distinte: la prima, all’interno dell’area produttiva, è servita per analizzare in dettaglio le varie fasi di montaggio dei gruppi e sottogruppi di alcuni modelli di riuniti dentali scelti come riferimento. A seguire, affiancato a operatori specializzati, ho assistito alle operazioni di imballaggio, stoccaggio in magazzino e carico. Nella seconda fase, ho raccolto anche una serie di informazioni utili all’analisi, tra cui i costi dei vari elementi dell’imballo, i tempi necessari all’operatore e infine lo storico dei reclami degli ultimi anni. Ho poi selezionato gli aspetti critici più ricorrenti. Durante la terza fase, ho eseguito la vera e propria analisi, proponendo alcune soluzioni di miglioramento. Infine nell’ultima fase ho valutato economicamente le varie soluzioni ipotizzate, focalizzandomi inoltre sui tempi di manodopera.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi riguarda le possibili connessioni tra la diffusione dei contratti di coltivazione(con disciplinari di coltivazione)e l'aumento della qualità del prodotto. Si basa su un indagine svolta intervistando con un questionario un campione di circa dieci aziende agricole. A tale proposito si cerca di capire quali aziende hanno sottoscritto dei contratti e, successivamente, si chiede agli intervistati un giudizio sulle prescrizioni contenute nei disciplinari di coltivazione. In base hai dati raccolti non si evidenziano aumenti sensibili della qualità connessi alla sottoscrizione di contratti di coltivazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo del presente elaborato di tesi è stato quello di mettere a punto una metodica in estrazione in fase solida (SPE) per la determinazione dei composti polari, in alternativa alla metodica ufficiale prevista dalla Circ. Minisan 11.01.91 n.1. Durante la frittura avvengono diverse trasformazioni chimiche che portano alla formazione di composti polari come monogliceridi e digliceridi, acidi grassi liberi, acidi grassi dimeri e polimerizzati, trigliceridi dimeri e polimerizzati. Tali composti, dal punto di vista nutrizionale, sono quelli più importanti poiché rimangono nell’olio, sono assorbiti dall’alimento, e di conseguenza ingeriti. I composti polari hanno una notevole importanza a livello nutrizionale e fisiologico, infatti diversi studi hanno evidenziano come essi possano avere un impatto sull’organismo umano. In seguito a tutte queste motivazioni, per prevenire possibili rischi per il consumatore, derivanti dall’uso improprio o eccessivamente ripetuto di oli e grassi per frittura, l’Istituto Superiore di Sanità prevede che il tenore dei composti polari non debba essere superiore a 25 g/100 g, infatti i composti polari sono l’unico parametro sottoposto ad un controllo ufficiale negli oli da frittura. La metodica ufficiale per la determinazione dei composti polari negli oli da frittura, è descritta nella Circ. Minisan dell’11.1.91 n.1. Tuttavia, tale metodica presenta diverse problematiche, poiché richiede un’elevata manualità da parte dell’operatore ed elevati quantitativi di solventi, con il conseguente impatto economico ed ambientale. Nella fase di messa a punto della metodica SPE, sono stati considerati diversi parametri: tipo di fase stazionaria, quantità di olio, miscele eluenti (in diverse quantità e rapporti). E’ stata scelta l’oleina di palma come matrice di prova della messa a punto, perché è molto utilizzata in frittura e perché, tra gli oli da frittura, risulta essere quello con maggior contenuto in composti polari. I migliori risultati sono stati ottenuti con una colonnina SPE in gel di silice (55 µm, 70 A) avente una capacità di 5 g/20 mL, depositando 400 mg di olio ed eluendo il campione con 80 mL di esano: etere dietilico (90:10, v/v) (composti apolari), e 20 mL di etere dietilico (composti polari). L’efficienza separativa della SPE è stata verificata tramite gascromatografia. Per poter valutare la ripetibilità, efficienza ed attendibilità della metodica SPE, è stata utilizzata l’oleina di palma prima e dopo essere soggetta a diversi cicli di frittura (dopo il primo e quinto giorno di frittura), in modo da avere diversi livelli di composti polari sulla stessa matrice. La metodica SPE ha mostrato un’eccellente ripetibilità analitica intra-giorno, indipendentemente dal livello di composti polari rilevati nell’oleina di palma (14,1-25,5%); infatti, la ripetibilità intra-giorno non ha superato l’1,5%. Inoltre, la ripetibilità intra-giorno non ha subito modifiche in funzione del contenuto di composti polari. Di conseguenza, si è osservato anche un’ottima ripetibilità analitica inter-giorno, che è variata da 0,64% a l’1,18%. Entrambi valori di ripetibilità (intra ed inter-giorni) attestano che questa metodica in estrazione in fase solida può essere utilizzata per la valutazione dei composti polari negli oli da frittura. Confrontando i livelli medi di composti polari ottenuti tramite la metodica SPE e quella ufficiale applicate all’oleina di palma tal quale, dopo il primo e quinto giorno di frittura, sono state rilevate delle piccole differenze (non significative) tra le due metodiche, essendo i livelli di composti polari in tutti i casi leggermente superiori nei dati della SPE. Entrambe le metodiche hanno presentato un’ottima ripetibilità intra-giorno (< 1,5% e < 3,5% per la SPE e la metodica ufficiale, rispettivamente) e sono risultate comunque confrontabili tra loro. La metodica SPE e quella ufficiale sono state poi applicate anche su altri oli vegetali (extravergine di oliva, olio di girasole alto oleico: olio di palma (60:40, v/v) ed olio di palma: olio di girasole alto oleico (55:45, v/v) ) e confrontate. In effetti, è stato osservato che le percentuali dei composti polari rilevati nello stessa tipologia d’olio sono molto simili, indipendentemente dalla metodica con cui siano stati valutati; è stata infatti confermata un’eccellente correlazione lineare tra i dati. Questo stesso andamento è stato riscontrato negli oli sottoposti a diversi cicli di frittura, il che conferma che entrambe metodiche analitiche sono capaci di separare efficientemente ed in modo analogo i composti non polari da quelli polari. Negli oli analizzati, sono state trovate delle percentuali di composti polari diverse, strettamente correlate all’origine dell’olio, alla sua composizione ed al processo di estrazione. Per ultimo, l’analisi dei costi (che includeva materiali, solventi, personale, ed elettricità) di entrambe le metodiche analitiche ha confermato che l’analisi SPE costerebbe € 22-30, a differenza di quella ufficiale, il cui costo sarebbe di circa € 45. Tale differenza è dovuta principalmente ai costi legati all’operatore ed ai consumi di solventi e di elettricità. Pertanto, la metodica SPE è risultata essere più conveniente in termini economici, poiché porta ad un risparmio di ca. € 15-20 per analisi, oltre che ad un dimezzamento dei solventi. Un altro aspetto importante da sottolineare è il diverso tempo che ciascuna delle metodiche prevede per l’analisi dei composti polari, essendo nettamente più veloce la metodica SPE (circa 1,30 h) rispetto alla metodica ufficiale (circa 3 h). La metodica SPE qui sviluppata ha quindi dimostrato di avere un’efficienza separativa e ripetibilità simili a quella della metodica ufficiale, rendendo possibile una minore manipolazione da parte dell’operatore, tempi più brevi di analisi e l’impiego di bassi quantitativi di solventi, portando così ad una riduzione dell’impatto ambientale ed a costi inferiori di operazione. Pertanto, la metodica SPE può rappresentare una valida alternativa alla metodica ufficiale, prevista dalla Circ. Minisan 11.1.91 n.1.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’università di Bologna, da sempre attenta alle nuove tecnologie e all’innovazione, si è dotata nel 2010 di un Identity Provider (IDP), ovvero un servizio per la verifica dell’identità degli utenti dell’organizzazione tramite username e password in grado di sollevare le applicazioni web (anche esterne all’organizzazione) dall’onere di verificare direttamente le credenziali dell’utente delegando totalmente la responsabilità sul controllo dell’identità digitale all’IDP. La soluzione adottata (Microsoft ADFS) si è dimostrata generalmente semplice da configurare e da gestire, ma ha presentato problemi di integrazione con le principali federazioni di identità regionali e italiane (FedERa e IDEM) a causa di una incompatibilità con il protocollo SAML 1.1, ancora utilizzato da alcuni dei servizi federati. Per risolvere tale incompatibilità il "CeSIA – Area Sistemi Informativi e Applicazioni" dell’Università di Bologna ha deciso di dotarsi di un Identity Provider Shibboleth, alternativa open source ad ADFS che presenta funzionalità equivalenti ed è in grado di gestire tutte le versioni del protocollo SAML (attualmente rilasciato fino alla versione 2.0). Il mio compito è stato quello di analizzare, installare, configurare e integrare con le federazioni IDEM e FedERa un’infrastruttura basata sull’IDP Shibboleth prima in test poi in produzione, con la collaborazione dei colleghi che in precedenza si erano occupati della gestione della soluzione Microsoft ADFS. Il lavoro che ho svolto è stato suddiviso in quattro fasi: - Analisi della situazione esistente - Progettazione della soluzione - Installazione e configurazione di un Identity Provider in ambiente di test - Deploy dell’Identity Provider in ambiente di produzione

Relevância:

30.00% 30.00%

Publicador:

Resumo:

E' stato sviluppato un modello del ciclo produttivo del materiale composito utilizzato in aeronautica e sono state svolte valutazioni comparative con altri materiali tradizionali utilizzati nello stesso ambito.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La prima parte del lavoro è stata dedicata a definire il contesto legislativo in cui si colloca la pianificazione d’emergenza per il trasporto di sostanze pericolose. Dopo una breve introduzione riguardante le direttive Seveso ed il loro recepimento in Italia e in Belgio, è stato effettuato un confronto tra le normative dei due Paesi, con specifico riferimento all’aspetto della pianificazione d’emergenza. Successivamente si è messa in luce l’attualità del tema degli incidenti che hanno origine durante la fase del trasporto delle sostanze pericolose, sia analizzando alcuni verificatisi negli ultimi anni in Europa, sia descrivendo le norme che regolamentano il trasporto di questa tipologia di merci. Tali norme non forniscono informazioni per gestire una situazione d’emergenza che potrebbe verificarsi durante il trasporto e non impongono la predisposizione di piani d’emergenza specifici per quest’attività. E’ proprio alla luce di questa considerazione che, tramite il presente elaborato di tesi, si è voluta mettere in evidenza l’importanza di definire un approccio metodologico a carattere generale per la pianificazione d’emergenza nel trasporto delle sostanze pericolose. Nello specifico, la metodologia utilizzata in Belgio per la pianificazione d’emergenza nell’intorno degli stabilimenti (che rappresentano delle sorgentidi rischio puntiformi) è stata estesa alle linee di trasporto (che rappresentano delle sorgenti di rischio lineari); la descrizione di questa estensione rappresenta la parte più importante e corposa dell’elaborato. Nella parte finale del lavoro la metodologia per la pianificazione d’emergenza nel trasporto è stata applicata ad un caso di studio reale, costituito da uno stabilimento della Polyol Belgium ; in particolare si sono considerati il percorso stradale e la linea ferroviaria tramite cui le materie prime (sostanze infiammabili e tossiche) arrivano all’azienda. GIANFRANCO PUSTORINO Pagina 2 L’applicazione al caso di studio ha confermato la validità della metodologia proposta. Il lavoro effettuato ha evidenziato come sia necessario colmare la lacuna legislativa che vi è in merito alla valutazione del rischio ed alla pianificazione d’emergenza nel trasporto delle sostanze pericolose ; una legislazione specifica a riguardo ridurrebbesenza dubbio l’impatto degli incidenti durante il trasporto sulla popolazione, sull’ambiente e sui beni materiali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il progetto QRPlaces - Semantic Events, oggetto di questo lavoro, focalizza l’attenzione sull’analisi, la progettazione e l’implementazione di un sistema che sia in grado di modellare i dati, relativi a diversi eventi facenti parte del patrimonio turistico - culturale della Regione Emilia Romagna 1, rendendo evidenti i vantaggi associati ad una rappresentazione formale incentrata sulla Semantica. I dati turistico - culturali sono intesi in questo ambito sia come una rappresentazione di “qualcosa che accade in un certo punto ad un certo momento” (come ad esempio un concerto, una sagra, una raccolta fondi, una rappresentazione teatrale e quant’altro) sia come tradizioni e costumi che costituiscono il patrimonio turistico-culturale e a cui si fa spesso riferimento con il nome di “Cultural Heritage”. Essi hanno la caratteristica intrinseca di richiedere una conoscenza completa di diverse informa- zioni correlata, come informazioni di geo localizzazione relative al luogo fisico che ospita l’evento, dati biografici riferiti all’autore o al soggetto che è presente nell’evento piuttosto che riferirsi ad informazioni che descrivono nel dettaglio tutti gli oggetti, come teatri, cinema, compagnie teatrali che caratterizzano l’evento stesso. Una corretta rappresentazione della conoscenza ad essi legata richiede, pertanto, una modellazione in cui i dati possano essere interconnessi, rivelando un valore informativo che altrimenti resterebbe nascosto. Il lavoro svolto ha avuto lo scopo di realizzare un dataset rispondente alle caratteristiche tipiche del Semantic Web grazie al quale è stato possibile potenziare il circuito di comunicazione e informazione turistica QRPlaces 2. Nello specifico, attraverso la conversione ontologica di dati di vario genere relativi ad eventi dislocati nel territorio, e sfruttando i principi e le tecnologie del Linked Data, si è cercato di ottenere un modello informativo quanto più possibile correlato e arricchito da dati esterni. L’obiettivo finale è stato quello di ottenere una sorgente informativa di dati interconnessi non solo tra loro ma anche con quelli presenti in sorgenti esterne, dando vita ad un percorso di collegamenti in grado di evidenziare una ricchezza informativa utilizzabile per la creazione di valore aggiunto che altrimenti non sarebbe possibile ottenere. Questo aspetto è stato realizzato attraverso un’in- terfaccia di MashUp che utilizza come sorgente il dataset creato e tutti i collegamenti con la rete del Linked Data, in grado di reperire informazioni aggiuntive multi dominio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

“Dì che ti piace questa pagina”. Questo è uno dei tanti inviti rivolti a chi, ogni giorno, naviga in Internet. Che si stia leggendo un articolo sul sito de La Repubblica, o visitando il blog di un personaggio famoso o di un politico, i riferimenti ai social network sono ormai una presenza costante nelle pagine web. La facilità di restare in contatto con i propri amici, e la possibilità di collegarsi in qualsiasi momento, hanno portato gli utenti del Web 2.0 ad intensificare le discussioni, ed a commentare gli argomenti ed i contenuti prodotti dagli altri in un continuo e complesso “botta e risposta”. È possibile che quest'ambiente abbia favorito lo sviluppo di una nuova prospettiva della Rete, inteso come un nuovo modo di vedersi e di rapportarsi con gli altri, di esprimersi e di condividere le proprie storie e la propria storia. Per approfondire queste tematiche si è deciso di osservare alcuni dei social networks più diffusi, tra i quali Twitter e Facebook e, per raccogliere i dati più significativi di quest'ultimo, di sviluppare un'apposita applicazione software. Questa tesi tratterà gli aspetti teorici che hanno portato questa ricerca su scala nazionale e l'analisi dei requisiti del progetto; approfondirà le dinamiche progettuali e lo sviluppo dell'applicazione entro i vincoli imposti da Facebook, integrando un questionario per l'utente alla lettura dei dati. Dopo la descrizione delle fasi di testing e deployment, l'elaborato includerà un'analisi preliminare dei dati ottenuti per mezzo di una pre-elaborazione all'interno dell'applicazione stessa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I farmaci sono una nuova classe di inquinanti ambientali ubiquitari che raggiungono, insieme alle acque fognarie, i depuratori urbani che non sono in grado di rimuoverli o degradarli. Così le acque depurate, ancora ricche di farmaci, si riversano nei canali riceventi portando questo carico di inquinanti fino ai fiumi e ai laghi. L’obiettivo del presente studio è stato fornire un contributo alla valutazione del rischio ecologico associato al rilascio di miscele di farmaci nell’ambiente acquatico, verificando con esperimenti di laboratorio gli effetti dell’esposizione congiunta a propranololo e fluoxetina sulla riproduzione di Daphnia magna, crostaceo planctonico d’acqua dolce. Il propranololo è un farmaco beta-bloccante, ossia blocca l'azione dell'adrenalina sui recettori adrenergici di tipo beta del cuore e viene utilizzato contro l’ipertensione. La fluoxetina è un antidepressivo, inibitore selettivo della ricaptazione della serotonina. Sono stati eseguiti test cronici (21 giorni) con solo propranololo (0,25 - 2,00 mg/L) e con solo fluoxetina (0,03 - 0,80 mg/L) che hanno stimato un EC50 per la riproduzione di 0,739 mg/L e di 0,238 mg/L, rispettivamente. L’ultima fase sperimentale consisteva in un test cronico con 25 miscele contenti percentuali diverse dei due farmaci (0%; 25%; 50%; 75%; 100%) e con diverse concentrazioni totali (0,50; 0,71; 1,00; 1,41; 2,00 unità tossiche). Le unità tossiche sono state calcolate sulla base degli EC50 dei precedenti test cronici con i singoli farmaci. I dati sperimentali del test sono stati analizzati utilizzando MixTox, un metodo statistico per la previsione degli effetti congiunti di miscele di sostanze tossiche, che ha permesso di stabilire quale fosse il modello in grado di rappresentare al meglio i risultati sperimentali. Il modello di riferimento utilizzato è stato la concentration addition (CA) a partire dal quale si è identificato il modello che meglio rappresenta l’interazione tra i due farmaci: antagonism (S/A) dose ratio dependent (DR). Infatti si evidenzia antagonismo per tutte le miscele dei due farmaci, ma più accentuato in presenza di una maggiore percentuale di propranololo. Contrariamente a quanto verificato in studi su altre specie e su effetti biologici diversi, è comunque stato possibile evidenziare un affetto avverso sulla riproduzione di D. magna solo a concentrazioni di propranololo e fluoxetina molto più elevate di quelle osservate nelle acque superficiali.