351 resultados para Modelli di ottimizzazione,Ricerca Operativa,Posti letto,Degenza
Resumo:
Nell’attuale contesto di aumento degli impatti antropici e di “Global Climate Change” emerge la necessità di comprenderne i possibili effetti di questi sugli ecosistemi inquadrati come fruitori di servizi e funzioni imprescindibili sui quali si basano intere tessiture economiche e sociali. Lo studio previsionale degli ecosistemi si scontra con l’elevata complessità di questi ultimi in luogo di una altrettanto elevata scarsità di osservazioni integrate. L’approccio modellistico appare il più adatto all’analisi delle dinamiche complesse degli ecosistemi ed alla contestualizzazione complessa di risultati sperimentali ed osservazioni empiriche. L’approccio riduzionista-deterministico solitamente utilizzato nell’implementazione di modelli non si è però sin qui dimostrato in grado di raggiungere i livelli di complessità più elevati all’interno della struttura eco sistemica. La componente che meglio descrive la complessità ecosistemica è quella biotica in virtù dell’elevata dipendenza dalle altre componenti e dalle loro interazioni. In questo lavoro di tesi viene proposto un approccio modellistico stocastico basato sull’utilizzo di un compilatore naive Bayes operante in ambiente fuzzy. L’utilizzo congiunto di logica fuzzy e approccio naive Bayes è utile al processa mento del livello di complessità e conseguentemente incertezza insito negli ecosistemi. I modelli generativi ottenuti, chiamati Fuzzy Bayesian Ecological Model(FBEM) appaiono in grado di modellizare gli stati eco sistemici in funzione dell’ elevato numero di interazioni che entrano in gioco nella determinazione degli stati degli ecosistemi. Modelli FBEM sono stati utilizzati per comprendere il rischio ambientale per habitat intertidale di spiagge sabbiose in caso di eventi di flooding costiero previsti nell’arco di tempo 2010-2100. L’applicazione è stata effettuata all’interno del progetto EU “Theseus” per il quale i modelli FBEM sono stati utilizzati anche per una simulazione a lungo termine e per il calcolo dei tipping point specifici dell’habitat secondo eventi di flooding di diversa intensità.
Resumo:
La presente ricerca muove i suoi primi passi dall’ipotesi generale che il paradigma relazionale possa offrire al mondo dei servizi sociali una configurazione diversa, talora meno utopistica, del community work. Sebbene, infatti, in questi anni il sistema di offerta dei servizi si sia arricchito di principi come la co-progettazione e la co-responsabilità delle azioni, il lavoro di comunità resta ancora molto distante dal lavoro generalmente svolto nei servizi sociali territoriali, incapaci per ragioni strutturali e culturali di accogliere dentro di sé tale funzione. L’idea dalla quale trae origine la presente tesi di dottorato, è pertanto quella di arricchire la definizione di servizi sociali relazionali. Partendo dalle dimensioni che in letteratura sociologica e nei principali modelli teorici di social work definiscono un servizio alla persona quale servizio relazionale, nella prima parte teorica viene ipotizzata una trasformazione parziale del welfare regionale emiliano, poiché ai mutamenti culturali di questi anni non ha fatto seguito un cambiamento reale dei modelli operativi maggiormente basati sullo sviluppo delle competenze. Nella seconda parte della tesi, la ricerca empirica si focalizza sui progetti “family friendly” realizzati nel Comune di Parma, collocati in una logica di welfare societario e basati sull’apporto di soggetti di Terzo Settore, responsabili di ogni fase di realizzazione delle attività. La ricerca si avvale prevalentemente di tecniche qualitative e in alcuni tratti assume le caratteristiche della ricerca-azione. Nelle conclusioni, il contesto territoriale studiato rivela grande ricchezza dei legami strutturali, ma anche necessità di un rafforzamento dei legami interni. La forza dei servizi prodotti si situa, inoltre, nella sovrafunzionalità del legame tra volontari e famiglie, e di questo elemento dovrebbe arricchirsi anche il social work che scelga di adottare una prospettiva metodologica di lavoro relazionale.
Resumo:
Se le trasformazioni sociali in atto tendono a esasperare il senso di incertezza, sradicamento ed individualismo, sussistono pratiche che si contrappongono alle tendenze dominanti, finalizzate a ricucire i legami sociali su scala locale. La progettazione urbano-architettonica interiorizza il nuovo bisogno di comunità originando soluzioni abitative tese a favorire gli scambi informali fra vicini, facendo leva sul concetto di capitale sociale, attaccamento al quartiere, identità del luogo e partecipazione. La casa, simbolo di stabilità e sicurezza ma anche di privacy, privatismo familiare, diventa sempre più oggetto di studi, domanda sociale e intervento politico. Soprattutto è sempre più intesa come un nodo di relazioni familiari in una rete di relazioni sociali più ampie. Casa e quartiere incidono nella esperienza di benessere e socialità familiare? In che modo gli spazi urbani e architettonici influenzano la coesione sociale? Quale il ruolo degli abitanti nello sviluppare socialità e integrazione? Sono queste le domande che ci siamo posti per rilevare le dinamiche sociali e culturali dell’abitare attraverso uno studio di caso condotto in due quartieri simili. Dalla ricerca emerge come il significato della casa non sia univoco ma cambi rispetto al ciclo di vita familiare e a quello economico e ciò incide nella partecipazione alle attività di quartiere. Mostriamo inoltre come lo spazio fisico costruito crea importanti opportunità per gli scambi informali e per il benessere familiare e individuale dei bambini ma che, il contesto sociale sia una discriminate fondamentale. Nel quartiere dove è presente una organizzazione di abitanti il numero delle relazioni di vicinato aumenta, cambiano anche la qualità delle relazioni e le distanze fisiche fra i vicini. Emerge inoltre che la reciprocità è il principale strumento di costruzione della coesione comunitaria interna e crea un atteggiamento di apertura e fiducia che va al di là dei confini di quartiere.
Resumo:
Il seguente lavoro di tesi verte sulla ricerca-azione formazione triennale “Il Filo di Arianna” realizzata in convenzione tra Associazione Italiana Sindrome X Fragile e Dipartimento Di Scienze dell’Educazione – Università di Bologna, finalizzata alla superamento degli handicap che la X fragile propone. La ricerca ha un fuoco in Pedagogia Speciale e un carattere multidisciplinare e inter istituzionale grazie alla sinergia con l’area neuroriabilitativa (Istituto di Ricovero e Cura a Carattere Scientifico (IRCCS) San Raffaele Pisana di Roma) e l’area della Psicologia Clinica (Ospedale Bambin Gesù di Roma). Il lavoro di tesi descrive il percorso per giungere alle linee guida di intervento scaturite dalla ricerca, per il potenziamento cognitivo ed affettivo di bambini e persone con x fragile nei contesti di casa, scuola e tempo libero.
Resumo:
Questa tesi descrive alcuni studi di messa a punto di metodi di analisi fisici accoppiati con tecniche statistiche multivariate per valutare la qualità e l’autenticità di oli vegetali e prodotti caseari. L’applicazione di strumenti fisici permette di abbattere i costi ed i tempi necessari per le analisi classiche ed allo stesso tempo può fornire un insieme diverso di informazioni che possono riguardare tanto la qualità come l’autenticità di prodotti. Per il buon funzionamento di tali metodi è necessaria la costruzione di modelli statistici robusti che utilizzino set di dati correttamente raccolti e rappresentativi del campo di applicazione. In questo lavoro di tesi sono stati analizzati oli vegetali e alcune tipologie di formaggi (in particolare pecorini per due lavori di ricerca e Parmigiano-Reggiano per un altro). Sono stati utilizzati diversi strumenti di analisi (metodi fisici), in particolare la spettroscopia, l’analisi termica differenziale, il naso elettronico, oltre a metodiche separative tradizionali. I dati ottenuti dalle analisi sono stati trattati mediante diverse tecniche statistiche, soprattutto: minimi quadrati parziali; regressione lineare multipla ed analisi discriminante lineare.
Resumo:
“Difetto di Informazione e danno da prodotto” è un tema di grande interesse ed attualità, in un momento storico in cui si è riacceso il dibattito sulla disciplina della responsabilità per danni da prodotto difettoso. Complice è “il difetto di informazione”, da sempre rimasto ai margini della casistica giurisprudenziale, ma che improvvisamente “ruba la scena” imponendosi all'attenzione della Cassazione (nn. 6007/2007 e 20985/2007) e rivelando nodi interpretativi di forte impatto pratico nelle cause di responsabilità del produttore. Di qui l’esigenza di approfondire la complessa tematica degli information defects, sotto il profilo della nozione di “difetto” e della sua prova, nonché dell’incidenza di eventuali carenze informative sulla responsabilità del produttore. Muovendo dall’analisi della Direttiva e della sua attuazione italiana, il lavoro individua i punti nodali di tale disciplina ed i vari limiti posti – sia a livello interpretativo che applicativo - alla tutela del danneggiato, suscettibili di renderla meno “appetibile” di quanto potrebbe sembrare. Affronta, quindi, criticamente le questioni trattate nelle due sentenze di legittimità del 2007 in ordine sia alla distribuzione tra le parti dell'onere probatorio, sia alla rilevanza delle informazioni fornite dal produttore. Peculiare interrogativo cui si cerca di dare risposta è se, ed in che misura, l’“informazione” consenta al produttore di andare esente da responsabilità. Il lavoro passa ad esplorare i nuovi scenari offerti dalla interazione tra la disciplina della responsabilità del produttore e quella sulla sicurezza generale dei prodotti, la cui coesistenza all’interno del medesimo corpo di norme pone nuovi interrogativi, quali la sussistenza della responsabilità del produttore di un bene “conforme” ed il ruolo dell’informazione nell’ipotesi di prodotti non difettosi e/o “conformi”. La ricerca affronta tali interrogativi con sguardo critico e provocatorio sollevando il dubbio se la “conformità alle norme armonizzate” non rischi di diventare una “nuova” clausola di esonero della responsabilità del produttore.
Resumo:
La valutazione dei rischi associati all’operatività dei sistemi di stoccaggio, quali la sismicità indotta e la subsidenza, è requisito basilare per una loro corretta gestione e progettazione, e passa attraverso la definizione dell’influenza sullo stato tensionale delle variazioni di pressione di poro nel sottosuolo. Principale scopo di questo progetto è lo sviluppo di una metodologia in grado di quantificare le deformazioni dei reservoir in funzione della pressione di poro, di tarare i modelli utilizzati con casi studio che presentino dati di monitoraggio reali, tali da consentire un confronto con le previsioni di modello. In questa tesi, la teoria delle inomogeneità è stata utilizzata, tramite un approccio semianalitico, per definire le variazioni dei campi elastici derivanti dalle operazioni di prelievo e immissione di fluidi in serbatoi geologici. Estensione, forma e magnitudo delle variazioni di stress indotte sono state valutate tramite il concetto di variazione dello sforzo critico secondo il criterio di rottura di Coulomb, tramite un’analisi numerica agli elementi finiti. La metodologia sviluppata è stata applicata e tarata su due reservoir sfruttati e riconvertiti a sistemi di stoccaggio che presentano dataset, geologia, petrofisica, e condizioni operative differenti. Sono state calcolate le variazioni dei campi elastici e la subsidenza; è stata mappata la variazione di sforzo critico di Coulomb per entrambi i casi. I risultati ottenuti mostrano buon accordo con le osservazioni dei monitoraggi, suggerendo la bontà della metodologia e indicando la scarsa probabilità di sismicità indotta. Questo progetto ha consentito la creazione di una piattaforma metodologica di rapido ed efficace utilizzo, per stimare l’influenza dei sistemi di stoccaggio di gas sullo stato tensionale della crosta terrestre; in fase di stoccaggio, permette di monitorare le deformazioni e gli sforzi indotti; in fase di progettazione, consente di valutare le strategie operative per monitorare e mitigare i rischi geologici associati a questi sistemi.
Resumo:
I crescenti volumi di traffico che interessano le pavimentazioni stradali causano sollecitazioni tensionali di notevole entità che provocano danni permanenti alla sovrastruttura. Tali danni ne riducono la vita utile e comportano elevati costi di manutenzione. Il conglomerato bituminoso è un materiale multifase composto da inerti, bitume e vuoti d'aria. Le proprietà fisiche e le prestazioni della miscela dipendono dalle caratteristiche dell'aggregato, del legante e dalla loro interazione. L’approccio tradizionalmente utilizzato per la modellazione numerica del conglomerato bituminoso si basa su uno studio macroscopico della sua risposta meccanica attraverso modelli costitutivi al continuo che, per loro natura, non considerano la mutua interazione tra le fasi eterogenee che lo compongono ed utilizzano schematizzazioni omogenee equivalenti. Nell’ottica di un’evoluzione di tali metodologie è necessario superare questa semplificazione, considerando il carattere discreto del sistema ed adottando un approccio di tipo microscopico, che consenta di rappresentare i reali processi fisico-meccanici dai quali dipende la risposta macroscopica d’insieme. Nel presente lavoro, dopo una rassegna generale dei principali metodi numerici tradizionalmente impiegati per lo studio del conglomerato bituminoso, viene approfondita la teoria degli Elementi Discreti Particellari (DEM-P), che schematizza il materiale granulare come un insieme di particelle indipendenti che interagiscono tra loro nei punti di reciproco contatto secondo appropriate leggi costitutive. Viene valutata l’influenza della forma e delle dimensioni dell’aggregato sulle caratteristiche macroscopiche (tensione deviatorica massima) e microscopiche (forze di contatto normali e tangenziali, numero di contatti, indice dei vuoti, porosità, addensamento, angolo di attrito interno) della miscela. Ciò è reso possibile dal confronto tra risultati numerici e sperimentali di test triassiali condotti su provini costituiti da tre diverse miscele formate da sfere ed elementi di forma generica.
Resumo:
1.Ricostruzione mandibolare La ricostruzione mandibolare è comunemente eseguita utilizzando un lembo libero perone. Il metodo convenzionale (indiretto) di Computer Aided Design e Computer Aided Manifacturing prevede il modellamento manuale preoperatorio di una placca di osteosintesi standard su un modello stereolitografico della mandibola. Un metodo innovativo CAD CAM diretto comprende 3 fasi: 1) pianificazione virtuale 2) computer aided design della dima di taglio mandibolari, della dima di taglio del perone e della placca di osteosintesi e 3) Computer Aided Manufacturing dei 3 dispositivi chirurgici personalizzati. 7 ricostruzioni mandibolari sono state effettuate con il metodo diretto. I risultati raggiunti e le modalità di pianificazione sono descritte e discusse. La progettazione assistita da computer e la tecnica di fabbricazione assistita da computer facilita un'accurata ricostruzione mandibolare ed apporta un miglioramento statisticamente significativo rispetto al metodo convenzionale. 2. Cavità orale e orofaringe Un metodo ricostruttivo standard per la cavità orale e l'orofaringe viene descritto. 163 pazienti affetti da cancro della cavità orale e dell'orofaringe, sono stati trattati dal 1992 al 2012 eseguendo un totale di 175 lembi liberi. La strategia chirurgica è descritta in termini di scelta del lembo, modellamento ed insetting. I modelli bidimensionali sono utilizzati per pianificare una ricostruzione tridimensionale con il miglior risultato funzionale ed estetico. I modelli, la scelta del lembo e l' insetting sono descritti per ogni regione. Complicazioni e risultati funzionali sono stati valutati sistematicamente. I risultati hanno mostrato un buon recupero funzionale con le tecniche ricostruttive descritte. Viene proposto un algoritmo ricostruttivo basato su template standard.
Resumo:
La presenza di Escherichia coli produttori di verocitotossine (VTEC o STEC) rappresenta una tra le più importanti cause di malattia alimentare attualmente presenti in Europa. La sua presenza negli allevamenti di animali destinati alla produzione di alimenti rappresenta un importante rischio per la salute del consumatore. In conseguenza di comuni contaminazioni che si realizzano nel corso della macellazione, della mungitura i VTEC possono essere presenti nelle carni e nel latte e rappresentano un grave rischio se la preparazione per il consumo o i processi di lavorazione non comportano trattamenti in grado d’inattivarli (es. carni crude o poco cotte, latte non pastorizzato, formaggi freschi a latte crudo). La contaminazione dei campi coltivati conseguente alla dispersione di letame o attraverso acque contaminate può veicolare questi stipiti che sono normalmente albergati nell’intestino di ruminanti (domestici e selvatici) e anche prodotti vegetali consumati crudi, succhi e perfino sementi sono stati implicati in gravi episodi di malattia con gravi manifestazioni enteriche e complicazioni in grado di causare quadri patologici gravi e anche la morte. Stipiti di VTEC patogeni ingeriti con gli alimenti possono causare sintomi gastroenterici, con diarrea acquosa o emorragica (nel 50% dei casi), crampi addominali, febbre lieve e in una percentuale più bassa nausea e vomito. In alcuni casi (circa 5-10%) l’infezione gastroenterica si complica con manifestazioni tossiemiche caratterizzate da Sindrome Emolitico Uremica (SEU o HUS) con anemia emolitica, insufficienza renale grave e coinvolgimento neurologico o con una porpora trombotica trombocitopenica. Il tasso di mortalità dei pazienti che presentano l’infezione da E. coli è inferiore all’1%. I dati forniti dall’ECDC sulle infezioni alimentari nel periodo 2006-2010 hanno evidenziato un trend in leggero aumento del numero di infezioni a partire dal 2007. L’obiettivo degli studi condotti è quello di valutare la prevalenza ed il comportamento dei VTEC per una analisi del rischio più approfondita.
Resumo:
Il presente lavoro è strutturato in quattro parti analizzando e comparando le pubblicazioni del settore scientifico italiano, anglofono e tedesco di riferimento. Nel primo capitolo della tesi viene proposta una riflessione sulle parole che ruotano attorno al tema dei DSA e della disabilità. Nel secondo capitolo vengono presentati, a partire dalla letteratura scientifica di riferimento, gli indicatori di rischio che segnalano possibili disturbi specifici di apprendimento e le caratteristiche di apprendimento dei DSA mettendo in luce potenzialità e talenti spesso intrinseci. Nel terzo capitolo viene vagliata la normativa di riferimento, in particolare la recente Legge 170/2010 e le relative Linee Guida. Nel quarto capitolo, partendo dal tema della diffusione delle tecnologie dell’informazione e della comunicazione (da ora in poi TIC) nel mondo della scuola, sono ampiamente trattati i principali strumenti compensativi (sintesi vocale, libri digitali, mappe concettuali, Lavagna Interattiva Multimediale) e le misure dispensative adottabili. Nel quinto capitolo viene analizzato in tutte le sue parti il Piano Didattico Personalizzato (da ora in poi PDP) e viene proposto un possibile modello di PDP pubblicato sul sito dell'Ufficio per l’Ambito Territoriale di Bologna. Nel sesto capitolo della tesi viene presentato il Progetto Regionale ProDSA. Il Progetto, rivolto a studenti, con diagnosi di DSA, delle scuole secondarie di primo grado e del primo biennio delle secondarie di secondo grado dell’Emilia-Romagna, ha visto, grazie a un finanziamento della Regione, la consegna in comodato d'uso gratuito di tecnologie compensative agli alunni che hanno aderito. La sezione empirica del presente lavoro indaga l’uso reale che è stato fatto degli strumenti proposti in comodato d’uso e le motivazioni legate alla scelta di non utilizzarli in classe. Nel settimo capitolo vengono proposti strumenti progettati per rispondere concretamente alle criticità emerse dall'analisi dei dati e per sensibilizzare il mondo della scuola sulle caratteristiche dei DSA.
Resumo:
L’idea generale da cui parte l’attività di analisi e di ricerca della tesi è che l’identità non sia un dato acquisito ma un processo aperto. Processo che è portato avanti dall’interazione tra riconoscimento sociale del proprio ruolo lavorativo e rappresentazione soggettiva di sé. La categoria di lavoratori che è stata scelta è quella degli informatori scientifici del farmaco, in virtù del fatto che la loro identificazione con il ruolo professionale e la complessa costruzione identitaria è stata duramente messa alla prova negli ultimi anni a seguito di una profonda crisi che ha coinvolto la categoria. Per far fronte a questa crisi nel 2008 è stato creato un dispositivo, che ha visto il coinvolgimento di aziende, lavoratori, agenzie per il lavoro e organizzazioni sindacali, allo scopo di ricollocare il personale degli informatori scientifici del farmaco coinvolto in crisi e/o ristrutturazioni aziendali.
Resumo:
La città medievale di Leopoli-Cencelle (fondata da Papa Leone IV nell‘854 d.C. non lontano da Civitavecchia) è stata oggetto di studio e di periodiche campagne di scavo a partire dal 1994. Le stratigrafie investigate con metodi tradizionali, hanno portato alla luce le numerose trasformazioni che la città ha subìto nel corso della sua esistenza in vita. Case, torri, botteghe e strati di vissuto, sono stati interpretati sin dall’inizio dello scavo basandosi sulla documentazione tradizionale e bi-dimensionale, legata al dato cartaceo e al disegno. Il presente lavoro intende re-interpretare i dati di scavo con l’ausilio delle tecnologie digitali. Per il progetto sono stati utilizzati un laser scanner, tecniche di Computer Vision e modellazione 3D. I tre metodi sono stati combinati in modo da poter visualizzare tridimensionalmente gli edifici abitativi scavati, con la possibilità di sovrapporre semplici modelli 3D che permettano di formulare ipotesi differenti sulla forma e sull’uso degli spazi. Modellare spazio e tempo offrendo varie possibilità di scelta, permette di combinare i dati reali tridimensionali, acquisiti con un laser scanner, con semplici modelli filologici in 3D e offre l’opportunità di valutare diverse possibili interpretazioni delle caratteristiche dell’edificio in base agli spazi, ai materiali, alle tecniche costruttive. Lo scopo del progetto è andare oltre la Realtà Virtuale, con la possibilità di analizzare i resti e di re-interpretare la funzione di un edificio, sia in fase di scavo che a scavo concluso. Dal punto di vista della ricerca, la possibilità di visualizzare le ipotesi sul campo favorisce una comprensione più profonda del contesto archeologico. Un secondo obiettivo è la comunicazione a un pubblico di “non-archeologi”. Si vuole offrire a normali visitatori la possibilità di comprendere e sperimentare il processo interpretativo, fornendo loro qualcosa in più rispetto a una sola ipotesi definitiva.
Resumo:
La monografia propone un’analisi del periodo ca. 478-461 a.C. della storia ateniese e delle vicende di Cimone figlio di Milziade entro il contesto contemporaneo. Lo studio dell’Atene, e più in generale di varie realtà elleniche affacciate sull’Egeo, negli immediati anni ‘post-persiani’ si articola in due parti: la prima ripercorre in senso cronologico le notizie, essenzialmente letterarie, disponibili in merito alle attività politiche e militari di Atene, quale guida dell’alleanza greca; la seconda trae conclusioni di respiro più ampio, fondate sull’analisi precedente, e cerca una sintesi del periodo e del personaggio nel superamento di stereotipi e condizionamenti letterari. In tale ottica si esprime una riflessione, a partire dalla scarna trattazione tucididea, sui meccanismi attraverso i quali la tradizione ha deformato e sedimentato le informazioni disponibili generando un progressivo arricchimento che ha portato alla definizione, di fatto, di una ‘era cimoniana’ che è possibile mettere in discussione in alcuni tratti essenziali. Si mira dunque a proporre una valutazione del periodo priva di alcuni elementi, in ultimo evidenti soprattutto nell’approccio plutarcheo alla materia, che appaiono alieni al contesto di riferimento per la prima parte del V secolo: i temi principali ai quali si dedica la riflessione sono quelli dell’imperialismo ateniese, del filolaconismo, della bipolarità tra democrazia e oligarchia, della propaganda politico-mitologica. Il rapporto di Atene con Sparta, con gli Ioni e con le altre realtà del mondo egeo viene letto alla luce degli indizi disponibili sul clima di incertezza e di delicati equilibri creatosi all’indomani della ritirata delle forze persiane. Il ritratto di Cimone che si propone è quello di una figura indubbiamente significativa nella politica contemporanea ma, al contempo, fortemente condizionata e talora adombrata da dinamiche in qualche modo condivise all’interno dello scenario politico ateniese, improntato alla soddisfazione di necessità e volontà che la tradizione renderà archetipiche del paradigma democratico.
Resumo:
La dissertazione ha riguardato l’analisi di sostenibilità di un sistema agronomico per la produzione di olio vegetale a fini energetici in terreni resi marginali dall’infestazione di nematodi. Il processo indagato ha previsto il sovescio di una coltura con proprietà biofumiganti (brassicacea) coltivata in precessione alla specie oleosa (soia e tabacco) al fine di contrastare il proliferare dell’infestazione nel terreno. Tale sistema agronomico è stato confrontato attraverso una analisi di ciclo di vita (LCA) ad uno scenario di coltivazione della stessa specie oleosa senza precessione di brassica ma con l’utilizzo di 1-3-dicloropropene come sistema di lotta ai nematodi. Allo scopo di completare l’analisi LCA con una valutazione dell’impatto sull’uso del suolo (Land use Impact) generato dai due scenari a confronto, sono stati costruiti due modelli nel software per il calcolo del Soil Conditioning Index (SCI), un indicatore quali-quantitativo della qualità del terreno definito dal Dipartimento per l’Agricoltura degli Stati Uniti d’America (USDA).