52 resultados para Amphybia (sistematica)
Resumo:
La dissertazione affronterà il tema del controllo qualità nei progetti, applicando conoscenze, tecniche e strumenti propri del Project e del Multiproject Management. L’analisi partirà svolgendo, nel primo capitolo, considerazioni introduttive riguardo le due discipline citate. Lo scopo ultimo sarà quello di elaborare un sistema di controllo integrato della qualità, indirizzato principalmente al Project Management che è presente in una qualsiasi organizzazione che opera per progetti. Nel secondo capitolo verrà illustrato il metodo denominato Multidimensional Project control System sul quale il modello sviluppato in seguito si basa. La progettazione di un sistema di controllo è una parte importante dello sforzo di gestione di un progetto. Tale sistema è basato su una serie di obiettivi di progetto e sulla loro importanza relativa e fonda la sua natura su una sistematica valutazione in corso d’opera dello stato di conformità del progetto, sia a livello di processo che a livello di output. Nel capitolo conclusivo si affronta l’obiettivo principale di questo elaborato. Sono stati forniti dati e documenti dall’azienda Despar Italia c.r.l. ed è stato chiesto di sviluppare un metodo di controllo che il Project Management potesse utilizzare per implementare un processo di verifica della qualità di progetto. Viene quindi descritta l’azienda, come il Management pianifica, gestisce e controlla i progetti e quali necessità devono essere soddisfatte. Si procede poi con l’illustrazione e spiegazione del metodo sviluppato, chiarito da un esempio esplicativo. L’elaborato si concluderà con delle riflessioni finali, proponendo critiche e spunti per eventuali sviluppi futuri.
Resumo:
In questa tesi studiamo il ruolo dei sistemi di radici nella classificazione delle algebre di Lie e delle superalgebre di Lie. L'interesse per le superalgebre di Lie nasce nei primi anni '70 quando una parte dei fisici si convinse che sarebbe stato più utile e molto più chiaro riuscire ad avere uno schema di riferimento unitario in cui non dovesse essere necessario trattare separatamente particelle fisiche come bosoni e fermioni. Una teoria sistematica sulle superalgebre di Lie fu introdotta da V. Kac nel 1977 che diede la classificazione delle superalgebre di Lie semplici su un campo algebricamente chiuso.
Resumo:
La tesi si inserisce nell'odierno dibattito sulla vegetazione all'interno delle aree archeologiche. L'anfiteatro dell'antica Urbisaglia nelle Marche costituisce un eclatante esempio di quanto sia rilevante considerare anche la vegetazione all'interno di un progetto di conservazione. Cercando di affrontare in maniera sistematica il problema dell'interazione tra le strutture vegetali ed il manufatto, il progetto è stato concepito sulla base di un piano di manutenzione programmata per la salvaguardia della struttura archeologica ma anche della particolare vegetazione presente nel parco. Il tutto inserito in un ampio progetto di valorizzazione dell'intera area archeologica.
Resumo:
Questo elaborato si specializza nell'ambito della traduzione multimediale, un campo che a mio parere, risalta lo sviluppo tecnologico e sociale del nostro tempo. Nello specifico, ho focalizzato la mia attenzione sul sottotitolaggio di un frammento della seconda puntata di una serie televisiva spagnola dal titolo "El tiempo entre costuras". Tale serie è tratta da un romanzo spagnolo di successo dallo stesso titolo, dell'autrice María Dueñas. Il mio elaborato perciò, tratterà delineare un confronto di tipo linguistico e traduttivo fra la versione letteraria del romanzo e il sottotitolaggio correlato della serie. L'elaborato si suddivide in tre capitoli che trattano in maniera sistematica il processo lavorativo che ho deciso di seguire. Il primo capitolo riguarda la descrizione della serie televisiva trattata e allo stesso tempo una presentazione del romanzo cui si ispira. In altre parole, una panoramica del contesto storico, culturale, sociale e linguistico di queste due opere e dei loro risvolti traduttivi. Il secondo capitolo affronta in maniera generale il tema della traduzione audiovisiva, la sua evoluzione nel tempo, l'importanza di questa nella società odierna, in modo particolare del sottotitolaggio in Italia. Inoltre, si vuole anche trattare il tema della traduzione intersemiotica, cioè l’azione di trasportare un romanzo a livello multimediale e il relativo regolamento del processo traduttivo.Infine, il terzo capitolo è dedicato al confronto delle due realtà di traduzione, quella letterale e quella multimediale e soprattutto alle differenze che esistono tra i due processi linguistici e alle particolarità culturali della lingua spagnola con rispetto a quella italiana.
Resumo:
Questa tesi ha per argomento l'analisi linguistica della traduzione italiana del Treatise of electricity di Tiberio Cavallo (1777) ad opera di Ferdinando Fossi – Trattato completo d'elettricità – (1779). Con questo studio, che prende in esame un particolare episodio letterario, si è inteso esaminare un momento della storia del lessico scientifico italiano al fine di individuarne le peculiarità e sottolinearne le differenze rispetto ai corrispettivi di altre lingue, con speciale attenzione alla lingua inglese. I capitoli introduttivi riportano notizie biografiche e sulla formazione di T. Cavallo e F. Fossi. Nel terzo capitolo viene delineato un quadro della formazione e costituzione del lessico elettrologico italiano, seguendone l'evoluzione nel cinquantennio '40/'90 del XVIII secolo. Una parte della tesi è poi dedicata al fenomeno culturale rappresentato dalle scienze elettriche in cui si inscrive la traduzione del Treatise. Sono qui riportate notizie relative alla fortuna mondana dell'elettricità, per le quali si è attinto a carteggi, documenti d'archivio, testi antichi e studi moderni. L'analisi linguistica vera e propria si è basata sul confronto tra il testo originale di Tiberio Cavallo e la traduzione di Ferdinando Fossi. Partendo dal Treatise abbiamo isolato particolari gruppi di parole: 1) voci corrispondenti a termini propri dei fenomeni elettrici; 2) verbi; 3) strumenti scientifici. Per ognuna della voci abbiamo controllato la ricorsività; poi abbiamo cercato i traducenti corrispondenti, suddividendoli in “corrispondenze assolute” – il traducente è corrispettivo del termine originale –, “corrispondenze mancate” – variazioni nella traduzione di termini ripetuti costantemente –, “tendenza omologatrice” – traduzione univoca di termini semanticamente simili –. Un capitolo sulla lettura critica della traduzione spiega come da parte del Fossi si sia rilevata una sostanziale e sistematica assenza di sensibilità per la precisione terminologica che caratterizza il testo di Cavallo; ove si dimostra che il testo inglese insiste sulla ripetizione dei termini – già stabilizzati e facenti parte di un corpus omogeneo e condiviso –, mentre il testo italiano predilige il ricorso alla "variatio", ricercando una migliore resa stilistica d'insieme piuttosto che la precisione scientifica. Il momento storico-linguistico preso in esame attraverso il particolare caso della traduzione del Treatise vede la lingua italiana sprovvista di una lessico elettrico univoco e condiviso. Complici di questa mancata corrispondenza alle esigenze del linguaggio scientifico moderno sono certamente pregiudizi di ordine retorico, che esaltano l'importanza dello stile e alimentano il disprezzo per i tecnicismi, ma anche e soprattutto la diffusione di traduzioni eterogenee, che danno atto ad una moltiplicazione semantica dei termini realmente in grado di ritardare la formazione di un corpus lessicale condiviso dalla comunità scientifica italiana.
Resumo:
La tesi si occupa dell’integrazione di misure NMR e microscopiche per la descrizione quantitativa degli effetti di stress esterni su colture cellulari. Una maggiore comprensione dei dati ricavati tramite NMR potrebbe consentire di interpretare la vitalità e funzionalità cellulare attraverso la localizzazione spaziale degli idrogeni. L'ipotesi di partenza è che la compartimentazione degli idrogeni (associati a molecole di acqua) nel citoplasma possa fornire una stima del numero di cellule vitali (e quindi in grado di mantenere l'acqua al proprio interno mediante processi attivi). I risultati NMR, prodotti dal gruppo di ricerca del Dipartimento di Fisica e Astronomia dell’Università di Bologna della Prof.ssa Fantazzini, sono stati comparati con le informazioni acquisite dal candidato tramite metodologie di conteggio cellulare (sia vive che morte) presenti in un campione sottoposto a forte e prolungato stress (assenza di terreno di coltura e di bilanciamento del sistema tampone tramite CO2 per 400 ore). Cellule da una linea di glioblastoma multiforme (T98G) mantenute in condizioni di coltura standard sono state preparate secondo lo stesso protocollo per entrambe le tecniche di indagine, e monitorate per intervalli di tempo paragonabili. Le immagini delle cellule ottenute al microscopio ottico in modalità “contrasto di fase” sono state acquisite e utilizzate per l’analisi. Una volta definito un metodo di conteggio sperimentale, è stato possibile dedurre il comportamento delle concentrazioni di cellule sopravvissute in funzione del tempo di campionamento. Da una serie ripetuta di esperimenti è stato caratterizzato un andamento nel tempo di tipo esponenziale decrescente per il numero di cellule vive, permettendo la stima della costante di decadimento in buon accordo tra i vari esperimenti. Un analogo modello esponenziale è stato utilizzato per la descrizione dell'aumento del numero di cellule morte. In questo caso, la difficoltà nell'individuare cellule morte integre (per la frammentazione delle membrane cellulari dopo la morte) ha contribuito a determinare una sistematica sottostima nei conteggi. Il confronto dei risultati NMR e microscopici indica che la diminuzione del numero di cellule vive corrisponde ad una analoga diminuzione degli H1 compartimentalizzati fino ad un tempo specifico di circa 50-60 ore in tutti gli esperimenti. Oltre questo tempo, i dati di NMR mostrano invece un incremento di H1 compartimentalizzati, quando invece il numero di cellule vive continua a diminuire in modo monotono. Per interpretare i risultati ottenuti, è stato quindi ipotizzato che, a partire da cellule morte frammentate, strutture micellari e liposomiali formate dai lipidi di membrana in soluzione possano intrappolare gli H1 liberi, aumentando il segnale di risposta della componente compartimentalizzata come evidenziato in NMR.
Resumo:
L’analisi del cammino è uno strumento in grado di fornire importanti informazioni sul ciclo del passo; in particolare è fondamentale per migliorare le conoscenze biomeccaniche del cammino, sia normale che patologico, e su come questo viene eseguito dai singoli soggetti. I parametri spazio temporali del passo rappresentano alcuni degli indici più interessanti per caratterizzare il cammino ed il passo nelle sue diverse fasi. Essi permettono infatti il confronto e il riconoscimento di patologie e disturbi dell’andatura. Negli ultimi anni è notevolmente aumentato l’impiego di sensori inerziali (Inertial Measurement Unit, IMU), che comprendono accelerometri, giroscopi e magnetometri. Questi dispositivi, utilizzati singolarmente o insieme, possono essere posizionati direttamente sul corpo dei pazienti e sono in grado fornire, rispettivamente, il segnale di accelerazione, di velocità angolare e del campo magnetico terrestre. A partire da questi segnali, ottenuti direttamente dal sensore, si è quindi cercato di ricavare i parametri caratteristici dell’andatura, per valutare il cammino anche al di fuori dell’ambiente di laboratorio. Vista la loro promettente utilità e la potenziale vasta applicabilità nell’analisi del ciclo del cammino; negli ultimi anni un vasto settore della ricerca scientifica si è dedicata allo sviluppo di algoritmi e metodi per l’estrazione dei parametri spazio temporali a partire da dati misurati mediante sensori inerziali. Data la grande quantità di lavori pubblicati e di studi proposti è emersa la necessità di fare chiarezza, riassumendo e confrontando i metodi conosciuti, valutando le prestazioni degli algoritmi, l’accuratezza dei parametri ricavati, anche in base alla tipologia del sensore e al suo collocamento sull’individuo, e gli eventuali limiti. Lo scopo della presente tesi è quindi l’esecuzione di una revisione sistematica della letteratura riguardante la stima dei parametri spazio temporali mediante sensori inerziali. L’intento è di analizzare le varie tecniche di estrazione dei parametri spazio temporali a partire da dati misurati con sensori inerziali, utilizzate fino ad oggi ed indagate nella letteratura più recente; verrà utilizzato un approccio prettamente metodologico, tralasciando l’aspetto clinico dei risultati.
Resumo:
Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.
Resumo:
La "paralisi agitante", come �e stata de�finita da James Parkinson nel 1817, �è la seconda malattia neurodegenerativa pi�ù comune dopo la malattia di Alzheimer, con una frequenza che varia tra 8 e 18 per 100000 persone all'anno. L'esordio è raro prima dei 50 anni con un aumento dell'incidenza attorno ai 60. Ad oggi, non esiste una cura per la malattia di Parkinson ed una via, assieme al trattamento farmacologico, per fornire un sollievo dai sintomi è la riabilitazione. Nel primo capitolo dell'elaborato vengono descritti l'eziopatogenesi e i sintomi principali della malattia; nel secondo viene presentata una descrizione sistematica delle tecnologie applicate oggi a fini riabilitativi. La terza parte unisce le prime due e rappresenta l'obiettivo della tesi: vengono presi in considerazione i principali sintomi della malattia e, per ognuno di essi, viene mostrato come le tecnologie vengono impiegate per fornire un supporto ed un aiuto alla rieducazione motoria e cognitiva
Resumo:
Richiamo di elementi di algebra, tra cui: polinomi, ordini monomiali e base di Gröbner per ideali e sottomoduli con anche algoritmo FGLM. Descrizione dei codici, dei codici lineari, codifica e decodifica, matrice generatrice, matrice forma standard, matrice di controllo parità, codici ciclici con corrispondenza con ideali e polinomi generatori. Codice Reed-Solomon caso particolare di codice ciclico. Codici ciclici m-dimensionali e codifica sistematica con basi di Gröbner. Algoritmo di decodifica per Reed-Solomon con soluzione chiave e utilizzando basi di Gröbner sui sottomoduli.
Resumo:
Negli ultimi anni l'utilizzo di ciclotroni per la produzione di radionuclidi, impiegati nell'ambito della Medicina Nucleare, è diventato un processo sempre più diffuso e numerosi sono i modelli commercialmente disponibili. L'impiego di questo tipo di apparecchiature porta a considerare questioni rilevanti legate alla radioprotezione che coinvolgono una serie di aspetti complessi sia nella fase progettuale del sistema, sia nell'ottenimento delle necessarie autorizzazioni. In particolare, uno dei problemi radioprotezionistici da affrontare è legato alla dispersione in ambiente di aeriformi radioattivi, prodotti dall'interazione di flussi di particelle secondarie con l'aria. In questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria dell'Ospedale Sant'Orsola di Bologna, si è cercato di caratterizzare l'emissione di tali gas radioattivi considerando l'effetto del sistema di ventilazione. E' stata eseguita un'estesa campagna di misurazioni in diversi punti di campionamento, collocati lungo il percorso di estrazione dell'aria: dal bunker fino all'immissione in ambiente. Sono stati ideati e realizzati dei compatti sistemi di campionamento che hanno permesso di definire, attraverso un sistema di spettrometria gamma equipaggiato con rivelatore al HPGe, una sistematica procedura per la determinazione di concentrazione di attività. I risultati ottenuti mostrano come, durante la routine di produzione di 18F mediante ciclotrone, il processo più rilevante di attivazione dell'aria sia la produzione di 41Ar (T1/2=109.34 minuti), unico radionuclide identificato in tutte le misurazioni. Infine, sulla base dei dati sperimentali ottenuti, è stata effettuata una valutazione della dose rilasciata alla popolazione locale. Il risultato, pari a 0.19 µSv/anno, può essere considerato trascurabile rispetto alla soglia di "non rilevanza radiologica", a dimostrazione di come le tipiche procedure in ambito di Medicina Nucleare possano essere considerate del tutto giustificate.
Resumo:
Le peculiarità del contesto competitivo attuale richiedono alle aziende di muoversi con la massima velocità per rispondere il più rapidamente possibile al soddisfacimento delle richieste dei clienti. La ricerca di massima flessibilità non può prescindere dall’esigenza di mantenere alti livelli di efficienza produttiva e di tendere ad un continuo miglioramento dei flussi interni. L’elaborato ripercorre i passaggi fondamentali di un progetto di miglioramento delle performance di un impianto svolto nel primo semestre 2016 presso Philip Morris Manufacturing & Technology Bologna S.p.A. La metodologia utilizzata riprende strumenti, modelli e metodi dai principi alla base del Focus Improvement, primo pilastro del tempio della Total Productive Maintenance. Attraverso l’applicazione sistematica di tecniche tipiche del problem solving (ciclo di Deming) e di approcci analitici per la determinazione delle cause di guasto (curva di Pareto, Diagramma di Ishikawa), è stato possibile identificare i principali tipi di perdite (tempo, performance, difetti qualitativi) di una macchina industriale e mettere in atto gli interventi migliorativi necessari. L’analisi si conclude con la valutazione dei futuri sviluppi dello scenario, proponendo diverse alternative a seconda dell’abilità dell’organizzazione di sostenere i risultati raggiunti o addirittura di superarli.
Resumo:
L'Italia è spesso sede di eventi d'intensa precipitazione, frequentemente associati ad alluvioni con conseguente perdita di vite umane e gravi danni economici. È quindi di fondamentale importanza poter prevedere questi eventi con un adeguato anticipo. Allo stato attuale, i modelli meteorologici non permettono sempre di raggiungere tale obbiettivo e, di conseguenza, è in atto un'intensa attività di ricerca al fine di di renderne più accurata la previsione, sia attraverso il miglioramento dei modelli stessi, sia sviluppando l'assimilazione dati, la quale riduce l'incertezza della condizione iniziale da cui parte la previsione. All'interno di questo contesto, la tesi si prefigge l'obiettivo di studiare gli effetti dell'assimilazione di dati di precipitazione, effettuata mediante uno schema di nudging, nel modello non idrostatico MOLOCH. Al fine di ottimizzare lo schema e di valutarne l'impatto, sono stati simulati tutti gli eventi di maltempo di ottobre e novembre del 2014 che hanno interessato la Liguria, area frequentemente soggetta ad alluvioni. Dalla sistematica verifica dei risultati, effettuata sia qualitativamente che mediante numerosi metodi statistici (tra cui la tecnica SAL basata sull'individuazione dei nuclei di precipitazione), si riscontra un generale miglioramento della previsione della precipitazione anche se limitato alle prime ore dopo la fine del periodo di assimilazione. L'impatto dello schema di nudging varia a seconda dell'evento e, in particolare, si osserva una certa correlazione tra il miglioramento ottenuto e la tipologia di evento, come descritto dalla teoria dell'equilibrio convettivo e come riportato in alcuni studi analoghi recentemente comparsi in letteratura. La ricaduta del miglioramento della previsione meteorologica è stata valutata anche in termini di impatti al suolo accoppiando il modello meteorologico con il modello idrologico utilizzato dal Centro Funzionale della Regione Liguria, con risultati abbastanza positivi.
Resumo:
Lo studio delle regioni più interne degli ammassi globulari risulta fondamentale per la ricerca di buchi neri di massa intermedia (IMBH). La scoperta di tali oggetti avrebbe un impatto sostanziale su un gran numero di problemi astrofisici aperti, dalla formazione dei buchi neri supermassicci, all'interpretazione delle Ultra Luminous X-ray Sources, fino allo studio delle onde gravitazionali. Il presente lavoro di tesi si inserisce all'interno di un progetto osservativo mirato a studiare la dinamica interna degli ammassi globulari e volto ad investigare la presenza di IMBH nel centro di tali sistemi tramite l'analisi sistematica dei profili di dispersione di velocità e di rotazione. In questo elaborato presentiamo lo studio della cinematica del core dell'ammasso globulare NGC 6266, realizzato con lo spettrografo a campo integrale IFU-SINFONI, assistito da un sistema di ottiche adattive. Grazie all'utilizzo dell'ottica adattiva, SINFONI è in grado di realizzare osservazioni ad alta risoluzione spaziale e misurare la velocità radiale di stelle individuali anche nelle regioni più interne degli ammassi globulari, dove le misure spettroscopiche tradizionali falliscono a causa dell'elevato crowding stellare. Questo ci ha permesso di determinare il profilo centrale della dispersione di velocità di NGC 6266 dalla misura delle velocità radiali individuali di circa 400 stelle, localizzate negli 11 arcsec più interni dell'ammasso. Utilizzando dati complementari, provenienti da osservazioni realizzate con lo spettrografo multi-oggetto FLAMES, siamo stati in grado di costruire il profilo di dispersione di velocità di NGC 6266 fino ad una distanza radiale di 250 arcsec. Il profilo di dispersione di velocità osservato permette di escludere la presenza di un IMBH di massa superiore a 2500 masse solari e mostra un calo nella regione centrale, simile a quello rilevato in un numero crescente di ammassi globulari, che potrebbe indicare la presenza di anisotropia tangenziale.
Resumo:
L'elaborato nasce dalla partecipazione al progetto dell'Università di Bologna, sull'Osservatorio aziendale. Un metodo di ricerca trasversale, focalizzato sulla prospettiva manageriale e sulle capacità che le aziende sono in grado di sviluppare al loro interno, mediante una raccolta dati esaustiva, sistematica e periodica. In particolare l'indagine si è incentrata nell'individuazione del livello di sostenibilità, intesa come ambientale, sociale ed economica, per le aziende del territorio Emiliano-Romagnolo, nel settore della grande distribuzione. In seguito si è analizzato i principali marchi con l'obiettivo di individuare le azioni intraprese e i progetti che sono stati sviluppati e che si intendono sviluppare. Dopo uno studio incentrato nell'ambito della letteratura sul concetto di sostenibilità, si è cercato di comprendere come la grande distribuzione alimentare si pone all'interno di questa tematica, cercando di individuare le principali certificazioni ambientali e sociali, e i punti in comune o di differenziazione di questo settore merceologico, rispetto agli altri. La raccolta delle informazioni è stata effettuata attraverso l'analisi dei siti ufficiali delle aziende selezionate e, laddove presenti, attraverso i Bilanci Sociali/Sostenibili e gli altri documenti disponibili. In particolare sono state considerate quattro aziende del settore della grande distribuzione alimentare, del nostro territorio, andando ad analizzarne: informazioni generali sull'azienda da analizzare, certificazioni ambientali, certificazioni sociali, energia, risorse primarie, gestione rifiuti, impatto ambientale, reporting, welfare, responsabilità sociale, supply chain e valore per il consumatore.