90 resultados para Variabilité climatique
Resumo:
La stesura del seguente elaborato di tesi è avvenuta simultaneamente all’inizio di un progetto Lean presso il plant produttivo, situato a Crevalcore (Bo), di Fonderie di Montorso Spa, azienda produttrice di getti in ghisa. Lo scopo del seguente elaborato è di descrivere l’implementazione di un progetto Lean in uno dei settori più antichi esistenti. Negli ultimi decenni, si è sentito molto parlare di Lean production in settori come quello dell’automotive ma, raramente, si sente parlare di lean thinking o kaizen in settori metalmeccanici. I processi produttivi tipici di una fonderia, infatti, sono difficilmente prevedibili e controllabili come può essere un processo di assemblaggio di componenti. Trasferire, dunque, un sistema di gestione della produzione, il Toyota Production System, nato in una linea di assemblaggio, in un settore con una grande quantità di vincoli di progettazione e produzione, è una sfida, una sfida necessaria per rispondere ad una situazione di estrema variabilità della domanda, in cui il mercato richiede i prodotti in maniera rapida e puntuale. Per rimanere, dunque, competitivi è necessario un cambiamento radicale, una rivisitazione di tutti i processi aziendali partendo dall’arrivo dell’ordine, alla spedizione dello stesso. Alla luce di ciò, nel corso della trattazione, sono state svolte analisi al fine di ridurre il Lead time di partenza da 18 a 4 settimane, ponendo molta attenzione al coinvolgimento delle persone, il vero motore del cambiamento. Le parole cardine di questo elaborato sono: standardizzazione dei processi, eliminazione dei colli di bottiglia, aumento della comunicazione tra le funzioni aziendali, prioritizzazione dei clienti e per ultimo, ma non per importanza, la valorizzazione del gemba.
Resumo:
Le microplastiche (MP) rientrano nella categoria di contaminanti emergenti per la loro pericolosità e persistenza nell'ecosistema. Gli impianti di trattamento acque sono identificati come una fonte principale di MP per l’ambiente. A causa della mancanza di metodi di separazione standard per le MP da fanghi ed acque reflue, nel presente lavoro sperimentale, sono testati diversi metodi di separazione delle MP da campioni di fanghi e acque di due impianti reali. Tramite analisi allo stereomicroscopio e identificazione della struttura polimerica mediante spettroscopia infrarossa in riflettanza totale attenuata (FTIR-ATR) si sono ottenute delle prime stime sulle quantità di MP all’interno dei depuratori che andranno vagliate con successive prove. In generale c’è una grande variabilità associata al punto di prelievo, al periodo di campionamento e alle caratteristiche del refluo. I dati sperimentali confermano la presenza di MP sia nelle acque che nei fanghi. Per la linea acque sono esaminati un trattamento convenzionale a fanghi attivi di un piccolo impianto (1) e un trattamento terziario di filtrazione a sabbia con peracetico e UV di un impianto di potenzialità superiore (2). Seppure le efficienze di rimozione siano alte (93,37% per l’impianto 1 e 59,80% per il 2), i carichi di MP rilasciati in ambiente sono elevati a causa delle portate trattate. Il fatto che MP della stessa morfologia e colore si ritrovino in setacci di differenti dimensioni e che le concentrazioni aumentino al diminuire della dimensione, suggerisce che subiscano svariate frammentazioni a monte del campionamento. Per i fanghi sono testati 3 metodi di pretrattamento individuando il migliore in quello con pre-digestione con H2O2 e separazione per densità con NaI che verrà in seguito implementata. Nei fanghi tendono a concentrarsi le MP rimosse dalla linea acque che di solito sono quelle di densità maggiore, infatti si riscontra prevalenza di microparticelle.
Resumo:
La risposta sismica del patrimonio edilizio in muratura è molto articolata e richiede una completa comprensione del comportamento delle strutture stesse nel caso in cui siano soggette ad azione sismica, unitamente a corrette ed esaustive valutazioni numeriche. Questo elaborato è volto alla comprensione del fenomeno chiamato effetto flangia, ovvero l’interazione reciproca di pareti in muratura incidenti, mediante uno studio parametrico. Infatti, tale aspetto dipende da diversi parametri, tra i quali l’ammorsamento, lo spessore e le proporzioni tra i muri incidenti giocano un ruolo principale. Mediante un software ad elementi finiti (ABAQUS) è stato possibile implementare uno script di generazione dei modelli basato sui diversi parametri geometrici (lunghezza della parete incidente e della parete trasversale, e la loro posizione relativa) e su due diverse condizioni di vincolamento dei modelli. Inoltre, si è presa in considerazione la variabilità del carico verticale, stimandola in relazione al valore di resistenza a compressione della muratura: da un valore molto ridotto (5%), fino ad arrivare ad un valore elevato di compressione verticale (30%). L’analisi dei risultati utilizza le convenzionali curve di pushover per strutture in muratura costruite secondo i dettami della normativa tecnica italiana. Tali curve sono analizzate in funzione della percentuale di pressione che viene applicata catturando per ogni caso notevole l’effetto degli altri parametri variabili cercando quindi di descrivere la presenza dell’effetto flangia, ovvero evidenziando le variazioni della risposta strutturale (massimo taglio, duttilità, tipo di crisi etc.) quando è presente una interazione tra due pareti incidenti.
Resumo:
La propoli è una sostanza naturale prodotta dalle api operaie in seguito alla raccolta di resine ed estratti vegetali; è impiegata nell’alveare come materiale di costruzione con funzione cementante e protettiva. Essendo un prodotto di origine naturale, la sua composizione è estremamente complessa ed allo stesso tempo peculiare: molteplici sono le sostanze chimiche che ne fanno parte, la loro presenza e concentrazione dipende dal luogo d’origine, dall’ape, dalla stagione, dalla specie vegetale bottinata e da numerose altre variabili. È importante considerare la variabilità compositiva della propoli per poterne valutare le caratteristiche qualitative, che ancora oggi non sono ufficialmente definite a livello Europeo, ma che fanno riferimento principalmente all’intensità con cui essa è in grado di determinare effetti benefici nell’uomo. Dalla peculiarità delle molecole che la compongono emergono le sue potenzialità come sostanza antimicrobica, antiossidante, antiinfiammatoria ed antitumorale, caratteristiche che la rendono sempre più spesso oggetto di studi e ricerche scientifiche. In questo studio vengono messi a confronto i risultati ed i metodi analitici degli studi effettuati su tale matrice: ne deriva una forte difformità, data dall’origine dei campioni e dalla impossibilità, ad oggi, di ottenere un prodotto standardizzato.
Resumo:
Lo sviluppo di questa tesi è stato quello di analizzare diversi campioni di pasta di cacao e di cioccolato liquido prelevati, rispettivamente, dai tank prima del dosaggio degli ingredienti e dal preleva campioni della conca fine concaggio. Le analisi di viscosità effettuate sui campioni hanno l’obiettivo di determinare la causa della variazione di viscosità in una particolare ricetta di cioccolato. La viscosità è una proprietà che può essere influenzata da numerosi fattori, perciò è difficile tenere sempre in considerazione tutte le variabili. Ciò che ho riscontrato durante questa ricerca è stato il fatto che la viscosità del cioccolato viene influenzata, o comunque dipende, dalla viscosità della pasta cacao. Un altro fattore importante è la distribuzione particellare del cioccolato; questa ipotesi origina dal fatto che si hanno viscosità diverse delle conche a parità di altre variabili come l’umidità, la temperatura, la percentuale in grassi o l’aggiunta di lecitina. Questo ulteriore fattore di grandezza delle particelle necessita l’ottimizzazione dei parametri di raffinazione per poter ottenere sempre la stessa distribuzione e può dipendere dalla variabilità delle materie prime (pasta cacao) o dalle dimensioni dello zucchero. I diversi fattori che possono essere presi in considerazione per la variabilità della viscosità sono la distribuzione particellare dello zucchero, che può determinare la presenza o l’assenza di grumi all’interno del cioccolato, la viscosità della materia prima della pasta cacao e la presenza di una percentuale troppo elevata di umidità o di grasso. Ci possono anche essere fattori di processo che alterano la corretta produzione del cioccolato, come il controllo non adeguato delle impostazioni degli strumenti che comporterebbe temperature o velocità scorrette di produzione, oppure la variazione della sequenza di dosaggio che consiste nell’aggiunta di un ingrediente prima o dopo di quando viene richiesto dalla specifica ricetta di quel cioccolato.
Resumo:
Lo scopo del presente lavoro di tesi sperimentale è stato quello di caratterizzare il controllo motorio di bambini affetti da scoliosi idiopatica e di valutarne le alterazioni rispetto ad una popolazione a sviluppo tipico dello stesso range di età. La caratterizzazione è avvenuta grazie ad un approccio basato su sensori indossabili, che ha consentito di estrarre e quantificare un gruppo di metriche che includono parametri temporali del cammino, la loro variabilità e le metriche non lineari (RQA, MSE, HR). Queste ultime sono state estrapolate mediante l'elaborazione dei segnali provenienti dai sensori applicati su caviglie e tronco dei singoli soggetti. L'implementazione degli script utili è avvenuta mediante il software Matlab. I risultati suggeriscono che la scoliosi idiopatica influisca sul controllo motorio dei pazienti scoliotici e ciò si traduce in un cammino più lento, meno stabile e meno maturo, denotato da un’asimmetria temporale ma anche da un’asimmetria con pendolazione destrutturata.
Resumo:
Lo scopo di questa tesi è introdurre alla analisi delle componenti principali, una metodologia statistico computazionale utilizzata per l'interpretazione di grandi insiemi di dati. L'obiettivo principale di questa tecnica è quello di ridurre le dimensioni del problema ricercando delle combinazioni lineari delle variabili di partenza che mantengano le principali informazioni sulla variabilità dei dati. In particolare, all’interno di questo elaborato verrà trattata una variante della PCA: l’analisi delle componenti principali “sparsa”. Dopo alcuni richiami iniziali verrà presentato un approccio standard all'analisi delle componenti principali, legato alle proprietà della matrice di covarianza (o correlazione) dei dati iniziali. Successivamente ne verrà mostrato un secondo approccio basato sulla decomposizione in valori singolari della matrice dei dati. Questo metodo permetterà di ottenere gli stessi risultati dell'approccio standard senza calcolare in modo esplicito la matrice di covarianza (o correlazione) dei dati e consentirà di sfruttare alcune proprietà importanti della decomposizione in valori singolari. Per introdurre la variante “sparsa” dell’analisi delle componenti principali verranno riportate alcune nozioni di base sulla regressione lineare. Infatti, questa tecnica ci permetterà di ottenere delle nuove combinazioni lineari delle variabili originarie che abbiano un numero alto di coefficienti uguali a zero, questo favorirà l’analisi delle componenti principali. La tesi si concluderà con la presentazione di alcuni risultati rielaborati in linguaggio Matlab, insieme alla valutazione dei risultati ottenuti.
Resumo:
Negli ultimi anni si sono riscontrati in tutto il territorio Nazionale un consistente aumento di eventi incendiari negli impianti di stoccaggio e smaltimento rifiuti. In questo elaborato troviamo una prima panoramica sulle normative nazionali riguardanti la prevenzione incendi, le emergenze e l’ambiente. Successivamente si focalizza l’attenzione sulle Linee Guida dei piani di Emergenza Esterni .La parte delle linee guida relativa al “Metodo ad indici per la classificazione del rischio incendio negli impianti di stoccaggio e trattamento rifiuti” , è stata elaborata a partire dalla metodologia per la gestione del rischio di incendio negli impianti di deposito di rifiuti. Le linee guida a cui ci si riferisce hanno ritenuto di considerare l'incendio quale scenario di riferimento per la valutazione del rischio dell'impianto, anche a seguito della complessità e variabilità delle caratteristiche dei rifiuti che comportano una differente pericolosità degli effluenti. La procedura sviluppata prevede un metodo di valutazione del rischio ad indici che consiste nell’attribuire determinati punteggi a fattori di rischio e misure di prevenzione e protezione presenti nell’impianto e considerando i pericoli per la salute umana e l’ambiente circostante. Il metodo ha l’obiettivo di semplificare e unificare i criteri di classificazione dei livelli di rischio in tali impianti, in base al livello viene quindi stabilita una certa distanza di attenzione su cui poi si baseranno i Piani di Emergenza Esterni. Il metodo ad indici esposto nelle Linee Guida è stato quindi testato su un caso studio. I risultati ottenuti da tale elaborazione sono stati poi integrati e contestualizzati con l’ausilio del software QGIS attraverso il quale si sono ricavate mappe raffiguranti i vari impianti e le loro rispettive distanze di attenzione, le quali saranno conferite alle autorità competenti per lo sviluppo di efficienti Piani di Emergenza Esterni.
Resumo:
Il sistema terra è soggetto ad un aumento di temperatura causato in larga parte dall'intervento umano. Il riscaldamento nell'Artico avviene ad un velocità doppia rispetto a quella del resto del globo e induce lo scioglimento dei ghiacci polari oceanici e terrestri. Lo studio della variabilità meteorologica delle regioni polari e subpolari può aiutarci a comprendere il ruolo di eventi meteorologici estremi nel determinare forti variazioni di temperatura superficiale della calotta polare. Questo lavoro di tesi discute la fenomenologia degli eventi di blocco meteorologico, regime di circolazione anticiclonica persistente, nella troposfera delle alte latitudini ed il loro legame con estremi di temperatura superficiale nelle regioni artiche. Successivamente, una metodologia di analisi termodinamica per i suddetti è descritta ed applicata ad un caso studio descritto nella letteratura scientifica un blocco alle alte latitudini coincide con la propagazione di una perturbazione ciclonica dalle medie latitudini fino alla calotta artica. Questa particolare configurazione sinottica ha prodotto una variazione della temperatura della calotta artica di circa 7 K in 4 giorni. Sulla base dell’analisi termodinamica è possibile evidenziare una combinazione di processi fisici, diabatici e adiabatici, che concorrono nel determinare il repentino riscaldamento dell’Artico. L’applicazione di simili metodologie su ulteriori casi studio potrebbe contribuire alla definizione di un paradigma dinamico per il fenomeno delle ondate di calore artiche.
Resumo:
Il lavoro svolto in questa tesi era finalizzato allo studio di 14 ceppi di Companilactobacillus alimentarius isolati da salami spagnoli con un duplice obiettivo: da una parte aumentare la conoscenza relativa a questa specie, le cui informazioni in letteratura sono ancora scarse, dall’altra valutarne i caratteri di sicurezza e le performance tecnologiche per selezionare ceppi da utilizzare eventualmente come colture starter e/o bioprotettive in salumi fermentati o altri prodotti alimentari. I ceppi sono stati prima testati per la loro capacità di produrre ammine biogene, con circa la metà dei ceppi in grado di produrre tiramina, mentre solo 4 accumulavano istamina e due putrescina. Dai dati relativi all’antibiotico resistenza è emerso che la metà dei ceppi erano sensibili agli 8 antibiotici testati. È stata valutata poi la capacità dei ceppi di crescere a diverse temperature (10, 20 e 30°C) e a diverse concentrazioni di NaCl (0, 2,5, 5%). I risultati hanno mostrato un andamento variabile: un solo ceppo non era in grado di crescere a 10°C, mentre a 30°C i ceppi si dividevano in due gruppi, ed i ceppi caratterizzati da maggiori velocità di sviluppo a questa temperatura erano anche quelli dotati delle migliori performance a 20 e 10°C. Mentre per la capacità di crescere a diverse concentrazioni di sale, la variabilità era più evidente alla più alta concentrazione di NaCl (5%). Infine, è stata valutata la capacità di produrre molecole che potessero avere un impatto sul profilo sensoriale del prodotto, tra cui i composti derivanti dall’acido piruvico (acetoino, diacetile, 2-butanone), acido acetico, etanolo, benzeneacetaldeide e benzaldeide, ed anche in questo caso i ceppi hanno mostrato attitudini diverse all’accumulo di questi metaboliti. Sulla base dei dati ottenuti in questo lavoro sperimentale, 2 ceppi tra i 14 testati sono stati scelti per future sperimentazioni, dapprima in vitro e poi in sistemi reali, per valutare il loro potenziale come nuove colture starter.
Resumo:
ABSTRACT Background: L’ictus è una delle prime cause di morte e disabilità nel Mondo: in Europa il numero dei sopravvissuti ad ictus è circa 6 milioni. Tra gli esiti di questa patologia troviamo l’iperestensione di ginocchio, una deformità progressiva e invalidante che compromette il cammino e può essere associata a dolore. La riabilitazione dei soggetti colpiti può essere complessa, a causa della variabilità delle possibili eziologie. Ad oggi non esiste ancora un unico protocollo riabilitativo per il trattamento di questa patologia. L’obiettivo di questa revisione sistematica è quello di valutare l’efficacia dei trattamenti fisioterapici sull’iperestensione di ginocchio in soggetti colpiti da ictus. Metodi: Banche dati: PUBMED, PEDro, Cochrane. Studi inclusi: Trial clinici randomizzati sull’efficacia degli interventi fisioterapici sull’iperestensione di ginocchio in soggetti colpiti da ictus. Questa revisione è stata redatta seguendo la checklist del PRISMA statement. Risultati: Sono stati inclusi 4 studi (3RCT,1CCT), con identificazione di due tipi di intervento: trattamento propriocettivo e con ortesi. Tutti gli interventi hanno prodotto miglioramenti sul cammino dei partecipanti, nel breve termine. L’outcome che ha riportato un miglioramento significativo in seguito agli interventi effettuati è quello riguardante i gradi di iperestensione di ginocchio. Per quanto riguarda la velocità del cammino, è stato riscontrato un miglioramento significativo soltanto in uno dei quattro studi inclusi. Conclusioni: Sono state trovate evidenze in favore dell’allenamento propriocettivo abbinato alla normale fisioterapia nel trattamento dell’iperestensione di ginocchio in soggetti con esiti di ictus e iperestensione di ginocchio, nel breve termine. Questo approccio potrebbe migliorare la qualità del cammino e quindi anche l’autonomia e la qualità di vita di questi pazienti.
Resumo:
La Sclerosi Multipla (SM) è una malattia neurodegenerativa che colpisce la mielina che riveste i neuroni, indebolendo così la trasmissione del segnale. I sintomi più comuni sono intorpidimento della sensazione tattile e difficoltà motoria, accompagnato da stanchezza e altri sintomi. Per la diagnosi della malattia si utilizza la Risonanza Magnetica (RM) per visualizzare la presenza delle lesioni e la Risonanza Magnetica Funzionale (fRM) per valutare il grado di attivazione delle aree cerebrali. In ambito medico l’utilizzo della RM, in supporto alle altre tecniche di analisi, ha permesso di migliorare e velocizzare la diagnosi e la prognosi della SM. Procedendo all’acquisizione di immagini RM è possibile notare la presenza delle lesioni e controllarne l’evoluzione. Infatti, a seguito della scoperta di lesioni, in base alla gravità e alla tipologia di lesione formatasi, è possibile stabilire il trattamento farmacologico da seguire. In particolare, per il caso dell’atrofia cerebrale la RM ha consentito di visualizzare le aree cerebrali affette e valutare la variabilità dei risultati del confronto tra carico lesionale e atrofia per le prestazioni cognitive. La fRM ha inoltre permesso di poter valutare i cambiamenti dei flussi ematici cerebrali e di visualizzare quindi le zone più o meno colpite dalla patologia. Questa tecnica di imaging funzionale è in grado di valutare le aree cerebrali preservate e promuovere un trattamento mirato per le aree affette. Studiando i flussi ematici si possono ricavare delle mappe spaziali che permettono di visualizzare nell’insieme la malattia. Per lo studio dell’affaticamento è stata utile la fRM poiché ha permesso di rilevare le aree che si sono attivate durante l’esecuzione del task motorio. A seguito di questi esami si è concluso che in presenza di SM si attivano aree cerebrali che in condizioni normali non si attiverebbero, comportando così un affaticamento del soggetto.
Resumo:
Gli eventi degli ultimi due decenni hanno mostrato come la Sardegna, in particolare il suo settore est, sia soggetta a frequenti eventi di precipitazione intensa che comportano perdita di vite umane e ingenti danni. Le alluvioni avvenute a Olbia nel 2013 o la più recente avvenuta a Bitti nel 2020 sono la dimostrazione dell’impatto che questi eventi possono avere sul territorio. Dal punto di vista della pratica previsionale di questi fenomeni intensi, è in uso presso ARPAS una classificazione dei cicloni avvenuti nel periodo compreso tra il 1957 e il 1999, che presentano configurazioni bariche simili e raggruppati in gruppi o “cluster”. Lo scopo di questo lavoro di tesi è estendere questa classificazione per il periodo 1951-1957 e 2000-2009, sulla base della configurazione sinottica in quota e al suolo in cui si sviluppano i cicloni appartenenti ai vari cluster. Tramite questa nuova classificazione, e utilizzando la temperatura superficiale media del mare, verrà analizzata la loro stagionalità e la loro durata temporale. Infine, sarà ricostruita la precipitazione legata ai diversi cluster suddividendo la precipitazione per i settori est e ovest dell’isola, per valutarne distribuzione e variabilità spaziale. I risultati mostrano come vi siano differenze tra i cicloni associati a ciascun cluster in base alle diverse configurazioni sinottiche. Un fattore importante è dato anche dalla stagione in cui i cicloni si verificano: emerge una frequenza maggiore nei mesi autunnali in cui le temperature medie mensili e l’anomalia di temperatura media risulta più alta. La distribuzione spaziale delle precipitazioni associate ai cluster conferma che le precipitazioni più intense e omogene interessano il settore est dell’isola. Poiché lo studio è basato interamente su una classificazione di tipo operativo in uso ad ARPAS, i suoi sviluppi riguardano soprattutto un maggior supporto e conoscenza previsionale degli eventi estremi sulla Sardegna.
Resumo:
Il Parmigiano Reggiano è un formaggio a Denominazione d’Origine Protetta (DOP), a pasta dura, cotta, granulosa, a lunga stagionatura, prodotto con latte crudo, parzialmente scremato, proveniente da vacche alimentate prevalentemente con foraggi della zona d’origine. La trasformazione del latte in questo formaggio DOP è ancora basata su una tecnologia artigianale legata all’esperienza empirica dei casari e tutelata dal Consorzio del Parmigiano Reggiano. L’obiettivo della tesi è stato quello di analizzare l’attività dell’acqua e la texture di 14 punte di formaggio “Parmigiano Reggiano”, provenienti da diverse realtà casearie nelle provincie di Parma, Reggio Emilia, Modena, Bologna alla sinistra del fiume Reno e Mantova, alla destra del fiume Po aderenti al consorzio di tutela; al fine di trarre conclusioni sulla struttura di tali campioni. In dettaglio, per valutare in modo sistematico e comprensivo la texture dei campioni è stata valutata mediante i test di Taglio, Texture Profile Analysis (TPA) e Three Point Bending. Al fine di valutare l’effetto della temperatura, le medesime analisi di texture sono state anche effettuate su alcuni campioni di formaggio condizionati alle temperature di 8, 20, 25 e 30°C. I campioni di Parmigiano Reggiano provenienti da diversi caseifici hanno presentato alcune differenze significative in termini di attività dell’acqua, durezza di taglio, elasticità, coesività, gommosità, forza massima, distanza lineare e fratturabilità. Queste variabilità potrebbero essere attribuite a diversità e peculiarità nel processo produttivo e nell’esperienza dei singoli caseari. Inoltre, è stato evidenziato un ruolo significativo delle temperature dei campioni alla quale si effettuano le analisi di texture. In particolare, i campioni condizionati a 8°C rispetto alle altre temperature hanno presentato differenze significative in tutti i parametri di texture analizzati eccetto che per quelli di elasticità e gommosità determinati con il test TPA.
Resumo:
L’industria tessile è la seconda fonte di inquinamento del Pianeta: risorse idriche, energetiche e umane vengono sfruttate per la produzione massiva di capi d’abbigliamento che, dopo solo un utilizzo, vengono gettati e smaltiti scorrettamente senza possibilità di una seconda vita. È da queste considerazioni, abbinate agli obiettivi dell’Agenda 2030 – e, ancora più in là, dell’Agenda 2050 – che si sviluppa il progetto “inverso”. Questo, nel tentativo di far fronte a tecnologie di riciclo ancora arretrate e con possibilità di sviluppo nei successivi due anni, vuole dare una seconda vita a tutti gli scarti di tessuto derivanti dall’industria di tappezzeria forlivese. Un territorio che acquista principalmente dalla Toscana, dal Veneto e dalla Lombardia, regioni italiane che durante la loro attività conciaria producono 1,46 Kg di scarti per ogni metro quadrato di pelli prodotte. "inverso" è un progetto alla cui base poggiamo virtuosi principi legati all’economia circolare, sviluppati tramite una progettazione attenta e un colloquio consapevole con la maggior parte degli attori coinvolti nel ciclo di vita del prodotto. Il mio progetto vuole inserirsi nell’ambito “slow fashion” nel tentativo di supportare una futura economia tessile circolare senza, però, porre in secondo piano l’esigenza prima della moda per ognuno di noi: esprimere se stessi.