439 resultados para Squacquerone funzionale, batteri lattici, microincapsulazione (HPH)
Resumo:
Le attuali linee guida stratificano il rischio dei pazienti con ipertensione arteriosa polmonare (IAP) in basso, intermedio e alto (rispettivamente con mortalità a 1 anno <5%, 5-10% e >10%). La maggior parte dei pazienti è però classificata nella categoria intermedia. Per stratificare ulteriormente questi pazienti, abbiamo valutato il ruolo prognostico dello stroke volume index (SVI) misurato al cateterismo cardiaco destro (CCDx) in 725 pazienti naïve da terapia con IAP idiopatica/ereditaria, associata a malattie del tessuto connettivo o cardiopatie congenite. I pazienti sono stati valutati al basale e 3-4 mesi dopo l'inizio della terapia (1° F-UP) con CCDx, livelli plasmatici di peptide natriuretico cerebrale (BNP), test dei 6 minuti (T6M) e classe funzionale OMS. Abbiamo applicato una tabella di rischio semplificata utilizzando i criteri: classe funzionale OMS, T6M, pressione atriale destra o livelli plasmatici di BNP e indice cardiaco (IC) o saturazione di ossigeno venoso misto (SvO2). Le classi di rischio sono state definite come: basso= almeno 3 criteri a basso rischio e nessun criterio ad alto rischio; alto= almeno 2 criteri ad alto rischio inclusi IC o SvO2; intermedio= tutti gli altri casi. Lo SVI, mediante la regressione di Cox, stratifica la prognosi dei pazienti a rischio intermedio al 1° F-UP [p=0.008] ma non al basale [p=0.085]. Considerandone l’ottimale cut-off predittivo (38 ml/m2) i pazienti a rischio intermedio sono ulteriormente classificabili in intermedio-basso e intermedio-alto. Considerando l'effetto dei 3 principali farmaci che agiscono sulla via della prostaciclina in aggiunta alla duplice terapia di combinazione con inibitori della fosfodiesterasi-5 e antagonisti dell'endotelina, i pazienti trattati con epoprostenolo e.v. hanno ottenuto un maggiore miglioramento rispetto ai pazienti trattati con selexipag; col treprostinil s.c. vi è stata una risposta intermedia. Abbiamo quindi proposto un algoritmo di terapia con selexipag in pazienti a rischio intermedio-basso e con prostanoidi parenterali in pazienti a rischio intermedio-alto.
Resumo:
Background e scopo: Tradizionalmente la cardiomiopatia amiloidotica (CA) è stata considerata una cardiomiopatia restrittiva, ma studi recenti hanno evidenziato il ruolo anche della disfuzione sistolica nella sua fisiopatologia. In questo contesto recente, raramente è stato indagato il profilo emodinamico invasivo. Lo scopo dello studio è stato quello di caratterizzare il profilo emodinamico, strutturale e funzionale della CA nelle tre principali eziologie (amiloidosi da catene leggere (AL), amiloidosi transtiretino-relata (ATTR) mutata (ATTRm) e ‘wild-type’ (ATTRwt)), valutare le differenze del profilo ecocardiografico ed emodinamico nelle fasi diverse di malattia ed esplorare il ruolo prognostico delle principali variabili cliniche e strumentali nella CA. Metodi e risultati: Abbiamo analizzato retrospettivamente i dati di 224 pazienti con CA (AL, n=93; ATTRm, n=66; ATTRwt, n=65). Rispetto all'ATTRwt, i pazienti con AL presentano un minor interessamento morfologico cardiaco, ma dati emodinamici paragonabili, caratterizzati da elevate pressioni di riempimento biventricolari e riduzione della gittata sistolica. L’ATTRm, nonostante il profilo ecocardiografico analogo all’ATTRwt, mostra un quadro emodinamico migliore. Gli indici di funzione diastolica e sistolica longitudinale del ventricolo sinistro (Vsn) sono alterati fin dagli stadi iniziali della malattia, mentre la frazione di eiezione (FEVsn) rimane preservata nella maggior parte dei pazienti, anche nelle fasi avanzate (FEVsn 50 [37-60]%; FEVsn <40% nel 28% dei pazienti NYHA III / IV). All'analisi multivariata, età, NYHA III/I, eziologia AL, frazione di contrazione miocardica (MCF), indice cardiaco (CI) e pressione atriale destra (RAP) sono indipendentemente associati a eventi clinici avversi. Conclusioni Questo studio conferma la complessa fisiopatologia della CA, in cui la disfunzione diastolica è accompagnata da una funzione sistolica longitudinale anormale sin dalle fasi iniziali della malattia. L'AL e l'ATTRwt, nonostante diversi gradi di alterazioni morfologiche, hanno un profilo emodinamico simile; l'ATTRm, invece, presenta un quadro emodinamico migliore. Tra i parametri strumentali, MCF, CI e RAP emergono come predittori significativi di eventi avversi.
Resumo:
La possibilità di monitorare la presenza di residui di farmaci veterinari e contaminanti biologici negli alimenti può trarre beneficio dall’uso di metodi di screening affidabili e di facile utilizzo. A tal fine, sono in fase di sviluppo molteplici applicazioni di biosensori in grado di coniugare sistemi di rilevamento biologico-specifici con trasduttori elettronici o ottici capaci di rilevare, amplificare, elaborare e misurare il segnale derivante dall’interazione tra un substrato costituito da enzimi, anticorpi o apteni e contaminanti ambientali o alimentari. Lo sviluppo di biosensori permette di rilevare la presenza di quantità residuali di un determinato analita in varie matrici sia animali che alimentari. Per questo Progetto di Ricerca sono state messe a punto tecniche di analisi elettrochimiche per rilevare quantitativamente la presenza di istamina e di batteri istaminogeni in campioni di pesce e determinare la presenza di ceppi di Escherichia coli nel latte crudo. Sono stati condotti anche degli studi riguardanti la presenza di residui di farmaci veterinari negli alimenti. Lo scopo di queste ricerche era quello di: • Sviluppare diversi tipi di sensori elettrochimici ed immunoenzimatici e valutare le loro potenzialità come metodi di analisi rapida. • Validare i risultati mediante comparazione con metodi analitici di riferimento. • Avviare uno studio per lo sviluppo di biosensori basato sulla valutazione del rischio
Resumo:
I progressi della biologia molecolare assieme alle nuove tecnologie di sequenziamento applicate su scala genomica alla genetica molecolare, hanno notevolmente elevato la conoscenza sulle componenti di base della biologia e delle patologie umane. All’interno di questo contesto, prende piede lo studio delle sequenze genetiche dei batteri, consentendo dunque, una migliore comprensione di ciò che si nasconde dietro le malattie legate all’uomo. Il seguente lavoro di tesi si propone come obiettivo l’analisi del DNA del batterio Listeria monocytogenes, un microrganismo presente nel suolo e in grado di contaminare l’acqua e gli alimenti. Lo scopo principale è quello di confrontare la variabilità tecnica e biologica, al fine di capire quali siano gli SNPs reali (Single Nucleotide Polymorphism) e quali artefatti tecnici. La prima parte, quindi, comprende una descrizione del processo di individuazione degli SNPs presenti nel DNA dei campioni in esame, in particolare di tre isolati diversi e tre copie. Nella seconda parte, invece, sono effettuate delle indagini statistiche sui parametri relativi agli SNPs individuati, ad esempio il coverage o il punteggio di qualità assegnato alle basi. Il fine ultimo è quello di andare a verificare se sussistano particolari differenze tra gli SNPs dei vari isolati batterici.
Resumo:
Il presente lavoro di tesi riguarda lo sviluppo di un innovativo processo di produzione di poliidrossialcanoati (PHA), volto a diminuire i costi ed incrementare la sostenibilità ambientale dei processi attualmente utilizzati per produrre PHA. A tal fine sono state utilizzate colture microbiche miste (MMC) presenti nei fanghi attivi derivanti dai processi di depurazione delle acque reflue e substrati di scarto dell’industria vitivinicola. I substrati sono stati inizialmente fermentati anaerobicamente per ottenere acidi grassi volatili (VFA), fonte di carbonio ideale per produrre PHA tramite MMC. Il processo di produzione sviluppato nel presente lavoro di tesi è suddiviso in tre stadi, mediante l'accoppiamento di processi termochimici e biologici: 1. Fermentazione anaerobica di varie matrici di scarto provenienti dall'industria vitivinicola per produrre VFA. Tutti i substrati sono stati testati sia con inoculo tal quale e sia con inoculo autoclavato per inibire l’attività degli Archea metanogeni. Nel primo caso sono stati ottenuti elevati quantitativi di biogas (~70% di resa), mentre il pre-trattamento dell’inoculo ha portato un’elevata produzione di VFA, soprattutto nel caso della vinaccia (45% di resa). 2. Pre-trattamento termochimico dei fanghi di depurazione e scarti tramite pirolisi al fine di rendere il carbonio contenuto negli scarti più disponibile per i batteri anaerobi. In questo caso le rese di VFA sono sensibilmente aumentate rispetto alla digestione della biomassa tal quale, con valori prossimi al 99% nel caso della vinaccia. 3. Valutazione delle capacità delle popolazioni batteriche che compongono il fango aerobico di accumulare naturalmente PHA, testando fanghi provenienti da impianti di depurazione sia industriali che urbani. Solo le comunità batteriche presenti nei fanghi di tipo urbano hanno mostrato buona potenzialità di accumulare PHA, senza che questi siano stati inizialmente sottoposti a regimi ciclici alimentari.
Resumo:
La metodologia convenzionalmente adottata per l’analisi e progettazione di reti acquedottistiche è la Demand Driven (DD), ovvero un’analisi guidata dalla domanda idrica dell’utenza che viene imposta, dal punto di vista matematico, nelle equazioni del modello idraulico; la struttura di risoluzione matematica di tale approccio è costituita dalle sole equazioni di continuità e del moto, le cui incognite sono i carichi idraulici da garantire per soddisfare la richiesta idrica (dato noto). Purtroppo la DD non è in grado di simulare, in modo ottimale, scenari in cui le pressioni in rete risultano essere inferiori rispetto a quelle richieste per un servizio di erogazione corretto. Dunque, per una completa analisi di una rete di distribuzione idrica, è utile adottare la metodologia Pressure Driven (PD), che si basa sullo stesso modello matematico utilizzato per l’analisi DD al quale viene aggiunta un’equazione che lega la portata erogata alle utenze e la perdita idrica al carico idraulico disponibile in corrispondenza dei nodi. In questo caso un ulteriore dato incognito, oltre al carico idraulico nei nodi ed alla portata nelle condotte della rete, risulta essere la portata effettivamente prelevata ai nodi oppure persa (leakage) dalla rete. Il presente lavoro di tesi ha portato alla calibrazione del modello di un distretto della rete di distribuzione idrica della città di Rapallo. Le simulazioni sono state eseguite attraverso il codice InfoWorks applicando sia la Demand Driven Analysis che risulta funzionale per l’ottenimento del modello calibrato, sia la Pressure Driven Analysis che non agisce sul bilancio complessivo della rete, ma interviene localmente nelle zone in cui le problematiche di funzionamento riscontrate riguardano le pressioni
Resumo:
Dall’inizio del XXI secolo, un’importante rivoluzione tecnologica è in corso nel campo delle neuroscienze: l’idea di base è quella di attivare/inibire con la luce un neurone che normalmente non è in grado di rispondere a tale stimolo. Si tratta di un approccio che integra metodi ottici e genetici per controllare l’attività di cellule eccitabili e di circuiti neuronali. La combinazione di metodi ottici con strumenti fotosensibili geneticamente codificati (optogenetica) offre l’opportunità di modulare e monitorare rapidamente un gran numero di eventi neuronali e la capacità di ricreare i modelli fisiologici, spaziali e temporali dell’attività cerebrale. Le tecniche di stimolazione ottica possono rispondere ad alcune delle problematiche legate alla stimolazione elettrica, fornendo una stimolazione più selettiva, una maggiore risoluzione spaziale e una minore invasività del dispositivo, evitando gli artefatti elettrici che complicano le registrazioni dell’attività neuronale elettricamente indotta. Quest’innovazione ha motivato lo sviluppo di nuovi metodi ottici per la fotostimolazione neuronale, tra cui la fotostimolazione neuronale nell’infrarosso, le tecniche di scansione del fascio e di fotostimolazione parallela, ciascuna con i suoi vantaggi e limiti. Questa tesi illustra i principi di funzionamento delle tecniche di fotostimolazione ed il loro utilizzo in optogenetica, presentandone i vantaggi e gli inconvenienti. Infine, nell’elaborato è presa in considerazione la possibilità di combinare i metodi di fotostimolazione con approcci di imaging ottico funzionale innovativi per un’indagine più ampia, mirata e completa del circuito neuronale. Sebbene siano necessari ulteriori studi, le tecniche di fotostimolazione in optogenetica sono quindi molto promettenti per la comprensione dei disturbi neuronali, svelando la codifica neurale e facilitando nuovi interventi per la diagnosi e terapia di malattie neurologiche.
Resumo:
Il presente elaborato ha avuto lo scopo di valutare l’effetto dell’applicazione delle alte pressioni idrostatiche (HHP) sulla solubilità delle proteine sarcoplasmatiche e totali di tartare di cefalo e mazzancolla, valutandone il cambiamento durante la conservazione refrigerata protratta per 35 giorni o fino al raggiungimento di 7 Log UFC/g di batteri mesofili totali. In seguito allo scongelamento, cefali e mazzancolle sono stati ridotti in frammenti e confezionati sottovuoto. Successivamente, i prodotti confezionati ottenuti da ciascuna delle due materie prime considerate, sono stati suddivisi in quattro gruppi sperimentali: uno non trattato mentre gli altri sottoposti ad HHP alla pressione di 400, 500 e 600 MPa. Trascorsi 1, 6, 9, 14, 21, 28 e 35 giorni dall’applicazione del trattamento è stata determinata la solubilità delle proteine sarcoplasmatiche e totali. L’applicazione delle HHP su tartare di cefalo e mazzancolla consente di allungarne notevolmente la shelf-life microbica, soprattutto con trattamenti a pressioni elevate (600 MPa). Tuttavia, è stato osservato un notevole effetto negativo sulla solubilità delle frazioni sarcoplasmatiche e totali, molto presumibilmente associato ai fenomeni di ossidazione. Dal confronto fra le due matrici considerate (cefalo e mazzancolla), emerge che la solubilità delle proteine sarcoplasmatiche e miofibrillari dei macinati di mazzancolla è meno influenzata dal trattamento con HHP e quindi si adatta meglio all’impiego di questa tecnologia; al contrario i macinati di cefalo hanno presentato una riduzione notevole della funzionalità proteica. In generale, è stato confermato che i prodotti ittici dotati di un tenore di lipidi ed emepigmenti molto ridotto, come i crostacei (es. mazzancolla), sono più adatti ad essere sottoposti a trattamento con le HHP che ne rallenta i fenomeni degradativi durante la successiva fase di conservazione refrigerata.
Resumo:
In questa tesi abbiamo presentato/analizzato metodi variazionali allo stato dell’arte per la ricostruzione – ovvero, rimozione di sfocamento e rumore - di una classe specifica di segnali/immagini caratterizzati dal fatto di essere costanti a tratti e bilivello. Tali metodi ottengono la ricostruzione tramite la minimizzazione di un funzionale formato da due parti: un termine di fedeltà ai dati, la cui forma dipende dal tipo di rumore considerato, e un termine di regolarizzazione che codifica l’informazione a priori disponibile sul segnale da ricostruire (ad esempio, la sua regolarità). Per segnali costanti a tratti, è ben noto che il regolarizzatore deve avere la proprietà di promuovere la sparsità delle derivate prime del segnale. In particolare, molte proposte allo stato dell’arte sfruttano la pseudo-norma l0 o la norma l1 del gradiente, ossia la Variazione Totale (TV). La prima scelta è ottimale in linea teorica poiché promuove al meglio la sparsità, ma il funzionale è fortemente non convesso e i metodi numerici di minimizzazione possono convergere a soluzioni locali. Nel caso di TV si ha invece un problema convesso che garantisce la convergenza a minimi globali ma la qualità della soluzione è sub-ottima. Motivati da vantaggi/svantaggi di l0 ed l1, in questa tesi si è deciso di investigare (teoricamente e sperimentalmente) l’uso di modelli variazionali di tipo Convesso-NonConvesso (CNC). Questi utilizzano particolari regolarizzatori non convessi e parametrici che consentono da un lato di sparsificare meglio di l1, dall’altro di mantenere la convessità del funzionale così da presentare un unico punto di minimo. Tra i metodi CNC investigati, quello denominato GME-TV basato sul concetto di inviluppo di Moreau generalizzato ha prodotto ricostruzioni di qualità sempre migliore di TV e a volte, diremmo sorprendentemente, anche di l0. Questo rappresenta un risultato di particolare rilevanza scientifica nel campo della ricostruzione di segnali/immagini.
Resumo:
Tra la frutta esotica di recente introduzione nel territorio italiano c’è anche la Pitaya, un frutto tropicale originario del Sud America, che oltre ad essere una novità per quello che è il mercato della frutta alternativa, esso è anche un alimento funzionale. Molti studi mettono in luce gli aspetti nutrizionali e farmacologici di tale frutto, attribuibili principalmente alla presenza di composti minori come le sostanze fenoliche, note per la loro bioattività. Per tale motivo, lo scopo di questo lavoro di tesi è stato quello di valutare quali-quantitativamente i composti fenolici presenti in due specie di pitaya (H. undatus e H. megalanthus), analizzate mediante UPLC-ESI-TOF-MS. Nei campioni di pitaya analizzati sono stati identificati tredici composti polari: un acido organico, un derivato amminoacidico e undici derivati fenolici tra cui tre flavonoli glicosilati, due iridoidi di cui uno presenta due isomeri, un acido idrossicinammico aglicone, tre isomeri di un acido idrossicinammico glicosilato e un composto glicosilato scoperto di recente. I risultati ottenuti appaiono soddisfacenti sia dal punto di vista analitico che compositivo. Dal punto di vista analitico sono stati identificati nuovi composti fenolici nella pitaya come caffeoylisocitrate, hydroxyferuloyl hexoside, sinustoside e ligulucidumoside C. Dal punto di vista compositivo è stato possibile ottenere una panoramica di composti polari simili tra i campioni e la bibliografia. La comparazione con altre tipologie di frutta, tropicale e non, ci attesta che il contenuto fenolico della pitaya si posiziona tra i valori intermedi, è importante considerare sempre la variabilità legata alle caratteristiche pedo-climatiche dei frutti presi in esame. Nonostante i buoni risultati ottenuti, è importante sottolineare che questo rappresenta uno screening preliminare della composizione fenolica della pitaya e che seguiranno ricerche più approfondite per migliorare la valutazione quali-quantitativa di tale cromatogramma.
Resumo:
Lo studio presentato in questa tesi vuole riportare la ricerca e l’analisi di una nuova esperienza di utilizzo di una stampella, spinto dalla richiesta di migliorare la performance e l’interfaccia dello strumento con un paziente con rilevanti difficoltà motorie. Analizzando lo stato dell’arte e la ricerca in ambito ortopedico, la stampella risulta essere lo strumento più comunemente utilizzato in caso di riabilitazione o difficoltà motorie, ma, allo stesso tempo, comporta rischi e ulteriori danni al paziente, nel caso vi sia un uso scorretto dello strumento. Lo scopo principale del progetto è fornire un supporto, sia al paziente, sia alla terapia, tramite l’ottimizzazione e il miglioramento di alcuni elementi costituenti di una stampella e l’implementazione di un nuovo servizio. Durante lo studio sono stati sfruttati i metodi dell’ingegneria industriale, utili per le fasi di sviluppo del progetto, ma si è cercato anche di dare importanza alla user experience, riportando considerazioni e opinioni di diversi utilizzatori della stampella. Si spera che il risultato sia uno strumento funzionale, utile e soprattutto che vada incontro alle esigenze non solo dell’utente, ma anche delle figure che lo assistono, come il medico ortopedico o il fisioterapista.
Resumo:
In this work we analyze five events of intense precipitation that affected Central Italy between 2011 and 2015. These events caused important flood phenomena, with a significant impact on both the economy and people. This study mainly uses data from ERA5, the latest reanalysis produced by the ECMWF (European Center for Medium-range Weather Forecast), in addition to data from the meteorological network managed by Centro Funzionale of Protezione Civile d’Abruzzo. In the first part is reported an overview of the general issues that characterize the study of intense precipitation events, with a deepening of some recently analyzed cases. Subsequently the data and tools used are reported, with a description of the events studied and the method of investigation. We then go to analyze the synoptic framework in which the event developed and to investigate the causes that generated it. Finally, the precipitation pattern was studied and the degree of reproducibility by the ERA5 reanalysis was tested through a comparison with the meteorological network.
Resumo:
Nel contesto socio-economico dei primi anni del secondo dopoguerra, caratterizzato dal bisogno di ricostruire una città profondamente danneggiata dai bombardamenti, la Triennale di Milano contribuì in modo preponderante nel tracciare le linee guida per la ricostruzione di una porzione di città. In tale contesto, l’architetto Piero Bottoni, in qualità di Commissario straordinario dell’Ente Autonomo Triennale, impostò l’”Ottava Triennale di Milano – Esposizione internazionale di arti decorative e industriali moderne e dell’architettura moderna” attorno al tema dell’abitare e concepì il Quartiere Triennale 8 come una esposizione permanente di nuovi tipi edilizi, di sistemi costruttivi e arredi innovativi, ma anche e soprattutto come un esempio sperimentale di una nuova spazialità urbana. Nel progetto del QT8 vennero messi sullo stesso piano casa, quartiere e città come tre aspetti inscindibili dello stesso problema, ma, sebbene la maggior parte del piano venne portato a termine, questa porzione di città non potè sfuggire alla realtà economica ed alle logiche speculative di quel tempo; infatti quello che si nota effettivamente arrivando nel quartiere è la mancanza del suo cuore, luogo di connessione funzionale e spaziale, di quella piazza porticata progettata, ma mai realizzata, sulla quale si sarebbero dovuti affacciare negozi, uffici pubblici, ristoranti, una casa collettiva, un cinema-teatro ed il mercato coperto. Da queste osservazioni, dalla necessità di offrire alla comunità dei residenti, e non solo, un fulcro pubblico dove instaurare relazioni sociali e nel quale poter usufruire dei servizi necessari, nasce l’idea di questo progetto di tesi.
Resumo:
Urbino si trova nella circostanza di contenere in se stessa innumerevoli connotazioni della condizione urbana. Allo stesso tempo racchiude una storia antica immutata, caratterizzata dalle tracce immediatamente riconducibili ad ogni epoca, e partecipa alla storia contemporanea riportando segni chiari come quelli del passato. Altra peculiarità determinante è la completa immersione nella natura, un paesaggio che comprende il costruito e il naturale considerandoli come un tutt’uno. Se questo avviene nel centro storico non possiamo dire lo stesso delle espansioni che si sono succedute negli ultimi anni, esse hanno mostrato incrinature alle precedenti progettazioni, evidenziando una distinzione tra sviluppo naturale del costruito e artificiale. In ultimo si tratta di una vera e propria città universitaria che negli anni ha accolto un sempre più ampio bacino culturale, il che esercita sui giovani una forte attrattiva, non solo da lontane regioni italiane ma anche a livello internazionale. L’accento del nostro studio si concentra sul dare valore alla strada come un fatto urbano. La strada che è una presenza storica definita in maniera molto precisa dagli allineamenti degli assi principali di arrivo ad Urbino. Nel corso del secondo dopo guerra era diventata soltanto una via di carrabilità che andava a perdere il valore scenografico che aveva sempre avuto all’interno della città storica. Una strada distratta rispetto agli accadimenti importanti che si svolgevano lungo il suo asse. Abbiamo lavorato sul manufatto, rettificandolo, dandogli delle sponde, delle verticalità, degli affacci e delle diramazioni in modo da farlo diventare un vero e proprio fatto urbano. Un nastro imperante che attualmente è gestito adeguatamente però soltanto dal punto di vista funzionale e quindi dargli un valore formale, mettendo assieme gli elementi come una costellazione di un fatto principale che è il segno della strada stessa.
Resumo:
La città di Ivrea è conosciuta principalmente come il luogo di nascita del pensiero olivettiano e come punto di partenza della sua produzione, che per anni ha dominato il mercato nell’ambito tecnologico. Tutte le ideologie introdotte prima da Camillo Olivetti e, successivamente, riprese dal figlio Adriano, trovano la loro origine e sperimentazione nella crescita della città. Infatti, il suo sviluppo urbanistico ha visto la sua massima espansione nel XX secolo, diventando un punto d’incontro degli architetti razionalisti di quegli anni, che lasciarono qui alcune tra le più importanti costruzioni del modernismo e del razionalismo italiano. Eppure, non ci fu solo Olivetti: il merito dell’evoluzione della città dipese anche da altre realtà industriali e aziendali più piccole, che difficilmente vengono ricordate, viste e che, spesso sono state anche rase al suolo per dare spazio ad altre costruzioni contemporanee. Infatti, Ivrea prima di essere “città industriale del XX secolo” era conosciuta come “città del tessile”, proprio grazie alla presenza di due importanti industrie del settore: la Soie de Chatillon e la Manifattura Rossari & Varzi. L’idea progettuale nasce, quindi, dall’intento di voler riportare alla luce lo stabilimento della Manifattura Rossari & Varzi, che non solo oggi è dimenticato, ma che nasconde al suo interno una parte della storia medievale della città, il Bastion Verde. L’intervento mira a cogliere le potenzialità del luogo, non solo concentrandosi su questa realtà industriale in maniera puntuale, ma inserendola all’interno di un sistema di collegamento tra il centro storico e la sponda a sud della Dora Baltea, in modo da colmare alcune lacune attualmente presenti che non lo rendono funzionale alla città.