1000 resultados para Queste


Relevância:

10.00% 10.00%

Publicador:

Resumo:

IMPARARE LA SOSTENIBILITA’ Oggetto di questa tesi di laurea è la progettazione di un asilo nido in prossimità della scuola dell’infanzia “Coccinella” di Bertinoro (FC) per rispondere alle esigenze espresse dalla’Amministrazione Comunale, orientate a realizzare un ampliamento della struttura esistente, completando così il polo scolastico comprendente anche la scuola elementare comunale adiacente. La strategia di intervento che il progetto ha adottato prevede due scenari: uno che assume integralmente gli obiettivi dell’Amministrazione e prevede la realizzazione di una struttura per la prima infanzia ad ampliamento di quella esistente, e un secondo che invece propone anche la realizzazione di una nuova scuola materna, in sostituzione di quella attualmente presente. Il progetto ha adottato un approccio integrato dal punto di vista formale e costruttivo, mostrando particolari attenzioni alle tematiche ambientali, assunte come determinanti per ottenere elevati livelli di benessere per i fruitori. La scuola diventa così promotrice di una progettazione orientata a principi di sostenibilità ambientale, efficienza e risparmio energetico, attraverso scelte in cui, sin dalle prime fasi, tecnologia, ambiente, comfort e salute cercano un reciproco equilibrio. A scala urbana si è scelto di recuperare e ampliare il sistema di percorsi pedonali che consente il collegamento tra le diverse parti della città, valorizzando il paesaggio quale risorsa primaria. A scala locale, per garantire l’integrazione del nuovo intervento con l’ambiente e il territorio, il progetto ha richiesto un’approfondita analisi preliminare del sito, comprendente lo studio di elementi del contesto sociale, culturale, ambientale e paesaggistico. A questi si sono affiancati gli aspetti climatologici, funzionali alla scelta dell’esposizione da attribuire all’edificio in modo da mitigare gli effetti delle variazioni climatiche e ottimizzare la qualità indoor. Dal punto di vista funzionale e distributivo il progetto ha risposto a criteri di massima flessibilità e fruibilità degli ambienti interni, assecondando le esigenze di educatori e bambini. Particolare attenzione è stata rivolta alla scelta della tipologia costruttiva, adottando elementi prefabbricati in legno assemblati a secco. Questo sistema consente la realizzazione di strutture affidabili, durevoli nel tempo e rispondenti a tre criteri fondamentali nell’ottica della sostenibilità: impiego di materiali rinnovabili, minimizzazione dei rifiuti e del consumo di acqua in cantiere e possibilità di recupero tramite smontaggio. Per garantire un corretto rapporto tra costruito e contesto urbano si è deciso di utilizzare materiali da rivestimento della tradizione locale, quali la pietra, e di attenuare l’impatto visivo dell’intervento attraverso l’impiego di coperture verdi. Queste, oltre a restituire in copertura il suolo occupato dai volumi edificati, contribuiscono alla mitigazione del microclima, sia all’interno dell’edificio che nel suo intorno. Rispetto agli obiettivi di benessere degli utenti, il progetto si è posto l’obiettivo di superare i confini determinati dalla normativa sui requisiti energetici, puntando al raggiungimento di condizioni ottimali in termini di salubrità del costruito e confort abitativo. Questo intervento si propone di sperimentare un approccio ecologico di sensibilizzazione ai criteri di sostenibilità, capace di coinvolgere tutti i protagonisti della vita scolastica: i bambini, gli insegnanti, i genitori e la città. “Imparare la sostenibilità” è l’obiettivo del progetto e la linea guida della tesi, i “percorsi di sostenibilità”, rappresenta il frutto degli studi, delle analisi, delle scelte che ci hanno spinto ad ottenere lo scopo prefissato e racchiude in un significato sia fisico che metaforico i risultati finali, sia a scala urbana, che a scala dell’edificio. Il termine “percorsi” ci permette di comprendere sia la nuova rete di collegamenti tra l’area di intervento e il resto della città quali strumento di rigenerazione e di contatto con il paesaggio, ma anche il processo di crescita e formativo che il bambino, destinatario e protagonista del progetto, intraprenderà in questi luoghi. La realizzazione di edifici tecnologicamente efficienti dal punto di vista delle prestazioni energetiche (raggiungimento classe B per la struttura esistente, classe A per le ipotesi di ampliamento) ma anche dal punto di vista del confort luminoso rappresenta la premessa per la formazione di una nuova generazione più responsabile e rispettosa nei confronti dell’ambiente che la circonda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente Tesi di Laurea si pone in continuità rispetto al Laboratorio di Sintesi Finale in Urbanistica “Spiagge urbane. Paesaggi, luoghi, architetture nella città balneare adriatica”. Nel corso del Laboratorio si è condotto uno studio delle possibili soluzioni per la riqualificazione dell’area e delle colonie fortemente degradate della “Città delle Colonie del Marano”. Si è anche condotto uno studio di ciò che sono state le Colonie Marine ed il turismo di massa per le realtà balneari della Riviera Romagnola. Il patrimonio delle colonie marine include 246 edifici in Romagna, edifici di altri tempi che guardano il mare da una posizione di privilegio. Infatti da Ravenna a Cattolica le colonie marine testimoniano un patrimonio edilizio ormai perduto ed in certi casi dimenticato. Purtroppo ad oggi risultano in stato di abbandono totale, rimanendo comunque forti testimonianze storiche. Queste città delle colonie sono pertanto aree da riqualificare e da reinventare, in grado di offrire nuove potenzialità e nuovi sviluppi alle città e al turismo della Riviera. La prima fase del Laboratorio ha riguardato l’analisi del territorio compreso tra i Comuni di Rimini e Riccione, cercando di estrapolare qualsiasi caratteristica di queste aree da riutilizzare, da valorizzare e da riprogettare : si sono studiate le colonie, le loro aree di pertinenza, i loro vincoli, le aree fluviali da salvaguardare, le infrastrutture e la potenzialità edificatoria del territorio. In una seconda fase di lavoro, si sono fatti incontri con docenti e professionisti al fine di approfondire gli eventuali progetti di riqualificazione già avviati, semplificando così anche il lavoro di analisi degli strumenti urbanistici vigenti. Queste fasi hanno portato alla redazione di un masteplan dettato dalle linee generali su cui si è voluto impostare tutta la progettazione urbanistica e compositiva: innanzitutto si è immaginato un nuovo waterfront costituito dalla vista delle colonie di valore storico in primo piano, e la nuova città in secondo piano. Si è immaginata inoltre una città balneare diversa, non più caratterizzata dalla presenza di aree fortemente densificate, ma un’area costruita in altezza per mantenere ampie zone a verde : la città balneare deve essere il più possibile accogliente e libera da veicoli, per non essere più vissuta unicamente nella stagione estiva. Si sono sempre tenute in considerazione anche le nuove tecnologie ed i principi guida della sostenibilità urbana, infatti la città si serve dell’ambiente circostante per gli scarichi dei reflui, per illuminare e per l’accumulo dell’acqua piovana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ACQUE E NAVIGAZIONE UN NUOVO MUSEO DELLE ACQUE E DELLA NAVIGAZIONE A RAVENNA L’immagine dell’acqua a Ravenna fa riscoprire una storia della città fatta di corsi e specchi d’acqua. Questi, a causa del tempo e dell’opera dell’uomo scomparvero o mutarono profondamente la loro conformazione. L’importanza quindi dello studio di come questa città abbia convissuto negli anni con l’acqua e come l’uomo si sia adattato a queste condizioni è notevole. Ora Ravenna è una citta di “terra”, collegata al mare solo tramite il canale Candiano, le attività e la vita dell’uomo si sono staccate dall’acqua e nel tempo il mare è diventato solo una “vicinanza” perdendo tutto quel fascino e quell’importanza che possedeva nei secoli precedenti. Tra i tanti aspetti del legame passato tra l’uomo e l’acqua, l’imbarcazione risulta il mezzo più tipico e caratterizzante. Grazie a tanti studi fino ad ora compiuti è possibile ricostruire una catalogazione delle imbarcazioni che hanno fatto parte della storia acquatica di Ravenna e che quindi hanno composto la sua storia. L’imbarcazione costituisce una memoria storica e tecnica, essa riflette i cambiamenti storici e tecnico-evolutivi della civiltà delle acque. L’evoluzione delle barche è delle navi è progredita di pari passo con i cambiamenti delle esigenze dell’uomo, fin dall’antichità. Una rappresentazione tra imbarcazione, storia dell'uomo e geomorfologia della acque a Ravenna fa sì che l’argomento ricopra ambiti generali sull’intera civiltà che ha popolato il ravennate. Il museo delle acque a Ravenna vuole essere perciò un percorso nel passato della città, alla scoperta dell’antico legame con l’acqua, legame che forse ormai è stato dimenticato e di cui a volte si ignora l’esistenza. Questo non comporta il forzare un legame ormai abbandonato, ma un rivivere i momenti che hanno caratterizzato la crescita della città fino allo stato attuale. Questo museo mira a integrare il cospicuo patrimonio storico museale di Ravenna andando a colmare una mancanza da me ritenuta importante, appunto una memoria storica delle vita acquatica della città e dei propri abitanti nel tempo. Il tema museale studiato e analizzato verterà su un percorso nella storia della navigazione e del legame che Ravenna ebbe con l’acqua fin dalle sue origini. Questo importante tema prevederà l’esposizione di importanti relitti navali e ritrovamenti storici per i quali sarà obbligatoria l’organizzazione di appositi spazi espositivi per un’ottima conservazione. L’edificio appare come un rigido corpo all’esterno, rivestito in pietra basaltica grigia con tonalità diverse, mentre dal lato del canale risulta notevolmente più aperto, con un lungo porticato in affaccio diretto sull’acqua che segue tutta la forma del l’edificio stesso e che si interrompe solo in prossimità della grande hall d’ingresso in vetro e acciaio. Queste caratteristiche permettono di creare due facce completamente diverse, una molto chiusa e una invece molto aperta, per enfatizzare il senso di scoperta del “mondo acqua” al momento dell’ingresso nell’edificio. Due realtà molto diverse tra loro. Il lato, che affaccia sulla nuova piazza creata all’interno dell’area, rivestito in pietra basaltica grigia, rende una sensazione di chiusura fisica, creata appositamente per stimolare la scoperta dell’acqua sul lato opposto. La facciata è rotta in maniera irregolare da feritoie, quasi come una enorme roccia sull’acqua, sul riferimento del MuMok, il Museo di Arte Moderna Fondazione Ludwig di Ortner & Ortner aVienna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’irrigidimento del contesto regolamentare europeo dovuto all’attuale condizione di contaminazione diffusa dell’ambiente, riscontrata in Italia e in molti altri paesi europei, ha visto l’esigenza sempre più pressante di razionalizzare le dosi dei fitofarmaci utilizzati in agricoltura. Lo sviluppo e l’utilizzo di nuovi prodotti coadiuvanti come specifici antideriva per erbicidi, rappresenta in questo senso, un’importante risorsa su cui si inizia a fare affidamento. In Francia, per esempio, già da alcuni anni ci sono normative che obbligano l’utilizzo in agricoltura di tali prodotti, mentre in Italia non si hanno ancora direttive precise a riguardo. In tal contesto l’obiettivo principale di questa ricerca, effettuata in collaborazione con la ditta Intrachem, è stato quello di studiare alcune caratteristiche funzionali relative a due prodotti, che verranno lanciati a breve sul mercato, come specifici antideriva per erbicidi. In particolar modo è stato fatto uno studio per verificare se ed eventualmente come, questi coadiuvanti (Gondor e Zarado) possono influenzare l’attività del principio attivo a cui vengono aggiunti, apportando variazioni relative alla sua efficacia. Lo schema di lavoro seguito ha previsto una prima fase di saggio dove venivano effettuati test dose-risposta, utilizzando diversi erbicidi a diverse concentrazioni. I test sono stati effettuati su alcune malerbe mono e dicotiledoni. In ciascuna di queste prove è stata valutata e confrontata la percentuale di sopravvivenza e il peso dei sopravvissuti tra le tesi trattate. Le tesi prevedevano trattamenti con erbicida e trattamenti con erbicida più uno dei due coadiuvanti. Nella seconda fase si è effettuato un approfondimento sulle tesi che hanno mostrato i risultati più interessanti, per capirne possibilmente le basi fisiologiche. In particolare si è verificato se l’aggiunta dei due antideriva potesse determinare cambiamenti durante la fase di assorbimento e di traslocazione del principio attivo all’interno della piantina, utilizzando molecole radiomarcate con C14. Dai risultati ottenuti si è potuto evidenziare come l’aggiunta dei coadiuvanti possa rendere più efficace l’azione dell’erbicida nei casi in cui le infestanti non vengono completamente controllate dagli stessi (stadio vegetativo troppo avanzato e resistenza all’erbicida). Non è stato sempre verificato che ad un miglioramento dell’efficacia coincida un aumento dell’assorbimento e della traslocazione del principio attivo, all’interno della pianta. In conclusione si è potuto constatare che Gondor e Zarado oltre a svolgere la loro funzione antideriva, non influenzano negativamente l’efficacia dell’erbicida, salvo poche eccezioni, ma al contrario possono potenziarne l’azione, nelle situazioni “border line”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’arteria principale dell’antica Regio VIII si è dimostrata l’elemento cardine per la fondazione delle città in epoca romana. Le città che nascono sulla via Emilia entrano in un rapporto di simbiosi e di dipendenza con la strada antica, tanto che quest’ultima diventa l’asse generatore di tutta la forma urbis. Questo tracciato generatore è rimasto immutato se non per alcune sporadiche eccezioni e si è consolidato, nella sua forma e funzione, andando a creare così un’integrazione perfetta con l’imago urbis. Anche la città di Claterna deve la sua fondazione alla presenza di questo importante segno, tracciato nel 187 a.C.; un segno che nasce da un’astrazione e dal possesso dell’idea di linea retta da parte dei romani, il cui compito è dare ordine allo spazio che consideravano un caos, e come tale doveva essere organizzato in maniera geometrica e razionale. La via Emilia diventa l’asse generatore della città, la quale segue appunto l’orientamento fornito dall’asse stesso che assume il ruolo di decumanus maximus per l’insediamento, e sulla quale si baserà la costruzione della centuriazione claternate. Il tracciato così forte e importante dal punto di vista funzionale assume però in contemporanea un ruolo di divisione della civitas, in quanto va a separare in maniera netta la zona sud da quella nord. Questa situazione è maggiormente percepibile oggi rispetto al passato, vista la situazione di incolto che prevale sull’area. L’area di progetto risulta infatti tagliata dalla strada statale ed è di conseguenza interessata da problematiche di traffico veicolare anche pesante; tale situazione di attraversamento veloce non permette al viaggiatore di cogliere una lettura completa e unitaria di quello che era l’antico insediamento romano. Inoltre la quota di campagna, che racchiude il layer archeologico, è più bassa rispetto alla quota di percorrenza della strada e non essendoci alcun elemento visivo che possa richiamare l’attenzione di chi percorre questo tratto di via Emilia, l’area d’interesse rimane completamente nascosta e inserita nel contesto paesaggistico. Il paesaggio diventa l’unico immediato protagonista in questo frangente di via Emilia; qui è diverso da molte altre situazioni in cui l’abitato si accosta alla strada, o ancora da quando la strada antica, e ciò si verifica nei maggiori centri urbani, viene ad essere inglobata nel reticolo cittadino fatto di strade ed edifici e con esso si va a confondere ed integrare. Infatti nella porzione compresa tra il comune di Osteria Grande e la frazione di Maggio, ci si trova di fronte ad un vero e proprio spaccato della conformazione geomorfologica del territorio che interessa tutta la regione Emilia Romagna: rivolgendosi verso sud, lo sguardo è catturato dalla presenza della catena appenninica, dove si intravede il grande Parco dei Gessi, che si abbassa dolcemente fino a formare le colline. I lievi pendii si vanno a congiungere con la bassa pianura che si scontra con il segno della via Emilia, ma al di là della quale, verso nord, continua come una distesa senza limite fino all’orizzonte, per andare poi a sfumare nel mare Adriatico. Questi due aspetti, la non percepibilità della città romana nascosta nella terra e la forte presenza del paesaggio che si staglia sul cielo, entrano in contrasto proprio sulla base della loro capacità di manifestarsi all’occhio di chi sta percorrendo la via Emilia: la città romana è composta da un disegno di tracce al livello della terra; il paesaggio circostante invece diventa una vera e propria quinta scenica che non ha però oggetti da poter esporre in quanto sono sepolti e non sono ancora stati adeguatamente valorizzati. Tutte le città, da Rimini a Piacenza, che hanno continuato ad esistere, si sono trasformate fortemente prima in epoca medievale e poi rinascimentale tanto che il layer archeologico romano si è quasi completamente cancellato. La situazione di Claterna è completamente diversa. La città romana è stata mano a mano abbandonata alla fine del IV secolo fino a diventare una delle “semirutarum urbium cadavera” che, insieme a Bononia, Mutina, Regium e Brixillum fino a Placentia, Sant’Ambrogio ha descritto nella sua Epistola all’amico Faustino. Ciò mostra molto chiaramente quale fosse la situazione di tali città in età tardo-antica e in che situazione di degrado e abbandono fossero investite. Mentre alcune di queste importanti urbes riuscirono a risollevare le loro sorti, Claterna non fu più interessata dalla presenza di centri abitati, e ciò è dovuto probabilmente al trasferimento degli occupanti in centri e zone più sicure. Di conseguenza non si è verificato qui quello che è successo nei più importanti centri emiliano-romagnoli. Le successive fasi di sviluppo e di ampliamento di città come Bologna e Piacenza sono andate ad attaccare in maniera irrecuperabile il layer archeologico di epoca romana tanto da rendere lacunosa la conoscenza della forma urbis e delle sue più importanti caratteristiche. A Claterna invece lo strato archeologico romano è rimasto congelato nel tempo e non ha subito danni contingenti come nelle città sopra citate, in quanto il suolo appunto non è stato più interessato da fenomeni di inurbamento, di edificazione e di grandi trasformazioni urbane. Ciò ha garantito che i resti archeologici non venissero distrutti e quindi si sono mantenuti e conservati all’interno della terra che li ha protetti nel corso dei secoli dalla mano dell’uomo. Solo in alcune porzioni sono stati rovinati a causa degli strumenti agricoli che hanno lavorato la terra nell’ultimo secolo andando ad asportare del materiale che è stato quindi riportato alla luce. E’ stata proprio questa serie di ritrovamenti superficiali e fortunati a far intuire la presenza di resti archeologici, e che di conseguenza ha portato ad effettuare delle verifiche archeologiche con sondaggi che si sono concluse con esiti positivi e hanno permesso la collocazione di un vincolo archeologico come tutela dell’area in oggetto. L’area di progetto non è quindi stata contaminata dall’opera dell’uomo e ciò ha garantito probabilmente, secondo le indagini degli archeologi che lavorano presso il sito di Claterna, un buono stato di conservazione per gran parte dell’insediamento urbano e non solo di alcune porzioni minori di città o di abitazioni di epoca romana. Tutto questo attribuisce al sito una grande potenzialità visto che i casi di ritrovamenti archeologici così ampi e ben conservati sono molto limitati, quasi unici. Si tratterebbe quindi di riportare alla luce, in una prospettiva futura, un intero impianto urbano di epoca romana in buono stato di conservazione, di restituire un sapere che è rimasto nascosto e intaccato per secoli e di cui non si hanno che altre limitatissime testimonianze.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con il presente lavoro, che ha ad oggetto l’istituto dello scioglimento anticipato delle Camere nell’ordinamento costituzionale italiano, il candidato si propone tre obiettivi. Il primo è quello della ricostruzione dogmatica dell’istituto che sconta inevitabilmente un grosso debito nei confronti della vasta letteratura giuridica che si è sviluppata nel corso dei decenni. Il secondo obiettivo è quello, ben più originale, dell’indagine sulla prassi che ha contraddistinto il ricorso allo scioglimento nella peculiare realtà italiana. In questo modo si viene colmando uno spazio di ricerca diretto a leggere gli avvenimenti e a ricondurli in un quadro costituzionale sistematico, anche al fine di ricavare utili riflessioni circa la conformità della prassi stessa al dato normativo, nonché sulle modalità di funzionamento concreto dell'istituto. Il terzo obiettivo, quello più ambizioso, è utilizzare le considerazioni così sviluppate per ricercare soluzioni interpretative adeguate all’evoluzione subita dall’assetto politico-istituzionale italiano negli ultimi due decenni. Quanto al metodo, la scelta del candidato è stata quella di ricorrere ad uno strumentario che pone in necessaria sequenza logica: a) i presupposti storici/comparatistici e il dibattito in Assemblea costituente, utili per l’acquisizione del patrimonio del parlamentarismo europeo del tempo e per la comprensione del substrato su cui si costruisce l’edificio costituzionale; b) il testo costituzionale, avvalendosi anche delle importanti considerazioni svolte dalla dottrina più autorevole; c) la prassi costituzionale, consistente nella fase di implementazione concreta del disposto normativo. La finalità che il candidato si pone è dimostrare la possibilità di configurare lo scioglimento secondo un modello di tipo “primoministeriale”. Per quanto riguarda la prima parte della ricerca, dalla pur sintetica descrizione dei precedenti storici (sia rispetto alle realtà europee, inglese e francese in primis, che al periodo prerepubblicano) si trae conferma che l’operatività dell’istituto è intrinsecamente influenzata dalla forma di governo. Una prima indicazione che emerge con forza è come la strutturazione del sistema partitico e il grado di legame tra Assemblea rappresentativa e Gabinetto condizionino la ratio del potere di scioglimento, la sua titolarità ed il suo effettivo rendimento. Infatti, in presenza di regimi bipartitici e di impianti istituzionali che accentuano il raccordo fiduciario, il Capo dello Stato tende all’emarginazione, e lo scioglimento acquisisce carattere di automaticità tutte le volte in cui si verificano crisi ministeriali (eventualità però piuttosto rara); più consueto è invece lo scioglimento primoministeriale libero, come arma politica vera e propria attraverso cui il Governo in carica tende a sfruttare il momento migliore per ricercare il giudizio del popolo. Al contrario, dove il sistema politico è più dinamico, e il pluralismo sociale radicalizzato, il Capo dello Stato interferisce fortemente nella vita istituzionale e, in particolare, nella formazione dell’indirizzo politico: in quest’ottica lo scioglimento viene da questi inglobato, ed il suo ricorso subordinato ad esigenze di recupero della funzionalità perduta; soprattutto, quando si verificano crisi ministeriali (invero frequenti) il ricorso alle urne non è conseguenza automatica, ma semmai gli viene preferita la via della formazione di un Gabinetto poggiante su una maggioranza alternativa. L’indagine svolta dal candidato sui lavori preparatori mostra come il Costituente abbia voluto perseguire l'obiettivo di allargare le maglie della disciplina costituzionale il più possibile, in modo da poter successivamente ammettere più soluzioni interpretative. Questa conclusione è il frutto del modo in cui si sono svolte le discussioni. Le maggiori opzioni prospettate si collocavano lungo una linea che aveva ad un estremo una tassativa preordinazione delle condizioni legittimanti, ed all’altro estremo l’esclusiva e pressoché arbitraria facoltà decisionale dello scioglimento nelle mani del Capo dello Stato; in mezzo, la via mediana (e maggiormente gradita) del potere sì presidenziale, benché circondato da tutta una serie di limiti e garanzie, nel quadro della costruzione di una figura moderatrice dei conflitti tra Esecutivo e Legislativo. Ma non bisogna tralasciare che, seppure rare, diverse voci propendevano per la delineazione di un potere governativo di scioglimento la quale impedisse che la subordinazione del Governo al Parlamento si potesse trasformare in degenerazione assemblearista. Quindi, il candidato intende sottolineare come l’adamantina prescrizione dell’art. 88 non postuli, nell’ambito dell’interpretazione teleologica che è stata data, alcuno specifico indirizzo interpretativo dominante: il che, in altri termini, è l’ammissione di una pluralità di concezioni teoricamente valide. L'analisi del dettato costituzionale non ha potuto prescindere dalla consolidata tripartizione delle teorie interpretative. Dall'analisi della letteratura emerge la preferenza per la prospettiva dualistica, anche in virtù del richiamo che la Costituzione svolge nei confronti delle competenze sia del Presidente della Repubblica (art. 88) che del Governo (art. 89), il che lo convince dell’inopportunità di imporre una visione esclusivista, come invece sovente hanno fatto i sostenitori della tesi presidenziale. Sull’altro versante ciò gli permette di riconferire una certa dignità alla tesi governativa, che a partire dal primo decennio repubblicano era stata accantonata in sede di dibattito dottrinario: in questo modo, entrambe le teoriche fondate su una titolarità esclusiva assumono una pari dignità, benchè parimenti nessuna delle due risulti persuasiva. Invece, accedere alla tesi della partecipazione complessa significa intrinsecamente riconoscere una grande flessibilità nell’esercizio del potere in questione, permettendo così una sua più adeguata idoneità a mutare le proprie sembianze in fase applicativa e a calarsi di volta in volta nelle situazioni contingenti. Questa costruzione si inserisce nella scelta costituente di rafforzare le garanzie, ed il reciproco controllo che si instaura tra Presidente e Governo rappresenta la principale forma di tutela contro potenziali abusi di potere. Ad ognuno dei due organi spettano però compiti differenti, poiché le finalità perseguite sono differenti: come l’Esecutivo agisce normalmente secondo canoni politici, in quanto principale responsabile dell’indirizzo politico, al Capo dello Stato si addice soprattutto il compito di sorvegliare il regolare svolgimento dei meccanismi istituzionali, in posizione di imparzialità. Lo schema costituzionale, secondo il candidato, sembra perciò puntare sulla leale collaborazione tra i poteri in questione, senza però predefinire uno ruolo fisso ed immutabile, ma esaltando le potenzialità di una configurazione così eclettica. Assumendo questa concezione, si ha buon gioco a conferire piena cittadinanza costituzionale all’ipotesi di scioglimento disposto su proposta del Presidente del Consiglio, che si può ricavare in via interpretativa dalla valorizzazione dell’art. 89 Cost. anche secondo il suo significato letterale. Al discorso della titolarità del potere di scioglimento, il candidato lega quello circa i presupposti legittimanti, altro nodo irrisolto. La problematica relativa alla loro definizione troverebbe un decisivo ridimensionamento nel momento in cui si ammette la compartecipazione di Governo e Presidente della Repubblica: il diverso titolo con il quale essi cooperano consentirebbe di prevenire valutazioni pretestuose circa la presenza delle condizioni legittimanti, poichè è nel reciproco controllo che entrambi gli organi individuano i confini entro cui svolgere le rispettive funzioni. Si giustificano così sia ragioni legate ad esigenze di funzionalità del sistema (le più ricorrenti in un sistema politico pluripartitico), sia quelle scaturenti dalla divaricazione tra orientamento dei rappresentati e orientamento dei rappresentanti: purchè, sottolinea il candidato, ciò non conduca il Presidente della Repubblica ad assumere un ruolo improprio di interferenza con le prerogative proprie della sfera di indirizzo politico. Il carattere aperto della disciplina costituzionale spinge inevitabilmente il candidato ad approfondire l'analisi della prassi, la cui conoscenza costituisce un fondamentale modo sia per comprendere il significato delle disposizioni positive che per apprezzare l’utilità reale ed il rendimento sistemico dell’istituto. Infatti, è proprio dall'indagine sulla pratica che affiorano in maniera prepotente le molteplici virtualità dello strumento dissolutorio, con modalità operative che, a seconda delle singole fasi individuate, trovano una strutturazione casistica variabile. In pratica: nel 1953 e nel 1958 è l'interesse del partito di maggioranza relativa ad influenzare il Governo circa la scelta di anticipare la scadenza del Senato; nel 1963 e nel 1968 invece si fa strada l'idea del consenso diffuso allo scioglimento, seppure nel primo caso l'anticipo valga ancora una volta per il solo Senato, e nel secondo ci si trovi di fronte all'unica ipotesi di fine naturale della legislatura; nel 1972, nel 1976, nel 1979, nel 1983 e nel 1987 (con una significativa variante) si manifesta con tutta la sua forza la pratica consociativa, figlia della degenerazione partitocratica che ha svuotato le istituzioni giuridiche (a partire dal Governo) e cristallizzato nei partiti politici il centro di gravità della vita pubblica; nel 1992, a chiusura della prima epoca repubblicana, caratterizzata dal dominio della proporzionale (con tutte le sue implicazioni), si presentano elementi atipici, i quali vanno a combinarsi con le consolidate tendenze, aprendo così la via all'incertezza sulle tendenze future. È con l'avvento della logica maggioritaria, prepotentemente affacciatasi per il tramite dei referendum elettorali, a sconvolgere il quadro delle relazioni fra gli organi costituzionali, anche per quanto concerne ratio e caratteristiche del potere di scioglimento delle Camere. Soprattutto, nella fase di stretta transizione che ha attraversato il quadriennio 1992-1996, il candidato mette in luce come i continui smottamenti del sistema politico abbiano condotto ad una fase di destabilizzazione anche per quanto riguarda la prassi, incrinando le vecchie regolarità e dando vita a potenzialità fino allora sconosciute, addirittura al limite della conformità a Costituzione. La Presidenza Scalfaro avvia un processo di netta appropriazione del potere di scioglimento, esercitandolo in maniera esclusiva, grazie anche alla controfirma offerta da un Governo compiacente (“tecnicco”, perciò debitore della piena fiducia quirinalizia). La piena paternità presidenziale, nel 1994, è accompagnata da un altro elemento di brusca rottura con il passato, ossia quello della ragione legittimante: infatti, per la prima volta viene addotta palesemente la motivazione del deficit di rappresentatività. Altro momento ad aver costituito da spartiacque nell’evoluzione della forma di governo è stato il mancato scioglimento a seguito della crisi del I Governo Berlusconi, in cui forti erano state le pressioni perché si adeguasse il parlamentarismo secondo i canoni del bipolarismo e del concetto di mandato di governo conferito direttamente dagli elettori ad una maggioranza (che si voleva predefinita, nonostante essa in verità non lo fosse affatto). Dopo questa parentesi, secondo il candidato la configurazione dello strumento dissolutorio si allinea su ben altri binari. Dal punto di vista della titolarità, sono i partiti politici a riprendere vigorosamente un certo protagonismo decisionale, ma con una netta differenza rispetto al passato consociativo: ora, il quadro politico pare saldamente attestato su una dinamica bipolare, per cui anche in relazione all’opzione da adottare a seguito di crisi ministeriale sono le forze della maggioranza che decidono se proseguire la legislatura (qualora trovino l’accordo tra di loro) o se sciogliere (allorchè invece si raggiunga una sorta di maggioranza per lo scioglimento). Dal punto di vista dei presupposti, sembra consolidarsi l’idea che lo scioglimento rappresenti solo l’extrema ratio, chiamando gli elettori ad esprimersi solo nel momento in cui si certifica l’assoluta impossibilità di ripristinare la funzionalità perduta. Conclusioni. Il rafforzamento della prospettiva bipolare dovrebbe postulare una riconfigurazione del potere di scioglimento tesa a valorizzare la potestà decisionale del Governo. Ciò discenderebbe dal principio secondo cui il rafforzamento del circuito che unisce corpo elettorale, maggioranza parlamentare e Governo, grazie al collante di un programma politico condiviso, una coalizione che si presenta alle elezioni ed un candidato alla Presidenza del Consiglio che incarna la perfetta sintesi di tutte queste istanze, comporta che alla sua rottura non si può che tornare al giudizio elettorale: e quindi sciogliere le Camere, evitando la composizione di maggioranze che non rappresentano la diretta volontà popolare. Il candidato però non ritiene auspicabile l’adozione di un automatismo analogo alla regola dell'aut simul stabunt aut simul cadent proprio dell’esperienza regionale post 1999, perché soluzione eccessivamente rigida, che ingesserebbe in maniera inappropriata una forma parlamentare che comunque richiede margini di flessiblità. La proposta è invece di rileggere il testo costituzionale, rebus sic stantibus, nel senso di far prevalere un potere libero di proposta da parte del Governo, cui il Capo dello Stato non potrebbe non consentire, salvo svolgere un generale controllo di costituzionalità volto ad accertare l’insussistenza di alcuna forma di abuso. Su queste conclusioni il lavoro esprime solo prime idee, che meritano di essere approfondite. Come è da approfondire un tema che rappresenta forse l’elemento di maggiore originalità: trattasi della qualificazione e descrizione di un mandato a governare, ossia della compatibilità costituzionale (si pensi, in primis, al rapporto con il divieto di mandato imperativo di cui all’art. 67 Cost.) di un compito di governo che, tramite le elezioni, gli elettori affidano ad una determinata maggioranza, e che va ad arricchire il significato del voto rispetto a quello classico della mera rappresentanza delle istanze dei cittadini (e propria del parlamentarismo ottocentesco): riflessi di tali considerazioni si avrebbero inevitabilmente anche rispetto alla concezione del potere di scioglimento, che in siffatta maniera verrebbe percepito come strumento per il ripristino del “circuito di consonanza politica” che in qualche modo si sarebbe venuto a rompere. Ad ogni buon conto, già emergono dei riflessi in questo senso, per cui la strada intrapresa dal candidato pare quella giusta affinchè l’opera risulti completa, ben argomentata ed innovativa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’introduzione massiccia dell’elettronica di potenza nel campo degli azionamenti elettrici negli ultimi decenni ha sostanzialmente rivoluzionato la tipologia di alimentazione dei motori elettrici. Da un lato ciò ha migliorato la qualità del controllo della velocità, ma dall’altro ha aggravato le sollecitazioni che gli isolanti delle macchine devono sopportare. Si è infatti passati da tecniche di controllo tradizionali, che consistevano nell’alimentare i motori in alternata direttamente con la rete sinusoidale a 50 Hz (o a 60 Hz), ad alimentazioni indirette, cioè realizzate interponendo tra la rete e la macchina un convertitore elettronico (inverter). Tali dispositivi operano una conversione di tipo ac/dc e dc/ac che permette, come nella modulazione Pulse Width Modulation (PWM), di poter variare la frequenza di alimentazione della macchina, generando una sequenza di impulsi di larghezza variabile. Si è quindi passati dalle tradizionali alimentazioni con forme d’onda alternate sinusoidali a forme di tensione impulsive e ad elevata frequenza, cioè caratterizzate da rapidi fronti di salita e di discesa (dell’ordine di qualche kV/µs). La natura impulsiva di queste forme d’onda ha aggravato la sollecitazione elettrica a cui sono sottoposti i materiali impiegati per l’isolamento dei conduttori degli avvolgimenti delle macchine. E’ importante notare che l’utilizzo dei dispositivi elettronici, che ormai si trovano sparsi nelle reti di bassa tensione, assorbono correnti ad elevato contenuto armonico sul lato di prelievo, hanno quindi un effetto distorcente che altera l’andamento sinusoidale della rete stessa. Quindi, senza opportuni filtri, anche tutte le altre utenze connesse nelle vicinanze, dimensionate per alimentazioni sinusoidali di tipo tradizionale, possono risentire di queste distorsioni armoniche. Per tutti questi motivi è sorta la necessità di verificare l’adeguatezza dei tradizionali isolamenti ad essere in grado di sopportare le sollecitazioni che derivano dall’utilizzo di convertitori elettronici. In particolare, per i motori elettrici tale interrogativo è stato posto in seguito al verificarsi di un elevato numero di guasti inaspettati (precoci), probabilmente imputabile alla diversa sollecitazione elettrica applicata ai materiali. In questa tesi ci si è occupati della progettazione di un inverter di media tensione, che verrà impiegato per eseguire prove sugli avvolgimenti di statore di motori (formette), al fine di condurre successivamente uno studio sull’invecchiamento dei materiali che compongono gli isolamenti. Tale inverter è in grado di generare sequenze di impulsi con modulazione PWM. I parametri caratteristici delle sequenze possono essere modificati in modo da studiare i meccanismi di degradazione in funzione della tipologia delle sollecitazioni applicate. Avendo a che fare con provini di natura capacitiva, il cui isolamento può cedere durante la prova, il sistema deve essere intrinsecamente protetto nei confronti di tutte le condizioni anomale e di pericolo. In particolare deve essere in grado di offrire rapide ed efficaci protezioni per proteggere l’impianto stesso e per salvaguardare la sicurezza degli operatori, dato l’elevato livello delle tensioni in gioco. Per questo motivo è stata pensata un’architettura di sistema ad hoc, in grado di fronteggiare le situazioni anomale in modo ridondante. E’ infatti stato previsto l’inserimento di un sistema di controllo basato sul CompactRIO, sul quale è stato implementato un software in grado di monitorare le grandezze caratteristiche del sistema e le protezioni che affiancheranno quelle hardware, realizzate con dispositivi elettronici. I dispositivi elettronici di protezione e di interfacciamento sono stati studiati, implementati e simulati con PSpice, per poi essere successivamente dimensionati e realizzati su schede elettroniche, avvalendosi del software OrCAD. La tesi è strutturata come segue: - Il primo capitolo tratta, in maniera generale, i motori asincroni trifase, gli inverter e l’invecchiamento dei sistemi isolanti, con particolare interesse alle sollecitazioni meccaniche, termiche ed elettriche nel caso di sollecitazioni impulsive; - Il secondo capitolo riguarda il sistema realizzato nel suo complesso. Inizialmente verrà descritto lo schema elettrico generale, per poi analizzare più nello specifico le varie parti di cui il sistema è composto, come l’inverter di media tensione, il generatore di media tensione, la scheda di disaccoppiamento ottico, la scheda di controllo del generatore di media tensione, la scheda OCP; - Il terzo capitolo descrive le lavorazioni meccaniche eseguite sulle scatole contenti i rami di inverter, la realizzazione delle fibre ottiche e riporta le fasi di collaudo dell’intero sistema. Infine, verranno tratte le conclusioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In una 3-varietà chiusa è possibile individuare alcune superfici (dette di Heegaard) tali che, tagliando la 3-varietà lungo una di queste, essa si spezza in due corpi con manici che hanno per bordo tale superficie. La tesi propone alcuni recenti risultati circa l'interazione tra la topologia della 3-varietà, il gruppo di automorfismi delle sue superfici di Heegaard e complessi simpliciali costruiti a partire dalle curve su tali superfici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Benessere delle popolazioni, gestione sostenibile delle risorse, povertà e degrado ambientale sono dei concetti fortemente connessi in un mondo in cui il 20% della popolazione mondiale consuma più del 75% delle risorse naturali. Sin dal 1992 al Summit della Terra a Rio de Janeiro si è affermato il forte legame tra tutela dell’ambiente e riduzione della povertà, ed è anche stata riconosciuta l’importanza di un ecosistema sano per condurre una vita dignitosa, specialmente nelle zone rurali povere dell’Africa, dell’Asia e dell’America Latina. La natura infatti, soprattutto per le popolazioni rurali, rappresenta un bene quotidiano e prezioso, una forma essenziale per la sussistenza ed una fonte primaria di reddito. Accanto a questa constatazione vi è anche la consapevolezza che negli ultimi decenni gli ecosistemi naturali si stanno degradando ad un ritmo impressionate, senza precedenti nella storia della specie umana: consumiamo le risorse più velocemente di quanto la Terra sia capace di rigenerarle e di “metabolizzare” i nostri scarti. Allo stesso modo aumenta la povertà: attualmente ci sono 1,2 miliardi di persone che vivono con meno di un dollaro al giorno, mentre circa metà della popolazione mondiale sopravvive con meno di due dollari al giorno (UN). La connessione tra povertà ed ambiente non dipende solamente dalla scarsità di risorse che rende più difficili le condizioni di vita, ma anche dalla gestione delle stesse risorse naturali. Infatti in molti paesi o luoghi dove le risorse non sono carenti la popolazione più povera non vi ha accesso per motivi politici, economici e sociali. Inoltre se si paragona l’impronta ecologica con una misura riconosciuta dello “sviluppo umano”, l’Indice dello Sviluppo Umano (HDI) delle Nazioni Unite (Cfr. Cap 2), il rapporto dimostra chiaramente che ciò che noi accettiamo generalmente come “alto sviluppo” è molto lontano dal concetto di sviluppo sostenibile accettato universalmente, in quanto i paesi cosiddetti “sviluppati” sono quelli con una maggior impronta ecologica. Se allora lo “sviluppo” mette sotto pressione gli ecosistemi, dal cui benessere dipende direttamente il benessere dell’uomo, allora vuol dire che il concetto di “sviluppo” deve essere rivisitato, perché ha come conseguenza non il benessere del pianeta e delle popolazioni, ma il degrado ambientale e l’accrescimento delle disuguaglianze sociali. Quindi da una parte vi è la “società occidentale”, che promuove l’avanzamento della tecnologia e dell’industrializzazione per la crescita economica, spremendo un ecosistema sempre più stanco ed esausto al fine di ottenere dei benefici solo per una ristretta fetta della popolazione mondiale che segue un modello di vita consumistico degradando l’ambiente e sommergendolo di rifiuti; dall’altra parte ci sono le famiglie di contadini rurali, i “moradores” delle favelas o delle periferie delle grandi metropoli del Sud del Mondo, i senza terra, gli immigrati delle baraccopoli, i “waste pickers” delle periferie di Bombay che sopravvivono raccattando rifiuti, i profughi di guerre fatte per il controllo delle risorse, gli sfollati ambientali, gli eco-rifugiati, che vivono sotto la soglia di povertà, senza accesso alle risorse primarie per la sopravvivenza. La gestione sostenibile dell’ambiente, il produrre reddito dalla valorizzazione diretta dell’ecosistema e l’accesso alle risorse naturali sono tra gli strumenti più efficaci per migliorare le condizioni di vita degli individui, strumenti che possono anche garantire la distribuzione della ricchezza costruendo una società più equa, in quanto le merci ed i servizi dell’ecosistema fungono da beni per le comunità. La corretta gestione dell’ambiente e delle risorse quindi è di estrema importanza per la lotta alla povertà ed in questo caso il ruolo e la responsabilità dei tecnici ambientali è cruciale. Il lavoro di ricerca qui presentato, partendo dall’analisi del problema della gestione delle risorse naturali e dal suo stretto legame con la povertà, rivisitando il concetto tradizionale di “sviluppo” secondo i nuovi filoni di pensiero, vuole suggerire soluzioni e tecnologie per la gestione sostenibile delle risorse naturali che abbiano come obiettivo il benessere delle popolazioni più povere e degli ecosistemi, proponendo inoltre un metodo valutativo per la scelta delle alternative, soluzioni o tecnologie più adeguate al contesto di intervento. Dopo l’analisi dello “stato del Pianeta” (Capitolo 1) e delle risorse, sia a livello globale che a livello regionale, il secondo Capitolo prende in esame il concetto di povertà, di Paese in Via di Sviluppo (PVS), il concetto di “sviluppo sostenibile” e i nuovi filoni di pensiero: dalla teoria della Decrescita, al concetto di Sviluppo Umano. Dalla presa di coscienza dei reali fabbisogni umani, dall’analisi dello stato dell’ambiente, della povertà e delle sue diverse facce nei vari paesi, e dalla presa di coscienza del fallimento dell’economia della crescita (oggi visibile più che mai) si può comprendere che la soluzione per sconfiggere la povertà, il degrado dell’ambiente, e raggiungere lo sviluppo umano, non è il consumismo, la produzione, e nemmeno il trasferimento della tecnologia e l’industrializzazione; ma il “piccolo e bello” (F. Schumacher, 1982), ovvero gli stili di vita semplici, la tutela degli ecosistemi, e a livello tecnologico le “tecnologie appropriate”. Ed è proprio alle Tecnologie Appropriate a cui sono dedicati i Capitoli successivi (Capitolo 4 e Capitolo 5). Queste sono tecnologie semplici, a basso impatto ambientale, a basso costo, facilmente gestibili dalle comunità, tecnologie che permettono alle popolazioni più povere di avere accesso alle risorse naturali. Sono le tecnologie che meglio permettono, grazie alle loro caratteristiche, la tutela dei beni comuni naturali, quindi delle risorse e dell’ambiente, favorendo ed incentivando la partecipazione delle comunità locali e valorizzando i saperi tradizionali, grazie al coinvolgimento di tutti gli attori, al basso costo, alla sostenibilità ambientale, contribuendo all’affermazione dei diritti umani e alla salvaguardia dell’ambiente. Le Tecnologie Appropriate prese in esame sono quelle relative all’approvvigionamento idrico e alla depurazione dell’acqua tra cui: - la raccolta della nebbia, - metodi semplici per la perforazione di pozzi, - pompe a pedali e pompe manuali per l’approvvigionamento idrico, - la raccolta dell’acqua piovana, - il recupero delle sorgenti, - semplici metodi per la depurazione dell’acqua al punto d’uso (filtro in ceramica, filtro a sabbia, filtro in tessuto, disinfezione e distillazione solare). Il quinto Capitolo espone invece le Tecnolocie Appropriate per la gestione dei rifiuti nei PVS, in cui sono descritte: - soluzioni per la raccolta dei rifiuti nei PVS, - soluzioni per lo smaltimento dei rifiuti nei PVS, - semplici tecnologie per il riciclaggio dei rifiuti solidi. Il sesto Capitolo tratta tematiche riguardanti la Cooperazione Internazionale, la Cooperazione Decentrata e i progetti di Sviluppo Umano. Per progetti di sviluppo si intende, nell’ambito della Cooperazione, quei progetti che hanno come obiettivi la lotta alla povertà e il miglioramento delle condizioni di vita delle comunità beneficiarie dei PVS coinvolte nel progetto. All’interno dei progetti di cooperazione e di sviluppo umano gli interventi di tipo ambientale giocano un ruolo importante, visto che, come già detto, la povertà e il benessere delle popolazioni dipende dal benessere degli ecosistemi in cui vivono: favorire la tutela dell’ambiente, garantire l’accesso all’acqua potabile, la corretta gestione dei rifiuti e dei reflui nonché l’approvvigionamento energetico pulito sono aspetti necessari per permettere ad ogni individuo, soprattutto se vive in condizioni di “sviluppo”, di condurre una vita sana e produttiva. È importante quindi, negli interventi di sviluppo umano di carattere tecnico ed ambientale, scegliere soluzioni decentrate che prevedano l’adozione di Tecnologie Appropriate per contribuire a valorizzare l’ambiente e a tutelare la salute della comunità. I Capitoli 7 ed 8 prendono in esame i metodi per la valutazione degli interventi di sviluppo umano. Un altro aspetto fondamentale che rientra nel ruolo dei tecnici infatti è l’utilizzo di un corretto metodo valutativo per la scelta dei progetti possibili che tenga presente tutti gli aspetti, ovvero gli impatti sociali, ambientali, economici e che si cali bene alle realtà svantaggiate come quelle prese in considerazione in questo lavoro; un metodo cioè che consenta una valutazione specifica per i progetti di sviluppo umano e che possa permettere l’individuazione del progetto/intervento tecnologico e ambientale più appropriato ad ogni contesto specifico. Dall’analisi dei vari strumenti valutativi si è scelto di sviluppare un modello per la valutazione degli interventi di carattere ambientale nei progetti di Cooperazione Decentrata basato sull’Analisi Multi Criteria e sulla Analisi Gerarchica. L’oggetto di questa ricerca è stato quindi lo sviluppo di una metodologia, che tramite il supporto matematico e metodologico dell’Analisi Multi Criteria, permetta di valutare l’appropriatezza, la sostenibilità degli interventi di Sviluppo Umano di carattere ambientale, sviluppati all’interno di progetti di Cooperazione Internazionale e di Cooperazione Decentrata attraverso l’utilizzo di Tecnologie Appropriate. Nel Capitolo 9 viene proposta la metodologia, il modello di calcolo e i criteri su cui si basa la valutazione. I successivi capitoli (Capitolo 10 e Capitolo 11) sono invece dedicati alla sperimentazione della metodologia ai diversi casi studio: - “Progetto ambientale sulla gestione dei rifiuti presso i campi Profughi Saharawi”, Algeria, - “Programa 1 milhão de Cisternas, P1MC” e - “Programa Uma Terra e Duas Águas, P1+2”, Semi Arido brasiliano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente studio riguarda l’applicazione della metodologia Life Cycle Assessment (LCA) ad una bottiglia di Passito di Pantelleria, prodotta dall’Azienda vitivinicola “Donnafugata” localizzata nel comune di Marsala in Sicilia. L’obiettivo di tale studio consiste nel quantificare e valutare le prestazioni energetico-ambientali derivanti dall’intero ciclo di vita del processo produttivo, nonché le fasi di produzione che presentano il maggiore impatto. Lo studio è stato ulteriormente approfondito effettuando una comparazione tra la produzione della singola bottiglia di Passito nei diversi anni 2007, 2008 e 2009 con lo scopo di determinare quali tra questi risulta avere il maggiore impatto ambientale. Gli impatti ambientali di un’Azienda vitivinicola risultano avere la loro particolare importanza in quanto la produzione di vino è un processo di natura complessa. Di conseguenza tali impatti possono compromettere le componenti fondamentali del processo produttivo, a partire dalle uve coltivate in vigna fino ad arrivare in cantina, dove avviene la trasformazione dell’uva in mosto e la successiva fase di vinificazione che determina il prodotto finale messo in commercio. Proprio attraverso il fluire delle seguenti fasi di trasformazione, in che misura queste consumano energia e producono emissioni? È importante sottolineare che lo studio del ciclo di vita di un prodotto può essere considerato come un supporto fondamentale allo sviluppo di schemi di etichettatura ambientale attraverso i quali è possibile indirizzare il consumatore finale verso beni più rispettosi dell’ambiente e fornire informazioni chiare e trasparenti sulle prestazioni ambientali del prodotto stesso. Allo stesso tempo tale strumento può essere adoperato dall’azienda per fornire garanzia delle credenziali ambientali del prodotto acquisendo così un vantaggio competitivo rispetto alle aziende concorrenti. Infatti, nell’ambito delle politiche comunitarie di prodotto, una delle applicazioni più significative della valutazione del ciclo di vita si ha nella dichiarazione ambientale di prodotto o EPD (Environmental Product Declaration). L’EPD è uno schema di certificazione volontaria che rappresenta un marchio di qualità ecologica per i prodotti, permettendo di comunicare informazioni oggettive, confrontabili e credibili relative alla prestazione ambientale degli stessi. Per essere convalidabili, le prestazioni ambientali presenti nelle EPD devono rispettare i requisiti stabiliti dal PCR- Product Category Rules, un documento nel quale sono presenti le regole per lo studio di una certa categoria di prodotto. Il presente lavoro può essere suddiviso in cinque step successivi. Il primo prevede la descrizione della metodologia LCA, adottata per la quantificazione dell’impatto ambientale, analizzandone singolarmente le quattro fasi principali che la caratterizzano; il secondo presenta la descrizione dell’Azienda vitivinicola e del Passito di Pantelleria, oggetto della valutazione, mettendo in evidenza anche le particolarità ambientali del territorio Pantesco in cui il prodotto prende vita; il terzo fornisce una descrizione delle caratteristiche principali dello strumento applicativo utilizzato per l’analisi, SimaPro nella versione 7.3; il quarto descrive le diverse attività di lavorazione svolte nel complesso processo di produzione della bottiglia di Passito, focalizzando l’attenzione sui componenti primari dell’oggetto di valutazione ed il quinto riguarda la descrizione dell’analisi LCA applicata alla singola bottiglia di Passito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attenta analisi della letteratura scientifica su argomenti riguardanti i contaminanti ambientali oggetto di studio (i policlorodifenili) ha permesso di raccogliere dati utili riguardanti le proprietà di queste molecole, la loro diffusione e la loro pericolosità. Oggetto della ricerca è stato lo studio in vitro del potenziale citotossico e trasformante dei PCB, utilizzando come riferimento una miscela commerciale di PCB, l’Aroclor 1260, e di un MIX di 18 congeneri ricostituito in laboratorio. Il lavoro è proseguito con la valutazione degli effetti di queste miscele e di due congeneri singoli (PCB 118 e PCB 153) su linee cellulari diverse in test di vitalità a breve termine. L’utilizzo di test specifici ha poi permesso la valutazione di un possibile potenziale estrogenico. Una volta ottenuto un quadro generale sui possibili effetti delle miscele grazie ai risultati dei test funzionali, è stata valutata la modulazione, da parte delle molecole e/o di miscele delle stesse, dell’espressione di geni coinvolti nella risposta ad estrogeni o a composti diossino simili, andando ad effettuare un’analisi di tipo molecolare con Real-Time PCR (RT-PCR) e analizzando nello specifico marcatori di pathway dell’Aryl Hydrocarbon Receptor (AhR) o dell’Estrogen Receptor (ER). In ultima analisi al fine di verificare l’applicabilità di biomarkers di espressione a situazioni di contaminazioni reali, ci si è focalizzati su campioni estratti da matrici ambientali, ed in particolare linee cellulari di interesse sono state esposte a estratti di sedimenti provenienti da siti inquinati. L’approccio scelto è stato di tipo molecolare, con lo scopo di individuare pathway da valutare in un secondo momento in test funzionali specifici. L’attività di ricerca si è avvalsa della tecnica del DNA-microarray per valutare la modulazione dell’espressione genica in risposta all’esposizione a contaminanti ambientali. In questo modo è possibile definire i profili di espressione genica che sottendono a risposte biologiche complesse nell’intento di individuare biomarcatori in grado di predire il rischio per l’uomo, e di consentire la stima di una relazione diretta tra esposizione ed effetti possibili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il pirofosfato di vanadile VPP è il catalizzatore utilizzato per l’ossidazione di n-butano ad anidride maleica AM. Durante reazione, il VPP subisce delle modifiche strutturali, soprattutto nella parte superficiale, cataliticamente attiva. Queste modifiche sono funzione della composizione della fase gas e delle caratteristiche del catalizzatore, in particolare del rapporto P/V. Mediante prove di reattività in condizioni stazionarie e non-stazionarie, condotte in cella ambientale accoppiata ad uno spettrofotometro Raman, si è arrivati a capire quali fasi e in che condizioni queste si sviluppano sulla superficie del VPP. Si è inoltre capito che la fase selettiva nel prodotto desiderato, AM, è costituita da δ-VOPO4. Non è ancora noto con esattezza perché questo composto offra le prestazioni migliori; si ipotizza che ciò sia dovuto alla capacità di dare luogo a cicli redox tra V5+ e V4+ con cinetiche veloci, grazie al fatto che ha similarità strutturali con il VPP. La formazione di questa fase avviene più facilmente in presenza di un eccesso di P. Oltre al P, un altro fattore che influisce sulle prestazioni catalitiche è la presenza di elementi promotori. Tra questi, il Nb è uno dei più importanti, come dimostato dalle prove di reattività condotte in miscela butano-aria, utilizzando catalizzatori promossi con diversi quantitativi di Nb. In questo modo si è capito che alle basse temperature occorre un catalizzatore con una maggiore quantità di Nb (per esempio, rapporto V/Nb=46) per favorire la formazione della fase δ-VOPO4; mentre alle alte temperature, sono sufficienti piccole quantità di elemento promotore, in quanto indipendentemente dal rapporto P/V la fase predominante è δ-VOPO4. Una quantità elevata di Nb ha implicazioni negative sulla selettività, sia alle alte che alle basse temperature di reazione, perché favorisce la formazione di una superficie catalitica troppo ossidata. L’obiettivo del mio lavoro di tesi è stato quello di dimostrare una correlazione tra l’effetto del Nb e la formazione della fase δ-VOPO4. Per farlo, si è deciso di partire da VOPO4•2H2O (VPD) promosso con diversi quantitativi di Nb. Infatti, com’era già stato dimostrato in precedenza, il VPD che si forma in ambiente di reazione per ossidazione superficiale del VPP dà luogo a disidratazione a δ-VOPO4. Le trasformazioni del VPD promosso con Nb sono state monitorate utilizzando la spettroscopia Raman. Le prove condotte hanno confermato che l’addizione di Nb al VPP favorisce la formazione del composto desiderato; tuttavia, la medesima trasformazione non è stata osservata partendo dal composto VPD contenente Nb.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo del mio lavoro di tesi è stato quello di verificare la fattibilità di un nuovo processo per la produzione di acido adipico da cicloesene con due stadi di reazione. Il primo stadio di reazione prevede l’ossidazione del cicloesene con soluzione acquosa di acqua ossigenata a formare l’epossido, che idrata a 1,2-cicloesandiolo, mentre nel secondo stadio il glicole viene ossidato con ossigeno ad acido adipico. Il lavoro è stato focalizzato sullo studio del meccanismo di reazione per l’ossidazione del 1,2-cicloesandiolo ad acido adipico, utilizzando catalizzatori a base di Ru(OH)3/Al2O3, Ru(OH)3-Bi(OH)3/Al2O3, Cu/C e Cu/TiO2. Le prove condotte hanno dimostrato che i catalizzatori usati sono attivi nell’ossidazione di 1,2-cicloesandiolo, ma sono caratterizzati da scarsa selettività ad acido adipico. Dall’analisi dei risultati ottenuti si desume che la reazione richiede condizioni fortemente basiche per potere avvenire. In queste condizioni però si vengono a formare degli intermedi che reagiscono rapidamente con l’acqua e con l’ossigeno, dando luogo alla formazione di una serie di prodotti primari e secondari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi curriculare ripercorre attraverso l’analisi di tre progetti, che ho svolto durante il mio percorso di studi, le mie esperienze nell’ambito della riqualificazione di aree al margine del centro storico. In fase di tesi ho poi svolto un lavoro fotografico a supporto degli elaborati progettuali che ho invece redatto negli anni di corso dei laboratori. Il lavoro fotografico a posteriori è da intendersi non tanto come approfondimento delle scelte progettuali effettuate, ma come un ripensamento e una riflessione sui luoghi sui quali ho precedentemente svolto i progetti. Per elaborare questo lavoro ho applicato le conoscenze che ho acquisito nel corso di Storia e Tecnica della Fotografia e nei workshop fotografici ai quali ho partecipato come studente. Dei tre progetti presi in esame, due sono stati svolti nei Laboratori di Progettazione (precisamente II e IV) e uno nel Laboratorio di Sintesi Finale. Come già detto, questi tre progetti sono stati da me scelti perché accomunati dalla prossimità delle aree ai centri storici delle città. Il carattere di queste aree di studio, composto da molteplici identità, è frammentario e le identifica come aree di margine o di confine nelle quali si rende necessario un processo di analisi e di riqualificazione. In maniera differente e con risultati altalenanti, le amministrazioni stanno provvedendo a cercare di dare a questi luoghi un carattere di maggior omogeneità .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si pone come obiettivo quello di indagare le mostre di moda contemporanee come macchine testuali. Se consideriamo l’attuale panorama del fashion design come caratterizzato da una complessità costitutiva e da rapidi mutamenti che lo attraversano, e se partiamo dal presupposto che lo spettro di significati che uno stile di abbigliamento e i singoli capi possono assumere è estremamente sfuggente, probabilmente risulta più produttivo interrogarsi su come funziona la moda, su quali sono i suoi meccanismi di produzione di significato. L’analisi delle fashion exhibition si rivela quindi un modo utile per affrontare la questione, dato che gli allestimenti discorsivizzano questi meccanismi e rappresentano delle riflessioni tridimensionali attorno a temi specifici. La mostra di moda mette in scena delle eccezionalità che magnificano aspetti tipici del funzionamento del fashion system, sia se ci rivolgiamo alla moda dal punto di vista della produzione, sia se la consideriamo dal punto di vista della fruizione. L’indagine ha rintracciato nelle mostre curate da Diana Vreeland al Costume Institute del Metropolitan Museum di New York il modello di riferimento per le mostre di moda contemporanee. Vreeland, che dal 1936 al 1971 è stata prima fashion editor e poi editor-in-chief rispettivamente di “Harper’s Bazaar” e di “Vogue USA”, ha segnato un passaggio fondamentale quando nel 1972 ha deciso di accettare il ruolo di Special Consultant al Costume Institute. È ormai opinione diffusa fra critici e studiosi di moda che le mostre da lei organizzate nel corso di più di un decennio abbiano cambiato il modo di mettere in scena i vestiti nei musei. Al lavoro di Vreeland abbiamo poi accostato una recente mostra di moda che ha fatto molto parlare di sé: Spectres. When Fashion Turns Back, a cura di Judith Clark (2004). Nell’indagare i rapporti fra il fashion design contemporaneo e la storia della moda questa mostra ha utilizzato macchine allestitive abitate dai vestiti, per “costruire idee spaziali” e mettere in scena delle connessioni non immediate fra passato e presente. Questa mostra ci è sembrata centrale per evidenziare lo sguardo semiotico del curatore nel suo interrogarsi sul progetto complessivo dell’exhibition design e non semplicemente sullo studio degli abiti in mostra. In questo modo abbiamo delineato due posizioni: una rappresentata da un approccio object-based all’analisi del vestito, che si lega direttamente alla tradizione dei conservatori museali; l’altra rappresentata da quella che ormai si può considerare una disciplina, il fashion curation, che attribuisce molta importanza a tutti gli aspetti che concorrono a formare il progetto allestitivo di una mostra. Un lavoro comparativo fra alcune delle più importanti mostre di moda recentemente organizzate ci ha permesso di individuare elementi ricorrenti e specificità di questi dispositivi testuali. Utilizzando il contributo di Manar Hammad (2006) abbiamo preso in considerazione i diversi livelli di una mostra di moda: gli abiti e il loro rapporto con i manichini; l’exhibition design e lo spazio della mostra; il percorso e la sequenza, sia dal punto di vista della strategia di costruzione e dispiegamento testuale, sia dal punto di vista del fruitore modello. Abbiamo così individuato quattro gruppi di mostre di moda: mostre museali-archivistiche; retrospettive monografiche; mostre legate alla figura di un curatore; forme miste che si posizionano trasversalmente rispetto a questi primi tre modelli. Questa sistematizzazione ha evidenziato che una delle dimensione centrali per le mostre di moda contemporanee è proprio la questione della curatorship, che possiamo leggere in termini di autorialità ed enunciazione. Si sono ulteriormente chiariti anche gli orizzonti valoriali di riferimento: alla dimensione dell’accuratezza storica è associata una mostra che predilige il livello degli oggetti (gli abiti) e un coinvolgimento del visitatore puramente visivo; alla dimensione del piacere visivo possiamo invece associare un modello di mostra che assegna all’exhibition design un ruolo centrale e “chiede” al visitatore di giocare un ruolo pienamente interattivo. L’approccio curatoriale più compiuto ci sembra essere quello che cerca di conciliare queste due dimensioni.