71 resultados para Maailman meno : kansanlauluja omalla nuotilla

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis focuses on the translation of six picture books that challenge and subvert – each one in its peculiar way – typical stereotypes found in Children’s Literature. I think that stereotyping is an all-important theme in picture books because these books are the ones that will introduce children to literature and young readers have the right to find in it every kind of model. Showing children a variety of characters that reflects the multiple forms of reality will allow them to choose which kind of person to be. In my opinion, this freedom is much needed especially here, in Italy, in this moment of history. This work also studies the stereotypes that have appeared – and are still present, to some extent – in Children’s Literature, the ways in which they are dangerous for young readers, and how they have changed over time. I centered my research on three major themes that have been subject to stereotyping: race, disability and gender. I searched for the right books to translate paying attention not only to the themes they focused on but also to how they dealt with such themes, the tone of each picture book and, obviously, its quality. The selection resulting from my research reflects a diverse world and a celebration of difference. Before actually translating them, I engaged in a deep analysis of their structures, themes and meanings, so that I would be able to enter the ‘world’ of the book and to understand its ‘secrets’ better. This analysis proved to be fundamental during the translation phase and allowed me to make conscious translation choices that I have explored in the part dedicated to the commentary of the translation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I policlorobifenili (PCB) sono un gruppo di 209 congeneri di bifenili policlorurati altamente tossici e persistenti che, a causa della loro elevata lipofilia, tendono ad accumularsi in sedimenti anaerobici marini, tramite i quali possono entrare nella catena alimentare. I PCB possono essere degradati mediante processi di declorurazione riduttiva mediati da popolazioni microbiche anaerobiche in grado di utilizzarli fortuitamente come accettori finali della catena respiratoria. Il processo consiste quindi nella bioconversione di congeneri ad alto grado di clorurazione in PCB basso clorurati, meno tossici, meno bioaccumulabili e più facilmente biodegradabili in condizioni aerobiche. Nel presente elaborato è stata investigata la capacità di una popolazione microbica arricchita su congeneri coplanari di PCB da un sedimento contaminato del Canale Brentella (Prima Zona Industriale di Porto Marghera, laguna di Venezia), di declorurare miscele commerciali di PCB (Aroclor 1254) in condizioni geobiochimiche di laboratorio che riproducono quelle presenti in sito. Il processo è quindi stato studiato in microcosmi anaerobici slurry di sedimento sospeso nella stessa acqua del sito e monitorato con un approccio chimico e microbiologico integrato. Ai fini di caratterizzare e stimolare i microganismi responsabili del processo degradativo sono state utilizzate tecniche convenzionali basate sull’inibizione selettiva di diversi gruppi microbici. Dopo una fase di latenza di 7 settimane, la coltura microbica ha declorurato velocemente ed estesamente la miscela commerciale di PCB saggiata, bioconvertendo il 70% dei congeneri ad alto grado di clorurazione (da penta- a octa- clorurati) in PCB di- e tri-clorurati. Il processo ha esibito selettività nei confronti delle posizioni meta dei gruppi 2,3- e 2,3,4-clorofenile e para dei gruppi 3,4- e 3,4,5-clorofenile, secondo il modello di declorurazione H’. Il monitoraggio delle attività microbiche in presenza dei diversi inibitori saggiati ha permesso inoltre di concludere che i batteri metanogeni e i batteri solfato-riduttori non sono direttamente coinvolti nel processo degradativo, suggerendo invece che le specie decloruranti siano appartenenti o strettamente correlate al genere Dehalococcoides. Poiché lo studio è stato eseguito in condizioni geobiochimiche di laboratorio che mimano quelle presenti in sito, i risultati ottenuti indicano che la popolazione microbica dei sedimenti del canale Brentella, se opportunamente stimolata, è potenzialmente in grado di mediare in situ la declorurazione riduttiva dei PCB preesistenti nel sedimento, contribuendo alla natural attenuation dei sedimenti contaminati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi riguarda lo studio di procedimenti di ottimizzazione di sistemi smorzati. In particolare, i sistemi studiati sono strutture shear-type soggette ad azioni di tipo sismico impresse alla base. Per effettuare l’ottimizzazione dei sistemi in oggetto si agisce sulle rigidezze di piano e sui coefficienti di smorzamento effettuando una ridistribuzione delle quantità suddette nei piani della struttura. È interessante effettuare l’ottimizzazione di sistemi smorzati nell’ottica della progettazione antisismica, in modo da ridurre la deformata della struttura e, conseguentemente, anche le sollecitazioni che agiscono su di essa. Il lavoro consta di sei capitoli nei quali vengono affrontate tre procedure numerico-analitiche per effettuare l’ottimizzazione di sistemi shear-type. Nel primo capitolo si studia l’ottimizzazione di sistemi shear-type agendo su funzioni di trasferimento opportunamente vincolate. In particolare, le variabili di progetto sono le rigidezze di piano, mentre i coefficienti di smorzamento e le masse di piano risultano quantità note e costanti durante tutto il procedimento di calcolo iterativo; per effettuare il controllo dinamico della struttura si cerca di ottenere una deformata pressoché rettilinea. Tale condizione viene raggiunta ponendo le ampiezze delle funzioni di trasferimento degli spostamenti di interpiano pari all’ampiezza della funzione di trasferimento del primo piano. Al termine della procedura si ottiene una ridistribuzione della rigidezza complessiva nei vari piani della struttura. In particolare, si evince un aumento della rigidezza nei piani più bassi che risultano essere quelli più sollecitati da una azione impressa alla base e, conseguentemente, si assiste ad una progressiva riduzione della variabile di progetto nei piani più alti. L’applicazione numerica di tale procedura viene effettuata nel secondo capitolo mediante l’ausilio di un programma di calcolo in linguaggio Matlab. In particolare, si effettua lo studio di sistemi a tre e a cinque gradi di libertà. La seconda procedura numerico-analitica viene presentata nel terzo capitolo. Essa riguarda l’ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento e consta di due fasi. La prima fase ricerca il progetto ottimale della struttura per uno specifico valore della rigidezza complessiva e dello smorzamento totale, mentre la seconda fase esamina una serie di progetti ottimali in funzione di diversi valori della rigidezza e dello smorzamento totale. Nella prima fase, per ottenere il controllo dinamico della struttura, viene minimizzata la somma degli scarti quadratici medi degli spostamenti di interpiano. Le variabili di progetto, aggiornate dopo ogni iterazione, sono le rigidezze di piano ed i coefficienti di smorzamento. Si pone, inoltre, un vincolo sulla quantità totale di rigidezza e di smorzamento, e i valori delle rigidezze e dei coefficienti di smorzamento di ogni piano non devono superare un limite superiore posto all’inizio della procedura. Anche in questo caso viene effettuata una ridistribuzione delle rigidezze e dei coefficienti di smorzamento nei vari piani della struttura fino ad ottenere la minimizzazione della funzione obiettivo. La prima fase riduce la deformata della struttura minimizzando la somma degli scarti quadrarici medi degli spostamenti di interpiano, ma comporta un aumento dello scarto quadratico medio dell’accelerazione assoluta dell’ultimo piano. Per mantenere quest’ultima quantità entro limiti accettabili, si passa alla seconda fase in cui si effettua una riduzione dell’accelerazione attraverso l’aumento della quantità totale di smorzamento. La procedura di ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento viene applicata numericamente, mediante l’utilizzo di un programma di calcolo in linguaggio Matlab, nel capitolo quattro. La procedura viene applicata a sistemi a due e a cinque gradi di libertà. L’ultima parte della tesi ha come oggetto la generalizzazione della procedura che viene applicata per un sistema dotato di isolatori alla base. Tale parte della tesi è riportata nel quinto capitolo. Per isolamento sismico di un edificio (sistema di controllo passivo) si intende l’inserimento tra la struttura e le sue fondazioni di opportuni dispositivi molto flessibili orizzontalmente, anche se rigidi in direzione verticale. Tali dispositivi consentono di ridurre la trasmissione del moto del suolo alla struttura in elevazione disaccoppiando il moto della sovrastruttura da quello del terreno. L’inserimento degli isolatori consente di ottenere un aumento del periodo proprio di vibrare della struttura per allontanarlo dalla zona dello spettro di risposta con maggiori accelerazioni. La principale peculiarità dell’isolamento alla base è la possibilità di eliminare completamente, o quantomeno ridurre sensibilmente, i danni a tutte le parti strutturali e non strutturali degli edifici. Quest’ultimo aspetto è importantissimo per gli edifici che devono rimanere operativi dopo un violento terremoto, quali ospedali e i centri operativi per la gestione delle emergenze. Nelle strutture isolate si osserva una sostanziale riduzione degli spostamenti di interpiano e delle accelerazioni relative. La procedura di ottimizzazione viene modificata considerando l’introduzione di isolatori alla base di tipo LRB. Essi sono costituiti da strati in elastomero (aventi la funzione di dissipare, disaccoppiare il moto e mantenere spostamenti accettabili) alternati a lamine in acciaio (aventi la funzione di mantenere una buona resistenza allo schiacciamento) che ne rendono trascurabile la deformabilità in direzione verticale. Gli strati in elastomero manifestano una bassa rigidezza nei confronti degli spostamenti orizzontali. La procedura di ottimizzazione viene applicata ad un telaio shear-type ad N gradi di libertà con smorzatori viscosi aggiunti. Con l’introduzione dell’isolatore alla base si passa da un sistema ad N gradi di libertà ad un sistema a N+1 gradi di libertà, in quanto l’isolatore viene modellato alla stregua di un piano della struttura considerando una rigidezza e uno smorzamento equivalente dell’isolatore. Nel caso di sistema sheat-type isolato alla base, poiché l’isolatore agisce sia sugli spostamenti di interpiano, sia sulle accelerazioni trasmesse alla struttura, si considera una nuova funzione obiettivo che minimizza la somma incrementata degli scarti quadratici medi degli spostamenti di interpiano e delle accelerazioni. Le quantità di progetto sono i coefficienti di smorzamento e le rigidezze di piano della sovrastruttura. Al termine della procedura si otterrà una nuova ridistribuzione delle variabili di progetto nei piani della struttura. In tal caso, però, la sovrastruttura risulterà molto meno sollecitata in quanto tutte le deformazioni vengono assorbite dal sistema di isolamento. Infine, viene effettuato un controllo sull’entità dello spostamento alla base dell’isolatore perché potrebbe raggiungere valori troppo elevati. Infatti, la normativa indica come valore limite dello spostamento alla base 25cm; valori più elevati dello spostamento creano dei problemi soprattutto per la realizzazione di adeguati giunti sismici. La procedura di ottimizzazione di sistemi isolati alla base viene applicata numericamente mediante l’utilizzo di un programma di calcolo in linguaggio Matlab nel sesto capitolo. La procedura viene applicata a sistemi a tre e a cinque gradi di libertà. Inoltre si effettua il controllo degli spostamenti alla base sollecitando la struttura con il sisma di El Centro e il sisma di Northridge. I risultati hanno mostrato che la procedura di calcolo è efficace e inoltre gli spostamenti alla base sono contenuti entro il limite posto dalla normativa. Giova rilevare che il sistema di isolamento riduce sensibilmente le grandezze che interessano la sovrastruttura, la quale si comporta come un corpo rigido al di sopra dell’isolatore. In futuro si potrà studiare il comportamento di strutture isolate considerando diverse tipologie di isolatori alla base e non solo dispositivi elastomerici. Si potrà, inoltre, modellare l’isolatore alla base con un modello isteretico bilineare ed effettuare un confronto con i risultati già ottenuti per il modello lineare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella presente tesi viene esaminato il comportamento dinamico un edificio a struttura intelaiata in cemento armato, focalizzando l’attenzione sull’interferenza esercitata dai tamponamenti e dai tramezzi non portanti. Le murature non portanti sono modellate come bielle equivalenti, la cui rigidezza viene determinata adottando un modello elastico-lineare dell'edificio. Nelle analisi dinamiche, poi, si introduce la non-linearità dei materiali in maniera concentrata: mediante cerniere plastiche flessionali alle estremità di travi e pilastri, e mediante cerniere plastiche assiali nelle bielle equivalenti. Si mostra che, grazie alla presenza dei setti murari, aumentano notevolmente la rigidezza e la resistenza della struttura nella direzione orizzontale perpendicolare ai piani di orditura dei telai: questa direzione diviene più forte rispetto a quella che, considerando la sola disposizione dei telai e la quasi totale assenza di collegamenti fra gli stessi, dovrebbe invece presentarsi meno vulnerabile sotto le azioni orizzontali. Viene inoltre mostrato che, nel loro piano, i telai dell'edificio esaminato offrono buone prestazioni in termini di resistenza all’azione sismica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente dissertazione illustra lo studio, svolto in ambito di Tesi di Laurea Specialistica, della difesa delle aree di pianura prospicienti il tratto medio inferiore del Fiume Po dalle cosiddette piene al limite della prevedibilità, ovvero quelle aventi intensità al di sopra della quale le procedure di stima statistica perdono di significato a causa della mancanza di eventi osservati confrontabili (Majone, Tomirotti, 2006). In questo contesto si è definito come evento di piena al limite della prevedibiltà un evento con tempo di ritorno pari a cinquecento anni. Lo studio ha necessariamente preso in considerazione e riprodotto attraverso una schematizzazione concettuale le esondazioni all'esterno delle arginature maestre che si verificherebbero in conseguenza ad un evento estremo, quale quello preso in esame, nei comparti idraulici prospicienti l'asta fluviale. Detti comparti sono costituiti dalle zone di pianura latistanti l’asta fluviale, classificate dall'Autorità di Bacino come Fascia C e suddivise in base alla presenza degli affluenti principali del fiume Po e delle principali infrastrutture viarie e ferroviarie situate in tale fascia. Il presente studio persegue l’obiettivo di analizzare alcune politiche di intervento per la mitigazione del rischio alluvionale alternative al sovralzo e ringrosso arginale e ricade all'interno delle linee strategiche individuate dall' AdB-Po per la mitigazione del rischio residuale, ossia quello che permane anche in presenza di opere di difesa progettate e verificate con riferimento ad un ben preciso tempo di ritorno (nel caso in esame Trit = 200 anni). Questa linea di intervento si traduce praticamente individuando sul territorio aree meno "sensibili", in virtù del minor valore o dell'inferiore vulnerabilità dei beni in esse presenti, e dunque adatte ad accogliere i volumi di piena esondabili in occasione di quegli eventi di piena incompatibili con i presidi idraulici preesistenti, le sopra richiamate piene al limite della prevedibilità. L'esondazione controllata dei volumi di piena in tali aree avrebbe infatti il fine di tutelare le aree di maggior pregio, interessate da centri abitati, infrastrutture e beni di vario tipo; tale controllo è da considerarsi auspicabile in quanto sedici milioni di persone abitano la zona del bacino del Po e qui sono concentrati il 55% del patrimonio zootecnico italiano, il 35% della produzione agricola e il 37% delle industrie le quali però sostengono il 46% dei posti di lavoro (fonte AdB-Po). Per questi motivi il Po e il suo bacino sono da considerare come zone nevralgiche per l’intera economia italiana e una delle aree europee con la più alta concentrazione di popolazione, industrie e attività commerciali. Dal punto di vista economico, l’area è strategica per il Paese garantendo un PIL che copre il 40% di quello nazionale, grazie alla presenza di grandi industrie e di una quota rilevante di piccole e medie imprese, nonché d’attività agricole e zootecniche diffuse. Il punto di partenza è stato il modello numerico quasi-bidimensionale precedentemente sviluppato dal DISTART nel 2008 con il software HEC-RAS, la cui schematizzazione geometrica copriva unicamente l'alveo del Fiume (Fasce A e B secondo la denominazione adottata dall'AdB-Po) e le cui condizioni iniziali e al contorno rispecchiavano un evento con tempo di ritorno pari a duecento anni. Si è proceduto dunque alla definizione di nuove sollecitazioni di progetto, volte a riprodurre nelle sezioni strumentate del Po gli idrogrammi sintetici con tempo di ritorno di cinquecento anni messi a punto dal D.I.I.A.R. (Dipartimento di Ingegneria Idraulica, Ambientale e del Rilevamento, DIIAR, 2001) del Politecnico di Milano. Il modello stesso è stato poi aggiornato e considerevolmente modificato. Il risultato consiste in un nuovo modello matematico idraulico di tipo quasi-bidimensionale che, attraverso una schematizzazione concettuale, riproduce il comportamento idraulico in occasione di eventi di piena al limite della prevedibilità per tutte e tre le Fasce Fluviali considerate nel Piano stralcio per l’Assetto Idrogeologico redatto dall'AdB-Po (Fasce A, B C, v. PAI, 1999). I diversi comparti idraulici in cui può essere suddivisa la Fascia C sono stati inseriti nel modello e geometricamente descritti in termini di curve di riempimento, ricavate a partire dal DTM del Bacino del Po attraverso opportune elaborazioni in ambiente GIS (Geographic Information System). Una volta predisposto il modello sono state condotte due tipologie di simulazioni. Una prima serie è stata volta alla definizione in maniera iterativa dei punti critici degli argini maestri, ovvero quelli nei quali si prevedeva avvenisse la tracimazione, e alla modellazione in essi della formazione di brecce, decisive per una corretta riproduzione del fenomeno di esondazione all'esterno delle arginature maestre nell'attuale configurazione; bisogna infatti considerare che le arginature maestre vengono comunemente progettate con il solo fine di contenere le portate di piena in alveo, e che dunque un’eventuale tracimazione induce fenomeni erosivi che solitamente portano all'apertura di una breccia nel manufatto (rotta arginale). Un'ulteriore simulazione ha permesso di valutare l'evoluzione del fenomeno sotto l'ipotesi di un intervento di consolidamento degli argini maestri nei tratti critici (interessati dai sormonti) e quindi di rotta arginale impedita. Il confronto dei risultati ottenuti ha evidenziato i benefici associati ad una laminazione controllata dell'evento di piena all'esterno delle arginature. In questo contesto il termine "controllata" è esclusivamente associato al fenomeno di rotta arginale, come detto inibita per lo scenario ipotetico. I benefici di tale controllo si hanno in termini di volumi, di portate esondate e di tiranti attesi nei comparti idraulici. Lo strumento modellistico predisposto nell’ambito della Tesi di Laurea Specialistica si presta ad essere utilizzato a supporto dell’identificazione su ampia scala delle zone della Fascia C meno “sensibili”, in quanto meno vulnerabili ai fenomeni di allagamento. Questo ulteriore passaggio costituisce il punto di partenza per delineare le strategie ottimali di laminazione controllata in Fascia C degli eventi al limite della prevedibilità al fine della riduzione del rischio idraulico nelle aree di pianura prospicienti il Po, aspetto che verrà affrontato in sviluppi successivi del presente lavoro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Prima di procedere con il progetto sono state fatte sezioni storiche dell’area, in epoche indicative, per comprendere quelle che sono le invarianti e le caratteristiche di tale tessuto. Da qui si è dedotto lo schema generatore dell’insediamento che parte dall’identificazione degli assi viari (pedonali e carrabili) già presenti nell’area, che fanno diretto riferimento allo schema cardo-decumanico generatore dell’impianto angioino della città. Con il tracciamento si individuano gli isolati base, che con variazioni formali e tipologiche hanno originato gli edifici di progetto. I corpi di fabbrica generatori della planimetria, dialogano e rimangono a stretto contatto con i pochi edifici agibili, per i quali sono previsti consolidamenti e ristrutturazioni, qualora necessari. Inevitabile è stato il confronto con l’orografia, prestando particolare attenzione a non annullare con l’inserimento degli edifici il dislivello presente, ma lasciarlo percepire chiaramente: l’attacco a terra di ogni edificio avviene gradualmente, passando dai due piani fuori terra a monte ai tre, quattro a valle. Ovviamente non tutti gli assi sono stati trattati allo stesso modo, ma conseguentemente alla loro funzione e carattere di utilizzo. Analizzando la struttura viaria dell’intera area, si presentano schematicamente due anelli di circonvallazione del centro urbano: uno più esterno, di più recente costruzione, rappresentato da via XX Settembre, e uno più vecchio, che rimane rasente al centro storico, costituito dal viale Duca Degli Abruzzi, che prosegue in viale Giovanni XXIII e termina nel viadotto Belvedere. Quest’ultimo asse rappresenta sicuramente un importante collegamento cittadino, sia per la vicinanza al centro, sia per le porzioni di città messe in comunicazione; nonostante ciò il viadotto ha subito, all’altezza di viale Nicolò Persichetti, uno smottamento dopo il 6 aprile, ed essendo un elemento di scarso valore architettonico e spaziale, la sua presenza è stata ripensata. Compiendo una deviazione su via XX Settembre al termine di viale Duca Degli Abruzzi, che va a sfruttare la già presente via Fonte Preturo, non si va a rivoluzionante l’odierno assetto, che confluisce comunque, qualche centinaio di metri dopo, in via XX Settembre è si eliminano le connotazioni negative che il viadotto avrebbe sul rinnovato ingresso al centro storico. La vivibilità tende a favorire così collegamento e all’eterogeneità degli spazi più che la separazione fisica e psicologica: il concetto di città fa riferimento alla vita in comune; per favorirla è importante incentivare i luoghi di aggregazione, gli spazi aperti. Dalle testimonianze degli aquilani la vita cittadina vedeva il centro storico come principale luogo d’incontro sociale. Esso era animato dal numeroso “popolo” di studenti, che lo manteneva attivo e vitale. Per questo nelle intenzioni progettuali si pone l’accento su una visione attiva di città con un carattere unitario come sostiene Ungers3. La funzione di collegamento, che crea una struttura di luoghi complementari, può essere costituita dal sistema viario e da quello di piazze (luoghi sociali per eccellenza). Via Fontesecco ha la sua terminazione nell’omonima piazza: questo spazio urbano è sfruttato, nella conformazione attuale, come luogo di passaggio, piuttosto che di sosta, per questo motivo deve essere ricalibrato e messo in relazione ad un sistema più ampio di quello della sola via. In questo sistema di piazze rientra anche la volontà di mettere in relazione le emergenze architettoniche esistenti nell’area e nelle immediate vicinanze, quali la chiesa e convento dell’Addolorata, Palazzo Antonelli e la chiesa di San Domenico (che si attestano tutte su spazi aperti), e la chiesa di San Quinziano su via Buccio di Ranallo. In quest’ottica l’area d’intervento è intesa come appartenente al centro storico, parte del sistema grazie alla struttura di piazze, e allo stesso tempo come zona filtro tra centro e periferia. La struttura di piazze rende l’area complementare alla trama di pieni e vuoti già presente nel tessuto urbano cittadino; la densità pensata nel progetto, vi si accosta con continuità, creando un collegamento con l’esistente; allontanandosi dal centro e avvicinandosi quindi alle più recenti espansioni, il tessuto muta, concedendo più spazio ai vuoti urbani e al verde. Via Fontesecco, il percorso che delimita il lato sud dell’area, oltre ad essere individuata tra due fronti costruiti, è inclusa tra due quinte naturali: il colle dell’Addolorata (con le emergenze già citate) e il colle Belvedere sul quale s’innesta ora il viadotto. Questi due fronti naturali hanno caratteri molto diversi tra loro: il colle dell’Addolorata originariamente occupato da orti, ha un carattere urbano, mentre il secondo si presenta come una porzione di verde incolto e inutilizzato che può essere sfruttato come cerniera di collegamento verticale. Lo stesso declivio naturale del colle d’Addolorata che degrada verso viale Duca Degli Abruzzi, viene trattato nel progetto come una fascia verde di collegamento con il nuovo insediamento universitario. L’idea alla base del progetto dell’edilizia residenziale consiste nel ricostruire insediamenti che appartengano parte della città esistente; si tratta quindi, di una riscoperta del centro urbano e una proposta di maggior densità. Il tessuto esistente è integrato per ottenere isolati ben definiti, in modo da formare un sistema ben inserito nel contesto. Le case popolari su via Fontesecco hanno subito con il sisma notevoli danni, e dovendo essere demolite, hanno fornito l’occasione per ripensare all’assetto del fronte, in modo da integrarlo maggiormente con il tessuto urbano retrostante e antistante. Attualmente la conformazione degli edifici non permette un’integrazione ideale tra i percorsi di risalita pedonale al colle dell’Addolorata e la viabilità. Le scale terminano spesso nella parte retrostante gli edifici, senza sfociare direttamente su via Fontesecco. Si è quindi preferito frammentare il fronte, che rispecchiasse anche l’assetto originario, prima cioè dell’intervento fascista, e che consentisse comunque una percezione prospettica e tipologica unitaria, e un accesso alla grande corte retrostante. Il nuovo carattere di via Fontesecco, risultante dalle sezioni stradali e dalle destinazioni d’uso dei piani terra degli edifici progettuali, è quello di un asse commerciale e di servizio per il quartiere. L’intenzione, cercando di rafforzare l’area di progetto come nuovo possibile ingresso al centro storico, è quella di estendere l’asse commerciale fino a piazza Fontesecco, in modo da rendere tale spazio di aggregazione vitale: “I luoghi sono come monadi, come piccoli microcosmi, mondi autonomi, con tutte le loro caratteristiche, pregi e difetti, inseriti in un macrocosmo urbano più grande, che partendo da questi piccoli mondi compone una metropoli e un paesaggio”.4[...] Arretrando verso l’altura dell’Addolorata è inserita la grande corte del nuovo isolato residenziale, anch’essa con servizi (lavanderie, spazi gioco, palestra) ma con un carattere diverso, legato più agli edifici che si attestano sulla corte, anche per l’assenza di un accesso carrabile diretto; si crea così una gerarchia degli spazi urbani: pubblico sulla via e semi-pubblico nella corte pedonale. La piazza che domina l’intervento (piazza dell’Addolorata) è chiusa da un edificio lineare che funge da “quinta”, il centro civico. Molto flessibile, presenta al suo interno spazi espositivi e un auditorium a diretta disposizione del quartiere. Sempre sulla piazza sono presenti una caffetteria, accessibile anche dal parco, che regge un sistema di scale permettendo di attraversare il dislivello con la “fascia” verde del colle, e la nuova ala dell’Hotel “Duca degli Abruzzi”, ridimensionata rispetto all’originale (in parte distrutto dal terremoto), che si va a collegare in maniera organica all’edificio principale. Il sistema degli edifici pubblici è completo con la ricostruzione del distrutto “Istituto della Dottrina Cristiana”, adiacente alla chiesa di San Quinziano, che va a creare con essa un cortile di cui usufruiscono gli alunni di questa scuola materna ed elementare. Analizzando l’intorno, gran parte dell’abitato è definito da edifici a corte che, all’interno del tessuto compatto storico riescono a sopperire la mancanza di spazi aperti con corti, più o meno private, anche per consentire ai singoli alloggi una giusta illuminazione e areazione. Nel progetto si passa da due edifici a corti semi-private, chiusi in se stessi, a un sistema più grande e complesso che crea un ampio “cortile” urbano, in cui gli edifici che vi si affacciano (case a schiera e edifici in linea) vanno a caratterizzare gli spazi aperti. Vi è in questa differenziazione l’intenzione di favorire l’interazione tra le persone che abitano il luogo, il proposito di realizzare elementi di aggregazione più privati di una piazza pubblica e più pubblici di una corte privata. Le variazioni tipologiche degli alloggi poi, (dalla casa a schiera e i duplex, al monolocale nell’edilizia sociale) comportano un’altrettanta auspicabile mescolanza di utenti, di classi sociali, età e perché no, etnie diverse che permettano una flessibilità nell’utilizzo degli spazi pubblici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente dissertazione si apre con l’analisi della costa dell’Emilia Romagna, in particolare quella antistante la città di Cesenatico. Nel primo capitolo si è voluto fare un breve inquadramento delle problematiche che affliggono le acque costiere a debole ricambio. Il Mare Adriatico e in particolare le acque costiere, ormai da più di trent’anni, sono afflitti da una serie di problemi ambientali correlati all’inquinamento. Sulla costa romagnola, già verso la metà degli anni settanta, le prime estese morie di organismi viventi acquatici avevano posto sotto gli occhi dell’opinione pubblica l’insorgenza di situazioni drammatiche per l’ambiente, per la salute pubblica e per due importanti settori dell’economia regionale e nazionale quali il turismo e la pesca. Fino ad allora aveva dominato la diffusa convinzione che la diluizione nell’enorme quantità di acqua disponibile avrebbe consentito di immettere nel mare quantità crescenti di sostanze inquinanti senza intaccare in misura apprezzabile la qualità delle acque. Questa teoria si rivelò però clamorosamente errata per i mari interni con scarso ricambio di acqua (quali per esempio il Mare Adriatico), perché in essi le sostanze che entrano in mare dalla terraferma si mescolano per lungo tempo solo con un volume limitato di acqua antistante la costa. Solo se l’immissione di sostanze organiche è limitata, queste possono essere demolite agevolmente attraverso processi di autodepurazione per opera di microrganismi naturalmente presenti in mare. Una zona molto critica per questo processo è quella costiera, perché in essa si ha la transizione tra acque dolci e acque salate, che provoca la morte sia del plancton d’acqua dolce che di quello marino. Le sostanze estranee scaricate in mare giungono ad esso attraverso tre vie principali: • dalla terraferma: scarichi diretti in mare e scarichi indiretti attraverso corsi d’acqua che sfociano in mare; • da attività svolte sul mare: navigazione marittima e aerea, estrazione di materie prime dai fondali e scarico di rifiuti al largo; • dall’atmosfera: tramite venti e piogge che trasportano inquinanti provenienti da impianti e attività situati sulla terraferma. E’ evidente che gli scarichi provenienti dalla terraferma sono quelli più pericolosi per la salvaguardia delle acque costiere, in particolare vanno considerati: gli scarichi civili (enormemente accresciuti nel periodo estivo a causa del turismo), gli scarichi agricoli e gli scarichi industriali. Le sostanze estranee scaricate in mare contengono una grande abbondanza di sali nutrienti per i vegetali (in particolare nitrati e fosfati) che provengono dai concimi chimici, dai residui del trattamento biologico negli impianti di depurazione e dall’autodepurazione dei fiumi. Queste sostanze una volta giunte in mare subiscono un nuovo processo di autodepurazione che genera ulteriori quantità di nutrienti; i sali di fosforo e azoto così formati si concentrano soprattutto nelle acque basse e ferme della costa e vengono assimilati dalle alghe che possono svilupparsi in modo massivo: tale fenomeno prende il nome di eutrofizzazione. La produzione eccessiva di biomasse vegetali pone seri problemi per la balneazione in quanto può portare a colorazioni rossastre, brune, gialle o verdi delle acque; inoltre la decomposizione delle alghe impoverisce di ossigeno l’acqua, soprattutto sul fondo, provocando morie della fauna ittica. Nello specifico, in questo lavoro di tesi, si prende in considerazione il Porto Canale di Cesenatico, e come le acque da esso convogliate vadano ad influenzare il recettore finale, ovvero il Mar Adriatico. Attraverso l’uso di un particolare software, messo a mia disposizione dal D.I.C.A.M. è stata portata avanti un’analisi dettagliata, comprendente svariati parametri, quali la velocità dell’acqua, la salinità, la concentrazione dell’inquinante e la temperatura, considerando due possibili situazioni. A monte di ciò vi è stata una lunga fase preparatoria, in cui dapprima sono state recepite, attraverso una campagna di misure progettata ad hoc, ed elaborate le informazione necessarie per la compilazione del file di input; in seguito è stato necessario calibrare e tarare il programma, in quanto sono state apportate numerose variazioni di recepimento tutt’altro che immediato; dopodiché è stata introdotta la geometria rappresentante l’area presa in esame, geometria molto complessa in quanto trattasi di una zona molto ampia e non uniforme, infatti vi è la presenza di più barriere frangiflutti, sommerse ed emerse, che alterano in svariati punti la profondità del fondale. Non è stato semplice, a tal proposito, ricostruire l’area e ci si è avvalsi di una carta nautica riportante la batimetria del litorale antistante Cesenatico. Come è stato già detto, questa fase iniziale ha occupato molto tempo e si è dimostrata molto impegnativa. Non sono state comunque da meno le fasi successive. Inoltre, tale simulazione è stata effettuata su due scenari differenti, per poter valutare le differenti conclusioni alle quali essi hanno indotto. Dopo molti “tentativi”, l’eseguibile ha girato ed è arrivato al termine ricoprendo un lasso di tempo pari a ventiquattro ore. I risultati ottenuti in output, sono stati tradotti e vagliati in modo da essere graficati e resi più interpretabili. Segue infine la fase di analisi che ha portato alle deduzioni conclusive. Nei prossimi capitoli, si riporta nel dettaglio quello che in questo paragrafo è stato sinteticamente citato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il sisma del 6 aprile ha palesato delle criticità già presenti nel territorio aquilano. Dopo l'emergenza ci si chiede quindi quale debba essere il futuro della città. Quello che risulta più evidente è sicuramente la scomparsa di un'interdipendenza tra città e territorio circostante che era invece alla base della nascita stessa del nucleo storico. Questo era infatti concepito inizialmente come una serie di entità eterogenee separate, 99 rioni che avrebbero ospitato la popolazione di altrettanti villaggi e castelli, ed arriva nel corso dei secoli ad inglobare un territorio molto più ampio di centri minori che si riconoscono nel capoluogo. Anche con la successiva crescita non si è mai sentita la necessità di provvedere ad uno sviluppo organizzato attraverso la realizzazione di servizi, ma si è sempre cercato di mantenere il centro storico come unico contenitore, non solo per la città ma per l'intero territorio. Così lo sviluppo fuori le mura è avvenuto soprattutto per mano privata generando una periferia caotica e disorganizzata come risposta alla domanda di alloggi, a cui non è mai stato dato l'onere, se non in fase progettuale, di sopperire alle necessità urbane di servizi e infrastrutture e soprattutto ad una totale mancanza di pianificazione di sviluppo futuro. Con la completa distruzione del centro storico è scomparso il cuore pulsante del territorio aquilano, a cui è subito seguito anche lo spegnimento della periferia, che gravitava e si appoggiava su di esso per la sua sopravvivenza. A questo punto la scelta di agire sulla prima periferia, in una zona di cerniera con il centro storico, diventa una scelta fondamentale, poiché questa diventa una possibilità per dare luogo ad una rinascita non solo della città dentro le mura ma dell'Aquila moderna. Poiché questo sia possibile è chiaro come l'attenzione maggiore debba rivolgersi non solo alla risposta della domanda abitativa, ma anche alla progettazione di spazi per la collettività, servizi a diversa scala e sedi per il piccolo e medio commercio per rendere possibili nuove opportunità sociali ed economiche. In quest'ottica risulta indispensabile mantenere un collegamento, fisico e visivo, con il centro storico, attraverso la riqualificazione della fascia verde a ridosso delle mura e la sua naturale prosecuzione al di là della strada nell'area di progetto. Una delle problematiche principali è stata inoltre la definizione o meno di un confine. La scelta è stata quella di una struttura aperta: una maglia senza un limite preciso ma con una chiara direzionalità che si rifà a quella del centro storico e che risulta la più adatta ad accogliere gli sviluppi futuri della città. Il progetto cerca quindi di interfacciarsi sempre con quelle che sono le preesistenze (come nel caso della Chiesa di S. Maria Mediatrice), per cui si perde una lettura chiusa del quartiere, a favore di un intervento che vuole essere una ricucitura piuttosto che un'imposizione al luogo. Diretta conseguenza è stata quindi la scelta di lavorare sugli spazi aperti, diversificandoli e caratterizzandoli a seconda delle situazioni, intesi come elementi di relazione, generatori di una fluida sequenza di luoghi, in cui l'edificio che vi trova sede non può essere scisso dal contesto circostante, ma ne diventa elemento complementare. Lo spazio assume così diverse declinazioni nel passaggio dal pubblico al privato, privo di cesure nette, alla ricerca di un abitare collettivo senza rinunce alla propria individualità. Alla varietà dei luoghi, si affianca anche la progettazione diversificata degli alloggi, per rispondere alle contemporanee esigenze dell'abitare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il fitoplancton è costituito da organismi molto importanti per l'ambiente marino e molto diversificati sia dal punto di vista morfologico che fisiologico.Questi organismi sono normalmente soggetti ai cambiamenti stagionali e alle variazioni dell'ambiente dovute sia a fenomeni naturali che all'impatto antropico, sempre più rilevante. Con questa tesi si è voluto approfondire l'effetto di erbicidi comunemente usati dall'uomo in agricoltura su delle microalghe flagellate rappresentative del Mar Adriatico. L'inquinante scelto è la Terbutilazina, sostanza utilizzata per il diserbo del mais e diffusa in tutta l'area padano-venera, come dimostrano i dati dei campionamenti ARPA, che riportano la presenza di Terbutilazina e del suo prodotto di degradazione Desetil-Terbutilazina a concentrazioni superiori al limite fissato sia nelle acque superficiali che in quelle sotterranee. Anche in mare come riportato in letteratura (Carafa et. al 2009)è stato riscontrato a concentrazioni superiori al limite previsto dalla normativa vigente in Italia. In particolare il meccanismo d'azione di questo erbicida interferisce con la fotosintesi, agendo sulle proteine di membrana dei cloroplasti, rimpiazzando il chinone accettore di elettroni QB della proteina D1 del fotosistema II. Più specie di microalghe fatte crescere in colture 'batch' sono state testate a diverse concentrazioni di erbicida in condizione di luce nutrienti costanti. Questi esperimenti sono stati inoltre condotti a due diverse temperature (20 e 25°C) per studiare l'effetto di questo inquinante in correlazione con l'attuale aumento di temperatura in atto nel pianeta. In una prima fase di screening è stato valutato l'effetto della Terbutilazina su 9 specie di flagellate rappresentative dell'Adriatico, tramite misure dell'efficienza fotosintetica. Grazie a questa prima fase sono state individuate le microalghe e le relative concentrazioni di Terbutilazina da utilizzare negli esperimenti. Per gli esperimenti, sono state scelte le due specie algali Gonyaulax spinifera e Prorocentrum minimum sulle quali si è approfondito lo studio dell'effetto dell'inquinante alle due temperature, attraverso una serie di analisi volte ad individuare le risposte in termini di crescita e di fisiologia delle alghe quali: conteggio delle cellule, torbidità, efficienza fotosintetica, consumo di nutrienti, quantità di clorofilla e di polisaccaridi extracellulari prodotti. La scelta di queste microalghe è stata dettata dal fatto che Gonyaulax spinifera si è rivelata la microalga più sensibile a concentrazioni di erbicida più vicine a quelle ambientali fra tutte le alghe valutate, mentre Prorocentrum minimum è fra le dinoflagellate più frequenti e rappresentative del Mar Adriatico (Aubry et al. 2004), anche se non particolarmente sensibile; infatti P. minimum è stato testato ad una concentrazione di erbicida maggiore rispetto a quelle normalmente ritrovate in ambiente marino. Dai risultati riportati nella tesi si è visto come l'erbicida Terbutilazina sia in grado di influenzare la crescita e la fotosintesi di microalghe flagellate dell'Adriatico anche a concentrazioni pari a quelle rilevate in ambiente, e si è evidenziato che gli effetti sono maggiori alle temperature in cui le microalghe hanno una crescita meno efficiente. Questi studi hanno messo in evidenza anche l'utilità delle misure di fotosintesi tramite fluorimetro PAM nel valutare le risposte delle microalghe agli erbicidi triazinici. Inoltre la diversa risposta delle microalghe osservata, potrebbe avere conseguenze rilevanti sulle fioriture estive di fitoplancton in caso di presenza in mare di Terbutilazina, anche a concentrazioni non particolarmente elevate. Questo lavoro si inserisce in un contesto più ampio di ricerca volto alla modellizzazione della crescita algale in presenza di inquinanti ed in concomitanza con le variazioni di temperatura. Infatti i dati ottenuti insieme a misure di carbonio cellulare, non ancora effettuate, saranno utili per la messa a punto di nuove parametrizzazioni che si avvicinino maggiormente ai dati reali, per poi simulare i possibili scenari futuri variando le condizioni ambientali e le concentrazioni dell'inquinante studiato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maggiore richiesta energetica di questi anni, associata alla diminuzione delle riserve di combustibile fossile e ai problemi di inquinamento ambientale hanno spinto il settore scientifico verso la ricerca di nuovi dispositivi che presentino elevata efficienza e quantità di emissioni ridotta. Tra questi, le celle a combustibile (fuel cells) alimentate con idrogeno o molecole organiche come etanolo, acido formico e metanolo, hanno particolare rilevanza anche se attualmente risultano particolarmente costose. Una delle principali sfide di questi ultimi anni è ridurne i costi e aumentarne l'efficienza di conversione in energia. Per questo scopo molti sforzi vengono condotti verso l'ottimizzazione dei catalizzatori a base di Pt spostando l’attenzione verso sistemi nanostrutturati ad elevata attività catalitica e buona stabilità. Durante questo lavoro di tesi si è affrontato lo studio relativo alla preparazione di elettrodi modificati con PtNPs ottenute per elettrodeposizione, un metodo semplice ed efficace per poterne controllare i parametri di deposizione e crescita e per ottenere direttamente le nanoparticelle sulla superficie dell’elettrodo. Come materiale elettroattivo si è utilizzato un foglio di grafite, denominato (Pure Graphite Sheet = PGS). Tale superficie elettrodica, meno costosa e più conduttiva rispetto all’ITO, si presenta sotto forma di fogli flessibili resistenti ad alte temperature e ad ambienti corrosivi e quindi risulta conveniente qualora si pensi ad un suo utilizzo su scala industriale. In particolare è stato studiato come la variazione di alcuni parametri sperimentali quali: i) il tempo di elettrodeposizione e ii) la presenza di stabilizzanti tipo: KI, acido dodecil benzene sulfonico (DBSA), poli vinil pirrolidone (PVP) o poliossietilene ottilfenil etere (Triton-X100) e iii) la concentrazione degli stessi stabilizzanti, potessero influire sulle dimensioni ed eventualmente sulla morfologia delle PtNPs. in fase di elettrodeposizione. L’elettrosintesi è stata effettuata per via cronoamperometria. I film di PtNPs sono stati caratterizzati utilizzando tecniche di superficie quali microscopia a scansione elettronica (SEM) e Voltammetria Ciclica (CV). Al fine di valutare le capacità elettrocatalitiche delle diverse PtNPs ottenute si è studiata la reazione di ossidazione del metanolo in ambiente acido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'informazione è alla base della conoscenza umana. Senza, non si potrebbe sapere nulla di ciò che esiste, di ciò che è stato o di quello che potrebbe accadere. Ogni giorno si assimilano moltissime informazioni, che vengono registrate nella propria memoria per essere riutilizzate all'occorrenza. Ne esistono di vari generi, ma il loro insieme va a formare quella che è la cultura, educazione, tradizione e storia dell'individuo. Per questo motivo è importante la loro diffusione e salvaguardia, impedendone la perdita che costerebbe la dipartita di una parte di sé, del proprio passato o del proprio futuro. Al giorno d'oggi le informazioni possono essere acquisite tramite persone, libri, riviste, giornali, la televisione, il Web. I canali di trasmissione sono molti, alcuni più efficaci di altri. Tra questi, internet è diventato un potente strumento di comunicazione, il quale consente l'interazione tra chi naviga nel Web (ossia gli utenti) e una partecipazione attiva alla diffusione di informazioni. Nello specifico, esistono siti (chiamati di microblogging) in cui sono gli stessi utenti a decidere se un'informazione possa essere o meno inserita nella propria pagina personale. In questo caso, si è di fronte a una nuova "gestione dell'informazione", che può variare da utente a utente e può defluire in catene di propagazione (percorsi che compiono i dati e le notizie tra i navigatori del Web) dai risvolti spesso incerti. Ma esiste un modello che possa spiegare l'avanzata delle informazioni tra gli utenti? Se fosse possibile capirne la dinamica, si potrebbe venire a conoscenza di quali sono le informazioni più soggette a propagazione, gli utenti che più ne influenzano i percorsi, quante persone ne vengono a conoscenza o il tempo per cui resta attiva un'informazione, descrivendone una sorta di ciclo di vita. E' possibile nel mondo reale trovare delle caratteristiche ricorrenti in queste propagazioni, in modo da poter sviluppare un metodo universale per acquisirne e analizzarne le dinamiche? I siti di microblogging non seguono regole precise, perciò si va incontro a un insieme apparentemente casuale di informazioni che necessitano una chiave di lettura. Quest'ultima è proprio quella che si è cercata, con la speranza di poter sfruttare i risultati ottenuti nell'ipotesi di una futura gestione dell'informazione più consapevole. L'obiettivo della tesi è quello di identificare un modello che mostri con chiarezza quali sono i passaggi da affrontare nella ricerca di una logica di fondo nella gestione delle informazioni in rete.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel campo della tecnologia, l’ultimo decennio è stato caratterizzato da significativi sviluppi nel mondo dei dispositivi mobili. Si è passati dal tradizionale telefono cellulare, ai più recenti palmari e Smartphone che integrano al tradizionale stereotipo di telefono cellulare, funzionalità avanzate su hardware molto sofisticato. Con un moderno dispositivo mobile infatti, è possibile collegarsi ad Internet, leggere mail, guardare video, scaricare applicazioni e installarle per poterne così fruire. L’International Telecommunications Union (ITU-T) ha stimato che alla fine del 2010 il numero di utenti Internet a livello mondiale ha raggiunto i 2 mi- liardi e che gli accessi alla rete cellulare hanno raggiunto circa 5,3 miliardi di sottoscrizioni. Se si considera inoltre che le reti 2G verranno sostituite da quelle 3G (che consente una connessione alla rete a banda larga tramite dispositivi cellulari), è inevitabile che nel prossimo futuro, gli utilizzatori di Internet tramite rete mobile potranno arrivare ad essere anche qualche miliardo. Le applicazioni disponibili in rete sono spesso scritte in linguaggio Java che su dispositivi embedded, dove è cruciale il consumo di energia, mettono in crisi la durata della batteria del dispositivo. Altre applicazioni scritte in linguaggi meno dispendiosi in termini di consumi energetici, hanno un’interfaccia scarna, a volte addirittura ridotta a semplice terminale testuale, che non è indicata per utenti poco esperti. Infine altre applicazioni sono state eseguite solo su simulatori o emulatori, perciò non forniscono riscontri su dispositivi reali. In questa tesi verrà mostrato come su un dispositivo mobile sia possibile utilizzare, tramite un’interfaccia “user-friendly”, una tecnologia già esistente e diffusa come il VoIP in maniera tale che qualunque tipologia di utente possa utilizzarla senza conoscerne i dettagli tecnici. Tale applicazione, dovendo utilizzare una connessione dati, sfrutterà o una connessione a una rete WLAN o una connessione a una rete cellulare (GPRS, UMTS e HSDPA ad esempio) a seconda della dotazione hardware dell’apparecchio mobile e della locazione dello stesso in una rete accessibile dall’utente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel lavoro di tesi qui presentato si indaga l'applicazione di tecniche di apprendimento mirate ad una più efficiente esecuzione di un portfolio di risolutore di vincoli (constraint solver). Un constraint solver è un programma che dato in input un problema di vincoli, elabora una soluzione mediante l'utilizzo di svariate tecniche. I problemi di vincoli sono altamente presenti nella vita reale. Esempi come l'organizzazione dei viaggi dei treni oppure la programmazione degli equipaggi di una compagnia aerea, sono tutti problemi di vincoli. Un problema di vincoli è formalizzato da un problema di soddisfacimento di vincoli(CSP). Un CSP è descritto da un insieme di variabili che possono assumere valori appartenenti ad uno specico dominio ed un insieme di vincoli che mettono in relazione variabili e valori assumibili da esse. Una tecnica per ottimizzare la risoluzione di tali problemi è quella suggerita da un approccio a portfolio. Tale tecnica, usata anche in am- biti come quelli economici, prevede la combinazione di più solver i quali assieme possono generare risultati migliori di un approccio a singolo solver. In questo lavoro ci preoccupiamo di creare una nuova tecnica che combina un portfolio di constraint solver con tecniche di machine learning. Il machine learning è un campo di intelligenza articiale che si pone l'obiettivo di immettere nelle macchine una sorta di `intelligenza'. Un esempio applicativo potrebbe essere quello di valutare i casi passati di un problema ed usarli in futuro per fare scelte. Tale processo è riscontrato anche a livello cognitivo umano. Nello specico, vogliamo ragionare in termini di classicazione. Una classicazione corrisponde ad assegnare ad un insieme di caratteristiche in input, un valore discreto in output, come vero o falso se una mail è classicata come spam o meno. La fase di apprendimento sarà svolta utilizzando una parte di CPHydra, un portfolio di constraint solver sviluppato presso la University College of Cork (UCC). Di tale algoritmo a portfolio verranno utilizzate solamente le caratteristiche usate per descrivere determinati aspetti di un CSP rispetto ad un altro; queste caratteristiche vengono altresì dette features. Creeremo quindi una serie di classicatori basati sullo specifico comportamento dei solver. La combinazione di tali classicatori con l'approccio a portfolio sara nalizzata allo scopo di valutare che le feature di CPHydra siano buone e che i classicatori basati su tali feature siano affidabili. Per giusticare il primo risultato, eettueremo un confronto con uno dei migliori portfolio allo stato dell'arte, SATzilla. Una volta stabilita la bontà delle features utilizzate per le classicazioni, andremo a risolvere i problemi simulando uno scheduler. Tali simulazioni testeranno diverse regole costruite con classicatori precedentemente introdotti. Prima agiremo su uno scenario ad un processore e successivamente ci espanderemo ad uno scenario multi processore. In questi esperimenti andremo a vericare che, le prestazioni ottenute tramite l'applicazione delle regole create appositamente sui classicatori, abbiano risultati migliori rispetto ad un'esecuzione limitata all'utilizzo del migliore solver del portfolio. I lavoro di tesi è stato svolto in collaborazione con il centro di ricerca 4C presso University College Cork. Su questo lavoro è stato elaborato e sottomesso un articolo scientico alla International Joint Conference of Articial Intelligence (IJCAI) 2011. Al momento della consegna della tesi non siamo ancora stati informati dell'accettazione di tale articolo. Comunque, le risposte dei revisori hanno indicato che tale metodo presentato risulta interessante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel presente elaborato viene riassunta in 4 brevi capitoli la mia attività di tesi, svolta nell’ambito del progetto Formula SAE® dell’Università di Bologna nell’anno 2010. Il progetto ha consistito nella realizzazione di una vettura monoposto, con l’obiettivo di far competere la stessa negli eventi previsti dalla SAE® (Society of Automotive Engineer), insieme alle vetture progettate e costruite da altri atenei di tutto il mondo. In tali eventi, una serie di giudici del settore auto-motive valuta la bontà del progetto, ovvero della vettura, che sarà sottoposta ad una serie di prove statiche e dinamiche. Nella seguente trattazione si narra quindi il percorso progettuale e di realizzazione del telaio della vettura, ovvero della sua struttura portante principale. Il progetto infatti, nell’ambito del team UniBo Motorsport, mi ha visto impegnato come “Responsabile Telaio” oltre che come “Responsabile in Pista” durante le prove su strada della vettura, svolte a valle della realizzazione. L’obbiettivo principale di un telaio di vettura da corsa è quello di realizzare una struttura che colleghi rigidamente tra loro i gruppi sospensivi anteriore e posteriore e che preveda anche la possibilità di ancorare tutti i componenti dei sistemi ausiliari di cui la vettura deve essere equipaggiata. Esistono varie tipologie di telai per autovettura ma quelle più adatte ad equipaggiare una vettura da competizione di tipo Formula, sono sicuramente il traliccio in tubi (“space frame”) e la monoscocca in fibra di carbonio. Il primo è sicuramente quello più diffuso nell’ambito della Formula Student grazie alla sua maggior semplicità progettuale e realizzativa ed ai minor investimenti economici che richiede. I parametri fondamentali che caratterizzano un telaio vettura da competizione sono sicuramente la massa e la rigidezza. La massa dello chassis deve essere ovviamente il più bassa possibile in quanto quest, costituisce generalmente il terzo contributo più importante dopo pilota e motore alla massa complessiva del veicolo. Quest’ultimo deve essere il più leggero possibile per avere un guidabilità ed una performance migliori nelle prove dinamiche in cui dovrà impegnarsi. Per quanto riguarda la rigidezza di un telaio, essa può essere distinta in rigidezza flessionale e rigidezza torsionale: di fatto però, solo la rigidezza torsionale va ad influire sui carichi che si trasferiscono agli pneumatici della vettura, pertanto quando si parla di rigidezza di un telaio, ci si riferisce alla sua capacità di sopportare carichi di tipo torsionale. Stabilire a priori un valore adeguato per la rigidezza torsionale di un telaio è impossibile. Tale valore dipende infatti dal tipo di vettura e dal suo impiego. In una vettura di tipo Formula quale quella oggetto del progetto, la rigidezza torsionale del telaio deve essere tale da garantire un corretto lavoro delle sospensioni: gli unici cedimenti elastici causati dalle sollecitazioni dinamiche della vettura devono essere quelli dovuti agli elementi sospensivi (ammortizzatori). In base a questo, come indicazione di massima, si può dire che un valore di rigidezza adeguato per un telaio deve essere un multiplo della rigidezza totale a rollio delle sospensioni. Essendo questo per l’Università di Bologna il primo progetto nell’ambito della Formula SAE® e non avendo quindi a disposizione nessun feed-back da studi o vetture di anni precedenti, per collocare in modo adeguato il pilota all’interno della vettura, in ottemperanza anche con i requisiti di sicurezza dettati dal regolamento, si è deciso insieme all’esperto di ergonomia del team di realizzare una maquette fisica in scala reale dell’abitacolo. Questo ha portato all’individuazione della corretta posizione del pilota e al corretto collocamento dei comandi, con l’obbiettivo di massimizzare la visibilità ed il confort di guida della vettura. Con questo primo studio quindi è stata intrapresa la fase progettuale vera e propria del telaio, la quale si è svolta in modo parallelo ma trasversale a quella di tutti gli altri sistemi principali ed ausiliari di cui è equipaggiata la vettura. In questa fase fortemente iterativa si vanno a cercare non le soluzioni migliori ma quelle “meno peggio”: la coperta è sempre troppo corta e il compromesso la fa da padrone. Terminata questa fase si è passati a quella realizzativa che ha avuto luogo presso l’azienda modenese Marchesi & C. che fin dal 1965 si è occupata della realizzazione di telai da corsa per importanti aziende del settore automobilistico. Grazie al preziosissimo supporto dell’azienda, a valle della realizzazione, è stato possibile condurre una prova di rigidezza sul telaio completo della vettura. Questa, oltre a fornire il valore di rigidezza dello chassis, ha permesso di identificare le sezioni della struttura più cedevoli, fornendo una valida base di partenza per l’ottimizzazione di telai per vetture future. La vettura del team UniBo Motorsport ha visto il suo esordio nell’evento italiano della Formula SAE® tenutosi nel circuito di Varano de Melegari nella prima settimana di settembre, chiudendo con un ottimo 16esimo posto su un totale di 55 partecipanti. Il team ha partecipato inoltre alla Formula Student Spain tenutasi sul famoso circuito di Montmelò alla fine dello stesso mese, raggiungendo addirittura il podio con il secondo posto tra i 18 partecipanti. La stagione si chiude quindi con due soli eventi all’attivo della vettura, ma con un notevole esordio ed un ottimo secondo posto assoluto. L’ateneo di Bologna si inserisce al sessantasettesimo posto nella classifica mondiale, come seconda università italiana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Individuazione dei valori ottimali di crescita di dinoflagellate bentoniche, valutazione della tossicità e di interazioni allelopatiche. Il fitoplancton rappresenta la base della catena trofica in ambiente marino, nonché oltre la metà  della produzione primaria a livello mondiale. Le dinoflagellate, assieme alle diatomee, costituiscono la maggior parte del fitoplancton, comprendendo numerose e diversificate specie di microalghe dalla differente distribuzione, ecologia e fisiologia. Alcune specie appartenenti a tale gruppo sono in grado di dare luogo, in determinate condizioni, a estesi fenomeni di fioriture algali, che diventano particolarmente impattanti se le specie coinvolte sono responsabili della produzione di biotossine, le quali possono direttamente uccidere altri organismi o accumularsi nei loro tessuti. Gli effetti nocivi di questi fenomeni si ripercuotono pesantemente sull'ecosistema marino, con ingenti morie di organismi acquatici (da pesci a molluschi, dal bentos al necton) e profonde alterazioni nelle comunità specifiche. Un forte coinvolgimento si ha di conseguenza anche per le attività umane, in seguito a forti esternalità negative su pesca, turismo, attività ricreative, o spesso con rischi direttamente correlati alla salute umana, dovuti perlopiù ad ingestione di organismi contaminati o all'inalazione di tossine per via aerea. Negli ultimi anni le fioriture algali tossiche si sono fortemente intensificate in distribuzione, estensione e frequenza, attirando l'interesse globale della comunità scientifica. Diversi studi condotti in questo senso hanno portato all'identificazione di numerose specie di dinoflagellate tossiche e all'isolamento di una lunga serie di composti chimici con effetti dannosi da esse sintetizzate. Tuttavia si conosce ancora ben poco sull'ecologia di queste specie, in particolare su quali siano i fattori che possano indurre o regolare la proliferazione e lo sviluppo di un bloom algale. Questo studio si è focalizzato su due specie di dinoflagellate bentoniche tossiche, Ostreopsis ovata e Coolia monotis, entrambe appartenenti alla famiglia Ostreopsidaceae, note già da tempo nei paesi tropicali poiché associate alla sindrome da ciguatera. Negli ultimi anni, Ostreopsis ovata è stata oggetto di numerose ricerche in Europa, poiché ha dato luogo a fenomeni di bloom, collegati con danni respiratori nell'uomo, anche lungo i litorali italiani; soltanto recentemente grazie ad una tecnica analitica basata sulla combinazione di cromatografia liquida e spettrometria di massa (LC-MS), è stato possibile isolare la diverse tossine responsabili. Durante i vari monitoraggi e campionamenti delle acque, questa dinoflagellata è stata sempre riscontrata in presenza di Coolia monotis (e Prorocentrum lima), di cui invece si conosce ben poco, visto che la sua tossicità in Mediterraneo non è ancora stata dimostrata, né la sua tossina caratterizzata. Il primo step di questo studio è stato quello di valutare, attraverso il mantenimento di colture in vitro, l'importanza della temperatura nella crescita di O. ovata e C. monotis (singolarmente) provenienti dalla zona del monte Conero (Ancona, Marche). Esistono già studi di questo tipo su ceppi adriatici di O. ovata, tuttavia è stato effettuato un esperimento similare utilizzando un nuovo ceppo, isolato in anni recenti; per C. monotis invece non sono presenti molti studi in letteratura, in particolare nessuno riguardante ceppi italiani. La valutazione della crescita è stata effettuata attraverso conteggio delle cellule, misura dell'efficienza fotosintetica e consumo dei macronutrienti. Quindi, visto che le due specie vivono in associazione nell'ambiente marino, si è cercato di evidenziare l'instaurarsi di eventuali processi competitivi o di fenomeni di allelopatia. Dall'analisi dei risultati è emerso che, se coltivate individualmente, sia C. monotis che O. ovata mostrano un optimum di crescita alla temperatura di 20°C, con tasso di crescita, numero di cellule e rendimento fotosintetico raggiunti più elevati, seppure non di molto rispetto alle colture a 25°C. Le colture a 30°C al contrario hanno mostrato valori sensibilmente inferiori. Se fatte crescere assieme, invece, C. monotis mantiene lo stesso pattern riscontrato nella monoculture a 20 e 25°C, seppur raggiungendo numeri di cellule inferiori, mentre a 30°C ha una crescita bassissima. Al contrario, O. ovata alla temperatura più elevata raggiunge lo stesso numero di cellule della monocultura, alla temperatura intermedia registra il tasso di crescita, ma non il numero di cellule, più elevato, mentre alla temperatura più bassa (che era l'optimum per la monocultura) si ha il maggior stress per la specie, evidenziando forti fenomeni di competizione. Esperimenti su C. monotis fatta crescere in un filtrato di O. ovata non hanno invece chiarito l'esistenza o meno di eventuali effetti allelopatici di Ostreopsis su Coolia, dato che non sono apparse differenze evidenti tra il controllo e il filtrato, mentre hanno messo in luce l'importanza dei batteri associati alle microalghe come supporto alla loro crescita, poiché le colture cresciute in filtrato sterile hanno manifestato tutte quante un rendimento quantico fotosintetico inferiore.