890 resultados para Tecnologia additiva, modellazione per deposizione di filamento fuso
Resumo:
La cosmologia ha come scopo lo studio di origine ed evoluzione dell’Universo, per averne una comprensione generale attraverso le leggi fisiche conosciute. Il modello del Big Bang, di cui si dà la descrizione teorica nel capitolo 1, è una delle formulazioni più recenti di teoria che mira a spiegare l’inizio e la successiva evoluzione dell’Universo, fino ad avanzare anche ipotesi sul suo destino futuro; è inoltre il modello generalmente accettato dalla comunità scientifica in quanto, di tutti i modelli proposti nel corso degli anni, è quello con più riscontri sperimentali e che meglio si trova in accordo con le osservazioni. I principali successi del modello vengono trattati nel capitolo 2. In particolare: si tratterà di redshift e legge di Hubble, collegati all’espansione dell’Universo, importante prova dell’attendibilità del modello del Big Bang; della radiazione cosmica di fondo, scoperta negli anni ’60 quasi per caso e poi ricondotta a ipotesi teoriche già avanzate anni prima nelle prime formulazioni del modello; della nucleosintesi primordiale, che spiega l’abbondanza attuale dei principali costituenti dell’Universo, H ed He, cosa che altrimenti non sarebbe spiegabile se si considerasse soltanto la formazione di tali elementi nelle stelle. Ovviamente anche questo modello, come si vede nel capitolo 3, non manca di problemi, a cui si è trovata una risoluzione parziale o comunque non definitiva; in questa sede tuttavia, per ragioni di spazio, tali problemi e la loro soluzione verranno soltanto accennati. Si accennerà al problema dell’Universo piatto e al problema dell’orizzonte, e a come essi possano essere spiegati introducendo il concetto di inflazione. Infine, nel capitolo 4, si accenna anche alla materia oscura, soprattutto per quanto riguarda le evidenze sperimentali che ne hanno permesso la scoperta e le prove successive che ne confermano l’esistenza. Tuttora ne ignoriamo natura e composizione, visto che a differenza della materia ordinaria non emette radiazione elettromagnetica, ma i suoi effetti gravitazionali sono evidenti ed è estremamente difficile che la sua esistenza possa essere messa in discussione.
Resumo:
La ricerca svolta ha voluto approfondire le possibilità offerte dai sistemi di allevamento dei vigneti a Doppia Cortina (GDC) e a Cordone Libero nei riguardi della meccanizzazione. La ricerca ha considerato gli interventi di potatura invernale, di gestione della chioma (spollonatura, cimatura, defogliazione e pettinatura della doppia cortina) e di vendemmia. Un’operazione particolarmente seguita è stata la potatura invernale realizzando differenti livelli di meccanizzazione. Tutti gli interventi sono stati eseguiti sia manualmente che meccanicamente, confrontando i tempi d’impiego, la qualità del lavoro svolto e gli impegni di manodopera. I risultati sono stati sintetizzati in una valutazione economica, ipotizzando differenti livelli di costo della manodopera impiegata, per ottenere giudizi di convenienza per i singoli interventi e per costruire una valutazione completa e più organica della linea di lavoro proposta. Nelle due forme d’allevamento la meccanizzazione della potatura invernale e della gestione della chioma hanno rispettato pienamente gli obbiettivi tecnici prefissati, dimostrando di essere un valido mezzo per ridurre tempi e costi di gestione. Per questi interventi l’acquisto delle macchine risulta conveniente anche per vigneti di piccola dimensione. Ancor più evidenti in queste due forme d’allevamento sono i vantaggi economici offerti dalla vendemmia meccanica, realizzata con pochi maltrattamenti e perdite di prodotto. La tendenza a meccanizzare integralmente gli interventi di gestione del ciclo colturale della vite, può essere nei prossimi anni un motivo di interesse e di scelta nella realizzazione di nuovi impianti con queste due forme di allevamento, che hanno dimostrato di essere un’espressione completa di sinergia tra macchina e pianta.
Resumo:
Il cancro batterico dell’actinidia causato da Pseudomonas syringae pv.actinidiae (Psa) suscita grande interesse a livello globale a partire dal 2008. La malattia è comparsa in Giappone e in due anni ha avuto una diffusione epidemica in tutte le aree di coltivazione mondiale di actinidia. Gravi perdite economiche hanno attirato l’attenzione internazionale su questa problematica e grandi sforzi sono stati rivolti allo studio di questo patosistema ancora poco conosciuto. E’ emerso infatti che il patogeno può rimanere in fase latente per lunghi periodi senza causare sintomi caratteristici nelle piante infette, e che dalla comparsa dei sintomi la pianta muore nell’arco di un paio d’anni. Il monitoraggio ed il controllo della situazione è perciò di fondamentale importanza ed è ancora più importante prevenire la comparsa di nuovi focolai di infezione. A questo proposito sarebbe opportuno l’impiego di materiale vegetale di propagazione non infetto, ma in molti casi questo diventa difficile, dal momento che il materiale impiegato è generalmente quello asintomatico, non analizzato precedentemente per la presenza del patogeno. Negli ultimi anni sono state perciò messe a punto molte tecniche molecolari per l’identificazione di Psa direttamente da materiale vegetale. L’obiettivo di questo lavoro è stato quello di studiare l’epidemiologia di Psa in piante adulte infette e di verificare l’efficacia di metodi di diagnosi precoce per prevenire la malattia. A tale scopo il lavoro sperimentale è stato suddiviso in diverse fasi: i) studio della localizzazione, traslocazione e sopravvivenza di Psa nelle piante, a seguito di inoculazione in piante adulte di actinidia di ceppi marcati Psa::gfp; ii) studio della capacità di Psa di essere mantenuto in germogli di actinidia attraverso sette generazioni di micropropagazione dopo l’inoculazione delle piante madri con lo stesso ceppo marcato Psa::gfp; iii) studio ed applicazioni di un nuovo metodo di diagnosi precoce di Psa basato sull’analisi molecolare del “pianto”.
Resumo:
Il capitale sociale e la qualità istituzionale sono due fenomeni che, da circa venti anni, hanno assunto il ruolo di protagonisti all’interno delle scienze sociali. Anche se per molto tempo sono stati analizzati separatamente, già dalla loro definizione è possibile intuire come essi rappresentino due facce della stessa medaglia. Questo lavoro ha l’obiettivo di comprendere quale è le relazione che lega il capitale sociale e la qualità istituzionale all’interno delle regioni dell’Unione Europea. Nonostante buona parte della letteratura si sia maggiormente dedicata all’analisi dei due fenomeni a livello nazionale, in questo elaborato si ritiene che la dimensione territoriale regionale sia l’unità di misura più idonea per analizzarli entrambi. La prima parte del lavoro analizza il capitale sociale sia da un punto di vista definitorio che da un punto di vista più prettamente empirico, suddividendolo in diversi elementi. Il capitale sociale è un fenomeno estremamente multidimensionale, analizzarne solo una parte condurrebbe ad un’analisi parziale ed approssimativa. All’interno del testo vengono individuate cinque dimensioni, utilizzate successivamente per la creazione di un nuovo indice di capitale sociale regionale. Nella seconda parte si affronta il tema delle istituzioni e della qualità istituzionale. Dopo aver definito le istituzioni, si provvede ad effettuare una rassegna degli indici più comunemente utilizzati per misurarne la qualità, selezionando l’European Quality of Government Index del Quality of Government Institute di Göteborg come il più appropriato, sia per la sua definizione di governance che per l’unità di analisi prescelta. Nella terza parte, infine, in seguito ad un’analisi di quella parte di letteratura che ritiene i due fenomeni indissolubilmente legati ed utilizzando l’indice di capitale sociale regionale sviluppato nel primo capitolo, si propone una risposta, sicuramente parziale e non definitiva, alla domanda che da vent’anni anima questo interessante filone di ricerca: che relazione sussiste tra qualità istituzionale e capitale sociale?
Resumo:
Il presente lavoro si compone di tre capitoli, tra loro autonomi e allo stesso tempo intrinsecamente collegati. Nel primo capitolo si è voluto offrire una panoramica dello scenario agroalimentare italiano e della sua rilevanza nel sistema economico nazionale. Per fare ciò si è partiti da una disamina del contesto economico mondiale per poi centrare il discorso sull’andamento congiunturale dell’agroalimentare nazionale, analizzato secondo i principali indicatori macroeconomici. Successivamente vengono presentati gli attori del sistema agroalimentare, rilevando per ciascuno di essi le proprie specificità e tendenze. L’ultima parte del primo capitolo è un focus specifico sul ruolo giocato dall’agroalimentare italiano nel commercio e nei mercati internazionali. Nel secondo capitolo si è approntata una mappatura territoriale e per comparti delle principali specializzazioni commerciali del settore agroalimentare delle regioni italiane. Tramite l'utilizzo di appositi indici di specializzazione si è analizzata la realtà agroalimentare delle regioni italiane, mettendone in evidenza la struttura competitiva e approssimandola tramite l’analisi dei vantaggi comparati di cui gode. Infine, nel terzo capitolo, si è ampliato il campo d'analisi tentando di misurare il livello di internazionalizzazione delle regioni italiane, non solo in ambito agroalimentare, ma considerando l'intero sistema territoriale regionale. Si è tentato di fare ciò tramite tre strumenti: l’analisi delle componenti principali (PCA o ACP), il Mazziotta-Pareto Index e il Wroclaw taxonomic method. I risultati ottenuti tramite le tre modalità di elaborazione hanno permesso di approfondire la conoscenza del livello di internazionalizzazione registrato dalle regioni italiane, mettendo in luce ulteriori filoni di ricerca della tematica osservata.
Resumo:
Questo lavoro ha l’obbiettivo di analizzare i principi che stanno alla base della plasmonica, partendo dallo studio dei plasmoni di superficie fino ad arrivare alle loro applicazioni. La prima parte di questa tesi riguarda l’aspetto teorico. Essendo essenzialmente eccitazioni collettive degli elettroni nell'interfaccia fra un conduttore ed un isolante, descritti da onde elettromagnetiche evanescenti, questi plasmoni superficiali, o polaritoni plasmonici di superficie (SPP), vengono studiati partendo dalle equazioni di Maxwell. Viene spiegato come questi SPP nascano dall’accoppiamento dei campi elettromagnetici con le oscillazioni degli elettroni del materiale conduttore e, utilizzando l’equazione dell’onda, si descrivono le loro proprietà in singola interfaccia e in sistemi multistrato. Il quinto capitolo analizza le metodologie di eccitazione di SPP. Sono descritte varie tecniche per l’accoppiamento di fase, per accennare poi a eccitazioni di SPP in guide d’onda, tramite fibra ottica. L’ultimo capitolo della prima parte è dedicato alla seconda tipologia di plasmoni: i plasmoni di superficie localizzati (LSP). Questi sono eccitazioni a seguito dell’accoppiamento fra elettroni di conduzione di nanoparticelle metalliche e il campo elettromagnetico ma che, a differenza dei SPP, non si propagano. Viene esplorata la fisica dei LSP trattando prima le interazioni delle nanoparticelle con le onde elettromagnetiche, poi descrivendo i processi di risonanza in una varietà di particelle differenti in numero, forma, dimensione e ambiente di appartenenza. La seconda parte della tesi riguarda invece alcune applicazioni. Vengono proposti esempi di controllo della propagazione di SPP nel contesto delle guide d’onda, analizzando l’indirizzamento di SPP su superfici planari e spiegando come le guide d’onda di nanoparticelle metalliche possano essere utilizzate per trasferire energia. Infine, viene introdotta la teoria di Mie per la diffusione e l’assorbimento della luce da parte di nanoparticelle metalliche, per quanto riguarda la colorazione apparente, con esempi sulla colorazione vitrea, come la famosa coppa di Licurgo.
Resumo:
Lo studio stratigrafico di diverse prove geognostiche nel sottosuolo dell’alta pianura forlivese ha permesso di ricostruire uno scenario stratigrafico di dettaglio dei depositi tardoquaternari del Bacino Padano. Attraverso la realizzazione di una sezione stratigrafica, parallela al margine del bacino, nei territori compresi tra il comune di Forlì e Forlimpopoli, ottenuta utilizzando stratigrafie di pozzi per acqua, di sondaggi a carotaggio continuo e di prove penetrometriche corredati da datazioni radiometriche, ha evidenziato un’architettura stratigrafica tipica di una pianura alluvionale. L’analisi di facies e le correlazioni stratigrafiche mostrano un’evidente suddivisione dei depositi alluvionali in quattro intervalli stratigrafici a controllo glacio-eustatico. Alla base sono presenti depositi che possono essere attribuibili ad un sistema di regressione forzata (FST), durante i quali si verificherebbe l’incisione dei sistemi alluvionali. I corpi amalgamati di canale fluviale, invece, sarebbero riconducibili alla successiva fase di stazionamento basso del livello del mare (LST), avvenuto durante l’ultimo acme glaciale. Al di sopra di questi depositi, la presenza di corpi lenticolari, isolati, di canale fluviale, entro depositi fini di piana inondabile, è compatibile con una fase di sollevamento del livello del mare (depositi trasgressivi o TST) ed infine i depositi sommitali, prevalentemente fini, potrebbero rappresentare la fase di stazionamento alto del livello del mare (HST). La definizione della geometria dei corpi sepolti in Pianura Padana costituisce uno strumento di rilevante importanza nella ricerca e nella protezione della risorsa idrica: in particolare, l’applicazione dei principi di stratigrafia sequenziale risulta fondamentale nell’interpretazione della distribuzione spaziale dei corpi acquiferi.
Resumo:
Il teorema del viriale consiste in una relazione tra energia cinetica e energia potenziale totali di un sistema all'equilibrio. Il concetto di Viriale (dal latino vires, plurale di vis, 'forza') è stato introdotto dal fisico e matematico tedesco Rudolf Julius Emanuel Clausius (1822-1888) per indicare la quantità N Fi •xi i=1 che rappresenta la somma, fatta su tutte le N particelle di un sistema, dei prodotti scalari del vettore forza totale agente su ciascuna particella per il vettore posizione della particella stessa, rispetto ad un riferimento inerziale scelto. Tale quantità altro non è che un'energia potenziale. Dire che un sistema di particelle è virializzato equivale a dire che esso è stazionario, cioè all'equilibrio. In questo elaborato sono di nostro interesse sistemi astrofisici gravitazionali, in cui cioè l'energia potenziale sia dovuta solo a campi gravitazionali. Distingueremo innanzitutto sistemi collisionali e non collisionali, introducendo i tempi scala di attraversamento e di rilassamento. Dopo una trattazione teorica del teorema, nell'approssimazione di continuità - per cui sostuiremo alle sommatorie gli integrali - e di non collisionalità, an- dremo a studiarne l'importanza in alcuni sistemi astrofisici: applicazione agli ammassi stellari, alle galassie e agli ammassi di galassie, stima della quantità di materia oscura nei sistemi, instabilità di Jeans in nubi molecolari, rotazione delle galassie ellittiche. Per ragioni di spazio non saranno affrontati altri casi, di cui ne citiamo alcuni: collasso delle stelle, stima della massa dei buchi neri al centro delle galassie, 'mass-to-light ratio' di sistemi sferici. Parleremo in generale di “particelle” costituenti i sistemi per intendere stelle, galassie, particelle di gas a seconda del sistema in esame. Trascureremo in ogni caso le influenze gravitazionali di distribuzioni di densità esterne al sistema.
Resumo:
La tesi si sviluppa attorno a 6 capitoli che, ripercorrendo le peculiarità storiche, linguistiche ed economiche di Moldova e Transnistria, tenteranno di mettere in luce i contrasti salienti del rapporto tra Chişinău e Tiraspol. Il capitolo 1 si concentra sulla comparazione di alcune fonti (provenienti da est e da ovest) che hanno ricostruito la storia della Moldova della Grande Romania e della Moldavia sovietica. In tal modo sarà possibile dimostrare che la regione di interesse è stata oggetto di una manipolazione intenzionale del proprio passato asservita ai centri di potere che miravano alla supremazia del territorio. Il capitolo 2 ripercorre le fasi dell’epoca di industrializzazione della Transnistria che, a partire dagli anni ’90, si suppone abbia permesso a Tiraspol di sganciarsi de facto dal governo moldavo. Il capitolo 3 si sofferma sui motivi che spinsero la popolazione del Dnestr ad appoggiare la secessione trascinandola nel conflitto del 1992. Una volta tracciata la cornice storica lungo i capitoli 1, 2 e 3, il capitolo 4 presenterà il multiforme panorama linguistico dell’attuale Repubblica Moldova soffermandosi sul ruolo della lingua russa, scintilla della secessione transnistriana. Il capitolo 5 offre uno spunto di riflessione sull’incidenza di Mosca nella separazione moldava per mezzo di uno studio dell’economia della Transnistria. Il capitolo 6, infine, rivela che gli argomenti trattati nel corso dei 5 capitoli precedenti sono tutti tasselli imprescindibili dell’identità nazionale transnistriana e permette di muovere alcune ipotesi sui metodi attuati da Tiraspol per garantire la fedeltà nazionale della propria popolazione facendo perno sul controllo dei mass media.
Resumo:
Con il presente lavoro si intende descrivere il progetto di localizzazione in tedesco del sito web http://officinadesign.net/ dell’azienda Officina Design, una piccola impresa con sede a Gambettola in provincia di Forlì-Cesena che si occupa di design per l’arredamento di interni. L’azienda si distingue per l’interesse per la lavorazione e il recupero dei materiali nella creazione dei propri prodotti realizzati a mano collocandosi all’interno di una lunga tradizione locale in questi settori. Il primo capitolo introduce il tema della localizzazione illustrandone le caratteristiche principali mettendo in luce gli aspetti tecnologici e culturali che ne fanno parte; di seguito verranno illustrate le fasi di un progetto di localizzazione e le figure professionali coinvolte in generale e nel caso specifico; infine, verranno fornite alcune informazioni su alcuni degli strumenti tecnici utilizzati. Nel secondo capitolo si affronterà un’analisi approfondita del testo di partenza e verranno presentate le tematiche relative alla teoria della traduzione rilevanti per il presente progetto. Il terzo capitolo tratterà in modo dettagliato le varie fasi del progetto; seguirà la presentazione del testo tradotto e infine il commento, in cui verranno esposti i problemi traduttivi, le difficoltà incontrate, i metodi e i procedimenti adottati.
Resumo:
Lo scopo di questa tesi è lo studio degli aspetti procedurali e dosimetrici in angiografie periferiche che utilizzano la CO2 come mezzo di contrasto. La tecnica angiografica consiste nell’imaging radiologico di vasi sanguigni tramite l’iniezione di un mezzo di contrasto, e il suo uso è in costante incremento a causa dell’aumento di pazienti con malattie vascolari. I mezzi di contrasto iodati sono i più comunemente utilizzati e permettono di ottenere immagini di ottima qualità, ma presentano il limite di una elevata nefrotossicità. La CO2 è considerata un’interessante alternativa al mezzo iodato, per la sua acclarata biocompatibilità, soprattutto per pazienti con elevati fattori di rischio (diabete e/o insufficienza renale). Il suo utilizzo presenta comunque alcuni aspetti problematici, dovuti allo stato gassoso e al basso contrasto intrinseco rispetto alla soluzione iodata. Per quest’ultimo motivo si ritiene generalmente che l’utilizzo della CO2 comporti un aumento di dose rispetto ai mezzi di contrasto tradizionali. Il nostro studio, effettuato su diversi apparati radiologici, ha dimostrato che i parametri di emissione radiologica sono gli stessi per i protocolli di angiografia tradizionale, con iodio, e quelli che utilizzano CO2. Questa evidenza suggerisce che i protocolli CO2 operino solo sul trattamento delle immagini ottenute e non sulla modalità di acquisizione, e dal punto di vista dosimetrico l’angiografia con CO2 è riconducibile all’angiografia tradizionale. L’unico fattore che potrebbe portare a un effettivo incremento di dose al paziente è un allungamento dei tempi di scopia e di procedura, che andrebbe verificato con una campagna di misure in ambito clinico. Sulla base della stessa evidenza, si ritiene che la visualizzazione della CO2 possa essere ulteriormente migliorata attraverso l’ottimizzazione dei parametri di emissione radiologica (kVp, frame rate e durata degli impulsi) attualmente predisposti per l’uso di mezzi di contrasto iodati.
Resumo:
L'utilizzo dell'idrogeno come vettore energetico è uno dei temi, riguardanti la sostenibilità energetica, di maggior rilievo degli ultimi anni. Tuttavia ad oggi è ancora in corso la ricerca di un sistema che ne permetta un immagazzinamento efficiente. Il MgH2 costituisce un valido candidato per la produzione di sistemi per lo stoccaggio di idrogeno allo stato solido. In questa tesi, per migliorare le proprietà cinetiche e termodinamiche di cui questo sistema, sono stati sintetizzati dei campioni nanostrutturati composti da Mg-Ti attraverso la tecnica Inert Gas Condensation. I campioni così ottenuti sono stati analizzati dal punto di vista morfologico e composizionale, mediante la microscopia elettronica a scansione, la microanalisi e la diffrazione di raggi X. Tali analisi hanno mostrato che le dimensioni delle nanoparticelle sono comprese tra i 10-30 nm e che la tecnica IGC permette una distribuzione uniforme del titanio all'interno della matrice Mg. Le misure di caratterizzazione per l'assorbimento reversibile di idrogeno sono state effettuate attraverso il metodo volumetrico, Sievert. I campioni sono stati analizzati a varie temperature (473K-573K). Cineticamente la presenza di titanio ha provocato un aumento della velocità delle cinetiche sia per i processi di desorbimento che per quelli di assorbimento ed ha contribuito ad una diminuzione consistente delle energie di attivazione di entrambi i processi rispetto a quelle note in letteratura per il composto MgH2. Dal punto di vista termodinamico, sia le pressioni di equilibrio ottenute dalle analisi PCT a diverse temperature, che l'entalpia e l'entropia di formazione risultano essere in accordo con i valori conosciuti per il sistema MgH2. All'interno di questo lavoro di tesi è inoltre presentata un'analisi preliminare di un campione analizzato con la tecnica Synchrotron Radiation-Powder X Ray Diffraction in situ, presso la facility MAX-lab (Svezia), all’interno dell’azione COST, MP1103 per la ricerca di sistemi per lo stoccaggio di idrogeno allo stato solido.
Resumo:
Questo elaborato tratta dell'importanza dell'analisi testuale tramite strumenti informatici. Presenta la tecnica più utilizzata per questo tipo di analisi il: Topic Modeling. Vengono indicati alcuni degli algoritmi più sfruttati e si descrivono gli obiettivi principali. Inoltre introduce il Web Mining per l’estrazione di informazioni presenti nel web, specificando una tecnica particolare chiamata Web Scraping. Nell'ultima sezione dell’elaborato viene descritto un caso di studio. L’argomento dello studio è la Privatizzazione. Viene suddiviso in tre fasi, la primi riguarda la ricerca dei documenti e articoli da analizzare del quotidiano La Repubblica, nella seconda parte la raccolta di documenti viene analizzata attraverso l’uso del software MALLET e come ultimo passo vengono analizzati i topic, prodotti dal programma, a cui vengono assegnate delle etichette per identificare i sotto-argomenti presenti nei documenti della raccolta.
Resumo:
Il lavoro di tesi si basa sull'analisi del database pubblico ReconX, il quale costituisce lo stato dell'arte della ricostruzione in silico del metabolismo umano. Il modello che se ne può estrarre è stato impiegato per simulazioni di metabolismo cellulare in condizioni di ossigeno variabile, valutando l'impatto della carenza di ossigeno sulle reazioni e su i pathways metabolici. Le tecniche impiegate appartengono alla systems biology e sono di tipo bioinformatico e riguardano flux balance analysis e flux variability analysis. I risultati trovati vengono quindi confrontati con la letteratura di settore. E' stato inoltre possibile estrarre dei sotto network dal modello principale, analizzando la rete di connessioni esistente fra i metaboliti e fra le reazioni separatamente. Viene estratto e studiato anche il network di interazione fra pathways, su cui è introdotta una misura ad hoc per valutare la forza di connessione fra i vari processi. Su quest'ultimo network viene anche effettuata un'analisi di tipo stocastico, mostrando che tecniche di tipo markoviano possono essere applicate per indagini diverse da quelle più in uso basate sui flussi. Infine viene mostrata una possibile soluzione per visualizzare graficamente i network metabolici così costituiti.
Resumo:
Oggetto di questa tesi di laurea è la progettazione di una nuova scuola primaria in Via Bidente, località Villaggio Primo Maggio a Rimini. La tesi parte da un progetto preliminare, elaborato dall’ufficio tecnico del Comune di Rimini, sulla base del quale, nel settembre 2013, è stato indetto un appalto integrato con procedura aperta per l’affidamento sia della progettazione esecutiva che della realizzazione della scuola. L’intervento si era reso necessario poiché la vecchia scuola non era più in grado di far fronte alle esigenze del quartiere, investito da un intenso sviluppo che ne aveva aumentato sensibilmente gli abitanti e quindi la popolazione scolastica. La tesi ha assunto gli obiettivi e i dimensionamenti fissati dal Bando di gara: quindici aule, sei laboratori, palestra, biblioteca, mensa, sala insegnanti, area verde, parcheggio, pista ciclopedonale. Per definire le strategie di progetto da adottare, è stata effettuata un’analisi dell’area dalla quale sono emerse esigenze e criticità del quartiere. A scala urbana la viabilità e la fruibilità del lotto risultano inadeguate, e per correggerle, si è prevista la realizzazione di una nuova pista ciclabile e di un parcheggio. Inoltre professionisti esperti e di comprovata esperienza in materia hanno condotto studi approfonditi ed attente valutazioni di carattere ambientale, riguardanti l’inquinamento elettromagnetico, acustico ed atmosferico. Per limitare l'inquinamento acustico a cui la scuola risulterebbe esposta, è stata prevista la realizzazione di alcuni tratti di barriere fonoassorbenti lungo il perimetro dell’area di progetto al fine di proteggerla dalle fonti di rumore maggiormente impattanti. Al centro delle strategie progettuali c’è il bambino, che diventa il vero committente, ossia il soggetto di cui soddisfare esigenze e desideri. Si è cercato quindi di realizzare un ambiente confortevole e sicuro in cui i bambini si sentano a proprio agio. A scala architettonica si è pensata a una distribuzione degli spazi che permetta di sfruttare a pieno le potenzialità degli ambienti attraverso una collocazione delle funzioni su tre diverse fasce longitudinali: servizi nella zona nord, connettivo e aule a sud. Inoltre è stato studiato uno schema distributivo in linea con le esigenze dei nuovi modelli pedagogici, in particolare: aule e laboratori adattabili, spazi per l’apprendimento di gruppo sia all’interno che all’esterno dell’edificio, i cui spazi di distribuzione sono dimensionati per poter ospitare anche funzioni didattiche. Ogni scelta adottata vuol far si che tutto l’edificio diventi fonte di insegnamento per i bambini, una sorta di paesaggio dell’apprendimento.