915 resultados para Case di paglia, LCA, ciclo di vita, Pescomaggiore, efficienza energetica
Resumo:
Un sistema mobile di comunicazione è un sistema di telecomunicazioni in cui è possibile mantenere la connessione o legame tra due o più utenti, anche nelle situazioni di mobilità totale o parziale degli stessi utenti. I sistemi radiomobili si stanno evolvendo dalla creazione del 1G (prima generazione) al 4G (quarta generazione). I telefoni di ogni generazione si differenziano in quattro aspetti principali : accesso radio, velocità di trasmissione dati, larghezza di banda e sistemi di commutazione. In questa tesi si affronta il tema dei sistemi 5G , negli ambienti terrestri e satellitari , in quanto sono l'ultima evoluzione dei sistemi mobili . Si introduce il passaggio dalla prima alla connessione di quarta generazione , al fine di capire perché 5G sta per cambiare la nostra vita . Quello che mi colpisce è il sito italiano www.Repubblica.it che dice : " con la nuova generazione 5 possiamo affidare le intere porzioni nette di vita". La tecnologia cellulare , infatti , ha cambiato radicalmente la nostra società e il nostro modo di comunicare . In primo luogo è cambiata la telefonia vocale , per poi trasferirsi all' accesso dati , applicazioni e servizi. Tuttavia , Internet non è stato ancora pienamente sfruttato dai sistemi cellulari. Con l'avvento del 5G avremo l'opportunità di scavalcare le capacità attuali di Internet . Il sistema di comunicazione di quinta generazione è visto come la rete wireless reale , in grado di supportare applicazioni web wireless a livello mondiale ( wwww ). Ci sono due punti di vista dei sistemi 5G : evolutivo e rivoluzionario. Dal punto di vista evolutivo, i sistemi 5G saranno in grado di supportare wwww permettendo una rete altamente flessibile come un Adhoc rete wireless dinamica ( DAWN ) . In questa visione tecnologie avanzate, tra cui antenna intelligente e modulazione flessibile , sono le chiavi per ottimizzare le reti wireless ad hoc. Dal punto di vista rivoluzionario, i sistemi 5G dovrebbe essere una tecnologia intelligente in grado di interconnettere tutto il mondo senza limiti . Un esempio di applicazione potrebbe essere un robot wireless con intelligenza artificiale .
Resumo:
I tumori, detti anche ''la malattia del secolo'', portano ogni anno alla morte di oltre 7 milioni di persone al mondo. Attualmente è una malattia molto diffusa che colpisce soprattutto persone anziane e non solo; tuttavia ancora non esiste una cura ''esatta'' che riesca a guarire la totalità delle persone: anzi si è ben lontani da questo risultato. La difficoltà nel curare queste malattie sta nel fatto che, oltre ad esservi una grande varietà di tipologie (è quindi difficile trovare una cura unica), spesse volte la malattie viene diagnosticata molto tempo dopo la comparsa per via dei sintomi che compaiono in ritardo: si intende quindi che si parla di una malattia molto subdola che spesse volte lascia poche speranze di vita. Uno strumento, utilizzato assieme alla terapie mediche, è quello della modellizzazione matematica: essa cerca di descrivere e prevedere, tramite equazioni, lo sviluppo di questo processo e, come ben si intenderà, poter conoscere in anticipo quel che accadrà al paziente è sicuramente un fattore molto rilevante per la sua cura. E' interessante vedere come una materia spesso definita come "noiosa" ed ''inutile'', la matematica, possa essere utilizzata per i più svariati, come -nel caso specifico- quello nobile della cura di un malato: questo è un aspetto di tale materia che mi ha sempre affascinato ed è anche una delle ragioni che mi ha spinto a scrivere questo elaborato. La tesi, dopo una descrizione delle basi oncologiche, si proporrà di descrivere le neoplasie da un punto di vista matematico e di trovare un algoritmo che possa prevedere l'effetto di una determinata cura. La descrizione verrà fatta secondo vari step, in modo da poter rendere la trattazione più semplice ed esaustiva per il lettore, sia egli esperto o meno dell'argomento trattato. Inizialmente si terrano distinti i modelli di dinamica tumorale da quelli di cinetica farmacologica, ma poi verrano uniti ed utilizzati assieme ad un algoritmo che permetta di determinare l'effetto della cura e i suoi effetti collaterali. Infine, nella lettura dell'elaborato il lettore deve tenere sempre a mente che si parla di modelli matematici ovvero di descrizioni che, per quanto possano essere precise, sono pur sempre delle approssimazioni della realtà: non per questo però bisogna disdegnare uno strumento così bello ed interessante -la matematica- che la natura ci ha donato.
Resumo:
Il CP-ESFR è un progetto integrato di cooperazione europeo sui reattori a sodio SFR realizzato sotto il programma quadro EURATOM 7, che unisce il contributo di venticinque partner europei. Il CP-ESFR ha l'ambizione di contribuire all'istituzione di una "solida base scientifica e tecnica per il reattore veloce refrigerato a sodio, al fine di accelerare gli sviluppi pratici per la gestione sicura dei rifiuti radioattivi a lunga vita, per migliorare le prestazioni di sicurezza, l'efficienza delle risorse e il costo-efficacia di energia nucleare al fine di garantire un sistema solido e socialmente accettabile di protezione della popolazione e dell'ambiente contro gli effetti delle radiazioni ionizzanti. " La presente tesi di laurea è un contributo allo sviluppo di modelli e metodi, basati sull’uso di codici termo-idraulici di sistema, per l’ analisi di sicurezza di reattori di IV Generazione refrigerati a metallo liquido. L'attività è stata svolta nell'ambito del progetto FP-7 PELGRIMM ed in sinergia con l’Accordo di Programma MSE-ENEA(PAR-2013). Il progetto FP7 PELGRIMM ha come obbiettivo lo sviluppo di combustibili contenenti attinidi minori 1. attraverso lo studio di due diverse forme: pellet (oggetto della presente tesi) e spherepac 2. valutandone l’impatto sul progetto del reattore CP-ESFR. La tesi propone lo sviluppo di un modello termoidraulico di sistema dei circuiti primario e intermedio del reattore con il codice RELAP5-3D© (INL, US). Tale codice, qualificato per il licenziamento dei reattori nucleari ad acqua, è stato utilizzato per valutare come variano i parametri del core del reattore rilevanti per la sicurezza (es. temperatura di camicia e di centro combustibile, temperatura del fluido refrigerante, etc.), quando il combustibile venga impiegato per “bruciare” gli attinidi minori (isotopi radioattivi a lunga vita contenuti nelle scorie nucleari). Questo ha comportato, una fase di training sul codice, sui suoi modelli e sulle sue capacità. Successivamente, lo sviluppo della nodalizzazione dell’impianto CP-ESFR, la sua qualifica, e l’analisi dei risultati ottenuti al variare della configurazione del core, del bruciamento e del tipo di combustibile impiegato (i.e. diverso arricchimento di attinidi minori). Il testo è suddiviso in sei sezioni. La prima fornisce un’introduzione allo sviluppo tecnologico dei reattori veloci, evidenzia l’ambito in cui è stata svolta questa tesi e ne definisce obbiettivi e struttura. Nella seconda sezione, viene descritto l’impianto del CP-ESFR con attenzione alla configurazione del nocciolo e al sistema primario. La terza sezione introduce il codice di sistema termico-idraulico utilizzato per le analisi e il modello sviluppato per riprodurre l’impianto. Nella sezione quattro vengono descritti: i test e le verifiche effettuate per valutare le prestazioni del modello, la qualifica della nodalizzazione, i principali modelli e le correlazioni più rilevanti per la simulazione e le configurazioni del core considerate per l’analisi dei risultati. I risultati ottenuti relativamente ai parametri di sicurezza del nocciolo in condizioni di normale funzionamento e per un transitorio selezionato sono descritti nella quinta sezione. Infine, sono riportate le conclusioni dell’attività.
Resumo:
In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.
Resumo:
Le tematiche presentate in questa tesi fanno parte di una disciplina in ampio sviluppo nella ricerca scientifica moderna denominata “Dronistica”. I droni possiedono caratteristiche fisiche differenti in base alle esigenze dettate dall'ambito di utilizzo. La dronistica è infatti una disciplina molto varia e completa grazie alla versatilità dei dispositivi utilizzati, principalmente però tratta aeromobili a pilotaggio remoto e la loro applicazione nella computer vision. Nonostante il ricco hardware ed i molteplici software attualmente a disposizione dei ricercatori, questo settore è attualmente nelle prime fasi di vita; le prospettive di miglioramento e di sviluppo infatti sono ampie ed in mano a chi si occuperà di effettuare operazioni di ricerca e sperimentazione in tale campo. Nel seguente lavoro viene presentata la dronistica sotto ogni suo aspetto fondamentale, ponendo particolare attenzione ai dettagli tecnici ed alle applicazioni presenti e future. Il lavoro svolto inizia descrivendo la storia dei droni, presentando una panoramica sui modelli, le normative attualmente in vigore ed una classificazione delle applicazioni. La parte centrale della tesi tratta invece gli aspetti tecnici della dronistica, descrivendo le tecnologie hardware e le tecnologie software attualmente disponibili sul mercato. L'ultima parte descrive invece il legame tra i droni e la computer vision, il loro interfacciamento, le applicazioni ed i vantaggi di tale combinazione, mostrando inoltre casi di studio di diverse facoltà tra cui quella di Ingegneria e Scienze Informatiche di Cesena. Infine termina con una conclusione riguardante il lavoro svolto ed una prospettiva sugli sviluppi futuri.
Resumo:
Gli ammassi di galassie sono gli oggetti gravitazionalmente legati più grandi dell’Universo. Questi emettono principalmente in banda X tramite bremsstrahlung. Una frazione mostra anche emissione radio diffusa da parte di elettroni relativistici che spiraleggiano nel campo magnetico. Si possono classificare tre tipi di emissione: alon, relitti e mini-aloni radio (MH). I MH sono sorgenti radio su scale di ≥ 200 – 500 kpc, osservate al centro di ammassi caratterizzati dalla presenze di cool-core (CC). L’origine dei MH non è ancora chiara. Gli elettroni relativistici che emettono in banda radio hanno tempi di vita radiativi di molto inferiori a quelli necessari per diffondere sulle scale dell’emissione diffusa. Quindi non sono semplicemente iniettati dalle galassie presenti negli ammassi ed è necessario un meccanismo di accelerazione “in-situ” nell’ICM. I MH testimoniano la presenza di meccanismi che canalizzano parte del budget energetico disponibile nei CC nell’ICM.Quindi lo studio è importante per comprendere la fisica dell’ICM e l’interazione fra le componenti non termiche e termiche. I MH si formano attraverso la riaccelerazione delle particelle relativistiche ad opera della turbolenza del gas. L’origine di questa turbolenza tuttavia non è ancora ben compresa. Gli ammassi CC sono caratterizzati da un picco della brillanza X nelle regioni centrali e da un drop della temperatura verso il centro accompagnata da aumento della densità del gas. Si ritiene che questo sia dovuto al raffreddamento del gas che quindi fluisce nelle zone centrali. Recenti osservazioni in X risultan inconsistenti con il modello classico di CF, suggerendo la presenza di una sorgente di riscaldamento del gas su scale del core degli ammassi. Recentemente Zhuravleva (2014) hanno mostrato che il riscaldamento dovuto alla turbolenza prodotta dall'AGN centrale è in grado di bilanciare il processo di raffreddamento. Abbiamo assunto che la turbolenza responsabile del riscaldamento del gas è anche responsabile dell’accelerazione delle particelle nei MH. Nell’ambito di questo scenario ci si aspetta una correlazione tra la potenza del cooling flow, PCF, che è una misura del tasso di energia emessa dal gas che raffredda nei CC, e la luminosità radio, che è una frazione dell’energia della turbolenza che è canalizzata nell’accelerazione delle particelle. In questo lavoro di tesi abbiamo utilizzato il più grande campione disponibile di MH, allo scopo di studiare la connessione fra le proprietà dei MH e quelle del gas termico nei core degli ammassi che li ospitano. Abbiamo analizzato i dati di 21 ammassi e ricavato i parametri fisici all’interno del raggio di cooling e del MH. Abbiamo ricavato la correlazione fra luminosità radio, e PCF. Abbiamo trovato che le due quantità correlano in modo quasi-lineare confermando i risultati precedenti. Tale correlazione suggerisce uno stretto legame fra le proprietà del gas nei CC e l’origine dei MH.
Resumo:
Nella tesi vengono analizzati i diversi aspetti della domotica. Uno sguardo sulla storia, sulle caratteristiche sia funzionali che strutturali. Viene analizzato l'impatto che questa ha sull'uomo e sul suo stile di vita. Vengono messe a confronto Google ed Apple, nello specifico per quel che riguarda la loro risposta alla smart home: Nest ed HomeKit, sia a livello funzionale che di codice. In seguito all'analisi di API e documentazioni è emerso che entrambe le aziende offrono pressoché le medesime funzionalità, ma con piccole particolarità che fanno la differenza, dando inizio così ad una battaglia per il primato.
Resumo:
L’ipertensione arteriosa polmonare è una malattia ad esito infausto, con un piccolo tasso di incidenza sulla popolazione (in Italia circa 700 nuovi casi all’anno), ma senza una cura medica o farmacologica che ne risolva adeguatamente le problematiche. Tutti gli individui che contraggono tale patologia vengono sottoposti a forti terapie farmacologiche che aumentano le aspettative di vita di alcuni mesi o, in casi più fortunati, di qualche anno, ma non garantiscono una vita regolare e duratura (attesa di sopravvivenza circa cinque anni). In questa situazione di evidente inadeguatezza, una analisi biomeccanica dell’evoluzione della malattia sembra individuare nel progressivo disadattamento meccanico tra pompa e carico una delle cause di deterioramento, e tra i diversi modi di arrestare o compensare questa evoluzione si possono individuare soluzioni per aumentare la sopravvivenza dell’individuo, con una qualità della vita addirittura migliore rispetto a quella che l’approccio farmacologico oggi consente. Scopo di questo studio è la progettazione e la costruzione di un simulatore meccanico in grado di riprodurre l’accoppiamento e il trasferimento energetico tra il ventricolo destro e l’arteria polmonare, in condizioni fisiologiche normali e in caso di ipertensione arteriosa. La realizzazione di un simulatore che riproducesse dinamicamente valori fisiologici dei parametri di interesse (pressioni, volumi, resistenze, etc.) entro limiti accettabili non è stato facile; ciononostante, è stato ottenuto un risultato significativo, verificando la fattibilità di un intervento biomeccanico che modifichi l’evoluzione della malattia attraverso il recupero di un migliore adattamento tra pompa cardiaca e carico vascolare.
Resumo:
L’idea del presente elaborato nasce da due elementi principali: l’attualità del tema in Giappone ma anche in Europa, e l’esistenza nella lingua giapponese di strutture grammaticali e sintattiche propriamente “maschili”. L’analisi della figura della donna nella società giapponese moderna è trattata attraverso un breve excursus che va dalla mitologia alla Seconda Guerra Mondiale. Il mito presenta la femminilità come valore, e genera una società matriarcale. Tuttavia, l’influenza delle religioni e lo sviluppo del sistema feudale ben presto orientano la società verso un rigido patriarcato. Nonostante la Restaurazione Meiji abbia dato impulso ai primi movimenti di riforma in materia di diritti delle donne, è solo durante il periodo Taishō che la società assimila influenze progressiste e vedute più aperte, e lo status della donna diviene oggetto di riforme e conquiste. Nella seconda metà degli anni Trenta il clima oppressivo in vista della Seconda Guerra Mondiale predilige ancora una volta il ruolo femminile tradizionale plasmato dalla cultura patriarcale. Per la prima volta, durante l’Occupazione statunitense viene proposto un modello femminile alternativo, che sembra promuovere un’immagine diversa della donna. Tuttavia, tale fenomeno indietreggia non appena mutano le priorità degli Stati Uniti in Giappone. In seguito, lo studio della figura della donna nella società è trattata tramite l’analisi della Costituzione del 1946 e delle leggi in materia di famiglia, istruzione e occupazione. Tale analisi risulta interessante in quanto riflette l’andamento altalenante che caratterizza la società giapponese nell'ambito dell’eguaglianza di genere. Inoltre, è riportata l’analisi critica delle leggi in materia di eguaglianza di genere e pari opportunità in ambito lavorativo. L’analisi delle leggi permette di comprendere le tendenze delle nuove generazioni emerse negli ultimi anni, in particolare lo stile di vita della donna del Giappone contemporaneo.
Resumo:
Questa tesi descrive lo sviluppo di un OECT (Organic Eletrochemical Transistor) basato su un polimero conduttore (PEDOT:PSS) stampato su tessuto che può essere utilizzato come sensore fisico e chimico. Il lavoro di tesi si posiziona all’interno della Wearable Technology ossia il mercato emergente dei dispositivi indossabili. Essi sono caratterizzati da innumerevoli ambiti di applicazione tra i quali troviamo le varie forme di pagamento digitale, la gestione della salute e del fitness, dell'Entertainment e l’utilizzo nel mondo della moda. Questa ricerca nello specifico mostra come tali transistor, quando utilizzati come sensori chimici, possano essere impiegati per rivelare e dosare composti redox attivi quali acido ascorbico, adrenalina e dopamina. Tali sostanze sono state scelte per l’importanza che rivestono nel metabolismo umano e la loro presenza in diversi fluidi biologici, quali sudore o sangue, può essere utile per il monitoraggio, la diagnostica e la prevenzione di diverse malattie. I sensori possono essere fabbricati mediante semplici processi di stampa su un tessuto indossabile permettendo così di monitorare tali fattori in tempo reale e con un ingombro estremamente ridotto. Il tempo di vita del dispositivo tessile è stata valutata sottoponendolo a diversi cicli di lavaggio.
Resumo:
Con Brain-Computer Interface si intende un collegamento diretto tra cervello e macchina, che essa sia un computer o un qualsiasi dispositivo esterno, senza l’utilizzo di muscoli. Grazie a sensori applicati alla cute del cranio i segnali cerebrali del paziente vengono rilevati, elaborati, classificati (per mezzo di un calcolatore) e infine inviati come output a un device esterno. Grazie all'utilizzo delle BCI, persone con gravi disabilità motorie o comunicative (per esempio malati di SLA o persone colpite dalla sindrome del chiavistello) hanno la possibilità di migliorare la propria qualità di vita. L'obiettivo di questa tesi è quello di fornire una panoramica nell'ambito dell'interfaccia cervello-computer, mostrando le tipologie esistenti, cercando di farne un'analisi critica sui pro e i contro di ogni applicazione, ponendo maggior attenzione sull'uso dell’elettroencefalografia come strumento per l’acquisizione dei segnali in ingresso all'interfaccia.
Resumo:
Il software Smart-M3, ereditato dal progetto europeo SOFIA, conclusosi nel 2011, permette di creare una piattaforma d'interoperabilità indipendente dal tipo di dispositivi e dal loro dominio di utilizzo e che miri a fornire un Web Semantico di informazioni condivisibili fra entità software e dispositivi, creando ambienti intelligenti e collegamenti tra il mondo reale e virtuale. Questo è un campo in continua ascesa grazie al progressivo e regolare sviluppo sia della tecnologia, nell'ambito della miniaturizzazione dei dispositivi, che delle potenzialità dei sistemi embedded. Questi sistemi permettono, tramite l'uso sempre maggiore di sensori e attuatori, l'elaborazione delle informazioni provenienti dall’esterno. È evidente, come un software di tale portata, possa avere una molteplicità di applicazioni, alcune delle quali, nell’ambito della Biomedica, può esprimersi nella telemedicina e nei sistemi e-Heath. Per e-Health si intende infatti l’utilizzo di strumenti basati sulle tecnologie dell'informazione e della comunicazione, per sostenere e promuovere la prevenzione, la diagnosi, il trattamento e il monitoraggio delle malattie e la gestione della salute e dello stile di vita. Obiettivo di questa tesi è fornire un set di dati che mirino ad ottimizzare e perfezionare i criteri nella scelta applicativa di tali strutture. Misureremo prestazioni e capacità di svolgere più o meno velocemente, precisamente ed accuratamente, un particolare compito per cui tale software è stato progettato. Ciò si costruisce sull’esecuzione di un benchmark su diverse implementazioni di Smart-M3 ed in particolare sul componente centrale denominato SIB (Semantic Information Broker).
Resumo:
Il restauro, nella sua concezione prima filosofica e poi pratico-progettuale, è per me il mezzo di indagine di una realtà - quella contemporanea - innanzitutto storica, di Paesaggio pluristratificato. Tutto reca con se segno e espressione di un rapporto antico tra Uomo e Natura, e la città, intesa nell'immagine della più grande architettura mai concepita, ne è l'emblema massimo che attraverso la sua forma e le sue dinamiche cerca di esperire in maniera più o meno sapiente il luogo naturale in cui decide di "Abitare". L'Acqua in questo indissolubile legame tra Uomo e Natura ne è l'elemento fondativo: le città, come la vita, nascono ove Lei si fa presente, e - almeno in passato - il mantenimento di una relazione intima e vitale con Lei si manifestava in bellezza, ricchezza e qualità della vita della città stessa. La fabbrica del Lavatoio pubblico coperto della città di Fossombrone, un tempo anche ospedale civico, diventa così, nel suo contatto diretto (fisico-visivo) col fiume Metauro, il baluardo ultimo di un viaggio di scoperta atto a scriverne una storia possibile, e in ultima istanza ma non per importanza, a pensarne - almeno idealmente - la possibilità di un progetto contemporaneo, un progetto possibile. Attraverso l'idea di un nuovo spazio pubblico, in un ottica del tutto positivista di miglioramento della qualità della vita - dal benessere individuale verso il benessere collettivo - e intensificazione della vita pubblica, il progetto si fa portavoce delle pratiche comunitarie di agricoltura urbana, la cui forma deriva e non esclude le altre facenti parte del concetto generale di verde urbano: l'orto, l'orto-giardino, il giardino, il parco, ecc. La dimensione collettiva, inclusiva, sociale e partecipativa di tale tematica fa strada, citando Lefebvre, ad un rinnovato diritto alla città: non alla città antica, ma alla vita urbana, ai luoghi d'incontro e di scambio, a ritmi di vita e impieghi di tempo che permettano l'uso pieno e intero di questi momenti e luoghi.
Resumo:
Il progetto si sviluppa a partire dalla lettura di Berlino come città costituita da parti, una serie di forme urbane, brani di città, ognuno con una propria identità, tuttora chiaramente leggibili. All’interno di questo sistema frammentario è stata effettuata un’analisi più approfondita degli spazi verdi, reinterpretando il Piano per Berlino del paesaggista Peter Joseph Lenné. Egli pone al centro della pianificazione urbana la struttura del verde pubblico, cogliendo il dato di Berlino come città fatta di frammenti. Il nostro progetto individua sul segno del boulevard a nord, disegnato da Lenné, una serie di spazi verdi di diversa natura e di poli aggregativi di rilevanza socio culturale. Il parco diventa un’estensione del polo culturale in cui poter realizzare attività all’aperto: un catalizzatore di vita urbana, luogo di aggregazione per la popolazione. Lo sviluppo di una parte della tesi a Berlino ci ha permesso di conoscere la città e di comprendere a pieno l’importanza che i luoghi di socializzazione, gli spazi condivisi hanno per i berlinesi. Il progetto di un polo culturale, comprendente biblioteca, atelier, laboratori e residenze per artisti, nel quartiere Friedrichshain, si inserisce all’interno del più ampio sistema di parchi e poli aggregativi.
Resumo:
Durante la mia tesi mi sono occupata di una grave patologia, l’Aneurisma Cerebrale, che rappresenta una delle principali cause di ospedalizzazione provocando il 10/12% della mortalità globale annua nei paesi industrializzati. In Italia , l’incidenza di aneurismi cerebrali è di 100.000 nuovi casi all’anno. In generale , nei paesi industrializzati, la prevalenza è stimata a circa 600 per 100.000 abitanti . Tuttavia la prevalenza degli aneurismi cerebrali nelle popolazioni in generale , è molto più elevato stimato intorno al 2,3%,il che suggerisce indirettamente che la maggior parte degli aneurismi non va mai incontro a rottura. Negli ultimi vent’anni lo sviluppo della tecnologia ha visto significativi progressi che ci hanno permesso di agire sul problema in modo sempre migliore. Nei primi capitoli ho descritto alcune apparecchiature biomediche che sono di fondamentale importanza nello studio degli aneurismi cerebrali, mettendo in evidenza le varie peculiarità che le contraddistinguono. A seguire, ho parlato del trattamento endovascolare, che consiste nell’esclusione della cavità aneurismatica dal flusso di sangue, il quale viene incanalato in una protesi posizionata all’interno del lume vasale eliminando il rischio di rottura o di embolizzazione di materiale trombotico proveniente dalla sacca aneurismatica. I vantaggi della tecnica endovascolare consistono nella minore invasività rispetto alla tecnica chirurgica standard, la craniotomia. A fronte di ciò, si deduce quanto l’ingegneria biomedica sia una disciplina in evoluzione. Le condizioni di vita delle persone che subiscono questi tipi di interventi sono notevolmente migliorate ottenendo risultati di completa o semi-completa guarigione.