244 resultados para Eberhart, Nelle Richmond
Resumo:
Le simulazioni atomiche dei canali ionici del K+ mettono in evidenza una significativa inaccuratezza: i valori di conduttanza del canale stimati sono molto distanti dai valori sperimentali. Per tentare di migliorare le simulazioni e i loro risultati, è necessario modificare il modello di Force Field impiegato. Si è scelto di adottare il modello di Force Field AMBER, uno dei più utilizzati per simulazioni di molecole biologiche in dinamica molecolare, e di agire sui valori dei parametri di Lennard-Jones cercando un set di valori che permetta di minimizzare la distanza tra la conduttanza stimata e la conduttanza sperimentale delle soluzioni saline. L’analisi ha dimostrato che non è possibile riprodurre in modo quantitativo i valori sperimentali di conduttanza di soluzioni saline di Na+ e K+ in simulazioni atomiche basate su un modello di Force Field additivo.
Resumo:
Le microplastiche (MP) rientrano nella categoria di contaminanti emergenti per la loro pericolosità e persistenza nell'ecosistema. Gli impianti di trattamento acque sono identificati come una fonte principale di MP per l’ambiente. A causa della mancanza di metodi di separazione standard per le MP da fanghi ed acque reflue, nel presente lavoro sperimentale, sono testati diversi metodi di separazione delle MP da campioni di fanghi e acque di due impianti reali. Tramite analisi allo stereomicroscopio e identificazione della struttura polimerica mediante spettroscopia infrarossa in riflettanza totale attenuata (FTIR-ATR) si sono ottenute delle prime stime sulle quantità di MP all’interno dei depuratori che andranno vagliate con successive prove. In generale c’è una grande variabilità associata al punto di prelievo, al periodo di campionamento e alle caratteristiche del refluo. I dati sperimentali confermano la presenza di MP sia nelle acque che nei fanghi. Per la linea acque sono esaminati un trattamento convenzionale a fanghi attivi di un piccolo impianto (1) e un trattamento terziario di filtrazione a sabbia con peracetico e UV di un impianto di potenzialità superiore (2). Seppure le efficienze di rimozione siano alte (93,37% per l’impianto 1 e 59,80% per il 2), i carichi di MP rilasciati in ambiente sono elevati a causa delle portate trattate. Il fatto che MP della stessa morfologia e colore si ritrovino in setacci di differenti dimensioni e che le concentrazioni aumentino al diminuire della dimensione, suggerisce che subiscano svariate frammentazioni a monte del campionamento. Per i fanghi sono testati 3 metodi di pretrattamento individuando il migliore in quello con pre-digestione con H2O2 e separazione per densità con NaI che verrà in seguito implementata. Nei fanghi tendono a concentrarsi le MP rimosse dalla linea acque che di solito sono quelle di densità maggiore, infatti si riscontra prevalenza di microparticelle.
Resumo:
Vista la crescente necessità di svolgere progetti d'innovazione guidati dalle nuove tecnologie, la presente ricerca risponde all'esigenza di trovare una metodologia efficace per poterli affrontare proficuamente. In un primo momento, l'elaborato propone una metodologia che permette di elaborare una classificazione dei progetti d'innovazione technology-driven in classi ed un pacchetto di tools funzionali al riconoscimento dell'appartenenza alle stesse. In un secondo momento, giunti a comprensione del fatto che ad ognuna delle classi corrisponde uno specifico fine raggiungibile con una specifica metodologia, lo studio descrive la metodologia seguita per raggiungere una efficace e ripetibile elaborazione di principi progettuali, buone pratiche e strumenti che permettano ad una Organizzazione di appropriarsi del valore di una tecnologia General Purpose (GPT) attraverso l'ideazione di soluzioni innovativa. La progettazione è figlia di un approccio di Design Thinking (DT), sia poichè esso è stato usato nello svolgimento stesso della ricerca, sia perchè la metodologia DT è alla base della modellazione del processo proposto per la classe.
Resumo:
La risposta sismica del patrimonio edilizio in muratura è molto articolata e richiede una completa comprensione del comportamento delle strutture stesse nel caso in cui siano soggette ad azione sismica, unitamente a corrette ed esaustive valutazioni numeriche. Questo elaborato è volto alla comprensione del fenomeno chiamato effetto flangia, ovvero l’interazione reciproca di pareti in muratura incidenti, mediante uno studio parametrico. Infatti, tale aspetto dipende da diversi parametri, tra i quali l’ammorsamento, lo spessore e le proporzioni tra i muri incidenti giocano un ruolo principale. Mediante un software ad elementi finiti (ABAQUS) è stato possibile implementare uno script di generazione dei modelli basato sui diversi parametri geometrici (lunghezza della parete incidente e della parete trasversale, e la loro posizione relativa) e su due diverse condizioni di vincolamento dei modelli. Inoltre, si è presa in considerazione la variabilità del carico verticale, stimandola in relazione al valore di resistenza a compressione della muratura: da un valore molto ridotto (5%), fino ad arrivare ad un valore elevato di compressione verticale (30%). L’analisi dei risultati utilizza le convenzionali curve di pushover per strutture in muratura costruite secondo i dettami della normativa tecnica italiana. Tali curve sono analizzate in funzione della percentuale di pressione che viene applicata catturando per ogni caso notevole l’effetto degli altri parametri variabili cercando quindi di descrivere la presenza dell’effetto flangia, ovvero evidenziando le variazioni della risposta strutturale (massimo taglio, duttilità, tipo di crisi etc.) quando è presente una interazione tra due pareti incidenti.
Resumo:
Nonostante l'utilizzo di strumenti informatici nella pratica didattica della matematica sia ormai ampiamente diffuso, l'insegnamento dei principi matematici dell'informatica è preso meno in considerazione anche a causa dei pochi punti di contatto nelle "Indicazioni Nazionali" tra le due materie, matematica e informatica, che sono invece intimamente correlate. Questa tesi descrive una attività didattica incentrata sul concetto di calcolabilità e computabilità e basata sul noto formalismo delle Macchine di Turing. É nostra opinione che coinvolgere gli studenti in tali tipologie di attività possa stimolare oltre all'apprendimento di competenze disciplinari, anche lo sviluppo di importanti competenze trasversali, in primis, il problem solving. L’attività proposta nella tesi è stata realizzata in una classe terza di un istituto tecnico economico dove, a seguito di una spiegazione dell’argomento, sono stati svolti due esercizi di gruppo, utilizzando il software \emph{Turing Machine Visualization}, che permette agli studenti e al docente di avere un supporto visuale al dialogo. Al termine dell’attività didattica è stato somministrato agli studenti un questionario che ha permesso di valutare le competenze acquisite da due prospettive distinte: soggettiva e oggettiva. I risultati del questionario sono ampliamente analizzati e discussi nella tesi.
Resumo:
Il presente lavoro di tesi illustra lo studio di due fenomeni aeroelastici: il vortex shedding e il flutter. Il primo riguarda le vibrazioni indotte dall’azione del vento su funi in acciaio, il secondo invece riguarda l’instabilità flesso-torsionale tipica di ponti sospesi e strallati e dunque di ponti a grande luce libera e aventi impalcati estremamente flessibili. Questi due fenomeni possono condurre la struttura a gravi danneggiamenti o addirittura al collasso e per tale motivo è necessario eseguire studi approfonditi. Due le applicazioni pratiche riscontrate nel presente elaborato: la prima si focalizza sulle oscillazioni che si hanno in alcuni cavi che sostengono la copertura del nuovo stadio del Cairo in Egitto, la seconda riguarda l’instabilità aeroelastica che può verificarsi in un ponte, quale quello sullo stretto di Messina, quando la campata centrale sospesa raggiunge luci mai tentate prima. Dopo un inquadramento generale dei due fenomeni sopra citati e dopo averli descritti da un punto di vista normativo, si è cercato di capire come intervenire al fine di trovare soluzioni efficienti: si è infatti progettato un dispositivo di smorzamento delle vibrazioni per i cavi e si è proceduto con uno studio sperimentale per individuare una audace e rivoluzionaria soluzione per il famigerato ponte sullo stretto di Messina.
Resumo:
la gestione ottimale del rischio alluvionale è un ambito di ricerca di grande rilevanza a livello nazionale e internazionale. Con riferimento alle alluvioni, infatti, sono state proposte in letteratura diverse tecniche innovative per la previsione e la mitigazione del rischio alluvionale. Tra di esse spiccano le tecniche speditive di mappatura della pericolosità idraulica ottenute attraverso l'utilizzo di descrittori geomorfici. Detti approcci derivano descrittori morfologici analizzando modelli digitali delle quote del terreno (DEM) ed in base ad essi forniscono una mappatura di pericolosità idraulica da alluvione. Che gioco svolge la risoluzione del DEM di partenza sull'accuratezza dei prodotti finali? La combinazione di DEM a diversa risoluzione migliora le prestazioni dei singoli dataset? Il lavoro di Tesi analizza l'importanza della risoluzione del DEM di partenza sull'accuratezza delle mappature conseguibili, utilizzando come riferimento l'area del bacino del Samoggia con chiusura a Calcara. I risultati ottenuti mostrano come: (a) le caratteristiche dei descrittori geomorfici considerati sembrano essere influenzate significativamente da quelle del DEM utilizzato come dato in ingresso e (b) DEM ad elevata risoluzione portino ad un aumento nell'accuratezza della mappatura di pericolosità.
Resumo:
Decolonizzare il progetto di riqualificazione interrogandosi su chi siano i reali beneficiari dell’intervento, in particolar modo quando si opera all’interno dei délaissés o del Terzo paesaggio (Patrick Bouchain, Forêt des délaissés-Gilles Clemant, Manifesto del Terzo paesaggio), non è solo atto speculativo ma anche etico-politico per un’architettura che ha il dovere di confrontarsi prolificamente con le sfide della contemporaneità. Si sono analizzate le origini e i motivi alla base del pensiero coloniale, oggetto di studio dei post-colonial studies. Gli studi decoloniali cercano di offrire nuove chiavi di lettura per l’individuazione della permanenza delle categorie coloniali nella descrizione dei processi promuovendone la decostruzione. Si evidenzia quindi come la causa ambientalista fatichi a sussistere finché non diventa intersezionale allo sradicamento dei suddetti paradigmi. Si elabora un progetto interspecie nel quale l’architettura si volge a tutti gli esseri viventi, schierandosi apertamente contro coloro che, in nome del profitto, continuano a degradare i beni comuni. Non si tratta di un revival delle esperienze utopiche, ma una presa di coscienza che trasforma la speculazione in pragmatismo, attraverso la messa in discussione di pratiche consolidate all’interno di determinati contesti. Come caso applicativo si è scelto quello dell’ Ex cementificio Marchino, uno fra i tanti esempi di archeologia industriale presenti a Prato. Il complesso abbandonato da più di 60 anni, vede la presenza di fenomeni riappropriativi da parte dell’elemento naturale a tal punto da aver ricostituito al suo interno un personale equilibrio ecosistemico, trasfigurando la cementizia in opera-luogo adatto ad accogliere la biodiversità urbana. La scelta del sito è un atto apertamente provocatorio, in quanto questo - situato alle pendici della Calvana - è oggetto dell’ennesimo fenomeno di speculazione edilizia qualificato, ancora una volta, come intervento di riqualificazione urbana.
Resumo:
La presente ricerca si focalizza sull’analisi di come l’utilizzo dei servizi ecosistemici vada a riconfigurare e ri-significare le socio-nature urbane, in particolare nel contesto dei due casi di studio presi in analisi: il bosco urbano dei Prati di Caprara e l’area di riequilibrio ecologico Golena San Vitale. Si vedrà come nel caso della Golena San Vitale verrà riprodotta la narrazione dominante sulla sostenibilità ambientale, perfettamente integrata nei meccanismi neoliberali. Nel caso dei Prati di Caprara, invece, verrà sottolineato come i servizi ecosistemici subiranno una riappropriazione dal basso, attraverso delle pratiche collettive che puntano a sovvertire le relazioni di potere insite in questo concetto. Questo contributo si inserisce nel dibattito dell’ecologia politica, ed in particolare dell’ecologia politica urbana, utilizzando tale approccio per decostruire il discorso scientifico, nato attorno ai servizi ecosistemici, e portare alla luce le asimmetrie di potere insite in tale narrazione. Nella raccolta ed elaborazione dei dati, si andrà ad utilizzare una triangolazione di metodi di ricerca. L’analisi testuale e discorsiva utilizzata nella decostruzione del discorso istituzionale sarà quindi completata dalle interviste semi-strutturate ad attori coinvolti nei processi relativi ai due casi di studio e da una ricerca etnografica di osservazione partecipante.
Resumo:
La geometria frattale permette di definire un indice di complessitá strutturale di oggetti che presentano, fino a un certo livello d’ingrandimento, caratteristiche di auto-similaritá: il cervello umano ha un alto livello di complessitá, che cambia durante il corso della vita e con l’insorgenza di patologie. Tale complessitá puó essere descritta tramite la dimensione frattale (FD). L’obiettivo di questo elaborato ́e sviluppare un metodo di calcolo della FD surface-based, partendo dalla ricostruzione mediante mesh triangolari della superficie cerebrale. A questo scopo ́e stata implementata una procedura che utilizza gli strumenti di analisi di neuroimmagini, come FSL e FreeSurfer; l’algoritmo ́e stato validato su fantocci tridimensionali e testato su immagini di risonanza magnetica pesate in T1 del dataset International Consortium for Brain Mapping (ICBM), composto da 86 soggetti sani con etá compresa tra i 19 e gli 85 anni. Dalla ricerca condotta é emerso che il calcolo della FD surface-based restituisce valori accurati per i fantocci e permette di differenziare significativamnete gli uomini dalle donne. Concludendo, riteniamo che la FD surface-based si possa candidare come marcatore di complessitá strutturale nelle neuroimmagini, in modo complementare agli indici morfologici convenzionali.
Resumo:
Tutti sono a conoscenza degli innumerevoli conflitti che, negli ultimi trent’anni, hanno interessato diverse aree del mondo, coinvolgendo Occidente e Oriente, a partire dalla guerra del Golfo, nel 1991, passando per la guerra nei Balcani, per arrivare alla guerra civile siriana e alla recentissima occupazione russa in Ucraina. Ciò che tende a rimanere nascosto è che, di fianco alle forze militari e para-militari, come personale sanitario e scienziati specializzati in vari ambiti, in ognuna di queste situazioni hanno operato e operano tutt’oggi figure che sono tendenzialmente invisibili, almeno sotto il punto di vista della copertura mediatica: gli interpreti. La loro invisibilità, tuttavia, ha iniziato a venire meno a partire dai primi anni del XXI secolo per merito di alcuni studiosi di linguistica e sociologia che, mossi da svariate motivazioni, hanno analizzato e approfondito diversi aspetti e sfaccettature proprie di questo ruolo. Questo elaborato si propone di analizzare i progressi fatti in campo dello studio del fenomeno dell’interpretazione (e della mediazione) in zone di conflitto. In primo luogo, sarà necessario definire chi effettivamente siano gli interpreti nelle aree di guerra, come e quando nascono e per quale motivo. A questo punto, saranno approfondite le responsabilità proprie di queste figure, ma anche le questioni etiche e morali affrontate sia dai mediatori, sia dalle istituzioni per cui lavorano, comprese quelle dell’identità e della fiducia. In seguito, il focus dell’elaborato si sposterà sui cosiddetti “non-professional interpreters”, sul loro reclutamento nella storia recente e sulle conseguenze causate da tali incarichi negli interpreti stessi. Infine, si prenderanno in analisi alcuni casi studio, in particolare quelli dell’Afghanistan e dell’Iraq, per cercare di capire in che modo e in quale misura gli interpreti in zone di conflitto siano tutelati da un punto di vista giuridico.
Resumo:
Pubblicato tra il 1844 e il 1846 come romanzo d’appendice, Il conte di Montecristo è un romanzo di Alexandre Dumas di cui la fama è ormai nota e condivisa. Nonostante il grande successo e apprezzamento da parte dei lettori, l’opera ha dovuto affrontare un lungo percorso di rivalutazione. Per molto tempo, la critica colta ha infatti relegato il romanzo ad una letteratura bassa e popolare, aggettivo a lungo considerato ed utilizzato con accezione negativa. Lo scopo dell’elaborato è dunque quello di comprendere come la reputazione dell’opera abbia influito sull’attenzione dedicata alle edizioni integrali e, in particolare, alle traduzioni italiane. Infatti, per più di un secolo, la maggior parte di queste ultime sono state caratterizzate da tagli e modifiche di cui si è voluto mostrare l’impatto e la natura attraverso il confronto di passaggi scelti appartenenti a tre edizioni ritenute rappresentative: l’edizione Laffont del 1993, l’edizione Mondadori del 1984 e l’edizione pubblicata da Donzelli Editore nel 2010.
Resumo:
Negli ultimi anni, grazie al progresso tecnologico e ad una sempre maggior disponibilità di grosse moli di dati, l'Intelligenza Artificiale è letteralmente esplosa, arrivando ad abbracciare diversi domini, tra cui quello delle Neuroscienze. In questa tesi si illustra quindi quale sia l'attuale ruolo che l'Intelligenza Artificiale (IA) assume nelle Neuroscienze. La tesi inizia con un capitolo introduttivo volto a fornire delle nozioni di base relative all'IA, utili per comprendere al meglio i successivi capitoli. Nel secondo capitolo vengono forniti degli esempi sugli ambiti di utilizzo dell'IA nelle Neuroscienze: in ogni esempio vi è una parte introduttiva, volta a descrivere il contesto, seguita da una parte in cui, riportando uno o più recenti articoli scientifici, si descrivono i benefici che quell'ambito può trarre dall'utilizzo dell'IA. Infine, nel terzo capitolo, seguendo lo stesso schema degli esempi del secondo capitolo, si approfondisce il ruolo dell'IA nella Salute Mentale, concentrandosi principalmente sull'aspetto patologico e, più precisamente, sui vantaggi che l'IA può apportare nella prevenzione, diagnosi e trattamento del Disturbo Depressivo Maggiore (DDM) e dei Disturbo dello Spettro Autistico (DSA).
Resumo:
Negli ultimi anni vi è stato un aumento della sensibilità in merito alle tematiche ambientali e questo ha riguardato anche il settore della mobilità, spingendo sempre più verso l’elettrificazione dei trasporti. Una delle possibilità per elettrificare i trasporti sono le reti filoviarie. Di quelle già esistenti, però, la maggior parte è stata realizzata nel secolo scorso. Inoltre, non vengono effettuate misure per valutare quale sia lo stato del carico sulla rete. In questa tesi si è valutata la fattibilità di realizzazione di un sensore non intrusivo per la misura delle correnti sulle filovie di reti esistenti, al fine di poter ottenere i dati relativi ai flussi di potenza e permettere quindi, in futuro, una migliore gestione della rete. Per effettuare la misura di corrente in modo non invasivo si è pensato di utilizzare un sensore di campo magnetico stazionario. Per valutare l’intensità del campo magnetico, al fine di scegliere il sensore che si confacesse alle caratteristiche dell’applicazione, si è proceduto a sviluppare diversi modelli per rappresentare i conduttori della filovia. Da queste simulazioni è stato inoltre possibile valutare quale fosse la posizione più idonea al collocamento del sensore. Per l’alimentazione del sensore, si sono valutate più possibilità che permettessero di non ricorrere ad un cablaggio ausiliario, tra cui l’utilizzo di un pannello fotovoltaico eventualmente accoppiato ad una batteria. Per la trasmissione dei dati, sono stati valutati più protocolli e dispositivi di comunicazione per trovare quello che meglio combinasse le necessità di trasmissione su distanze medio-lunghe e la necessità di minimizzare i consumi energetici. Infine, sono state effettuate prove sperimentali per validare l'affidabilità delle misure, ovvero verificare che fosse realmente possibile stimare il valore delle correnti nei conduttori della filovia partendo da una misura di campo magnetico, e se i consumi energetici stimati fossero in linea con quelli reali.
Resumo:
Le stelle sono i corpi celesti fondamentali per comprendere l'evoluzione del nostro Universo. Infatti, attraverso processi di fusione nucleare che avvengono al loro interno, nel corso della loro vita le stelle producono la maggior parte dei metalli che popolano la tavola periodica, non presenti all'inizio della vita dell'Universo e la cui presenza è attribuile soltanto alla nucleosintesi stellare. In questa tesi viene trattato questo aspetto, ovvero la produzione di elementi chimici nelle stelle, seguendo in ordine cronologico le principali fasi della vita delle stelle stesse. Nel primo capitolo sono fornite delle informazioni generali sulle reazioni termonucleari, che sono alla base della vita delle stelle e della produzione di molti elementi chimici. Successivamente, vengono approfondite le catene di reazioni termonucleari che consentono la fusione dell'idrogeno in elio all'interno delle stelle, ovvero la catena protone-protone e il ciclo CNO. Nei capitoli seguenti sono state analizzate le reazioni termonucleari di fusione dell'elio in carbonio, note come processo 3-alfa, e di elementi più pesanti, quali carbonio, neon, ossigeno e silicio, che avvengono quando la stella è ormai una gigante o supergigante rossa. Infine, nell'ultimo capitolo viene descritto come, nelle fasi finali della loro vita, le stelle riescano a produrre elementi più pesanti attraverso processi di cattura neutronica, per poi rilasciarli attraverso le esplosioni di supernove, arricchendo significativamente il mezzo interstellare.