904 resultados para ingegneria tissutale,scaffold,rigenerazione dei tessuti,blend polimerico,gelatina,nanocellulosa,processi di reticolazione
Resumo:
L'informatica è al giorno d'oggi al centro di un incredibile sviluppo e tumulto innovativo; è la scienza che coniuga ogni sviluppo tecnologico, il quale inevitabilmente, d'ora in poi, verrà in qualche modo condizionato dalle innovazioni di tale disciplina. Fra gli innumerevoli nuovi trend che si sono affacciati prepotentemente negli ultimi anni sul panorama informatico, il paradigma per la programmazione ad agenti è uno dei più interessanti, in accordo con i recenti e prossimi sviluppi della tecnologia in generale. Questa tesi tratterà tale argomento partendo da un punto di vista generico ed introduttivo volutamente esaustivo, per poi concentrarsi su una specifica tecnologia implementativa, ovvero il linguaggio Jason, mostrandola infine nella pratica con la presentazione di un'applicazione nel capitolo tre.
Resumo:
La tesi si pone l’obiettivo di approfondire i restauri operati nel corso del tempo sulla fortezza di San Leo a seguito del sisma del 1786 ed affronta il delicato e complesso tema delle finiture delle superfici architettoniche esterne. La ricerca si è sviluppata a partire dall’analisi storico-critica delle vicende relative alla fortezza e alla città di San Leo, approfondendo le caratteristiche dell’architettura militare di transizione di Francesco di Giorgio Martini dal momento della sua fondazione nel Montefeltro, al fine di ricostruire la possibile sequenza delle fasi costruttive, anche attraverso la comparazione con altri esempi di fortificazioni sul territorio. L’analisi comparata delle fonti dirette e indirette, delle tracce murarie attraverso un accurato rilievo geometrico del complesso monumentale ottenuto con l’ausilio di molteplici tecniche di misura (topografiche, dirette, fotogrammetriche) opportunamente integrate in un unico sistema di riferimento, e il rilievo critico con tavole tematiche sulle superfici architettoniche, ha permesso di osservare sotto una nuova luce il singolare progetto di restauro elaborato da Giuseppe Valadier per la fortezza di San Leo. Esso rappresenta un’anticipazione della disciplina, maturata nell’ambiente colto romano dell’epoca, e fondata sulla presa di coscienza dei valori del manufatto architettonico. Si è provveduto a catalogare e descrivere più di 150 fonti documentarie, in gran parte inedite, collocate in un arco temporale che va dal Cinquecento, al periodo Moderno e Contemporaneo con le perizie del Genio Civile e della Soprintendenza. Sono state inoltre ordinate cronologicamente e descritte almeno 50 rappresentazioni iconografiche e cartografiche storiche. L’approccio analitico multidisciplinare, e la raccolta di informazioni storico-documentali, è stato completato da un’ultima fase di analisi, utile a determinare la stratificazione e la cronologia degli interventi. Sono state condotte indagini fisiche e chimiche su campioni, prelevati in loco durante il mese di novembre del 2008 sotto l’egida della Soprintendenza, al fine di determinare la formulazione e la microstuttura dei materiali, con particolare attenzione ai materiali lapidei, agli intonaci e alle coloriture, limitando le indagini a quelle strettamente necessarie. Le indagini strumentali sono state effettuate presso il Laboratorio di Scienza e Tecnologia dei Materiali (LASTM) del Dipartimento di Ingegneria Civile, Chimica, Ambientale e dei Materiali (DICAM) dell’Alma Mater Studiorum Università di Bologna, Scuola di Ingegneria e Architettura, seguendo procedure sviluppate dai gruppi di lavoro presso la struttura. Al fine di determinare la composizione chimica dei materiali sono state eseguite calcimetrie e diffrattometrie a raggi x, mentre per quanto riguarda la struttura e la microstruttura sono state eseguite delle analisi granulometriche. L’interpretazione dei dati, ottenuti dalla lettura organica delle fonti, ha permesso di inquadrare i differenti trattamenti superficiali esterni in relazione all’epoca di realizzazione.
Resumo:
Questa tesi presenta e discute le sfide per ottenere sistemi di swarm robotis affidabili e tolleranti ai guasti e quindi anche alcuni metodi per rilevare anomalie in essi, in modo tale che ipotetiche procedure per il recupero possano essere affrontate, viene sottolineata inoltre l’ importanza di un’ analisi qualitativa dei guasti.
Resumo:
Lo scopo di questo elaborato consiste principalmente in una presentazione generale e teorica dei fondamenti dell'Apprendimento Automatico, dei suoi paradigmi principali e dell’applicazione concreta di due di queste tecniche nei giochi di strategia. Nel primo caso di studio è stato descritto il processo che si cela dietro l’addestramento di una rete neurale per giocare a Tris; nel secondo, invece, è stata riporta l’esperienza che mostra come sia possibile addestrare un giocatore di scacchi attraverso le annotazioni di gioco.
Resumo:
Con l’incremento della popolazione mondiale e la conseguente crescita del fabbisogno di energia dovuta a nuovi lavori e sempre più macchinari in circolazione, è insorta l'esigenza di produrre più energia elettrica. A partire dagli anni ’50 numerosi scienziati hanno analizzato il problema energetico e sono giunti alla conclusione che fonti di energia come petrolio, carbone e gas non erano in grado di soddisfare il bisogno umano sul lungo termine e si è quindi passati alla ricerca di altre fonti di energia come il nucleare. Oggi, grazie ad un progetto ed uno studio di circa 50 anni fa – finalizzato alla alimentazione di satelliti geostazionari - , si sta sempre di più affermando la scelta del fotovoltaico, in quanto rappresenta un’energia pulita e facilmente utilizzabile anche nei luoghi dove non è possibile avere un allaccio alla normale rete elettrica. La ricerca di questo nuovo metodo di produrre energia, che tratta la conversione di luce solare in energia elettrica, si è evoluta, differenziando materiali e metodi di fabbricazione delle celle fotovoltaiche, e quindi anche dei moduli fotovoltaici. Con la crescente produzione di apparati elettronici si è arrivati però ad avere un nuovo problema: il consumo sempre maggiore di silicio con un conseguente aumento di prezzo. Negli ultimi anni il prezzo del silicio è significativamente aumentato e questo va a pesare sull’economia del pannello fotovoltaico, dato che questo materiale incide per il 40-50% sul costo di produzione. Per questo motivo si sono voluti trovare altri materiali e metodi in grado di sostituire il silicio per la costruzione di pannelli fotovoltaici, con il seguire di nuovi studi su materiali e metodi di fabbricazione delle celle. Ma data la conoscenza e lo studio dovuto ai vari utilizzi nell’elettronica del silicio, si è anche studiato un metodo per ottenere una riduzione del silicio utilizzato, creando wafer in silicio sempre più sottili, cercando di abbassare il rapporto costo-watt , in grado di abbassare i costi di produzione e vendita.
Resumo:
La ricerca condotta sulla residenza newyorkese ha evidenziato una tipologia di edilizia pubblica che si dissocia completamente dal contesto cittadino. Si tratta di abitazioni costruite sotto l'autorità NYCHA, ideate per essere "torri nel parco" e diventate invece dei veri e propri ghetti. La proposta di intervento prevende dunque la riabilitazione di uno di questi progetti, attraverso il rapporto con i confini e le strade dell'isolato intorno, indagando sempre sui rapporti sociali che lo vivono.
Resumo:
[Abstract]. Questo lavoro è finalizzato al confronto delle rivelazioni di canditati eventi di neutrino cosmico da parte di due esperimenti ANTARES ed ICECUBE. I due apparati, entrambi basati sulla rivelazione di radiazione Cherenkov generata da prodotti di interazione CC dei neutrini, si differenziano per la geometria del detector e per il mezzo in cui viene prodotta la radiazione, e hanno quindi sensibilità e risoluzione diverse. L'analisi dei dati è basata sulla rappresentazione delle direzioni di arrivo degli eventi su mappa celeste nei due sistemi di coordinate galattico ed equatoriale. La sovrapposizione della distribuzioni degli eventi ha permesso di evidenziare le zone di visibilità sulla mappa celeste caratteristiche di ciascun esperimento. Una successiva analisi statistica ha analizzato la frequenza delle occorenze di eventi del dataset di ANTARES in intorni di raggio crescente di eventi di ICECUBE, per valutare eventuali eventi identificabili nei due dataset. Questa analisi ha evidenziato la necessità di una selezione preventiva degli eventi del dataset di ANTARES, in base a criteri non solo topologici, in modo da permettere una eventuale identificazione di eventi coincidenti.
Resumo:
L'Open Data, letteralmente “dati aperti”, è la corrente di pensiero (e il relativo “movimento”) che cerca di rispondere all'esigenza di poter disporre di dati legalmente “aperti”, ovvero liberamente re-usabili da parte del fruitore, per qualsiasi scopo. L’obiettivo dell’Open Data può essere raggiunto per legge, come negli USA dove l’informazione generata dal settore pubblico federale è in pubblico dominio, oppure per scelta dei detentori dei diritti, tramite opportune licenze. Per motivare la necessità di avere dei dati in formato aperto, possiamo usare una comparazione del tipo: l'Open Data sta al Linked Data, come la rete Internet sta al Web. L'Open Data, quindi, è l’infrastruttura (o la “piattaforma”) di cui il Linked Data ha bisogno per poter creare la rete di inferenze tra i vari dati sparsi nel Web. Il Linked Data, in altre parole, è una tecnologia ormai abbastanza matura e con grandi potenzialità, ma ha bisogno di grandi masse di dati tra loro collegati, ossia “linkati”, per diventare concretamente utile. Questo, in parte, è già stato ottenuto ed è in corso di miglioramento, grazie a progetti come DBpedia o FreeBase. In parallelo ai contributi delle community online, un altro tassello importante – una sorta di “bulk upload” molto prezioso – potrebbe essere dato dalla disponibilità di grosse masse di dati pubblici, idealmente anche già linkati dalle istituzioni stesse o comunque messi a disposizione in modo strutturato – che aiutino a raggiungere una “massa” di Linked Data. A partire dal substrato, rappresentato dalla disponibilità di fatto dei dati e dalla loro piena riutilizzabilità (in modo legale), il Linked Data può offrire una potente rappresentazione degli stessi, in termini di relazioni (collegamenti): in questo senso, Linked Data ed Open Data convergono e raggiungono la loro piena realizzazione nell’approccio Linked Open Data. L’obiettivo di questa tesi è quello di approfondire ed esporre le basi sul funzionamento dei Linked Open Data e gli ambiti in cui vengono utilizzati.
Resumo:
Il peptide correlato al gene della calcitonina (CGRP) è una molecola presente nei neuroni del midollo spinale di diverse specie di Mammiferi, inclusi topi, ratti, conigli, cani, gatti, pecore, scimmie e uomo. Nonostante la distribuzione dei neuroni contenenti questo neuropeptide sia stata studiata in maniera dettagliata nel midollo spinale delle suddette specie, non sono disponibili, in letteratura, informazioni relative alla presenza di queste cellule nel midollo spinale dei Cetacei. Di conseguenza, è stata condotta la presente ricerca che ha avuto lo scopo di determinare, mediante metodiche di immunoistochimica, la distribuzione e la morfologia dei neuroni esprimenti il CGRP nel midollo spinale di tursiope (Tursiops truncatus). In questa specie, la distribuzione laminare (secondo Rexed) dei neuroni CGRP-immunoreattivi è assai simile a quella che si osserva nei Roditori, nei Carnivori e nei Primati; infatti, i corpi cellulari immunopositivi sono localizzati soprattutto in corrispondenza dell’apice del corno dorsale (lamine I e II) e nel corno ventrale (lamine VIII e IX). La distribuzione e la morfologia dei neuroni esprimenti CGRP nel midollo spinale di tursiope suggeriscono come tale neuropeptide possa essere coinvolto nella trasmissione delle informazioni sia sensitive (somatiche e viscerali) che motorie. I neuroni CGRP-immunoreattivi localizzati nelle lamine I e II del midollo spinale di tursiope, come dimostrato in altre specie, potrebbero agire da interneuroni modulando le informazioni nocicettive che dai gangli spinali vengono trasmesse al midollo spinale. Nelle lamine I e II sono presenti anche numerosi processi immunopositivi che, oltre ad appartenere a neuroni locali, derivano, molto probabilmente, dai ai neuroni pseudounipolari dei gangli spinali. In accordo con quanto appena affermato, è opportuno sottolineare come le fibre afferenti primarie provenienti dai gangli spinali utilizzino il CGRP per la trasmissione delle informazioni dolorifiche. La presenza di CGRP nei neuroni della lamina VIII, invece, indica come questo neuropeptide possa essere implicato nella trasmissione di segnali di natura motoria, utilizzando meccanismi presinaptici. Infine, la presenza di numerosi motoneuroni immunoreattivi per il CGRP nella lamina IX indicherebbe un’azione diretta svolta da questo neuropeptide nell’interazione tra motoneurone inferiore e muscolo scheletrico.
Resumo:
Nel documento in questione vi è una breve storia della nascita ed evoluzione dei telescopi, per finire alla descrizione tecnica di base del funzionamento di un sistema ottico adattivo.
Resumo:
La ricostruzione dettagliata dell’architettura stratigrafica e delle facies delle successioni tardo-quaternarie sepolte al di sotto delle pianure alluvionali moderne sta assumendo un’importanza crescente come strumento per le ricostruzioni paleoambientali e paleoclimatiche e per la correlazione dei sistemi deposizionali continentali e costieri, finalizzata alla caratterizzazione geometrica di corpi sedimentari che rappresentano potenziali serbatoi. Un impulso significativo verso la caratterizzazione dell’architettura stratigrafica dei depositi tardo-quaternari del Bacino Padano è stato fornito, negli ultimi quindici anni, da un’intensa campagna di perforazioni operata dal Servizio Geologico, Sismico e dei Suoli di Regione Emilia-Romagna, nell’ambito della realizzazione della Carta geologica d’Italia in scala 1:50.000. Tuttavia, per ottenere un numero sufficiente di informazioni stratigrafiche è necessario un dataset molto esteso e le perforazioni (sondaggi a carotaggio continuo) presentano costi estremamente elevati. I limiti operativi delle descrizioni dei sondaggi a carotaggio continuo possono essere superati utilizzando metodi indiretti che si basano sullo sfruttamento delle proprietà geotecniche dei depositi tardo-quaternari. In questo lavoro di tesi l’analisi delle caratteristiche geotecniche delle prove CPTU è stata sfruttata per caratterizzare le associazioni di facies della Pianura Padana centrale. Una dettagliata analisi dei log stratigrafici e, in particolare, delle curve di resistenza delle prove CPTU inserite nelle sezioni, la costruzione di sezioni stratigrafiche e un meticoloso lavoro di correlazione basato su 19 datazioni radiometriche, ha rivelato una serie di paleosuoli (inceptisuoli) impilati nei 50-60 m più superficiali della successione tardo-quaternaria della Pianura Padana centrale; questi paleosuoli rappresentano l’unico marker stratigrafico all’interno di una successione costituita prevalentemente da depositi argillosi uniformi. L’analisi delle caratteristiche geotecniche di alcuni paleosuoli e dei loro rapporti con la channel belt del Fiume Po risulta fondamentale per comprendere l’evoluzione recente del Bacino Padano e le caratteristiche geometriche dei corpi sedimentari finalizzata allo sfruttamento di potenziali risorse fluide sotterranee.
Resumo:
Questo lavoro cerca di identificare elementi che confermino una provenienza univoca del sedimento della Pianura Padana centrale e di verificarne la qualità tramite analisi
Resumo:
Lo studio riguarda la caratterizzazione geochimica dei sedimenti del sito Caretti, situato a est del comune di Ferrara, interessato da un forte caso di contaminazione dovuto alla presenza di due discariche municipali non controllate risalenti agli anni '60-'70. L'obiettivo del lavoro è quello di valutare la geochimica dei sedimenti e delle acque prelevate nel sito al fine di individuare eventuali relazioni tra il chimismo delle due matrici. Inoltre, i dati dell' analisi dei sedimenti sono stati confrontati con quelli di letteratura per delinearne aspetti di provenienza. I dati geochimici dei sedimenti sono stati ottenuti mediante fluorescenza a raggi X (XRF) e sono stati elaborati graficamente e statisticamente, mediante software di analisi statistica (GCDkit). La composizione geochimica delle acque è stata ottenuta mediante tecniche di cromatografia ionica e spettroscopia di assorbimento atomico. La geochimica dei sedimenti ha evidenziato che la composizione chimica mostra associazioni di elementi legate a una componente tessiturale del sedimento. In particolare si rilevano concentrazioni elevate di Fe2O3, Al2O3, TiO2, Cr, Ni, e V in sedimenti a granulometria fine, a differenza delle concentrazioni di SiO2 e Na2O elevate in sedimenti sabbiosi. La distribuzione statistica degli elementi nei sedimenti e nelle acque ha permesso di effettuare una valutazione delle caratteristiche geochimiche dei principali corpi idrogeologici. La caratterizzazione geochimica ha fornito, inoltre, indicazioni sull'origine dei sedimenti. Cromo e Nichel, tra gli elementi in traccia, sono particolarmente efficaci nella valutazione della provenienza permettendo, all'interno del sito Caretti, una distinzione tra popolazioni di provenienza appenninica (bassi valori Cr-Ni) e padana (alti valori Cr-Ni).
Resumo:
La presente tesi di laurea tratta la valorizzazione degli scarti della lavorazione degli agrumi. Tutti i processi di trasformazione utilizzati nell’industria agrumaria danno origine a tre prodotti principali: succo, olio essenziale e pastazzo; il terzo, sottoprodotto a basso valore o scarto di lavorazione, è una biomassa vegetale costituita da scorze, detriti di polpa, semi e frutti di scarto. Questo lavoro si è concentrato su due aspetti fondamentali: lo studio dei possibili utilizzi del pastazzo di agrumi, che si può considerare una fonte di sostanze ad alto valore aggiunto, e la valorizzazione di tale sottoprodotto mediante digestione anaerobica per la produzione di biogas. La composizione chimica degli scarti della lavorazione degli agrumi offre ampie possibilità di utilizzazione: come alimento zootecnico, per la produzione di compost, per l’estrazione di pectina, fibre alimentari e oli essenziali, per il recupero di limonene e per produrre bioetanolo. Infine di recente il pastazzo è stato individuato come componente nella produzione di biogas, attraverso la digestione anaerobica; ciò risulta coerente con il quadro normativo riguardante gli incentivi per la produzione di biogas. E' stato analizzato un caso pratico, l’impianto di produzione di biogas alimentato a biomasse, situato in Sicilia, in contrada Nuova Scala a Mussomeli (CL); l’impianto ha una potenza di 999 KW ed è attivo dal 31 Dicembre 2012. In generale, affinchè si realizzi un corretto dimensionamento di un impianto di produzione di biogas, è necessario conoscere il potenziale metanigeno, che esprime la quantità di biogas metano massimo potenzialmente ottenibile da una biomassa, e la quantità di biomasse disponibili. In particolare, per l’impianto in questione, sono stati elaborati dati relativi alle analisi chimiche condotte sulle singole matrici in input all’impianto, sulla base delle quali è possibile dare un primo giudizio di fermentescibilità dei vari substrati e della rispettiva resa in biogas.
Resumo:
Quando si parla di architetture di controllo in ambito Web, il Modello ad Eventi è indubbiamente quello più diffuso e adottato. L’asincronicità e l’elevata interazione con l’utente sono caratteristiche tipiche delle Web Applications, ed un architettura ad eventi, grazie all’adozione del suo tipico ciclo di controllo chiamato Event Loop, fornisce un'astrazione semplice ma sufficientemente espressiva per soddisfare tali requisiti. La crescita di Internet e delle tecnologie ad esso associate, assieme alle recenti conquiste in ambito di CPU multi-core, ha fornito terreno fertile per lo sviluppo di Web Applications sempre più complesse. Questo aumento di complessità ha portato però alla luce alcuni limiti del modello ad eventi, ancora oggi non del tutto risolti. Con questo lavoro si intende proporre un differente approccio a questa tipologia di problemi, che superi i limiti riscontrati nel modello ad eventi proponendo un architettura diversa, nata in ambito di IA ma che sta guadagno popolarità anche nel general-purpose: il Modello ad Agenti. Le architetture ad agenti adottano un ciclo di controllo simile all’Event Loop del modello ad eventi, ma con alcune profonde differenze: il Control Loop. Lo scopo di questa tesi sarà dunque approfondire le due tipologie di architetture evidenziandone le differenze, mostrando cosa significa affrontare un progetto e lo sviluppo di una Web Applications avendo tecnologie diverse con differenti cicli di controllo, mettendo in luce pregi e difetti dei due approcci.