469 resultados para ADPKD,PKD,alimentazione,attività fisica,qualità di vita,malattia policistica epatorenale
Resumo:
Una delle grandi sfide della medicina moderna e dell’ingegneria biomedica è rappresentata dalla rigenerazione e il recupero dei tessuti nervosi. I danni al Sistema Nervoso Centrale (SNC) e Periferico (SNP) provocano effetti irreversibili e influiscono sulla qualità della vita dei pazienti. L’ingegneria tissutale è stata definita come “un campo interdisciplinare che applica i principi dell’ingegneria e delle scienze della vita per lo sviluppo di sostituti biologici che ripristinino, mantengano, o migliorino la funzione di un tessuto o di un intero organo” (Langer R et al, 1993). Lo sviluppo dei biomateriali, i progressi scientifici nel campo delle cellule staminali e dei fattori di crescita, nonché le migliorie nelle tecniche di differenziazione e del rilascio dei farmaci offrono nuove opportunità di sviluppo terapeutico. Sono stati infatti creati tessuti in laboratorio attraverso la combinazione di matrici extracellulari ingegnerizzate, comunemente definite scaffold, cellule e molecole biologicamente attive. Tali “impalcature”, forniscono un supporto fisico e biochimico alla crescita delle cellule nervose. In quest’ottica si configura come essenziale il contributo della seta e di una sua particolare molecola: la fibroina. Quest’ultima grazie alle specifiche caratteristiche di biocompatibilità, lenta degradabilità e alle notevoli proprietà meccaniche, è stata ampiamente studiata, in anni recenti, per nuove applicazioni in ambito biomedico, come nel caso dell’ingegneria dei tessuti e del rilascio di farmaci. La fibroina della seta utilizzabile in vari formati quali film, fibre, reti, maglie, membrane, gel e spugne supporta l'adesione, la proliferazione e la differenziazione in vitro di diversi tipi di cellule. In particolare studi recenti indicano che la seta ha una buona compatibilità per la crescita di cellule neuronali dell'ippocampo. In questo elaborato saranno presentate le caratteristiche della fibroina della seta come biomateriale, con particolare riferimento all’ingegnerizzazione e al processo di fabbricazione degli scaffold finalizzati al supporto della rigenerazione cellulare – neuronale in caso di insulti traumatici, acuti e/o cronici del Sistema Nervoso.
Resumo:
In questa trattazione è analizzato il tema della ventilazione negli ambienti indoor. Oggi questo argomento è di notevole interesse a causa di una serie di fattori molto importanti: - L’uomo trascorre la maggior parte del tempo in spazi chiusi - L’Organizzazione Mondiale della Sanità sottolinea come molte malattie, tra cui asma e allergie, derivino dall’eccesso di umidità interna e dalla presenza di muffe - Gli stili di vita lavorativi sono differenti rispetto al passato: non c’è più tempo per aprire adeguatamente le finestre - L’aria interna è da 10 a 100 volte più inquinata di quella esterna - Negli ambienti i materiali di arredo e i prodotti per la pulizia possono emettere sostanze nocive - L’infiltrazione dai serramenti, con la costruzione di edifici sempre più ermetici e a bassa permeabilità all’aria, risulta insufficiente per garantire un corretto ricambio - Le nuove leggi in materia di risparmio energetico impongono limiti sul fabbisogno energetico di riscaldamento, in parte dovuto ai processi di ventilazione. Vengono quindi analizzati i due sistemi di ventilazione possibili ad oggi in campo residenziale: la ventilazione naturale e la ventilazione meccanica controllata (VMC) applicati poi ad un edificio nel quartiere di Corticella (BO). Sono stati posti poi a confronto i due sistemi nel calcolo dei fabbisogni energetici per ventilazione e nelle relative incidenze rispetto al termine legato allo scambio termico per trasmissione. Viene proposta infine un'ipotesi di realizzazione di impianto di ventilazione meccanica integrato con una riqualificazione architettonica completa dell'edificio per il raggiungimento di elevate prestazioni energetiche.
Resumo:
Il documento parte da una analisi generale sulle tecnologie site-specific, concentrandosi poi maggiormente sulle costruzioni in terra cruda. Viene descritta l'analisi del ciclo di vita fatta sui mattoni in terra cruda e sulla parete realizzata con questi mattoni, messa poi a confronto con una parete realizzata in laterizi. Infine è presenta l'analisi dei costi esterni sul ciclo di vita dei mattoni in terra cruda.
Resumo:
Nell’ambito delle problematiche relative agli impianti a rischio di incidente rilevante, riscontra particolare interesse l’analisi dell’effetto domino, sia per la grande severità delle conseguenze degli eventi incidentali che esso comporta, sia per l’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. Per effetto domino si intende la propagazione di un evento incidentale primario dall’apparecchiatura dalla quale ha avuto origine alle apparecchiature circostanti, che diventano sorgenti di eventi incidentali secondari. Infatti elevati valori dell’irraggiamento, della sovrappressione di picco ed il lancio di proiettili, imputabili all’evento primario, possono innescare eventi secondari determinando una propagazione a catena dell’incidente così come si propaga la catena di mattoncini nel gioco da tavolo detto “domino”. Le Direttive Europee 96/82/EC e 2012/18/EU denominate, rispettivamente “Seveso II” e “Seveso III” stabiliscono la necessità, da parte del gestore, di valutare l’effetto domino, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. L’analisi consiste nel valutare, in termini di frequenza e magnitudo, gli effetti indotti su apparecchiature cosiddette “bersaglio” da scenari incidentali che producono irraggiamenti, onde di pressione e lancio di proiettili. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha lo scopo di presentare una metodologia per l’analisi dell’effetto domino adottata in un caso reale, in mancanza di un preciso riferimento normativo che fissi i criteri e le modalità di esecuzione di tale valutazione. Inoltre esso si presta a valutare tutte le azioni preventive atte a interrompere le sequenze incidentali e quindi i sistemi di prevenzione e protezione che possono contrastare un incidente primario evitando il propagarsi dell’incidente stesso e quindi il temuto effetto domino. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo con l’illustrazione delle linee guida e delle normative in riferimento all’effetto domino, nel Capitolo 2 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per l’individuazione degli eventi incidentali credibili ovvero degli eventi incidentali primari e della loro frequenza di accadimento. Nel Capitolo 3 vengono esaminati i criteri impiegati da ENI Versalis per la valutazione dell’effetto domino. Nei Capitoli 4 e 5 sono descritti gli iter tecnico-procedurali messi a punto per la progettazione della protezione antincendio, rispettivamente attiva e passiva. Nel Capitolo 6 viene approfondito un aspetto particolarmente critico ovvero la valutazione della necessità di dotare di protezione le tubazioni. Nel Capitolo 7 viene illustrata la progettazione antifuoco di un caso di studio reale dello stabilimento ENI Versalis di Ravenna: l’unità di Idrogenazione Selettiva. Infine nel Capitolo 8 sono riportate alcune considerazioni conclusive.
Resumo:
Lo scopo di questo lavoro di tesi consiste nel valutare l’efficacia di inibizione delle HDAC e la selettività per le cellule tumorali di nuove molecole basate su coniugati poliamminici (PC1, PC2, PC3, PC4, PC5). I modelli sperimentali utilizzati saranno una linea cellulare tumorale di glioblastoma umano (U87), paragonata a una linea cellulare sana di fibroblasti fetali umani (IMR90). Il progetto nasce dalla collaborazione con la Prof.ssa Anna Minarini del Dipartimento di Farmacia e BioTecnologie di Bologna e con il Dott. Andrea Milelli del Dipartimento di Scienze per la Qualità della Vita di Rimini che hanno progettato e sintetizzato i composti poliamminici utilizzati negli esperimenti condotti nel laboratorio di Ingegneria Cellulare e Molecolare “S. Cavalcanti” a Cesena. Gli obiettivi del progetto consistono nel valutare i potenziali vantaggi che sembrano offrire le poliammine se coniugate a molecole con specifiche funzioni antitumorali, quali l’acido idrossamico e il gruppo intercalante il DNA, naftalene-diimide. L’aggiunta della coda poliamminica al composto, infatti, permetterebbe alla molecola risultante di sfruttare il sistema di trasporto delle poliammine, tipicamente sovraespresso o iperattivo nelle cellule neoplastiche, favorendo così l’ingresso in cellula del farmaco e conferendogli selettività per le cellule tumorali. Inoltre, l’affinità elettrostatica che intercorre tra la coda policationica poliamminica e il DNA, carico negativamente, direzionerebbe con maggior efficacia l’intera molecola, compresa la parte intercalante e l’acido idrossamico (HDACi), verso il loro bersaglio, la doppia elica dell’acido nucleico e le HDAC. Gli effetti dei PC valutati in questo lavoro di tesi comprendono l’influenza dei farmaci sulla vitalità cellulare e l’efficacia di inibizione delle HDAC. Si effettueranno test di crescita cellulare in seguito ai trattamenti farmacologici per confrontare i diversi composti poliamminici, individuare quelli con maggior effetto citotossico e stabilire se il tipo di trattamento risulti idoneo per il proseguimento dell’indagine. Il grado di inibizione delle HDAC, relativo ai diversi farmaci, verrà valutato indirettamente mediante la tecnica del Western Blotting quantificando il livello di iperacetilazione istonica globale indotta. I vantaggi che queste nuove molecole potenzialmente possiedono e che andranno verificati con ulteriori studi, inducono ad attribuire loro un grande potenziale per la terapia antitumorale, come induttori dell’apoptosi e/o riprogrammazione dell’assetto epigenetico, risultante nella riattivazione di geni oncosoppressori silenziati nelle cellule neoplastiche. L’azione antitumorale di queste molecole potrà essere più efficace se combinata con altri farmaci, quali chemioterapici standard o demetilanti del DNA. Inoltre la variazione della coda poliamminica potrà essere utile per lo sviluppo di inibitori specifici per le diverse isoforme delle HDAC. La selettività per le cellule tumorali e l’affinità per il DNA di questi nuovi composti potrebbe infine limitare gli eventuali effetti collaterali in clinica.
Resumo:
Questo lavoro confronta i comportamenti catalitici di alcuni catalizzatori acidi per l'idrolisi diretta di lignocellulosa e cellulosa. I catalizzatori utilizzati sono Zr/P/O e Nb/P/O. Le analisi di reattività di questi sistemi catalitici per l'idrolisi di lignocellulosa e cellulosa, mostrano diversi comportamenti in termini di selettività in monosaccaridi e prodotti di degradazione. Tali differenze sono dovute alle diverse proprietà acide dei sistemi catalitici. Il sistema Zr/P/O presenta un'elevata affinità per i β-1,4-glucani, come dimostrato dall'attività nell'idrolisi della cellulosa a formare glucosio; al contrario, il sistema Nb/P/O presenta un'elevata attività nella formazione di prodotti di degradazione e sottoprodotti. Infine è stato effettuato uno studio preliminare del sistema Zr/P/O sull'idrolisi diretta di biomasse lignocellulosiche derivanti da scarti agricoli.
Resumo:
Il testo propone uno studio dell'affidabiltà dell'isolamento di spira per macchine elettriche rotanti, aventi sistema isolante di tipo II, alimentate mediante convertitori di potenza. In particolare vengono descritte le prove di vita accelerate svolte al variare del tempo di salita della tensione, le simulazione effettuate con il metodo degli elementi finiti ed un metodo analitico utilizzato per uniformare lo stress all'interno degli avvolgimenti di statore.
Resumo:
L’intelligenza artificiale, ovvero lo studio e la progettazione di sistemi intelligenti, mira a riprodurre alcuni aspetti dell’intelligenza umana, come il linguaggio e il ragionamento deduttivo, nei computer. La robotica, invece, cerca spesso di ricreare nei robot comportamenti adattativi, come l’abilità di manipolare oggetti o camminare, mediante l’utilizzo di algoritmi in grado di generare comportamenti desiderati. Una volta realizzato uno di questi algoritmi specificamente per una certa abilità, si auspica che tale algoritmo possa essere riutilizzato per generare comportamenti più complessi fino a che il comportamento adattativo del robot non si mostri ad un osservatore esterno come intelligente; purtroppo questo non risulta sempre possibile e talvolta per generare comportamenti di maggiore complessità è necessario riscrivere totalmente gli algoritmi. Appare quindi evidente come nel campo della robotica l’attenzione sia incentrata sul comportamento, perché le azioni di un robot generano nuove stimolazioni sensoriali, che a loro volta influiscono sulle sue azioni future. Questo tipo di intelligenza artificiale (chiamata propriamente embodied cognition) differisce da quella propriamente detta per il fatto che l’intelligenza non emerge dall’introspezione ma dalle interazioni via via più complesse che la macchina ha con l’ambiente circostante. Gli esseri viventi presenti in natura mostrano, infatti, alcuni fenomeni che non sono programmati a priori nei geni, bensì frutto dell’interazione che l’organismo ha con l’ambiente durante le varie fasi del suo sviluppo. Volendo creare una macchina che sia al contempo autonoma e adattativa, si devono affrontare due problemi: il primo è relativo alla difficoltà della progettazione di macchine autonome, il secondo agli ingenti costi di sviluppo dei robot. Alla fine degli anni ’80 nasce la robotica evolutiva che, traendo ispirazione dall’evoluzione biologica, si basa sull’utilizzo di software in grado di rappresentare popolazioni di robot virtuali e la capacità di farli evolvere all’interno di un simulatore, in grado di rappresentare le interazioni tra mente e corpo del robot e l’ambiente, per poi realizzare fisicamente solo i migliori. Si utilizzano algoritmi evolutivi per generare robot che si adattano, anche dal punto di vista della forma fisica, all’ambiente in cui sono immersi. Nel primo capitolo si tratterà di vita ed evoluzione artificiali, concetti che verranno ripresi nel secondo capitolo, dedicato alle motivazioni che hanno portato alla nascita della robotica evolutiva, agli strumenti dei quali si avvale e al rapporto che ha con la robotica tradizionale e le sue declinazioni. Nel terzo capitolo si presenteranno i tre formalismi mediante i quali si sta cercando di fornire un fondamento teorico a questa disciplina. Infine, nel quarto capitolo saranno mostrati i problemi che ancora oggi non hanno trovato soluzione e le sfide che si devono affrontare trattando di robotica evolutiva.
Resumo:
Imprese di piccole e grandi dimensioni hanno dovuto convivere con il ritmo di uscita di nuovi e più potenti modelli di PC, consolle per videogiochi, telefoni cellulari, tablet, fotocamere digitali. I cicli di vita si sono ridotti drasticamente, tanto da far sembrare un’emergenza il rilascio di un nuovo prodotto quasi ogni anno. Le aziende, se ancora non lo hanno fatto, sono chiamate ad affrontare una transizione interna per aggiornare le politiche aziendali in modo da stare al passo con il progresso tecnologico. Se un tempo le regole interne vietavano o scoraggiavano l’utilizzo di dispositivi personali nell’ambiente di lavoro, nell’era moderna sono costrette ad accettarlo se non addirittura ad incoraggiarlo ed il fenomeno che mi accingerò ad analizzare in questo elaborato, denominato Bring Your Own Device (BYOD), punta proprio all’esplorazione degli sforzi progettuali che sono richiesti ad una grande azienda multinazionale per poter recepire i trend informatici. Con più di cinque miliardi di dispositivi mobili in tutto il mondo – e solo 2 miliardi di computer – il passaggio al ‘mobile’ come forma principale di collegamento alle reti aziendali procede con sempre maggiore rapidità. Negli anni recenti si è potuto assistere all’evoluzione del panorama di dispositivi portatili che ha permesso ad un pubblico di users sempre più vasto di potersi permettere l’acquisto di dispositivi di ultima generazione a prezzi non proibitivi. I fornitori di tecnologie hanno confezionato prodotti sempre più pensati per un uso privato, fornendo un’ampia scelta di soluzioni non solo a livello enterprise, come accadeva agli albori del boom tecnologico, ma maggiormente rivolte al singolo consumatore. Guardando ai trend sviluppatisi negli anni recenti, è possibile riconoscere una scia di segnali che preannunciavano quanto sta avvenendo adesso con il BYOD.
Resumo:
La Tesi sviluppa alcune ipotesi di riqualificazione degli asentamientos informales di Buenos Aires, quartieri periferici della metropoli dove si insedia –abusivamente- la popolazione con minori risorse economiche. Adottando l’approccio delle “agopunture”, l’ipotesi progettuale investe diverse scale d’intervento che dialogano tra loro, cercando di valorizzarne gli effetti combinati e di favorirne la reciproca integrazione. Assunte le limitate risorse esistenti come condizioni date, l’approccio adottato identifica nel capitale sociale il fattore di rinnovamento: la cooperazione tra gli abitanti –uniti per la risoluzione di problematiche comuni- diventa lo strumento per la generazione di micro-comunità più efficienti e vivibili. La strategia di un’ibridazione tra tecnologie tradizionali con materiali poveri ed elementi industrializzati e standardizzati garantisce una soluzione low cost e di maggior consenso da parte dei vecinos. Pur rinunciando a conseguire gli standard normativi, il progetto punta a soddisfare alcune fondamentali esigenze degli abitanti, migliora le loro condizioni di vita ed innesca dinamiche relazionali positive tra i vecinos. Gli interventi proposti prevedono il miglioramento della tenuta all’acqua dell’alloggio, la realizzazione di servizi igienici domiciliari, un sistema di allontanamento e trattamento dei reflui che trasformato in biogas alimenta la rete di illuminazione stradale, una serie di punti di prelievo e distribuzione di acqua potabile, la raccolta e lo smistamento dei rifiuti, un nuovo luogo d’incontro per la comunità. La parte preliminare affronta lo studio del contesto storico, sociale, territoriale, economico e l’assetto del settore delle costruzioni dell’Argentina e di Buenos Aires. La seconda parte della ricerca si concentra sul conurbano bonoarense e sugli asentamientos informales, per i quali i numerosi Piani governativi e di ONG sono risultate inefficaci. Si evita così un’operazione ‘calata dall’alto’. Dopo aver identificato le sette principali criticità riscontrate negli insediamenti, la ricerca delinea per ognuna di esse una o più strategie di miglioramento, ipotizzando azioni e possibili alternative che, valutate secondo una metodica comparativa, consentono di definire la soluzione più adeguata. Tra le sette proposte, la comunità definirà le priorità di intervento, quindi le modalità di esecuzione e di gestione ritenute adeguate per la realizzazione delle singole azioni. La ricerca approfondisce la conoscenza e tenta di mitigare il disagio di vivere ai margini, un tema di estrema rilevanza sociale, a cui l’architettura può fornire qualche risposta.
Resumo:
L’Italia è il secondo Paese più longevo al mondo (preceduto dal Giappone), con un’aspettativa di vita di circa 81,5 anni. L’attuale percentuale degli over 65 è di circa il 20% ma si prevede che nel 2050 tale percentuale possa raggiungere il 34%. Dal punto di vista economico è necessario trovare soluzioni che conducano ad una contenuta e ridotta spesa sanitaria sul bilancio statale, conservando la qualità e l’efficienza dei servizi ospedalieri. Dal punto di vista sociale l’obiettivo è quello di poter assistere l’anziano, non più completamente autosufficiente, nelle cure offrendo anche supporto psicologico e la sicurezza di non essere abbandonato a sé stesso. Il raggiungimento di tali obiettivi ha un’unica parola chiave: casa; cioè far in modo che l’anziano, ma in generale il paziente, possa ricevere cura ed assistenza nella propria casa, grazie alla combinazione sinergica del servizio di assistenza domiciliare e della Telemedicina.
Resumo:
In questa tesi consideriamo il problema della percezione di immagini, e in particolare la sensibilità al contrasto del nostro sistema visivo. Viene studiato il modello classico di Retinex, che descrive l'immagine percepita come soluzione di un'equazione di Poisson. Questo modello viene reinterpretato utilizzando strumenti di geometria differenziale e derivate covarianti. La controparte neurofisiologica del modello è la descrizione della funzionalità del LGN, e della connettività che le lega. Questa viene modellata come un nucleo soluzione fondamentale dell'equazione di Laplace, con strumenti di teoria delle distribuzioni. L'attività dello strato di cellule è quindi soluzione dell'equazione di Laplace, ovvero la stessa equazione che descrive il Retinex. Questo prova che le cellule sono responsabili della percezione a meno di illuminazione.
Resumo:
Analisi dell'utopia della città ideale, della sintesi di architettura e urbanistica nella megaforma e progetto di un ashram come laboratorio di vita collettiva.
Resumo:
Questa tesi descrive una prima serie di misure effettuate per caratterizzare le prestazioni di un rivelatore di fotoni MCP-PMT a multi anodo, con particolare enfasi sulla risoluzione temporale e spaziale. I risultati sono stati confrontati con quelli relativi a tre ulteriori rivelatori (un MCP-PMT a singolo anodo e due fotomoltiplicatori a silicio). Le misure sono state effettuate presso i Laboratori dell’Istituto Nazionale di Fisica Nucleare (INFN - Sezione di Bologna) per conto del Dipartimento di Fisica dell’Università di Bologna. La rivelazione della luce ha sempre occupato un posto fondamentale nella Fisica Nucleare e Subnucleare. Il principio base della rivelazione consiste nel trasformare la luce incidente in un segnale elettrico misurabile e i primi strumenti storicamente utilizzati furono i fotomoltiplicatori. Successivamente furono introdotti dei nuovi rivelatori di fotoni chiamati Micro Channel Plates, composti da un array di canali di dimensioni microscopiche, ciascuno in grado di moltiplicare gli elettroni prodotti per effetto fotoelettrico dai fotoni incidenti. Questo nuovo modello presenta ottime prestazioni in particolare per quanto riguarda la risoluzione temporale, e questa insieme ad altre caratteristiche (come la segmentazione degli anodi, che permette una risoluzione spaziale migliore), ha spinto a studiarne il funzionamento.
Resumo:
Le biomasse sono attualmente una promettente alternativa ai combustibili fossili per la produzione di sostanze chimiche e fuels. Nella trasformazione delle biomasse in prodotti chimici un ruolo importante è giocato dai derivati del furfurale; il 5-idrossimetil-2-furfurale (HMF), per esempio, è un precursore chiave per la sintesi di prodotti con applicazioni nell'industria dei polimeri e in campo farmaceutico. Può essere ossidato per ottenere l’acido 2,5-furandicarbossilico (FDCA), un monomero per la sintesi di una nuova classe di polimeri, alternativi a quelli ottenuti da acido tereftalico. Per la preparazione di FDCA da HMF sono stati utilizzati vari catalizzatori e differenti condizioni di reazione; il principale svantaggio è la necessità di sali metallici e solventi organici, che rendono il processo costoso e ad elevato impatto ambientale. Recentemente sono stati trovati catalizzatori di Au supportati, attivi nell’ossidazione del HMF a FDCA; tuttavia la stabilità del catalizzatore e la produttività del processo rimangono basse. Lo scopo del lavoro è stato lo studio di sistemi attivi e stabili nella reazione di ossidazione del HMF a FDCA. In particolare è stato approfondito l’effetto della morfologia del supporto di CeO2, utilizzato per la preparazione di catalizzatori a base di Au e l’influenza della fase attiva sul meccanismo di reazione in sistemi misti Pd/Au. Il lavoro svolto ha avuto come obiettivi: -La preparazione di catalizzatori Au-CeO2 mesoporoso, ottenuto mediante “hard template” e la loro caratterizzazione mediante analisi XRD, HRTEM, BET, XRF, TPR e porosimetriche. Confrontando questi sistemi con catalizzatori di Au-CeO2 commerciale è stato possibile osservare le differenze in termini di attività catalitica e di struttura. -La sintesi di nanoparticelle Pd/Au in lega o core-shell e la loro caratterizzazione mediante analisi DLS, XRF, XRD e HRTEM per comprendere come il tipo di fase attiva formata influisce sull’attività e sul meccanismo di reazione nell’ossidazione di HMF a FDCA.