976 resultados para Villarosa, Carlo Antonio de Rosa di, marchese, 1762-1847.
Resumo:
Introduzione L’attività fisica moderata seguita da improvvisa interruzione può influenzare le caratteristiche biologiche del tendine. Lo scopo del lavoro è stato quello di valutare l’attività cellulare, le caratteristiche istologiche, istomorfometriche e microstrutturali del tendine patellare e della sua entesi in condizioni di non allenamento (sedentarietà), allenamento ed improvviso arresto dell’attività fisica. E’ stato ipotizzato che un’iniezione peri-tendinea di acido ialuronico nelle settimane successive all’improvviso arresto dell’attività fisica potesse mantenere l’integrità strutturale e biologica del tendine patellare. Materiali e Metodi 24 ratti Sprague Dawley maschi di 8 settimane sono stati suddivisi in tre gruppi, allenati per 10 settimane, fino a 60-80% VO2max. I ratti sono stati suddivisi in tre gruppi: Non Allenati (6), Allenati (6), Disallenati (12). A 6 dei 12 ratti del gruppo Detrained, è stata praticata un’infiltrazione peri-tendinea a nel tendine patellare destro di 300 μl di acido ialuronico, mentre nei rimanenti 6, è stata praticata l’infiltrazione con soluzione fisiologica. I tendini rotulei espiantati sono stati valutati con coltura cellulare, valutazione biologica molecolare, valutazioni morfologiche microstrutturali, proliferazione, conta ed attività cellulare. Risultati I risultati in vitro hanno evidenziato vitalità e conta cellulare simili fra i Gruppi Trained e Detrained-HA con un incremento significativo del metabolismo cellulare rispetto agli altri Gruppi. La cellularità ha mostrato valori maggiori nei Gruppi Non Allenati e Detrained-NaCl ove si è osservata una biosintesi del collagene III superiore ai Gruppi Trained e Detrained-HA. Contrariamente, la produzione di collagene I e II presentava valori maggiori nei Gruppi Trained e Detrained-HA suggerendo una superiore efficienza tessutale e metabolica di questi ultimi. Conclusioni Questi risultati confermano che l’allenamento ed il suo improvviso arresto hanno effetti sulla struttura tendinea patellare di ratto e che l’iniezione peritendinea di acido ialuronico nel periodo di inattività ha effetti significativi su metabolismo cellulare e sul tendine rispetto al trattamento con soluzione fisiologica.
Resumo:
Con il termine IPC (precondizionamento ischemico) si indica un fenomeno per il quale, esponendo il cuore a brevi cicli di ischemie subletali prima di un danno ischemico prolungato, si conferisce una profonda resistenza all’infarto, una delle principali cause di invalidità e mortalità a livello mondiale. Studi recenti hanno suggerito che l’IPC sia in grado di migliorare la sopravvivenza, la mobilizzazione e l’integrazione di cellule staminali in aree ischemiche e che possa fornire una nuova strategia per potenziare l’efficacia della terapia cellulare cardiaca, un’area della ricerca in continuo sviluppo. L’IPC è difficilmente trasferibile nella pratica clinica ma, da anni, è ben documentato che gli oppioidi e i loro recettori hanno un ruolo cardioprotettivo e che attivano le vie di segnale coinvolte nell’IPC: sono quindi candidati ideali per una possibile terapia farmacologica alternativa all’IPC. Il trattamento di cardiomiociti con gli agonisti dei recettori oppioidi Dinorfina B, DADLE e Met-Encefalina potrebbe proteggere, quindi, le cellule dall’apoptosi causata da un ambiente ischemico ma potrebbe anche indurle a produrre fattori che richiamino elementi staminali. Per testare quest’ipotesi è stato messo a punto un modello di “microambiente ischemico” in vitro sui cardiomioblasti di ratto H9c2 ed è stato dimostrato che precondizionando le cellule in modo “continuativo” (ventiquattro ore di precondizionamento con oppioidi e successivamente ventiquattro ore di induzione del danno, continuando a somministrare i peptidi oppioidi) con Dinorfina B e DADLE si verifica una protezione diretta dall’apoptosi. Successivamente, saggi di migrazione e adesione hanno mostrato che DADLE agisce sulle H9c2 “ischemiche” spronandole a creare un microambiente capace di attirare cellule staminali mesenchimali umane (FMhMSC) e di potenziare le capacità adesive delle FMhMSC. I dati ottenuti suggeriscono, inoltre, che la capacità del microambiente ischemico trattato con DADLE di attirare le cellule staminali possa essere imputabile alla maggiore espressione di chemochine da parte delle H9c2.
Resumo:
Per la tradizione amministrativa la concessione è lo strumento che consente ai singoli di utilizzare un bene pubblico a titolo particolare. Proprio l’endiadi espressa dai due aggettivi della definizione tradizionale, pubblico e particolare, nasconde la ragione della fortuna dello strumento concessorio, capace di soddisfare, allo stesso tempo, un’esigenza di carattere pubblico ed un bisogno eminentemente privato, sopravvivendo ai più differenti periodi storici ed all’affermarsi delle più radicali correnti di pensiero. A fare da sfondo a questa insanabile tensione, in perenne oscillazione tra i due poli estremi della definizione, la nozione, a sua volta relativa, discussa e costantemente rivisitata, di bene pubblico. Per questa ragione il titolo del lavoro che si presenta è articolato in tre segmenti, che fanno riferimento allo strumento, soltanto formalmente unitario, della concessione negli ambiti del demanio marittimo, del demanio costiero e del demanio portuale. Nel primo capitolo si esamina la disciplina normativa applicabile alle varie tipologie di concessione ipotizzabili sul demanio marittimo, cercando di cogliere, in una prospettiva di analisi diacronica, le linee di evoluzione dell’uso particolare dei beni variamente connessi alle esigenze della navigazione. Il secondo capitolo è, invece, dedicato all’esame dell’elaborazione giurisprudenziale relativa alle vicende del demanio marittimo. Mentre nel terzo capitolo, infine, si è tentato di ricercare e di rappresentare una teoria unitaria della concessione dovuta, in gran parte, all’incedere, apparentemente irresistibile, di un vocabolario comune dei contratti pubblici di matrice comunitaria. In questo contesto appare evidente la crisi, probabilmente irreversibile, della concezione di bene pubblico e quindi di concessione.
Resumo:
Parte 1:Indagine teorica che riflette il tema del progetto di architettura nel rapporto specifico tra nuovo intervento e preesistenza, nel lavoro dei massimi architetti contemporanei di Porto. Parte 2: Progetto di riabilitazione di una serie di case della borghesia settecentesca nel centro storico di Porto.
Resumo:
La città medievale di Leopoli-Cencelle (fondata da Papa Leone IV nell‘854 d.C. non lontano da Civitavecchia) è stata oggetto di studio e di periodiche campagne di scavo a partire dal 1994. Le stratigrafie investigate con metodi tradizionali, hanno portato alla luce le numerose trasformazioni che la città ha subìto nel corso della sua esistenza in vita. Case, torri, botteghe e strati di vissuto, sono stati interpretati sin dall’inizio dello scavo basandosi sulla documentazione tradizionale e bi-dimensionale, legata al dato cartaceo e al disegno. Il presente lavoro intende re-interpretare i dati di scavo con l’ausilio delle tecnologie digitali. Per il progetto sono stati utilizzati un laser scanner, tecniche di Computer Vision e modellazione 3D. I tre metodi sono stati combinati in modo da poter visualizzare tridimensionalmente gli edifici abitativi scavati, con la possibilità di sovrapporre semplici modelli 3D che permettano di formulare ipotesi differenti sulla forma e sull’uso degli spazi. Modellare spazio e tempo offrendo varie possibilità di scelta, permette di combinare i dati reali tridimensionali, acquisiti con un laser scanner, con semplici modelli filologici in 3D e offre l’opportunità di valutare diverse possibili interpretazioni delle caratteristiche dell’edificio in base agli spazi, ai materiali, alle tecniche costruttive. Lo scopo del progetto è andare oltre la Realtà Virtuale, con la possibilità di analizzare i resti e di re-interpretare la funzione di un edificio, sia in fase di scavo che a scavo concluso. Dal punto di vista della ricerca, la possibilità di visualizzare le ipotesi sul campo favorisce una comprensione più profonda del contesto archeologico. Un secondo obiettivo è la comunicazione a un pubblico di “non-archeologi”. Si vuole offrire a normali visitatori la possibilità di comprendere e sperimentare il processo interpretativo, fornendo loro qualcosa in più rispetto a una sola ipotesi definitiva.
Resumo:
Negli ultimi anni l’attenzione di legislatori e degli Organi di Vigilanza, in base alle riforme regolamentari attivate in risposta alla crisi economica, si sono focalizzate sulle pratiche di risk management delle Banche, sottolineando l’importanza dei sistemi di controllo e gestione dei rischi. Il presente lavoro nasce con l’intento di analizzare e valutare le caratteristiche salienti del processo di assunzione e gestione dei rischi nel sistema economico finanziario attuale. Numerosi e autorevoli esperti, come gli operatori del Financial Stability Board , Institute of International Finance e Senior Supervisory Group, si sono espressi sulle cause della crisi finanziaria ed hanno sollevato dubbi circa la qualità delle azioni intraprese da alcuni manager, sulle loro politiche gestionali e sulla comprensione delle reali condizioni in cui versavano le loro Banche (in termini di esposizione ai rischi, report da aggregazione dati su performance aziendali e qualità dei dati aggregati) , si è ritenuto giusto dal punto di vista teorico approfondire in particolare i temi del Risk Appetite e Risk Tolerance, novità introdotte nelle diverse direttive e normative in risposta alle citate ed ambigue politiche di gestione ed assunzione rischi. I concetti, qui introdotti, di appetito e tolleranza al rischio conducono ad una ampia sfera di riferimento che guarda alla necessità di fissare degli obiettivi di rischio e loro limiti per poter meglio controllare e valutare la stabilità economica/finanziaria e stimare gli effetti di condizioni peggiorative (reali o soltanto teoriche, come gli stress test) sulla solvibilità e profittabilità delle Banche nazionali ed internazionali. Inoltre, ad integrazione di quanto precedentemente esposto sarà illustrata una survey sulla disclosure delle principali Banche europee in relazione alle informazioni sul Risk Appetite e sul Risk Tolerance.
Resumo:
Le microreti caratterizzate da unità di generazione con Fonti Energetiche Rinnovabili (FER), sono oggetto di crescente interesse in due contesti molto diversi tra loro: l’integrazione della Generazione Diffusa (GD) in reti di distribuzione pubbliche nei paesi sviluppati e l’elettrificazione di zone rurali attualmente non servite dalla rete elettrica. L’introduzione dei sistemi di accumulo nelle microreti rende possibile la compensazione della variabilità delle FER trasformando le microreti in sistemi di produzione che nel complesso risultano completamente regolabili. L’obiettivo del presente lavoro di tesi è dimostrare come le microreti possono svolgere un ruolo fondamentale per lo sviluppo delle infrastrutture elettriche nei paesi in via di sviluppo e nelle economie emergenti ponendo le basi per l’elettrificazione di aree remote e scarsamente popolate ad oggi non connesse alla rete di distribuzione dell’energia.
Resumo:
La ricerca, che ha per oggetto lo studio dell’apprendimento guidato dell’italiano come lingua seconda da parte di apprendenti lituani, si articola in quattro capitoli. I primi due costituiscono il quadro teorico della ricerca, dedicando il primo ai fondamenti teorici e ricerche empiriche in generale e il secondo alle ricerche sull’apprendimento dell’italiano come L2. Nel terzo capitolo viene presentata la metodologia della ricerca, mentre nel quarto capitolo vengono presentati i risultati, concentrandosi in particolare sull’ortografia, sulla morfologia del nome, sulla categoria del verbo e sugli aspetti sintattici.In base ai risultati conseguiti, che in parte confermano i percorsi acquisizionali rilevati in contesto di apprendimento spontaneo, vengono all’ultimo suggerite alcune proposte applicative.
Resumo:
Superconduttori bulk in MgB2, ottenuti con tecnologia Mg-RLI brevettata da Edison Spa, sono stati oggetto di un'approfondita analisi in termini di forze di levitazione. Questo studio è stato preliminare per la progettazione di un innovativo sistema di levitazione lineare. I risultati ottenuti sperimentalmente sono stati validati attraverso modelli numerici sviluppati ad hoc. I campioni oggetto dello studio sono tre bulk in MgB2 rappresentativi delle tipiche forme usate nelle applicazioni reali: un disco, un cilindro, una piastra. I bulk sono stati misurati con un sistema di misura per le forze di levitazione realizzato a tale scopo. Un protocollo sperimentale è stato seguito per la caratterizzazione di base, sia in condizioni Field Cooling sia Zero Field Cooling, al quale sono state affiancate prove specifiche come la possibilità di mantenere inalterate le proprietà superconduttive attraverso la giunzione di più campioni con la tecnologia Mg-RLI. Un modello numerico è stato sviluppato per convalidare i risultati sperimentali e per studiare l'elettrodinamica della levitazione. Diverse configurazioni di rotori magnetici sono state accoppiate con un cilindro in MgB2 con lo scopo di valutare la soluzione ottimale; questo tema è stato apporofondito attraverso lo sviluppo di un software di simulazione che può tenere conto sia del numero di magneti sia della presenza di anelli in materiale magneti intercalati fra di essi. Studi analoghi sono stati portati avanti su una piastra di MgB2 per simulare il comportamento di una geometria piana. Un sistema di raffreddamento innovativo basato sull'azoto solido è stato studiato per poterlo accoppiare con un sistema di levitazione. Il criostato progettato è costituito da due dewar, uno dentro l'altro; quello interno ha lo scopo di raffreddare l'MgB2 mentre quello esterno di limitare delle perdite verso l'esterno. Il criopattino così ottenuto è accoppiato in condizioni FC ad una rotaia formata da magneti permanenti in NdFeB.
Resumo:
La radioterapia guidata da immagini (IGRT), grazie alle ripetute verifiche della posizione del paziente e della localizzazione del volume bersaglio, si è recentemente affermata come nuovo paradigma nella radioterapia, avendo migliorato radicalmente l’accuratezza nella somministrazione di dose a scopo terapeutico. Una promettente tecnica nel campo dell’IGRT è rappresentata dalla tomografia computerizzata a fascio conico (CBCT). La CBCT a kilovoltaggio, consente di fornire un’accurata mappatura tridimensionale dell’anatomia del paziente, in fase di pianificazione del trattamento e a ogni frazione del medisimo. Tuttavia, la dose da imaging attribuibile alle ripetute scansioni è diventata, negli ultimi anni, oggetto di una crescente preoccupazione nel contesto clinico. Lo scopo di questo lavoro è di valutare quantitativamente la dose addizionale somministrata da CBCT a kilovoltaggio, con riferimento a tre tipici protocolli di scansione per Varian OnBoard Imaging Systems (OBI, Palo Alto, California). A questo scopo sono state condotte simulazioni con codici Monte Carlo per il calcolo della dose, utilizzando il pacchetto gCTD, sviluppato sull’architettura della scheda grafica. L’utilizzo della GPU per sistemi server di calcolo ha permesso di raggiungere alte efficienze computazionali, accelerando le simulazioni Monte Carlo fino a raggiungere tempi di calcolo di ~1 min per un caso tipico. Inizialmente sono state condotte misure sperimentali di dose su un fantoccio d’acqua. I parametri necessari per la modellazione della sorgente di raggi X nel codice gCTD sono stati ottenuti attraverso un processo di validazione del codice al fine di accordare i valori di dose simulati in acqua con le misure nel fantoccio. Lo studio si concentra su cinquanta pazienti sottoposti a cicli di radioterapia a intensità modulata (IMRT). Venticinque pazienti con tumore al cervello sono utilizzati per studiare la dose nel protocollo standard-dose head e venticinque pazienti con tumore alla prostata sono selezionati per studiare la dose nei protocolli pelvis e pelvis spotlight. La dose media a ogni organo è calcolata. La dose media al 2% dei voxels con i valori più alti di dose è inoltre computata per ogni organo, al fine di caratterizzare l’omogeneità spaziale della distribuzione.
Resumo:
In questa tesi viene studiata la libreria zbar.h il cui compito è decodificare i barcode presenti in immagini. Per acquisire le immagini si utilizzano funzioni contenute nella libreria OpenCV. Successivamente viene creata un'interfaccia tra OpenCV e ZBar. Vengono effettuati alcuni test per verificare l'efficienza sia di ZBar e sia dell'interfaccia. Concludendo, si crea una nuova libreria in cui sono inglobate le funzioni di ZBar e l'interfaccia OpenCV-ZBar
Resumo:
In questo studio sarà trattato lo sviluppo degli algoritmi genetici, uno strumento di calcolo nato ispirandosi alle leggi Darwiniane sull’evoluzione naturale. Questi algoritmi, le cui basi furono introdotte a partire dagli anni '40, mirano alla risoluzione di una vasta categoria di problemi computazionali utilizzando un approccio differente, basato sulle regole di mutazione e ricombinazione proprie della genetica. Essi permettono infatti di valutare delle soluzioni di partenza e, grazie alle variazioni introdotte dalla modifica casuale o dalla ricombinazione di queste, crearne di nuove nel tentativo di convergere verso soluzioni ottimali. Questo studio si propone come una descrizione di questo strumento, dei suoi sviluppi e delle sue potenzialità in ambito bioingegneristico, focalizzandosi sul suo utilizzo recente nell’ identificazione parametrica di modelli cardiaci.
Resumo:
The dynamic character of proteins strongly influences biomolecular recognition mechanisms. With the development of the main models of ligand recognition (lock-and-key, induced fit, conformational selection theories), the role of protein plasticity has become increasingly relevant. In particular, major structural changes concerning large deviations of protein backbones, and slight movements such as side chain rotations are now carefully considered in drug discovery and development. It is of great interest to identify multiple protein conformations as preliminary step in a screening campaign. Protein flexibility has been widely investigated, in terms of both local and global motions, in two diverse biological systems. On one side, Replica Exchange Molecular Dynamics has been exploited as enhanced sampling method to collect multiple conformations of Lactate Dehydrogenase A (LDHA), an emerging anticancer target. The aim of this project was the development of an Ensemble-based Virtual Screening protocol, in order to find novel potent inhibitors. On the other side, a preliminary study concerning the local flexibility of Opioid Receptors has been carried out through ALiBERO approach, an iterative method based on Elastic Network-Normal Mode Analysis and Monte Carlo sampling. Comparison of the Virtual Screening performances by using single or multiple conformations confirmed that the inclusion of protein flexibility in screening protocols has a positive effect on the probability to early recognize novel or known active compounds.
Resumo:
La green chemistry può essere definita come l’applicazione dei principi fondamentali di sviluppo sostenibile, al fine di ridurre al minimo l’impiego o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici. È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Il presente lavoro di tesi è stato condotto con l’intenzione di offrire una valutazione degli impatti ambientali associati al settore dei processi chimici di interesse industriale in una prospettiva di ciclo di vita. In particolare, è stato studiato il processo di produzione di acroleina ponendo a confronto due vie di sintesi alternative: la via tradizionale che impiega propilene come materia prima, e l’alternativa da glicerolo ottenuto come sottoprodotto rinnovabile di processi industriali. Il lavoro si articola in due livelli di studio: un primo, parziale, in cui si va ad esaminare esclusivamente il processo di produzione di acroleina, non considerando gli stadi a monte per l’ottenimento delle materie prime di partenza; un secondo, più dettagliato, in cui i confini di sistema vengono ampliati all’intero ciclo produttivo. I risultati sono stati confrontati ed interpretati attraverso tre tipologie di analisi: Valutazione del danno, Analisi di contributo ed Analisi di incertezza. Dal confronto tra i due scenari parziali di produzione di acroleina, emerge come il processo da glicerolo abbia impatti globalmente maggiori rispetto al tradizionale. Tale andamento è ascrivibile ai diversi consumi energetici ed in massa del processo per l’ottenimento dell’acroleina. Successivamente, per avere una visione completa di ciascuno scenario, l’analisi è stata estesa includendo le fasi a monte di produzione delle due materie prime. Da tale confronto emerge come lo scenario più impattante risulta essere quello di produzione di acroleina partendo da glicerolo ottenuto dalla trans-esterificazione di olio di colza. Al contrario, lo scenario che impiega glicerolo prodotto come scarto della lavorazione di sego sembra essere il modello con i maggiori vantaggi ambientali. Con l’obiettivo di individuare le fasi di processo maggiormente incidenti sul carico totale e quindi sulle varie categorie d’impatto intermedie, è stata eseguita un’analisi di contributo suddividendo ciascuno scenario nei sotto-processi che lo compongono. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.
Resumo:
La diffusione di Internet negli ultimi anni e lo sviluppo sempre crescente nell'ambito delle reti di telecomunicazione, hanno portato oggi ad una vera e propria esplosione della diffusione di nuove tecnologie di trasmissione. Inizialmente il protocollo di trasporto dati, TCP, non era stato pensata per operare in scenari diversi da quello della rete fissa. Con l'introduzione di nuovi scenari, come quello wireless, wimax e satellitare, si è notato come le prestazioni peggiorino in questi ambienti. Proprio per questo, il protocollo TCP ha subito parecchie modifiche negli anni e sono state realizzate alternative atte a migliorare l'inefficienza del protocollo. Le modifiche, a cui il TCP è stato sottoposto, sono basate su alcuni criteri di valutazione e l'introduzione di meccanismi come il controllo del flusso o il controllo di congestione in modo da migliorare le performance in ambienti “ostili”. Molti ricercatori si sono concentrati nello studio e modifica di questi nuovi meccanismi cercando di adattare al meglio il TCP secondo diversi scenari di rete, trascurando così altri criteri un pò meno noti. Dopo aver introdotto lo scenario con la descrizione del protocollo TCP, andremo a descrivere e illustrare questi “nuovi criteri” presentando alcuni recenti studi effettuati, in seguito andremo a presentare un nuova versione del protocollo chiamata Early Warning TCP e nell'ultimo capitolo andremo a presentare delle conclusioni degli studi presentati.