87 resultados para gruppi di Carnot


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Frame. Assessing the difficulty of source texts and parts thereof is important in CTIS, whether for research comparability, for didactic purposes or setting price differences in the market. In order to empirically measure it, Campbell & Hale (1999) and Campbell (2000) developed the Choice Network Analysis (CNA) framework. Basically, the CNA’s main hypothesis is that the more translation options (a group of) translators have to render a given source text stretch, the higher the difficulty of that text stretch will be. We will call this the CNA hypothesis. In a nutshell, this research project puts the CNA hypothesis to the test and studies whether it does actually measure difficulty. Data collection. Two groups of participants (n=29) of different profiles and from two universities in different countries had three translation tasks keylogged with Inputlog, and filled pre- and post-translation questionnaires. Participants translated from English (L2) into their L1s (Spanish or Italian), and worked—first in class and then at home—using their own computers, on texts ca. 800–1000 words long. Each text was translated in approximately equal halves in two 1-hour sessions, in three consecutive weeks. Only the parts translated at home were considered in the study. Results. A very different picture emerged from data than that which the CNA hypothesis might predict: there was no prevalence of disfluent task segments when there were many translation options, nor was a prevalence of fluent task segments associated to fewer translation options. Indeed, there was no correlation between the number of translation options (many and few) and behavioral fluency. Additionally, there was no correlation between pauses and both behavioral fluency and typing speed. The discussed theoretical flaws and the empirical evidence lead to the conclusion that the CNA framework does not and cannot measure text and translation difficulty.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Caratteristica comune ai regimi di consolidamento previsti dai diversi ordinamenti, è quella di consentire la compensazione tra utili e perdite di società residenti, e, di negare, o rendere particolarmente difficoltosa, la stessa compensazione, quando le perdite sono maturate da società non residenti. La non considerazione delle perdite comporta una tassazione al lordo del gruppo multinazionale, per mezzo della quale, non si colpisce il reddito effettivo dei soggetti che vi appartengono. L’effetto immediato è quello di disincentivare i gruppi a travalicare i confini nazionali. Ciò impedisce il funzionamento del Mercato unico, a scapito della libertà di stabilimento prevista dagli artt. 49-54 del TFUE. Le previsioni ivi contenute sono infatti dirette, oltre ad assicurare a società straniere il beneficio della disciplina dello Stato membro ospitante, a proibire altresì allo Stato di origine di ostacolare lo stabilimento in un altro Stato membro dei propri cittadini o delle società costituite conformemente alla propria legislazione. Gli Stati membri giustificano la discriminazione tra società residenti e non residenti alla luce della riserva di competenza tributaria ad essi riconosciuta dall’ordinamento europeo in materia delle imposte dirette, dunque, in base all’equilibrata ripartizione del potere impositivo. In assenza di qualsiasi riferimento normativo, va ascritto alla Corte di Giustizia il ruolo di interprete del diritto europeo. La Suprema Corte, con una serie di importanti pronunce, ha infatti sindacato la compatibilità con il diritto comunitario dei vari regimi interni che negano la compensazione transfrontaliera delle perdite. Nel verificare la compatibilità con il diritto comunitario di tali discipline, la Corte ha tentato di raggiungere un (difficile) equilibrio tra due interessi completamenti contrapposti: quello comunitario, riconducibile al rispetto della libertà di stabilimento, quello degli Stati membri, che rivendicano il diritto di esercitare il proprio potere impositivo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nelle epatopatie croniche l’estensione della fibrosi è il principale determinante della prognosi. Sebbene la biopsia epatica rimanga il gold standard ai fini di una stadiazione, il crescente interesse nei confronti di metodi diagnostici non invasivi di fibrosi ha portato allo sviluppo di diversi modelli predittivi basati su parametri clinicolaboratoristici quali Fibrotest, indice APRI, indice Forns. Gli scopi dello studio sono: di stabilire l’accuratezza di un’analisi con rete neurale artificiale (ANN), tecnica di cui è stata dimostrata l’efficacia predittiva in situazioni biologiche complesse nell’identificare lo stadio di fibrosi, di confrontarne i risultati con quelli ottenuti dal calcolo degli indici APRI e Forns sullo stesso gruppo di pazienti e infine di validarne l’efficacia diagnostica in gruppi esterni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il tema della casa, e più in generale dell’abitare, è argomento tornato al centro del dibattito sociale più di quanto non sia avvenuto in campo tecnico‐architettonico. Sono infatti abbastanza evidenti i limiti delle proposte che nel recente passato sono state, di norma, elaborate nelle nostre città, proposte molto spesso incapaci di tener conto delle molteplici dimensioni che l’evoluzione dei costumi e della struttura urbana e sociale ha indotto anche nella sfera della residenza e che sono legate a mutate condizioni lavorative, alla diversità di cultura e di religione di nuovi gruppi etnici insediati, alla struttura dei nuclei familiari (ove ancora esistano) ed a molti altri fattori; cambiate le esigenze, un tempo composte nella struttura della famiglia, sono cambiati desideri e richieste mentre l’apparato normativo è rimasto strutturato su modelli sociali ed economici superati. Il tema dunque assume, oggi più che mai, connotazioni con forti relazioni fra problematiche funzionali, tecnologiche e simboliche. Stimolata da queste osservazioni generali, la ricerca si è mossa partendo da un’analisi di casi realizzati nel periodo storico in cui si è esaurita, in Italia, l’emergenza abitativa post‐bellica, nell’intento di riconsiderare l’approccio vitale che era stato messo in campo in quella drammatica circostanza, ma già consapevole che lo sviluppo che avrebbe poi avuto sarebbe stato molto più circoscritto. La tesi infatti, dopo aver osservato rapidamente la consistenza tipologica ed architettonica di quegli interventi, per trarne suggestioni capaci di suggerire un credibile e nuovo prototipo da indagare, attraverso un’analisi comparativa sugli strumenti oggi disponibili per la comunicazione e gestione del progetto, si è soffermata sulla potenzialità delle nuove tecnologie dell'informazione (IT). Non si può infatti non osservare che esse hanno modificato non solo il modo di vivere, di lavorare, di produrre documenti e di scambiare informazioni, ma anche quello di controllare il processo di progetto. Il fenomeno è tuttora in corso ma è del tutto evidente che anche l'attività progettuale, seppure in un settore quale è quello dell'industria edilizia, caratterizzato da una notevole inerzia al cambiamento e restio all'innovazione, grazie alle nuove tecnologie ha conosciuto profonde trasformazioni (già iniziate con l’avvento del CAD) che hanno accelerato il progressivo mutamento delle procedure di rappresentazione e documentazione digitale del progetto. Su questo tema quindi si è concentrata la ricerca e la sperimentazione, valutando che l'”archivio di progetto integrato”, (ovvero IPDB ‐ Integrated Project Database) è, probabilmente, destinato a sostituire il concetto di CAD (utilizzato fino ad ora per il settore edilizio ed inteso quale strumento di elaborazione digitale, principalmente grafica ma non solo). Si è esplorata quindi, in una prima esperienza di progetto, la potenzialità e le caratteristiche del BIM (Building Information Model) per verificare se esso si dimostra realmente capace di formulare un archivio informativo, di sostegno al progetto per tutto il ciclo di vita del fabbricato, ed in grado di definirne il modello tridimensionale virtuale a partire dai suoi componenti ed a collezionare informazioni delle geometrie, delle caratteristiche fisiche dei materiali, della stima dei costi di costruzione, delle valutazioni sulle performance di materiali e componenti, delle scadenze manutentive, delle informazioni relative a contratti e procedure di appalto. La ricerca analizza la strutturazione del progetto di un edificio residenziale e presenta una costruzione teorica di modello finalizzata alla comunicazione e gestione della pianificazione, aperta a tutti i soggetti coinvolti nel processo edilizio e basata sulle potenzialità dell’approccio parametrico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La ricerca si propone di definire le linee guida per la stesura di un Piano che si occupi di qualità della vita e di benessere. Il richiamo alla qualità e al benessere è positivamente innovativo, in quanto impone agli organi decisionali di sintonizzarsi con la soggettività attiva dei cittadini e, contemporaneamente, rende evidente la necessità di un approccio più ampio e trasversale al tema della città e di una più stretta relazione dei tecnici/esperti con i responsabili degli organismi politicoamministrativi. La ricerca vuole indagare i limiti dell’urbanistica moderna di fronte alla complessità di bisogni e di nuove necessità espresse dalle popolazioni urbane contemporanee. La domanda dei servizi è notevolmente cambiata rispetto a quella degli anni Sessanta, oltre che sul piano quantitativo anche e soprattutto sul piano qualitativo, a causa degli intervenuti cambiamenti sociali che hanno trasformato la città moderna non solo dal punto di vista strutturale ma anche dal punto di vista culturale: l’intermittenza della cittadinanza, per cui le città sono sempre più vissute e godute da cittadini del mondo (turisti e/o visitatori, temporaneamente presenti) e da cittadini diffusi (suburbani, provinciali, metropolitani); la radicale trasformazione della struttura familiare, per cui la famiglia-tipo costituita da una coppia con figli, solido riferimento per l’economia e la politica, è oggi minoritaria; l’irregolarità e flessibilità dei calendari, delle agende e dei ritmi di vita della popolazione attiva; la mobilità sociale, per cui gli individui hanno traiettorie di vita e pratiche quotidiane meno determinate dalle loro origini sociali di quanto avveniva nel passato; l’elevazione del livello di istruzione e quindi l’incremento della domanda di cultura; la crescita della popolazione anziana e la forte individualizzazione sociale hanno generato una domanda di città espressa dalla gente estremamente variegata ed eterogenea, frammentata e volatile, e per alcuni aspetti assolutamente nuova. Accanto a vecchie e consolidate richieste – la città efficiente, funzionale, produttiva, accessibile a tutti – sorgono nuove domande, ideali e bisogni che hanno come oggetto la bellezza, la varietà, la fruibilità, la sicurezza, la capacità di stupire e divertire, la sostenibilità, la ricerca di nuove identità, domande che esprimono il desiderio di vivere e di godere la città, di stare bene in città, domande che non possono essere più soddisfatte attraverso un’idea di welfare semplicemente basata sull’istruzione, la sanità, il sistema pensionistico e l’assistenza sociale. La città moderna ovvero l’idea moderna della città, organizzata solo sui concetti di ordine, regolarità, pulizia, uguaglianza e buon governo, è stata consegnata alla storia passata trasformandosi ora in qualcosa di assai diverso che facciamo fatica a rappresentare, a descrivere, a raccontare. La città contemporanea può essere rappresentata in molteplici modi, sia dal punto di vista urbanistico che dal punto di vista sociale: nella letteratura recente è evidente la difficoltà di definire e di racchiudere entro limiti certi l’oggetto “città” e la mancanza di un convincimento forte nell’interpretazione delle trasformazioni politiche, economiche e sociali che hanno investito la società e il mondo nel secolo scorso. La città contemporanea, al di là degli ambiti amministrativi, delle espansioni territoriali e degli assetti urbanistici, delle infrastrutture, della tecnologia, del funzionalismo e dei mercati globali, è anche luogo delle relazioni umane, rappresentazione dei rapporti tra gli individui e dello spazio urbano in cui queste relazioni si muovono. La città è sia concentrazione fisica di persone e di edifici, ma anche varietà di usi e di gruppi, densità di rapporti sociali; è il luogo in cui avvengono i processi di coesione o di esclusione sociale, luogo delle norme culturali che regolano i comportamenti, dell’identità che si esprime materialmente e simbolicamente nello spazio pubblico della vita cittadina. Per studiare la città contemporanea è necessario utilizzare un approccio nuovo, fatto di contaminazioni e saperi trasversali forniti da altre discipline, come la sociologia e le scienze umane, che pure contribuiscono a costruire l’immagine comunemente percepita della città e del territorio, del paesaggio e dell’ambiente. La rappresentazione del sociale urbano varia in base all’idea di cosa è, in un dato momento storico e in un dato contesto, una situazione di benessere delle persone. L’urbanistica moderna mirava al massimo benessere del singolo e della collettività e a modellarsi sulle “effettive necessità delle persone”: nei vecchi manuali di urbanistica compare come appendice al piano regolatore il “Piano dei servizi”, che comprende i servizi distribuiti sul territorio circostante, una sorta di “piano regolatore sociale”, per evitare quartieri separati per fasce di popolazione o per classi. Nella città contemporanea la globalizzazione, le nuove forme di marginalizzazione e di esclusione, l’avvento della cosiddetta “new economy”, la ridefinizione della base produttiva e del mercato del lavoro urbani sono espressione di una complessità sociale che può essere definita sulla base delle transazioni e gli scambi simbolici piuttosto che sui processi di industrializzazione e di modernizzazione verso cui era orientata la città storica, definita moderna. Tutto ciò costituisce quel complesso di questioni che attualmente viene definito “nuovo welfare”, in contrapposizione a quello essenzialmente basato sull’istruzione, sulla sanità, sul sistema pensionistico e sull’assistenza sociale. La ricerca ha quindi analizzato gli strumenti tradizionali della pianificazione e programmazione territoriale, nella loro dimensione operativa e istituzionale: la destinazione principale di tali strumenti consiste nella classificazione e nella sistemazione dei servizi e dei contenitori urbanistici. E’ chiaro, tuttavia, che per poter rispondere alla molteplice complessità di domande, bisogni e desideri espressi dalla società contemporanea le dotazioni effettive per “fare città” devono necessariamente superare i concetti di “standard” e di “zonizzazione”, che risultano essere troppo rigidi e quindi incapaci di adattarsi all’evoluzione di una domanda crescente di qualità e di servizi e allo stesso tempo inadeguati nella gestione del rapporto tra lo spazio domestico e lo spazio collettivo. In questo senso è rilevante il rapporto tra le tipologie abitative e la morfologia urbana e quindi anche l’ambiente intorno alla casa, che stabilisce il rapporto “dalla casa alla città”, perché è in questa dualità che si definisce il rapporto tra spazi privati e spazi pubblici e si contestualizzano i temi della strada, dei negozi, dei luoghi di incontro, degli accessi. Dopo la convergenza dalla scala urbana alla scala edilizia si passa quindi dalla scala edilizia a quella urbana, dal momento che il criterio del benessere attraversa le diverse scale dello spazio abitabile. Non solo, nei sistemi territoriali in cui si è raggiunto un benessere diffuso ed un alto livello di sviluppo economico è emersa la consapevolezza che il concetto stesso di benessere sia non più legato esclusivamente alla capacità di reddito collettiva e/o individuale: oggi la qualità della vita si misura in termini di qualità ambientale e sociale. Ecco dunque la necessità di uno strumento di conoscenza della città contemporanea, da allegare al Piano, in cui vengano definiti i criteri da osservare nella progettazione dello spazio urbano al fine di determinare la qualità e il benessere dell’ambiente costruito, inteso come benessere generalizzato, nel suo significato di “qualità dello star bene”. E’ evidente che per raggiungere tale livello di qualità e benessere è necessario provvedere al soddisfacimento da una parte degli aspetti macroscopici del funzionamento sociale e del tenore di vita attraverso gli indicatori di reddito, occupazione, povertà, criminalità, abitazione, istruzione, etc.; dall’altra dei bisogni primari, elementari e di base, e di quelli secondari, culturali e quindi mutevoli, trapassando dal welfare state allo star bene o well being personale, alla wellness in senso olistico, tutte espressioni di un desiderio di bellezza mentale e fisica e di un nuovo rapporto del corpo con l’ambiente, quindi manifestazione concreta di un’esigenza di ben-essere individuale e collettivo. Ed è questa esigenza, nuova e difficile, che crea la diffusa sensazione dell’inizio di una nuova stagione urbana, molto più di quanto facciano pensare le stesse modifiche fisiche della città.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Fenomeni di trasporto ed elettrostatici in membrane da Nanofiltrazione La capacità di predire le prestazioni delle membrane da nanofiltrazione è molto importante per il progetto e la gestione di processi di separazione a membrana. Tali prestazioni sono strettamente legate ai fenomeni di trasporto che regolano il moto dei soluti all’interno della matrice della membrana. Risulta, quindi, di rilevante importanza la conoscenza e lo studio di questi fenomeni; l’obiettivo finale è quello di mettere a punto modelli di trasporto appropriati che meglio descrivano il flusso dei soluti all’interno della membrana. A fianco dei modelli di trasporto ricopre, quindi, una importanza non secondaria la caratterizzazione dei parametri aggiustabili propri della membrana sulla quale si opera. La procedura di caratterizzazione di membrane deve chiarire le modalità di svolgimento delle prove sperimentali e le finalità che esse dovrebbero conseguire. Tuttavia, nonostante i miglioramenti concernenti la modellazione del trasporto di ioni in membrana ottenuti dalla ricerca negli ultimi anni, si è ancora lontani dall’avere a disposizione un modello univoco in grado di descrivere i fenomeni coinvolti in maniera chiara. Oltretutto, la palese incapacità del modello di non riuscire a prevedere gli andamenti sperimentali di reiezione nella gran parte dei casi relativi a miscele multicomponenti e le difficoltà legate alla convergenza numerica degli algoritmi risolutivi hanno fortemente limitato gli sviluppi del processo anche e soprattutto in termini applicativi. Non da ultimo, si avverte la necessità di poter prevedere ed interpretare l’andamento della carica di membrana al variare delle condizioni operative attraverso lo sviluppo di un modello matematico in grado di descrivere correttamente il meccanismo di formazione della carica. Nel caso di soluzioni elettrolitiche, infatti, è stato riconosciuto che la formazione della carica superficiale è tra i fattori che maggiormente caratterizzano le proprietà di separazione delle membrane. Essa gioca un ruolo importante nei processi di trasporto ed influenza la sua selettività nella separazione di molecole caricate; infatti la carica di membrana interagisce elettrostaticamente con gli ioni ed influenza l’efficienza di separazione degli stessi attraverso la partizione degli elettroliti dalla soluzione esterna all’interno dei pori del materiale. In sostanza, la carica delle membrane da NF è indotta dalle caratteristiche acide delle soluzioni elettrolitiche poste in contatto con la membrana stessa, nonché dal tipo e dalla concentrazione delle specie ioniche. Nello svolgimento di questo lavoro sono stati analizzati i principali fenomeni di trasporto ed elettrostatici coinvolti nel processo di nanofiltrazione, in particolare si è focalizzata l’attenzione sugli aspetti relativi alla loro modellazione matematica. La prima parte della tesi è dedicata con la presentazione del problema generale del trasporto di soluti all’interno di membrane da nanofiltrazione con riferimento alle equazioni alla base del modello DSP&DE, che rappresenta una razionalizzazione dei modelli esistenti sviluppati a partire dal modello DSPM, nel quale sono stati integrarti i fenomeni di esclusione dielettrica, per quanto riguarda la separazione di elettroliti nella filtrazione di soluzioni acquose in processi di Nanofiltrazione. Il modello DSP&DE, una volta definita la tipologia di elettroliti presenti nella soluzione alimentata e la loro concentrazione, viene completamente definito da tre parametri aggiustabili, strettamente riconducibili alle proprietà della singola membrana: il raggio medio dei pori all’interno della matrice, lo spessore effettivo e la densità di carica di membrana; in più può essere considerato un ulteriore parametro aggiustabile del modello il valore che la costante dielettrica del solvente assume quando confinato in pori di ridotte dimensioni. L’impostazione generale del modello DSP&DE, prevede la presentazione dei fenomeni di trasporto all’interno della membrana, descritti attraverso l’equazione di Nerst-Planck, e lo studio della ripartizione a ridosso dell’interfaccia membrana/soluzione esterna, che tiene in conto di diversi contributi: l’impedimento sterico, la non idealità della soluzione, l’effetto Donnan e l’esclusione dielettrica. Il capitolo si chiude con la presentazione di una procedura consigliata per la determinazione dei parametri aggiustabili del modello di trasporto. Il lavoro prosegue con una serie di applicazioni del modello a dati sperimentali ottenuti dalla caratterizzazione di membrane organiche CSM NE70 nel caso di soluzioni contenenti elettroliti. In particolare il modello viene applicato quale strumento atto ad ottenere informazioni utili per lo studio dei fenomeni coinvolti nel meccanismo di formazione della carica; dall’elaborazione dei dati sperimentali di reiezione in funzione del flusso è possibile ottenere dei valori di carica di membrana, assunta quale parametro aggiustabile del modello. che permettono di analizzare con affidabilità gli andamenti qualitativi ottenuti per la carica volumetrica di membrana al variare della concentrazione di sale nella corrente in alimentazione, del tipo di elettrolita studiato e del pH della soluzione. La seconda parte della tesi relativa allo studio ed alla modellazione del meccanismo di formazione della carica. Il punto di partenza di questo studio è rappresentato dai valori di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione con il modello di trasporto, e tali valori verranno considerati quali valori “sperimentali” di riferimento con i quali confrontare i risultati ottenuti. Nella sezione di riferimento è contenuta la presentazione del modello teorico “adsorption-amphoteric” sviluppato al fine di descrivere ed interpretare i diversi comportamenti sperimentali ottenuti per la carica di membrana al variare delle condizioni operative. Nel modello la membrana è schematizzata come un insieme di siti attivi di due specie: il gruppo di siti idrofobici e quello de siti idrofilici, in grado di supportare le cariche derivanti da differenti meccanismi chimici e fisici. I principali fenomeni presi in considerazione nel determinare la carica volumetrica di membrana sono: i) la dissociazione acido/base dei siti idrofilici; ii) il site-binding dei contro-ioni sui siti idrofilici dissociati; iii) l’adsorbimento competitivo degli ioni in soluzione sui gruppi funzionali idrofobici. La struttura del modello è del tutto generale ed è in grado di mettere in evidenza quali sono i fenomeni rilevanti che intervengono nel determinare la carica di membrana; per questo motivo il modello permette di indagare il contributo di ciascun meccanismo considerato, in funzione delle condizioni operative. L’applicazione ai valori di carica disponibili per membrane Desal 5-DK nel caso di soluzioni contenenti singoli elettroliti, in particolare NaCl e CaCl2 permette di mettere in evidenza due aspetti fondamentali del modello: in primis la sua capacità di descrivere andamenti molto diversi tra loro per la carica di membrana facendo riferimento agli stessi tre semplici meccanismi, dall’altra parte permette di studiare l’effetto di ciascun meccanismo sull’andamento della carica totale di membrana e il suo peso relativo. Infine vengono verificate le previsioni ottenute con il modello dal suddetto studio attraverso il confronto con dati sperimentali di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione disponibili per il caso di membrane CSM NE70. Tale confronto ha messo in evidenza le buone capacità previsionali del modello soprattutto nel caso di elettroliti non simmetrici quali CaCl2 e Na2SO4. In particolare nel caso un cui lo ione divalente rappresenta il contro-ione rispetto alla carica propria di membrana, la carica di membrana è caratterizzata da un andamento unimodale (contraddistinto da un estremante) con la concentrazione di sale in alimentazione. Il lavoro viene concluso con l’estensione del modello ADS-AMF al caso di soluzioni multicomponenti: è presentata una regola di mescolamento che permette di ottenere la carica per le soluzioni elettrolitiche multicomponenti a partire dai valori disponibili per i singoli ioni componenti la miscela.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il tennis è uno sport molto diffuso che negli ultimi trent’anni ha subito molti cambiamenti. Con l’avvento di nuovi materiali più leggeri e maneggevoli la velocità della palla è aumentata notevolmente, rendendo così necessario una modifica a livello tecnico dei colpi fondamentali. Dalla ricerca bibliografica sono emerse interessanti indicazioni su angoli e posizioni corporee ideali da mantenere durante le varie fasi dei colpi, confrontando i giocatori di altissimo livello. Non vi sono invece indicazioni per i maestri di tennis su quali siano i parametri più importanti da allenare a seconda del livello di gioco del proprio atleta. Lo scopo di questa tesi è quello di individuare quali siano le variabili tecniche che influenzano i colpi del diritto e del servizio confrontando atleti di genere differente, giocatori di livello di gioco diverso (esperti, intermedi, principianti) e dopo un anno di attività programmata. Confrontando giocatori adulti di genere diverso, è emerso che le principali differenze sono legate alle variabili di prestazione (velocità della palla e della racchetta) per entrambi i colpi. Questi dati sono simili a quelli riscontrati nel test del lancio della palla, un gesto non influenzato dalla tecnica del colpo. Le differenze tecniche di genere sono poco rilevanti ed attribuibili alla diversa interpretazione dei soggetti. Nel confronto di atleti di vario livello di gioco le variabili di prestazione presentano evidenti differenze, che possono essere messe in relazione con alcune differenze tecniche rilevate nei gesti specifici. Nel servizio i principianti tendono a direzionare l’arto superiore dominante verso la zona bersaglio, abducendo maggiormente la spalla ed avendo il centro della racchetta più a destra rispetto al polso. Inoltre, effettuano un caricamento minore degli arti inferiori, del tronco e del gomito. Per quanto riguarda il diritto si possono evidenziare queste differenze: l’arto superiore è sempre maggiormente esteso per il gruppo dei principianti; il tronco, nei giocatori più abili viene utilizzato in maniera più marcata, durante la fase di caricamento, in movimenti di torsione e di inclinazione laterale. Gli altri due gruppi hanno maggior difficoltà nell’eseguire queste azioni preparatorie, in particolare gli atleti principianti. Dopo un anno di attività programmata sono stati evidenziati miglioramenti prestativi. Anche dal punto di vista tecnico sono state notate delle differenze che possono spiegare il miglioramento della performance nei colpi. Nel servizio l’arto superiore si estende maggiormente per colpire la palla più in alto possibile. Nel diritto sono da sottolineare soprattutto i miglioramenti dei movimenti del tronco in torsione ed in inclinazione laterale. Quindi l’atleta si avvicina progressivamente ad un’esecuzione tecnica corretta. In conclusione, dal punto di vista tecnico non sono state rilevate grosse differenze tra i due generi che possano spiegare le differenze di performance. Perciò questa è legata più ad un fattore di forza che dovrà essere allenata con un programma specifico. Nel confronto fra i vari livelli di gioco e gli effetti di un anno di pratica si possono individuare variabili tecniche che mostrano differenze significative tra i gruppi sperimentali. Gli evoluti utilizzano tutto il corpo per effettuare dei colpi più potenti, utilizzando in maniera tecnicamente più valida gli arti inferiori, il tronco e l’arto superiore. I principianti utilizzano prevalentemente l’arto superiore con contributi meno evidenti degli altri segmenti. Dopo un anno di attività i soggetti esaminati hanno dimostrato di saper utilizzare meglio il tronco e l’arto superiore e ciò può spiegare il miglioramento della performance. Si può ipotizzare che, per il corretto utilizzo degli arti inferiori, sia necessario un tempo più lungo di apprendimento oppure un allenamento più specifico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo studio condotto si propone l’approfondimento delle conoscenze sui processi di evoluzione spontanea di comunità vegetali erbacee di origine secondaria in cinque siti all’interno di un’area protetta del Parco di Monte Sole (Bologna, Italia), dove, come molte aree rurali marginali in Italia e in Europa, la cessazione o riduzione delle tradizionali pratiche gestionali negli ultimi cinquant’anni, ha determinato lo sviluppo di fitocenosi di ridotto valore floristico e produttivo. Tali siti si trovano in due aree distinte all’interno del parco, denominate Zannini e Stanzano, selezionate in quanto rappresentative di situazioni di comunità del Mesobrometo. Due siti appartenenti alla prima area e uno appartenente alla seconda, sono gestiti con sfalcio annuale, i rimanenti non hanno nessun tipo di gestione. Lo stato delle comunità erbacee di tali siti è stato valutato secondo più punti di vista. E’ stata fatta una caratterizzazione vegetazionale dei siti, mediante rilievo lineare secondo la metodologia Daget-Poissonet, permettendo una prima valutazione relativa al numero di specie presenti e alla loro abbondanza all’interno della comunità vegetale, determinando i Contributi Specifici delle famiglie principali e delle specie dominanti (B. pinnatum, B. erectus e D. glomerata). La produttività è stata calcolata utilizzando un indice di qualità foraggera, il Valore Pastorale, e con la determinazione della produzione di Fitomassa totale, Fitomassa fotosintetizzante e Necromassa. A questo proposito sono state trovate correlazioni negative tra la presenza di Graminacee, in particolare di B. pinnatum, e i Contributi Specifici delle altre specie, soprattutto a causa dello spesso strato di fitomassa e necromassa prodotto dallo stesso B. pinnatum che impedisce meccanicamente l’insediamento e la crescita di altre piante. E’ stata inoltre approfonditamente sviluppata un terza caratterizzazione, che si propone di quantificare la diversità funzionale dei siti medesimi, interpretando le risposte della vegetazione a fattori globali di cambiamento, sia abiotici che biotici, per cogliere gli effetti delle variazioni ambientali in atto sulla comunità, e più in generale, sull’intero ecosistema. In particolare, nello studio condotto, sono stati proposti alcuni caratteri funzionali, cosiddetti functional traits, scelti perché correlati all’acquisizione e alla conservazione delle risorse, e quindi al trade-off dei nutrienti all’interno della pianta, ossia: Superficie Fogliare Specifica, SLA, Tenore di Sostanza Secca, LDMC, Concentrazione di Azoto Fogliare, LNC, Contenuto in Fibra, LFC, separato nelle componenti di Emicellulosa, Cellulosa, Lignina e Ceneri. Questi caratteri sono stati misurati in relazione a tre specie dominanti: B. pinnatum, B. erectus e D. glomerata. Si tratta di specie comunemente presenti nelle praterie semi-mesofile dell’Appennino Settentrionale, ma caratterizzate da differenti proprietà ecologiche e adattative: B. pinnatum e B. erectus sono considerati competitori stress-toleranti, tipicamente di ambienti poveri di risorse, mentre D. glomerata, è una specie più mesofila, caratteristica di ambienti produttivi. Attraverso l’analisi dei traits in riferimento alle diverse strategie di queste specie, sono stati descritti specifici adattamenti alle variazioni delle condizioni ambientali, ed in particolare in risposta al periodo di stress durante l’estate dovuto a deficit idrico e in risposta alla diversa modalità di gestione dei siti, ossia alla pratica o meno dello sfalcio annuale. Tra i caratteri funzionali esaminati, è stato identificato LDMC come il migliore per descrivere le specie, in quanto più facilmente misurabile, meno variabile, e direttamente correlato con altri traits come SLA e le componenti della fibra. E’ stato quindi proposto il calcolo di un indice globale per caratterizzare i siti in esame, che tenesse conto di tutti questi aspetti, riunendo insieme sia i parametri di tipo vegetativo e produttivo, che i parametri funzionali. Tale indice ha permesso di disporre i siti lungo un gradiente e di cogliere differenti risposte in relazione a variazioni stagionali tra primavera o autunno e in relazione al tipo di gestione, valutando le posizioni occupate dai siti stessi e la modalità dei loro eventuali spostamenti lungo questo gradiente. Al fine di chiarire se le variazioni dei traits rilevate fossero dovute ad adattamento fenotipico dei singoli individui alle condizioni ambientali, o piuttosto fossero dovute a differenziazione genotipica tra popolazioni cresciute in siti diversi, è stato proposto un esperimento in condizioni controllate. All’interno di un’area naturale in UK, le Chiltern Hills, sono stati selezionati cinque siti, caratterizzati da diverse età di abbandono: Bradenham Road MaiColtivato e Small Dean MaiColtivato, di cui non si conosce storia di coltivazione, caratterizzati rispettivamente da vegetazione arborea e arbustiva prevalente, Butterfly Bank 1970, non più coltivato dal 1970, oggi prateria seminaturale occasionalmente pascolata, Park Wood 2001, non più coltivato dal 2001, oggi prateria seminaturale mantenuta con sfalcio annuale, e infine Manor Farm Coltivato, attualmente arato e coltivato. L’esperimento è stato condotto facendo crescere i semi delle tre specie più comuni, B. sylvaticum, D. glomerata e H. lanatus provenienti dai primi quattro siti, e semi delle stesse specie acquistati commercialmente, nei cinque differenti tipi di suolo dei medesimi siti. Sono stati misurati quattro caratteri funzionali: Massa Radicale Secca (DRM), Massa Epigea Secca (DBM), Superficie Fogliare Secca (SLA) e Tenore di Sostanza Secca (LDMC). I risultati ottenuti hanno evidenziato che ci sono significative differenze tra le popolazioni di una stessa specie ma con diversa provenienza, e tra individui appartenenti alla stessa popolazione se fatti crescere in suoli diversi. Tuttavia, queste differenze, sembrano essere dovute ad adattamenti locali legati alla presenza di nutrienti, in particolare N e P, nel suolo piuttosto che a sostanziali variazioni genotipiche tra popolazioni. Anche per questi siti è stato costruito un gradiente sulla base dei quattro caratteri funzionali analizzati. La disposizione dei siti lungo il gradiente ha evidenziato tre gruppi distinti: i siti più giovani, Park Wood 2001 e Manor Farm Coltivato, nettamente separati da Butterfly Bank 1970, e seguiti infine da Small Dean MaiColtivato e Bradenham Road MaiColtivato. L’applicazione di un indice così proposto potrebbe rivelarsi un utile strumento per descrivere ed indagare lo stato della prateria e dei processi evolutivi in atto, al fine di meglio comprendere e dominare tali dinamiche per proporre sistemi di gestione che ne consentano la conservazione anche in assenza delle tradizionali cure colturali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La risposta emodinamica all'esercizio dinamico è stata oggetto di numerosi studi scientifici. Poca attenzione è stata invece rivolta agli aggiustamenti cardiovascolari che si verificano quando si interrompe uno sforzo dinamico. Al cessare dell' esercizio, la frequenza cardiaca e la contrattilità miocardica subiscono un decremento repentino e vengono rilasciati in quantità i prodotti finali del metabolismo muscolare, come lattato, ioni idrogeno, adenosina, sostanze in grado di indurre vasodilatazione nei gruppi muscolari precedentemente attivati determinando una riduzione del precarico, post-carico cardiaco, contrattilità miocardica e una dilatazione delle arteriole periferiche, così da mantenere le resistenze vascolari periferiche a un basso livello. Inoltre, si verificano alterazioni della concentrazione ematica di elettroliti, diminuzione delle catecolamine circolanti e si verifica un ipertono vagale : tutti questi fenomeni possono avere un effetto significativo sullo stato emodinamico. In questo studio si voleva valutare in che misura l’eventuale effetto ipotensivo dovuto all’esercizio fosse legato all’intensità del carico lavorativo applicato ed alla sua durata. Il campione esaminato comprendeva 20 soggetti maschi attivi. I soggetti venivano sottoposti a quattro test in giornate diverse. La prova da sforzo preliminare consisteva in una prova da sforzo triangolare massimale eseguita al cicloergometro con un protocollo incrementale di 30 Watt al minuto. Il test si articolava in una prima fase della durata di 3 minuti nei quali venivano registrati i dati basali, in una seconda fase della durata di tre minuti in cui il soggetto compiva un riscaldamento al cicloergometro, che precedeva l’inizio dello sforzo, ad un carico di 20 W. Al termine della prova venivano calcolati il massimo carico lavorativo raggiunto (Wmax) ed il valore di soglia anaerobica (SA). Dopo la prova da sforzo preliminare il soggetto effettuava 3 esercizi rettangolari di diversa intensità in maniera randomizzata così strutturati: test 70% SA; test 130% SA, 130% Wmax : prove da sforzo rettangolari ad un carico lavorativo pari alla percentuale indicatain relazione ai valori di SA e Wmax ottenuti nella prova da sforzo preliminare. Tali test duravano dieci minuti o fino all'esaurimento del soggetto. Le prova erano precedute da tre minuti di riposo e da tre minuti di riscaldamento. Il recupero aveva una durata di 30 minuti. La PA veniva misurata ogni 5 minuti durante lo sforzo, ogni minuto nei primi 5 minuti di recupero e successivamente ogni 5 minuti fino alla conclusione del recupero. Dai risultati emerge come l'effetto ipotensivo sia stato più marcato nel recupero dall'intensità di carico lavorativo meno elevata, cioè dopo il test 70%SA. C'è da considerare che la più bassa intensità di sforzo permetteva di praticare un esercizio significativamente più lungo rispetto ai test 130%SA e 130%Wmax. È quindi verosimile che anche la durata dell'esercizio e non solo la sua intensità abbia avuto un ruolo fondamentale nel determinare l'ipotensione nel recupero evidenziata in questo studio. L’effetto ipotensivo più evidente si è manifestato nelle prove a più bassa intensità ma con carico lavorativo totale più elevato. I dati supportano la tendenza a considerare non tanto l’intensità e la durata dell’esercizio in modo isolato, quanto piuttosto il carico lavorativo totale (intensità x durata). L'effetto ipotensivo registrato nello studio è da ascriversi soprattutto ad una persistente vasodilatazione susseguente allo sforzo. Infatti, nel recupero dal test 70%SA, le RVP si mantenevano basse rispetto ai valori di riposo. Tale dato potrebbe avere un grande valore clinico nella prescrizione dell'attività fisica più idonea nei soggetti ipertesi,che potrebbero beneficiare di un eventuale effetto ipotensivo successivo all'attività praticata. Pertanto in futuro bisognerà estendere lo studio ai soggetti ipertesi. La conferma di tale risultato in questi soggetti permetterebbe di scegliere correttamente l'intensità e la durata del carico lavorativo, in modo da calibrare lo sforzo al grado di patologia del soggetto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Obiettivo del presente lavoro è approntare un’analisi interpretativa dell’operatività dalle Finanziarie regionali, valutarne gli investimenti in capitale di rischio e, in particolare, l’attività di private equity, evidenziando le tendenze in atto, i possibili percorsi evolutivi e le eventuali criticità. La metodologia adottata ha previsto un’articolazione del lavoro lungo due principali direttive: un’analisi di tipo quantitativo sui bilanci di sette esercizi (dal 2002 al 2008), con la finalità di indagare nel dettaglio gli aspetti economici, finanziari e patrimoniali delle Finanziarie regionali attive sul territorio italiano; un’analisi qualitativa basata su un’approfondita rassegna della letteratura internazionale e su interviste mirate ad un campione ampiamente rappresentativo della popolazione osservata. I risultati raggiunti fanno ragionevolmente supporre che sia in atto una profonda ristrutturazione dell’intero sistema delle Finanziarie, che ha visto innanzitutto aumentare il controllo pubblico nella compagine sociale. L’indagine contabile ha permesso di identificare la presenza di due modelli di business ben differenziati: alcune Finanziarie sono orientate ad attività con forte contenuto di intermediazione finanziaria; altre invece sono focalizzate sull’attività di erogazione di servizi sia finanziari di consulenza che reali. L’investimento in capitale di rischio costituisce un attività centrale per le Finanziarie regionali; l’analisi dedicata a tali impieghi ha permesso di individuare, tra esse, alcune realtà tipiche del merchant banking, e più di frequente, del modello di holding. Complessivamente le Finanziarie campionate detengono oltre 400 partecipazioni per un valore che supera 1,7 miliardi di euro; prevalentemente concentrati su una ristretta cerchia di realtà spesso con impatto strategico sul territorio, ovvero strumentali. Segnatamente all’attività di private equity, è stato possibile rilevare come la politica d’investimento delle Finanziarie regionali sia complementare rispetto a quella mediamente espressa dal mercato domestico, anche se restano critici, anche per le Finanziarie, gli investimenti su imprese target con fatturato compreso tra 2 e 10 milioni di euro. Le evidenze circa la struttura dei contratti segnalano una parziale conformità alla best practice individuata dalla letteratura internazionale. In particolare l’uso limitato dello stage financing, la bassa partecipazione alla gestione sono le principali criticità individuate. Infine, della fase di riorganizzazione che pare interessare il sistema delle Finanziarie, si trova conferma nella percezione dei suoi operatori. Interpellati sul futuro dell’attività di investimento in capitale di rischio, hanno fornito indicazioni che consentono di concludere l’esistenza di una polarizzazione delle Finanziarie su due gruppi: da un lato quelle che implementeranno, più o meno, l’attività di private equity, dall’altro quelle che, viceversa, abbandoneranno tale strumento. La normativa sulle società a partecipazione pubblica regionale e la scarsa autonomia nella gestione delle misure affidate sono ritenute, dalle Finanziarie “interessate”, il principale fattore di freno alla loro crescita nel mercato del private equity.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’attuale condizione che caratterizza il settore energetico richiede un necessario processo di riconversione che, oltre a favorire il risparmio energetico, riduca la dipendenza dai combustibili fossili ed accresca l’impiego di fonti energetiche rinnovabili, dando un contributo fondamentale alla riduzione delle emissioni di gas serra come diversi accordi internazionali richiedono. Si rende pertanto necessario accelerare i processi che da alcuni anni stanno favorendo l’utilizzo di energia da fonti rinnovabili. Tra queste, le fonti legate ai processi di trattamento biologico dei reflui stanno avendo un interessante sviluppo. Esistono numerosi processi biologici che consentono la produzione di energia in maniera indiretta, quali ad esempio i processi di digestione anaerobica finalizzati alla produzione di biogas e/o produzione biologica di idrogeno. In tale contesto si inserisce la tecnologia delle Microbial Fuel Cell, che consente la produzione diretta di energia elettrica, finalizzata al recupero energetico inteso al miglioramento dell’efficienza energetica e alla riduzione dei costi d’esercizio di impianti di trattamento biologico dei reflui. Il presente lavoro di Tesi di Dottorato sperimentale, svoltosi in collaborazione al laboratorio PROT.-IDR. della sede ENEA di Bologna, riporta i risultati dell’attività di ricerca condotta su una MFC (Microbial Fuel Cell) a doppio stadio biologico per il trattamento di reflui ad elevato carico organico e produzione continua di energia elettrica. E’ stata provata l’applicabilità della MFC con entrambi i comparti biotici utilizzando elettrodi di grafite non trattata ottenendo, con un carico organico in ingresso di circa 9 gd-1, valori di potenza massima prodotta che si attestano su 74 mWm-2, corrente elettrica massima generata di 175 mAm-2 ad una tensione di 421 mV, ed una conversione di COD in elettricità pari a 1,2 gCODm-2d-1. I risultati sono stati molto positivi per quanto riguarda le prestazioni depurative ottenute dalla MFC. L’efficienza di depurazione misurata ha raggiunto un valore massimo del 98% di rimozione del COD in ingresso, mentre e la concentrazione di azoto ammoniacale nell’effluente raccolto all’uscita del sedimentatore è sempre stata inferiore a 1 mgN-NH4+l-1. Tra gli obiettivi posti all’inizio della sperimentazione si è rivelata di notevole interesse la valutazione del possibile utilizzo della MFC come sistema per il monitoraggio on-line del COD e degli acidi grassi volatili (VFA) prodotti all’interno di un digestore anaerobico, attraverso la definizione di una correlazione tra i dati elettrici registrati in continuo e le concentrazioni di CODanaer e VFA misurate in diversi periodi della sperimentazione. L’analisi DGGE della biomassa catodica ha fornito uno strumento analitico utile allo studio della diversità della comunità microbica sospesa ed adesa al catodo e ha confermato la forte similarità delle specie batteriche riconosciute nei campioni analizzati. In particolare, le bande di sequenziamento ottenute sono affiliate ai gruppi batterici Firmicutes, -Proteobacteria,  -Proteobacteria, -Proteobacteria e Bacteroidetes. Da quanto emerso dalla sperimentazione condotta si può pertanto concludere che ad oggi le MFC sono in fase di evoluzione rispetto ai primi prototipi utilizzati per lo studio delle comunità microbiali e per la comprensione dei meccanismi di trasferimento elettronico. Sfruttarne la potenza prodotta in maniera commerciale diviene una grande sfida per il futuro, ed è opinione comune che le prime applicazioni pratiche delle MFC saranno come fonte di recupero energetico per i dispositivi utilizzati per il monitoraggio dell’ambiente e per il trattamento delle acque reflue.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Piastinopenia Immune (PTI) è una patologia autoimmune ad eziologia ignota caratterizzata da piastrinopenia. I linfociti T regolatori (Tregs) sono coinvolti nei meccanismi di tolleranza immunologica e agiscono regolando l’attività delle cellule T autoreattive e delle cellule dendritiche (DCs). Viceversa, le DCs, che esprimono Indoleamine 2,3-dioxygenase (IDO), partecipano al mantenimento della tolleranza agli auto-antigeni attraverso l’espansione dei Tregs. Inoltre, recenti studi hanno dimostrato che i linfociti T helper 17 (Th17) sono coinvolti nell’autoimmunità e che l’espressione di Interleuchina (IL)-17 è associata a numerose patologie autoimmuni. Il ruolo dell’interazione fra DCs e Tregs ed il ruolo dei Th17 nella patogenesi della PTI non sono mai stati studiati in maniera approfondita. Gli obiettivi principali di questa tesi sono stati: a) caratterizzare fenotipicamente e funzionalmente i linfociti Tregs e DCs; b) valutare il ruolo patogenetico dell’interazione tra Tregs e DCs; c) quantificare i Th17 circolanti. I risultati dimostrano che: 1) il numero dei Tregs circolanti dei pazienti, identificati tramite i marcatori Foxp3 e CD127, è significativamente ridotto rispetto alla controparte normale; 2) la conversione in vitro delle cellule CD4+CD25- in linfociti Tregs (CD4+CD25+Foxp3+) dopo stimolazione con DCs mature è significativamente ridotta nei pazienti rispetto ai controlli; 3) sia l’espressione dell’enzima IDO nelle DCs mature (mRNA) che i livelli di chinurenine prodotte (indice di attività enzimatica) sono risultati significativamente ridotti nei pazienti rispetto alla controparte normale. Questi risultati suggeriscono quindi che il ridotto numero dei Tregs circolanti nei pazienti con PTI può essere, almeno in parte, attribuito alla scarsa capacità di conversione delle DCs, in quanto tali cellule esprimono meno IDO. I risultati dimostrano inoltre che: 1) i Tregs dei pazienti con PTI hanno una capacità soppressoria che è significativamente inferiore rispetto ai soggetti normali; tale dato è stato confermato dal dosaggio di IFN- nel surnatante della coltura; 2) i Tregs di pazienti con PTI non sono in grado di inibire la maturazione delle DCs, a differenza di quanto avviene nei soggetti sani: infatti, l’espressione delle molecole costimolatorie CD80 e CD86 sulle DCs è risultata invariata in seguito a cocoltura con DCs immature; 3) il dosaggio delle citochine nel surnatante delle cocolture dimostra che la concentrazione di IL-10 e IL-6 è significativamente ridotta nei pazienti rispetto ai controlli. La scarsa abilità dei Tregs di inibire la maturazione delle DCs e l’alterato pattern di secrezione di citochine potrebbero quindi contribuire all’ insorgenza del fenotipo più maturo delle DCs nei pazienti con PTI. I linfociti Th17 circolanti di pazienti e controlli sono stati identificati in citofluorimetria come cellule CD4+CD161+CD196+. Da tale analisi è emerso che la frequenza dei Th17 circolanti non è significativamente diversa nei due gruppi. Questi dati dimostrano quindi che nella PTI l’interazione bidirezionale tra Tregs e DCs risulta alterata e svolge un ruolo patogenetico, in quanto, da un lato, ci sono Tregs con un deficit numerico e funzionale e, dall’altro, DCs con maggiore capacità immunogenica. Il numero dei Th17 non risulta invece alterato.