99 resultados para cammino, acqua, bande, normalità, accuratezza, sensori, inerziali


Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJECTIVE: One major problem in counselling couples with a prenatal diagnosis of a correctable fetal anomaly is the ability to exclude associated malformations that may modify the prognosis. Our aim was to assess the precision of fetal sonography in identifying isolated malformations. METHODS: We retrospectively reviewed the prenatal and postnatal records of our center for cases with a prenatal diagnosis of an isolated fetal anomaly in the period 2002-2007. RESULTS: The antenatal diagnosis of an isolated malformation was made in 284 cases. In one of this cases the anomaly disappeared in utero. Of the remaining cases, the prenatal diagnosis was confirmed after birth in 251 (88.7%). In 8 fetuses (7 with a suspected coarctation of the aorta, 1 with ventricular septal defect) the prenatal diagnosis was not confirmed. In 24 fetuses (8.5%) additional malformations were detected at postnatal or post-mortem. In 16 of these cases the anomalies were mild or would not have changed the prognosis. In 8 cases (2.8%) severe anomalies were present (1 hypoplasia of the corpus callosum with ventriculomegaly, 1 tracheal agenesis, 3 cases with multiple anomalies, 1 Opitz Syndrome, 1 with CHARGE Syndrome, 1 COFS Syndrome). Two of these infants died. CONCLUSIONS: the prenatal diagnosis of an isolated fetal anomaly is highly reliable. However, the probability that additional malformations will go undetected albeit small remains tangible. In our experience, it was 2.8%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’attuale condizione che caratterizza il settore energetico richiede un necessario processo di riconversione che, oltre a favorire il risparmio energetico, riduca la dipendenza dai combustibili fossili ed accresca l’impiego di fonti energetiche rinnovabili, dando un contributo fondamentale alla riduzione delle emissioni di gas serra come diversi accordi internazionali richiedono. Si rende pertanto necessario accelerare i processi che da alcuni anni stanno favorendo l’utilizzo di energia da fonti rinnovabili. Tra queste, le fonti legate ai processi di trattamento biologico dei reflui stanno avendo un interessante sviluppo. Esistono numerosi processi biologici che consentono la produzione di energia in maniera indiretta, quali ad esempio i processi di digestione anaerobica finalizzati alla produzione di biogas e/o produzione biologica di idrogeno. In tale contesto si inserisce la tecnologia delle Microbial Fuel Cell, che consente la produzione diretta di energia elettrica, finalizzata al recupero energetico inteso al miglioramento dell’efficienza energetica e alla riduzione dei costi d’esercizio di impianti di trattamento biologico dei reflui. Il presente lavoro di Tesi di Dottorato sperimentale, svoltosi in collaborazione al laboratorio PROT.-IDR. della sede ENEA di Bologna, riporta i risultati dell’attività di ricerca condotta su una MFC (Microbial Fuel Cell) a doppio stadio biologico per il trattamento di reflui ad elevato carico organico e produzione continua di energia elettrica. E’ stata provata l’applicabilità della MFC con entrambi i comparti biotici utilizzando elettrodi di grafite non trattata ottenendo, con un carico organico in ingresso di circa 9 gd-1, valori di potenza massima prodotta che si attestano su 74 mWm-2, corrente elettrica massima generata di 175 mAm-2 ad una tensione di 421 mV, ed una conversione di COD in elettricità pari a 1,2 gCODm-2d-1. I risultati sono stati molto positivi per quanto riguarda le prestazioni depurative ottenute dalla MFC. L’efficienza di depurazione misurata ha raggiunto un valore massimo del 98% di rimozione del COD in ingresso, mentre e la concentrazione di azoto ammoniacale nell’effluente raccolto all’uscita del sedimentatore è sempre stata inferiore a 1 mgN-NH4+l-1. Tra gli obiettivi posti all’inizio della sperimentazione si è rivelata di notevole interesse la valutazione del possibile utilizzo della MFC come sistema per il monitoraggio on-line del COD e degli acidi grassi volatili (VFA) prodotti all’interno di un digestore anaerobico, attraverso la definizione di una correlazione tra i dati elettrici registrati in continuo e le concentrazioni di CODanaer e VFA misurate in diversi periodi della sperimentazione. L’analisi DGGE della biomassa catodica ha fornito uno strumento analitico utile allo studio della diversità della comunità microbica sospesa ed adesa al catodo e ha confermato la forte similarità delle specie batteriche riconosciute nei campioni analizzati. In particolare, le bande di sequenziamento ottenute sono affiliate ai gruppi batterici Firmicutes, -Proteobacteria,  -Proteobacteria, -Proteobacteria e Bacteroidetes. Da quanto emerso dalla sperimentazione condotta si può pertanto concludere che ad oggi le MFC sono in fase di evoluzione rispetto ai primi prototipi utilizzati per lo studio delle comunità microbiali e per la comprensione dei meccanismi di trasferimento elettronico. Sfruttarne la potenza prodotta in maniera commerciale diviene una grande sfida per il futuro, ed è opinione comune che le prime applicazioni pratiche delle MFC saranno come fonte di recupero energetico per i dispositivi utilizzati per il monitoraggio dell’ambiente e per il trattamento delle acque reflue.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Obiettivi. L’ecografia con mezzo di contrasto (CEUS) può fornire informazioni sulla microvascolarizzazione della parete intestinale nella malattia di Crohn. L’infiammazione della parete intestinale non sembra essere correlata alla quantità di parete vascolarizzata (studi di pattern di vascolarizzazione, SVP) ma all’intensità del flusso di parete in un determinato periodo di tempo (studi di intensità-tempo, SIT). Scopo dello studio è valutare se gli studi SVP e/o SIT mediante CEUS siano in grado di mostrare il reale grado d’infiammazione della parete vascolare e se possano predire l’attività di malattia a 3 mesi. Materiali e metodi: 30 pazienti con malattia di Crohn venivano sottoposti a SVP e SIT mediante CEUS e venivano rivisti dopo 3 mesi. L’eCografia era eseguita con uno strumento dedicato con un software particolare per il calcolo delle curve intensità-tempo e con l’ausilio di un mezzo di contrasto (Sonovue). L’analisi quantitativa consisteva nella misura dell’area sotto la curva (AUC) (con cut-off tra malattia attiva e inattiva di 15) e di un intensità media (IM) con un cut-off di 10. Tutti gli esami venivano registrati e analizzati in modo digitale. Risultati: A T0: CDAI era inferiore a 150 in 22 pazienti e superiore a 150 in 8 pazienti; a T3: CDAI era inferiore a 150 in 19 pazienti e superiore a 150 in 11 pazienti. A T0 sia la CEUS SPV che la SIT evidenziavano bassa specificità, accuratezza diagnostica e valore predittivo negativo; a T3 la CEUS SVP mostrava bassa sensibilità e accuratezza diagnostica rispetto alla SIT che era in grado, in tutti i casi tranne uno, di predire l’attività clinica di malattia a tre mesi. Conclusioni: in questo studio, la CEUS-SIT ha mostrato buona accuratezza diagnostica nel predire l’attività clinica di malattia nel follow-up a breve termine di pazienti con malattia di Crohn.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The aim of this thesis was to investigate the respective contribution of prior information and sensorimotor constraints to action understanding, and to estimate their consequences on the evolution of human social learning. Even though a huge amount of literature is dedicated to the study of action understanding and its role in social learning, these issues are still largely debated. Here, I critically describe two main perspectives. The first perspective interprets faithful social learning as an outcome of a fine-grained representation of others’ actions and intentions that requires sophisticated socio-cognitive skills. In contrast, the second perspective highlights the role of simpler decision heuristics, the recruitment of which is determined by individual and ecological constraints. The present thesis aims to show, through four experimental works, that these two contributions are not mutually exclusive. A first study investigates the role of the inferior frontal cortex (IFC), the anterior intraparietal area (AIP) and the primary somatosensory cortex (S1) in the recognition of other people’s actions, using a transcranial magnetic stimulation adaptation paradigm (TMSA). The second work studies whether, and how, higher-order and lower-order prior information (acquired from the probabilistic sampling of past events vs. derived from an estimation of biomechanical constraints of observed actions) interacts during the prediction of other people’s intentions. Using a single-pulse TMS procedure, the third study investigates whether the interaction between these two classes of priors modulates the motor system activity. The fourth study tests the extent to which behavioral and ecological constraints influence the emergence of faithful social learning strategies at a population level. The collected data contribute to elucidate how higher-order and lower-order prior expectations interact during action prediction, and clarify the neural mechanisms underlying such interaction. Finally, these works provide/open promising perspectives for a better understanding of social learning, with possible extensions to animal models.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gleno-humeral joint (GHJ) is the most mobile joint of the human body. This is related to theincongr uence between the large humeral head articulating with the much smaller glenoid (ratio 3:1). The GHJ laxity is the ability of the humeral head to be passively translated on the glenoid fossa and, when physiological, it guarantees the normal range of motion of the joint. Three-dimensional GHJ linear displacements have been measured, both in vivo and in vitro by means of different instrumental techniques. In vivo gleno-humeral displacements have been assessed by means of stereophotogrammetry, electromagnetic tracking sensors, and bio-imaging techniques. Both stereophotogrammetric systems and electromagnetic tracking devices, due to the deformation of the soft tissues surrounding the bones, are not capable to accurately assess small displacements, such as gleno-humeral joint translations. The bio-imaging techniques can ensure for an accurate joint kinematic (linear and angular displacement) description, but, due to the radiation exposure, most of these techniques, such as computer tomography or fluoroscopy, are invasive for patients. Among the bioimaging techniques, an alternative which could provide an acceptable level of accuracy and that is innocuous for patients is represented by magnetic resonance imaging (MRI). Unfortunately, only few studies have been conducted for three-dimensional analysis and very limited data is available in situations where preset loads are being applied. The general aim of this doctoral thesis is to develop a non-invasive methodology based on open-MRI for in-vivo evaluation of the gleno-humeral translation components in healthy subjects under the application of external loads.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca presentata è un’ampia esplorazione delle possibili applicazioni di concetti, metodi e procedure della Fuzzy Logic all’Ingegneria dei Materiali. Tale nuovo approccio è giustificato dalla inadeguatezza dei risultati conseguiti con i soli metodi tradizionali riguardo alla reologia ed alla durabilità, all’utilizzo di dati di laboratorio nella progettazione e alla necessità di usare un linguaggio (informatizzabile) che consenta una valutazione congiunta degli aspetti tecnici, culturali, economici, paesaggistici della progettazione. – In particolare, la Fuzzy Logic permette di affrontare in modo razionale l’aleatorietà delle variabili e dei dati che, nel settore specifico dei materiali in opera nel costruito dei Beni Culturali, non possono essere trattati con i metodi statistici ordinari. – La scelta di concentrare l’attenzione su materiali e strutture in opera in siti archeologici discende non solo dall’interesse culturale ed economico connesso ai sempre più numerosi interventi in questo nuovo settore di pertinenza dell’Ingegneria dei Materiali, ma anche dal fatto che, in tali contesti, i termini della rappresentatività dei campionamenti, della complessità delle interazioni tra le variabili (fisiche e non), del tempo e quindi della durabilità sono evidenti ed esasperati. – Nell’ambito di questa ricerca si è anche condotto un ampio lavoro sperimentale di laboratorio per l’acquisizione dei dati utilizzati nelle procedure di modellazione fuzzy (fuzzy modeling). In tali situazioni si è operato secondo protocolli sperimentali standard: acquisizione della composizione mineralogica tramite diffrazione di raggi X (XRD), definizione della tessitura microstrutturale con osservazioni microscopiche (OM, SEM) e porosimetria tramite intrusione forzata di mercurio (MIP), determinazioni fisiche quali la velocità di propagazione degli ultrasuoni e rotoviscosimetria, misure tecnologiche di resistenza meccanica a compressione uniassiale, lavorabilità, ecc. – Nell’elaborazione dei dati e nella modellazione in termini fuzzy, la ricerca è articolata su tre livelli: a. quello dei singoli fenomeni chimico-fisici, di natura complessa, che non hanno trovato, a tutt’oggi, una trattazione soddisfacente e di generale consenso; le applicazioni riguardano la reologia delle dispersioni ad alto tenore di solido in acqua (calci, cementi, malte, calcestruzzi SCC), la correlazione della resistenza a compressione, la gelività dei materiali porosi ed alcuni aspetti della durabilità del calcestruzzo armato; b. quello della modellazione della durabilità dei materiali alla scala del sito archeologico; le applicazioni presentate riguardano i centri di cultura nuragica di Su Monte-Sorradile, GennaMaria-Villanovaforru e Is Paras-Isili; c. quello della scelta strategica costituita dalla selezione del miglior progetto di conservazione considerando gli aspetti connessi all’Ingegneria dei Materiali congiuntamente a quelli culturali, paesaggistici ed economici; le applicazioni hanno riguardato due importanti monumenti (Anfiteatro e Terme a Mare) del sito Romano di Nora-Pula.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tema dello sviluppo sostenibile, e i numerosi ambiti di ricerca e di applicazione a esso connessi, è oramai coralmente accettato dalla comunità scientifica, intellettuale e politica internazionale. Tuttavia, una certa tendenza a una sua iper-utilizzazione può comportare svuotamento di significati e perdita di valore. Obiettivo della presente ricerca, dunque, è quello di ripensare il concetto della sostenibilità tenuto conto delle trasformazioni strutturali che hanno interessato le regioni alpine tra il XIX e il XX secolo e sulla base di esperienze realizzate, in atto o in potenza che ben ne evidenzino le possibili applicazioni a livello regionale e locale. A tal fine, nel corso della trattazione si propone un’analisi delle buone pratiche incontrate lungo il cammino compiuto sui sentieri della sostenibilità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le soluzioni tecnologiche rese oggi disponibili dalle discipline della moderna Geomatica, offrono opportunità di grande interesse per il rilevamento nel settore dei Beni Culturali, sia per quanto riguarda il momento primario del rilievo, cioè la fase di acquisizione del dato metrico, sia per quanto concerne la questione della rappresentazione per oggetti di interesse archeologico, artistico, architettonico. Lo studio oggetto della presente tesi si propone, sulla base di numerose esperienze maturate nel corso del Dottorato dal Laboratorio di Topografia e Fotogrammetria del DISTART, di affrontare e approfondire le problematiche connesse all’utilizzo della fotogrammetria digitale e del laser a scansione terrestre per applicazioni nell’ambito dei Beni Culturali. La ricerca condotta è prettamente applicata, quindi è stata primaria l’esigenza di avere a disposizione reali casi di studio su cui sperimentare le tecniche di interesse; è però importante sottolineare che questo è un campo in cui ogni esperienza presenta proprie caratteristiche e peculiarità che la rendono interessante e difficilmente descrivibile con schemi convenzionali e metodologie standardizzate, quindi le problematiche emerse hanno di volta in volta indirizzato e spinto la ricerca all’approfondimento di certi aspetti piuttosto che altri. A tal proposito è stato evidenziato dalle esperienze effettuate che il campo dei Beni Culturali è forse il più emblematico delle potenzialità rese oggi disponibili dalle moderne tecnologie della Geomatica, e soprattutto dalle possibilità offerte da un approccio integrato e multi – disciplinare di tecniche e tecnologie diverse; per questo nell’Introduzione si è voluto sottolineare questo aspetto, descrivendo l’approccio metodologico adottato in molti lavori in contesto archeologico, che include generalmente diverse tecniche integrate tra loro allo scopo di realizzare in modo veloce e rigoroso un rilievo multi – scala che parte dal territorio, passa attraverso l’area del sito archeologico e degli scavi, ed arriva fino al singolo reperto; questo approccio è caratterizzato dall’avere tutti i dati e risultati in un unico e ben definito sistema di riferimento. In questa chiave di lettura l’attenzione si è poi focalizzata sulle due tecniche che rivestono oggi nel settore in esame il maggiore interesse, cioè fotogrammetria digitale e laser a scansione terrestre. La struttura della tesi segue le fasi classiche del processo che a partire dal rilievo porta alla generazione dei prodotti di rappresentazione; i primi due capitoli, incentrati sull’acquisizione del dato metrico, riguardano quindi da un lato le caratteristiche delle immagini e dei sensori digitali, dall’altro le diverse tipologie di sistemi laser con le corrispondenti specifiche tecniche; sempre nei primi capitoli vengono descritte le caratteristiche metodologiche e tecnico – operative e le relative problematiche delle due tipologie di rilievo. Segue un capitolo sulle procedure di calibrazione delle camere digitali non professionali, imperniato sull’utilizzo di software diversi, commerciali e sviluppati in house per questo scopo, prestando attenzione anche agli strumenti che essi offrono in termini di risultati ottenibili e di controllo statistico sugli stessi. La parte finale della tesi è dedicata al problema della rappresentazione, con l’obiettivo di presentare un quadro generale delle possibilità offerte dalle moderne tecnologie: raddrizzamenti, ortofoto, ortofoto di precisione e infine modelli tridimensionali foto – realistici, generati a partire sia da dati fotogrammetrici sia da dati laser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PREMESSA: La progressione della recidiva d’epatite C è accelerata nei pazienti sottoposti a trapianto di fegato e ciò ha portato alla necessità di sviluppare nuove e validate metodiche non invasive per la quantificazione e la misura della fibrosi epatica. SCOPI: Stabilire l’efficacia dell’elastometria epatica (Fibroscan®) e dei parametri sierici di fibrosi, attualmente disponibili nella pratica clinica, per predire il grado di fibrosi nei pazienti sottoposti a trapianto epatico. METODI: La correlazione fra fibrosi epatica, determinata mediante biopsia epatica ed esame istologico, e Fibroscan® o indici clinico-sierologici di fibrosi (Benlloch, Apri, Forns, Fibrotest and Doppler resistance index), è stata studiata in pazienti che avevano ricevuto un trapianto ortotopico di fegato con evidenza di recidiva d’epatite da HCV. Un totale di 36 pazienti, con la seguente classificazione istologica: fibrosi secondom METAVIR F1=24, F2=8, F3=3, F4=1, sono stati arruolati nella popolazione oggetto di studio. Un totale di 29 individui volontari sani sono serviti come controllo. Le differenze fra gli stadi di fibrosi sono state calcolate mediante analisi statistica non parametrica. Il miglior cut-off per la differenziazione di fibrosi significativa (F2-F4) è stato identificato mediante l’analisi delle curve ROC. RISULTATI: La rigidità epatica ha presentato valori di 4.4 KPa (2.7-6.9) nei controlli (mediane e ranges), con valori in tutti i soggeti <7.0 KPa; 7.75 KPa (4.2-28.0) negli F1; 16.95 KPa (10.2-31.6) negli F2; 21.10 KPa nell’unico paziente F4 cirrotico. Le differenze sono state statisticamente significative per i soggetti controllo versus F1 e F2 (p<0.0001) e per F1 versus F2 (p<0.0001). Un cut-off elastografico di 11.2 KPagarantisce 88% di Sensibilità, 90% di Specificità, 79% di PPV e 95% di NPV nel differenziare i soggetti F1 dagli F2-F4. Le AUROC, relativamente alla capacità di discriminare fra i differenti gradi di fibrosi, evidenziavano un netto vantaggio per il Fibroscan® rispetto ad ognuno degli indici non invasivi di fibrosi. CONCLUSIONI: L’elastometria epatica presenta una buona accuratezza diagnostica nell’identificare pazienti con fibrosi epatica di grado significativo, superiore a quella di tutti gli altri test non invasivi al momento disponibili nella clinica, nei pazienti portatori di trapianto epatico ortotopico da cadavere con recidiva di HCV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi mira ad analizzare e valutare le attuali relazioni esistenti tra le regioni e l’Unione europea, alla luce dei processi di riforma in atto sia sul versante interno sia su quello europeo. In particolare, essa prende spunto dalla riforma del Titolo V della Costituzione italiana e dalle leggi di attuazione della stessa, che hanno ridisegnato i contorni del regionalismo italiano. Nell’introduzione si analizza il contesto europeo delle relazioni dell’Unione con le entità sub-statali; in tal senso si è voluto preliminarmente chiarire il senso in cui si è utilizzato il termine “regione”: non tutti gli Stati europei infatti accolgono una tale nozione nel senso in cui essa è utilizzata nell’ordinamento italiano, né i poteri conferiti alle regioni sono i medesimi in tutti gli Stati che utilizzano ripartizioni territoriali simili alle regioni italiane. Prendendo come punto di riferimento per la prima parte della ricerca le entità territoriali dotate di competenze legislative, trascurando le relazioni dell’UE con i soggetti sub-statali con attribuzioni meramente amministrative. La ricerca prende dunque le mosse dal concetto di “regionalismo comunitario”. La questione regionale ha sempre costituito un problema aperto per le istituzioni comunitarie (legato alla problematica del “deficit democratico” dei processi legislativi comunitari). Le istituzioni, soprattutto agli inizi del cammino di integrazione europea, risentivano infatti delle origini internazionali delle Comunità, e consideravano quale unici interlocutori possibili i governi centrali degli Stati membri. Si è quindi voluta mettere in luce la rapida evoluzione dell’attitudine regionale dell’Unione, provocata da una nuova coscienza comunitaria legata alla prima fase di attuazione della politica dei fondi strutturali, ma soprattutto all’ingresso sulla scena europea del principio di sussidiarietà, e degli effetti che esso è stato in grado di produrre sull’intero sistema di relazioni Stati/Regioni/Unione europea: l’Unione è giunta di recente ad accogliere una nozione più ampia di Stato, comprensiva – anche se in modo limitato e solo per alcuni fini – delle entità sub-statali. Lo studio si concentra poi sull’ordinamento italiano, presentando lo stato attuale della legislazione nazionale relativa alla partecipazione delle regioni al sistema del diritto comunitario. All’inizio del capitolo si precisa la fondamentale distinzione tra fase ascendente, cioè partecipazione di rappresentanti regionali alle procedure legislative dell’Unione, e fase discendente, cioè relativa al ruolo delle regioni nell’attuazione del diritto comunitario; tale distinzione appare necessaria al fine di chiarire le diverse modalità che può assumere il ruolo delle regioni nel sistema comunitario, e sarà ripresa durante tutta la ricerca. Il secondo capitolo esamina la riforma costituzionale del 2001, complessivamente orientata verso una ridefinizione del nostro sistema delle autonomie e delle loro relazioni con l’Unione europea. Nel nuovo testo costituzionale le prerogative regionali risultano ormai “costituzionalizzate”, trovano ora definitiva collocazione nell’art. 117 Cost. La riforma del 2001 comporta alcuni elementi innovativi circa la complessiva strutturazione del rapporto tra l’ordinamento nazionale e quello comunitario, in particolare prevedendo che “le regioni, nelle materie di loro competenza, partecipano alle decisioni dirette alla formazione degli atti normativi comunitari, nel rispetto delle norme di procedura stabilite con legge dello Stato”. Grazie a questa previsione il coinvolgimento delle regioni assume rango costituzionale e si impone al legislatore ordinario, il quale può continuare a determinarne le modalità procedurali ma non cancellarlo o pregiudicarlo in modo sostanziale. In secondo luogo l’art. 117 Cost. propone, all’interno del nostro ordinamento, una definizione complessiva del rapporto tra le fonti statali e quelle regionali, rimodulando le sfere e le modalità di “interferenza” tra lo Stato e le autonomie regionali. Con riferimento alla ripartizione di competenze, l’evoluzione è evidente: da un sistema in cui la competenza generale era statale, e veniva fornita un’elencazione di dettaglio delle materie che facevano eccezione, si è giunti oggi ad un sistema capovolto, in cui per ogni materia non contenuta nell’elencazione dell’articolo 117 la competenza può essere regionale; in tale sistema può leggersi una forma di “sussidiarietà legislativa”, come messo in luce dalla ricerca. Lo studio passa poi ad analizzare le concrete modalità di partecipazione regionale nelle disposizioni delle leggi primarie che hanno dato attuazione alla novella costituzionale, con riferimento tanto alla fase ascendete quanto a quella discendente. La fase ascendente, osservata nel secondo capitolo della tesi, può verificarsi tramite la partecipazione diretta di rappresentanti regionali alle riunioni del Consiglio, così come previsto da una disposizione della legge n. 131/2003 (“La Loggia”), i cui risultati si sono rivelati però piuttosto modesti e privi, in assenza di una radicale revisione dei Trattati, di serie prospettive di sviluppo. Ma esiste altresì un'altra tipologia di relazioni sviluppabili in fase ascendente, relazioni “indirette”, cioè svolte tramite l’intermediazione dello Stato, che si fa portavoce delle istanze regionali a Bruxelles. In tale prospettiva, la ricerca si concentra sulle disposizioni della legge n. 11/2005 (“Buttiglione”), che riformano il sistema delle conferenze, prevedono precisi obblighi informativi per il Governo nei confronti delle regioni in relazione all’adozione di atti comunitari ed introducono nel panorama legislativo italiano l’istituto della riserva d’esame, al fine di dare maggior peso alle istituzioni regionali al momento dell’adozione di atti comunitari. La tesi passa poi all’analisi della fase discendente. Le funzioni regionali in materia di attuazione del diritto comunitario risultano altresì ampliate non soltanto alla luce della nuova formulazione dell’art. 117 Cost., ma anche e soprattutto grazie ad una disposizione della legge “Buttiglione”, che introduce la possibilità di adottare “leggi comunitarie regionali”, da adottarsi sul modello di legge comunitaria nazionale vigente nel nostro ordinamento fin dal 1989. Tale disposizione ha dato il via ad una serie di processi di riforma all’interno degli ordinamenti giuridici regionali, volti a predisporre tutti gli strumenti legislativi utili all’adozione delle leggi comunitarie regionali, di gran lunga la novità più importante contenuta nella disciplina della legge “Buttiglione”. Perciò, dopo un’analisi approfondita relativa al nuovo riparto di competenze tra Stato e regioni, oggetto della prima parte del capitolo terzo, ed uno studio relativo al locus standi delle regioni nel sistema giurisdizionale europeo, svolto nella seconda parte dello stesso capitolo, l’ultima parte della tesi è rivolta ad individuare gli atti regionali di maggior interesse nella prospettiva dell’attuazione del diritto comunitario realizzata tramite leggi comunitarie regionali. In quest’ambito particolare attenzione è stata rivolta alla legislazione della regione Emilia-Romagna, che si è dimostrata una delle regioni più attente e capaci di cogliere le potenzialità presenti nel “nuovo” sistema di relazioni delle regioni con il sistema comunitario.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

SCOPO DELLA RICERCA Aedes albopictus è diventata in pochi anni dalla sua introduzione in Italia la specie di zanzara più nociva e più importante sotto il profilo sanitario. Essendo una zanzara tipicamente urbana e ad attività diurna, limita fortemente la fruizione degli spazi aperti ed incide negativamente su alcune attività economiche. Il recente episodio epidemico di Chikungunya, che ha colpito il nostro Paese, ha allarmato le autorità sanitarie nazionali ed europee che stanno attivando misure di prevenzione e contrasto per fronteggiare il rischio che il virus diventi endemico o che altri virus possano essere introdotti nelle nostre aree. Le misure di lotta contro Aedes albopictus attualmente in essere (lotta larvicida, rimozione dei microfocolai, informazione e coinvolgimento dei cittadini) non danno risultati sufficienti in termini di capacità di contenimento delle densità del vettore. Per questo è stato avviato un progetto di ricerca centrato sull'applicazione del metodo dell'autocidio a questa specie. L’attività di ricerca svolta ha avuto come scopo la messa a punto delle metodiche di allevamento massale e di sterilizzazione in grado di permettere la produzione di maschi di qualità sufficiente a garantire una buona fitness nelle condizioni di campo e competitività coi maschi selvatici nella fase di accoppiamento. Le prove condotte possono essere raggruppate sotto tre principali campi di indagine: Prove di allevamento, Prove di Irraggiamento e Prove di Competizione. 1. Prove di allevamento In questo ambito sono state esaminate nuove diete larvali al fine di ottenere una più elevata produttività in termini di pupe con tempi di impupamento e dimensioni delle pupe più omogenei. È stata inoltre valutata la possibile reazione fagostimolante dell’ATP addizionato al pasto di sangue delle femmine adulte con lo scopo di incrementare la produttività di uova prodotte dai ceppi di Ae.albopictus in allevamento. 2. Prove di irraggiamento Attraverso prove di laboratorio sono stati investigati in gabbia gli effetti sterilizzanti di diverse dosi radianti (20 - 85 Gy) sulle pupe maschio di Ae. albopictus per la valutazione dei livelli di sterilità, fertilità e fecondità indotti sulle femmine. Si sono compiute inoltre indagini per valutare eventuali alterazioni dello stato fisiologico dei maschi irraggiati e dei livelli di sterilità indotti su femmine, in funzione dell’età pupale alla quale venivano sottoposti a radiazioni. Analisi degli effetti delle radiazioni sui tempi di rotazione genitale, sulla velocità ed efficacia degli accoppiamenti e sui tempi di sfarfallamento degli adulti sono state condotte su maschi irraggiati a diverse dosi. Infine su femmine di Ae. albopictus si sono realizzate prove in gabbia per lo studio dei tempi di recettività all'accoppiamento. Prove di competizione L'effetto negativo della colonizzazione in condizioni artificiali e l'irraggiamento sono riconosciuti come i fattori principali che incidono sulla competitività dei maschi sterilizzati nei confronti di quelli fertili. Per la verifica della variazione di fitness dovuta a imbreeding ed eterosi, prove di competizione in serra (7,5 x 5 x 2,80 m) sono state realizzate impiegando ceppi allevati in laboratorio, ceppi selvatici raccolti in campo e ceppi ibridi ottenuti incrociando diversi ceppi di laboratorio. RISULTATI 1. Prove di allevamento Sono state confrontate la dieta standard (DS = 2,5 mg/larva Friskies Adult ® + 0,5 mg/larva lievito di birra) e la nuova dieta integrata addizionata di Tetramin ® (DI = DS + 0,2 mg/larva Tetramin ®) per l’alimentazione delle larve in allevamento. Le prove condotte hanno evidenziato una buona risposta nelle percentuali di impupamento e di produttività in termini di pupe per la nuova dieta senza però evidenziare miglioramenti significativi con la DS. Con la dieta integrata si ottiene un impupamento a 7 giorni del 66,6% delle larve allevate (65% con la DS) e il setacciamento a 1400 μm delle pupe ottenute produce in media il 98,3% di maschi nel setacciato (98,5% con la DS). Con la dieta standard la percentuale di maschi ottenuti sulle larve iniziali è pari a 27,2% (20-25% con la DS). Come riportato da Timmermann e Briegel (1999) la dieta delle larve va strutturata con l’obiettivo di garantire un ampio range di elementi nutritivi evitando così il rischio di carenze o sub-carenze che possano influire negativamente sulla produttività dell’allevamento e sulle condizioni di vigore dei maschi. Secondo Reisen (1980, 1982), l’influenza negativa dell’allevamento sulla competitività dei maschi nella fase di accoppiamento potrebbe essere di maggiore peso rispetto all’influenza dell’irraggiamento dei maschi. Infine le prove di laboratorio condotte per la verifica dell’efficacia fagostimolante di ATP nel pasto di sangue offerto alle femmine dell’allevamento non hanno evidenziato differenze significative in nessuno dei parametri considerati tra il campione nutrito con ATP e il testimone. Nella realizzazione di allevamenti massali per la produzione di maschi da irraggiare, si ritiene quindi opportuno mantenere la nuova dieta testata che garantisce una spettro nutritivo più ampio e completo alle larve in allevamento. L’aggiunta di ATP nel pasto di sangue delle femmine adulte non sarà impiegato in quanto troppo costoso e significativamente poco produttivo nel garantire un aumento del numero di uova prodotte. 2. Prove di irraggiamento Oltre alla sopravvivenza e alla sterilità, la scelta dello stadio di sviluppo più conveniente da irraggiare in un programma SIT dipende dalla possibilità di maneggiare in sicurezza grandi quantità di insetti senza danneggiarli durante tutte le fasi che intercorrono tra l’allevamento massale, l’irraggiamento e il lancio in campo. La fase pupale risulta sicuramente più vantaggiosa per il maggior numero di pupe irraggiabili per unità di volume e per il minimo danneggiamento arrecabile all'insetto che viene mantenuto in acqua durante tutte le procedure. La possibilità di lavorare con la minima dose radiante efficace, significa ridurre lo stress provocato inevitabilmente alle pupe maschio, che si manifesta nell’adulto con una ridotta longevità, una diminuita capacità di accoppiamento o di ricerca del partner e attraverso possibili alterazioni comportamentali che possono rendere il maschio inattivo o inefficace una volta introdotto in campo. I risultati ottenuti sottoponendo pupe maschili a irraggiamento a differenti ore dall’impupamento evidenziano come la maturità del campione influisca sia sulla mortalità delle pupe che sull’efficacia sterilizzante dell’irraggiamento. Come riportato anche da Wijeyaratne (1977) le pupe più vecchie mostrano una minore mortalità e una maggiore sensibilità alle radiazioni rispetto a quelle più giovani. In particolare si è osservato come pupe maschili di età superiore 24h fossero maggiormente sensibili all’irraggiamento riportando minore perdita di competitività rispetto alle pupe irraggiate precocemente. La minore dose impiegata per il raggiungimento della sterilità con minimi effetti sulla longevità dei maschi trattati e con livelli di fecondità e fertilità indotti sulle femmine non differenti dal testimone, corrisponde a 40Gy (Cs 137 - 2,3 Gy/min). Analizzando la sopravvivenza dei maschi, si osserva una tendenza all'aumento della mortalità in funzione dell’aumento della dose fornita per tutte le età pupali di irraggiamento testate. Per trattamenti condotti su pupe di età > 30h la longevità dei maschi non risente dell’irraggiamento fino a dosi di 40Gy. La fecondità delle femmine accoppiatesi con maschi irraggiati con dosi superiori a 40Gy mostra una tendenza alla riduzione del numero di uova prodotte con l’aumentare della dose ricevuta dal maschio. L’irraggiamento delle pupe non determina variazioni significative nei tempi di sfarfallamento degli adulti per le diverse dosi radianti fornite e per le differenti età pupali testate in rapporto al testimone. L’irraggiamento influenza al contrario i tempi di rotazione dei genitali esterni dei maschi evidenziando un ritardo proporzionale alla dose ricevuta. Resta da definire sui maschi irraggiati l’effetto combinato dei due effetti sui tempi di sfarfallamento degli adulti anche se appare chiara l’assenza di variazioni significative per la dose di irraggiamento 40Gy scelta come radiazione utile per la sterilizzazione dei maschi da lanciare in campo. Per quanto riguarda l’analisi dei tempi di accoppiamento dei maschi irraggiati si osserva in generale una minore reattività rispetto ai maschi fertili particolarmente marcata nei maschi irraggiati a dosi superiori i 40 Gy. Gli studi condotti sui tempi di accoppiamento delle femmine evidenziano una buona recettività (>80%) all’accoppiamento solo per femmine di età superiore a 42 - 48 h femmine. Prima di tale periodo la femmina realizza accoppiamenti con normale appaiamento dei due sessi ma non riceve il trasferimento degli spermi. 3. Prove di competizione Prove preliminari di competizione in tunnel svolte nel 2006 su ceppi selvatici e di allevamento avevano mostrato risultati di competitività dei maschi sterili (50 Gy) segnati da forte variabilità. Nel 2007 dopo aver condotto analisi per la verifica dei tempi di sfarfallamento, di accoppiamento e di rotazione genitale nei maschi sterilizzati, e di recettività nelle femmine, sono state realizzate nuove prove. In queste prove maschi adulti di Ae. albopictus irraggiati a 40Gy sono stati posizionati in campo, in ambiente naturale ombreggiato ed isolato, all’interno di serre (8x5x2,8 m) insieme a maschi adulti fertili e femmine vergini di Ae. albopictus con rapporto 1:1:1. Le prove preliminari 2006 erano condotte con le medesime condizioni sperimentali del 2007 ad eccezione dei tempi di inserimento delle femmine vergini passati da 1 giorno nel 2006, a 3 giorni nel 2007 dall’immissione dei maschi in tunnel. Sono state effettuate prove testando la competizione tra esemplari provenienti da ceppi di allevamento (cicli di allevamento in gabbia > 15), ceppi selvatici (da materiale raccolto in campo e con cicli di allevamento in gabbia < 5) e ceppi ibridi (ottenuti dall’incrocio di ceppi italiani di diversa provenienza geografica). I risultati ottenuti mostrano indici di competizioni medi accettabili senza evidenziare differenza fra i ceppi impiegati. L’allevamento massale quindi non deprime i ceppi allevati e gli ibridi realizzati non mostrano una vigoria superiore ne rispetto ai ceppi selvatici ne rispetto agli allevati in laboratorio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.