114 resultados para autocorrezione, interpretazione simultanea, studenti di interpretazione, miglioramento
Resumo:
Il carcinoma polmonare rappresenta un problema socio-sanitario di grande rilievo, essendo la prima causa di morte per neoplasia. Il carcinoma polmonare non a piccole cellule (non small cell lung cancer - NSCLC) rappresenta la variante istologica più frequente (80% dei casi di tumore polmonare). Al momento della diagnosi circa il 60-70% dei pazienti presenta una malattia in stadio avanzato o metastatico non essendo suscettibile di trattamento chirurgico. Per questi pazienti il trattamento chemioterapico determina un prolungamento della sopravvivenza e un miglioramento della qualità della vita rispetto alla sola terapia di supporto, identificandosi come standard terapeutico. L'individuazione del migliore trattamento chemioterapico per questo subset di pazienti rappresenta pertanto una delle principali sfide della ricerca oncologica. I regimi polichemioterapici si possono dividere schematicamente in tre generazioni in relazione all'introduzione nel corso degli anni di nuovi agenti chemioterapici. Con l'avvento dei regimi di terza generazione, il trattamento del NSCLC avanzato sembra aver raggiunto un plateau, mancando infatti chiare dimostrazioni di superiorità di un regime di ultima generazione rispetto ad un altro. Tra questi l'associazione cisplatino e gemcitabina rappresenta uno dei regimi standard più utilizzati in considerazione del suo favorevole rapporto costo-beneficio. Al fine di migliorare i risultati del trattamento chemioterapico in termini di attività ed efficacia, una possibilità consiste nell'individuazione di parametri predittivi che ci consentano di identificare il miglior trattamento per il singolo paziente. Tra i vari parametri predittivi valutabili, un crescente interesse è stato rivolto a quelli di carattere genetico, anche grazie all'avvento di nuove tecniche di biologia molecolare e al sequenziamento del genoma umano che ha dato nuovo impulso a studi di farmacogenetica e farmacogenomica. Sulla base di queste considerazioni, in questa tesi è stato effettuato uno studio mirato a valutare l'espressione di determinanti molecolari coinvolti nel meccanismo di azione di gemcitabina e cisplatino in pazienti affetti dai due tipi istologici principali di NSCLC, adenocarcinomi e carcinomi squamocellulari. Lo studio dei livelli di espressione genica è stata effettuata in tessuti di 69 pazienti affetti da NSCLC arruolati presso l'Istituto Europeo di Oncologia di Milano. In particolare, mediante Real Time PCR è stata valutata l'espressione genica di ERCC1, hENT1, dCK, 5'-NT, CDA, RRM1 e RRM2 in 85 campioni isolati con microdissezione da biopsie provenienti dai tessuti polmonari normali o tumorali o dalle metastasi linfonodali. Le analisi di questi tessuti hanno mostrato differenze significative per i pattern di espressione genica di diversi determinanti molecolari potenzialmente utile nel predire l'efficacia di gemcitabina/cisplatino e per personalizzare i trattamenti in pazienti affetti da cancro. In conclusione, l'evoluzione delle tecniche di biologia molecolare promossa dagli studi di farmacogenetica racchiude in sè notevoli potenzialità per quanto concerne l'ideazione di nuovi protocolli terapeutici. Identificando le caratteristiche genotipiche e i livelli di espressione geniche di determinanti molecolari implicati nella risposta ai farmaci potremmo infatti predisporre delle mappe di chemiosensibilità -chemioresistenza per ciascun paziente, nell'ottica di approntare di volta in volta le più appropriate terapie antitumorali in base alle caratteristiche genetiche del paziente e della sua patologia neoplastica.
Resumo:
L’irrigidimento del contesto regolamentare europeo dovuto all’attuale condizione di contaminazione diffusa dell’ambiente, riscontrata in Italia e in molti altri paesi europei, ha visto l’esigenza sempre più pressante di razionalizzare le dosi dei fitofarmaci utilizzati in agricoltura. Lo sviluppo e l’utilizzo di nuovi prodotti coadiuvanti come specifici antideriva per erbicidi, rappresenta in questo senso, un’importante risorsa su cui si inizia a fare affidamento. In Francia, per esempio, già da alcuni anni ci sono normative che obbligano l’utilizzo in agricoltura di tali prodotti, mentre in Italia non si hanno ancora direttive precise a riguardo. In tal contesto l’obiettivo principale di questa ricerca, effettuata in collaborazione con la ditta Intrachem, è stato quello di studiare alcune caratteristiche funzionali relative a due prodotti, che verranno lanciati a breve sul mercato, come specifici antideriva per erbicidi. In particolar modo è stato fatto uno studio per verificare se ed eventualmente come, questi coadiuvanti (Gondor e Zarado) possono influenzare l’attività del principio attivo a cui vengono aggiunti, apportando variazioni relative alla sua efficacia. Lo schema di lavoro seguito ha previsto una prima fase di saggio dove venivano effettuati test dose-risposta, utilizzando diversi erbicidi a diverse concentrazioni. I test sono stati effettuati su alcune malerbe mono e dicotiledoni. In ciascuna di queste prove è stata valutata e confrontata la percentuale di sopravvivenza e il peso dei sopravvissuti tra le tesi trattate. Le tesi prevedevano trattamenti con erbicida e trattamenti con erbicida più uno dei due coadiuvanti. Nella seconda fase si è effettuato un approfondimento sulle tesi che hanno mostrato i risultati più interessanti, per capirne possibilmente le basi fisiologiche. In particolare si è verificato se l’aggiunta dei due antideriva potesse determinare cambiamenti durante la fase di assorbimento e di traslocazione del principio attivo all’interno della piantina, utilizzando molecole radiomarcate con C14. Dai risultati ottenuti si è potuto evidenziare come l’aggiunta dei coadiuvanti possa rendere più efficace l’azione dell’erbicida nei casi in cui le infestanti non vengono completamente controllate dagli stessi (stadio vegetativo troppo avanzato e resistenza all’erbicida). Non è stato sempre verificato che ad un miglioramento dell’efficacia coincida un aumento dell’assorbimento e della traslocazione del principio attivo, all’interno della pianta. In conclusione si è potuto constatare che Gondor e Zarado oltre a svolgere la loro funzione antideriva, non influenzano negativamente l’efficacia dell’erbicida, salvo poche eccezioni, ma al contrario possono potenziarne l’azione, nelle situazioni “border line”.
Resumo:
Benessere delle popolazioni, gestione sostenibile delle risorse, povertà e degrado ambientale sono dei concetti fortemente connessi in un mondo in cui il 20% della popolazione mondiale consuma più del 75% delle risorse naturali. Sin dal 1992 al Summit della Terra a Rio de Janeiro si è affermato il forte legame tra tutela dell’ambiente e riduzione della povertà, ed è anche stata riconosciuta l’importanza di un ecosistema sano per condurre una vita dignitosa, specialmente nelle zone rurali povere dell’Africa, dell’Asia e dell’America Latina. La natura infatti, soprattutto per le popolazioni rurali, rappresenta un bene quotidiano e prezioso, una forma essenziale per la sussistenza ed una fonte primaria di reddito. Accanto a questa constatazione vi è anche la consapevolezza che negli ultimi decenni gli ecosistemi naturali si stanno degradando ad un ritmo impressionate, senza precedenti nella storia della specie umana: consumiamo le risorse più velocemente di quanto la Terra sia capace di rigenerarle e di “metabolizzare” i nostri scarti. Allo stesso modo aumenta la povertà: attualmente ci sono 1,2 miliardi di persone che vivono con meno di un dollaro al giorno, mentre circa metà della popolazione mondiale sopravvive con meno di due dollari al giorno (UN). La connessione tra povertà ed ambiente non dipende solamente dalla scarsità di risorse che rende più difficili le condizioni di vita, ma anche dalla gestione delle stesse risorse naturali. Infatti in molti paesi o luoghi dove le risorse non sono carenti la popolazione più povera non vi ha accesso per motivi politici, economici e sociali. Inoltre se si paragona l’impronta ecologica con una misura riconosciuta dello “sviluppo umano”, l’Indice dello Sviluppo Umano (HDI) delle Nazioni Unite (Cfr. Cap 2), il rapporto dimostra chiaramente che ciò che noi accettiamo generalmente come “alto sviluppo” è molto lontano dal concetto di sviluppo sostenibile accettato universalmente, in quanto i paesi cosiddetti “sviluppati” sono quelli con una maggior impronta ecologica. Se allora lo “sviluppo” mette sotto pressione gli ecosistemi, dal cui benessere dipende direttamente il benessere dell’uomo, allora vuol dire che il concetto di “sviluppo” deve essere rivisitato, perché ha come conseguenza non il benessere del pianeta e delle popolazioni, ma il degrado ambientale e l’accrescimento delle disuguaglianze sociali. Quindi da una parte vi è la “società occidentale”, che promuove l’avanzamento della tecnologia e dell’industrializzazione per la crescita economica, spremendo un ecosistema sempre più stanco ed esausto al fine di ottenere dei benefici solo per una ristretta fetta della popolazione mondiale che segue un modello di vita consumistico degradando l’ambiente e sommergendolo di rifiuti; dall’altra parte ci sono le famiglie di contadini rurali, i “moradores” delle favelas o delle periferie delle grandi metropoli del Sud del Mondo, i senza terra, gli immigrati delle baraccopoli, i “waste pickers” delle periferie di Bombay che sopravvivono raccattando rifiuti, i profughi di guerre fatte per il controllo delle risorse, gli sfollati ambientali, gli eco-rifugiati, che vivono sotto la soglia di povertà, senza accesso alle risorse primarie per la sopravvivenza. La gestione sostenibile dell’ambiente, il produrre reddito dalla valorizzazione diretta dell’ecosistema e l’accesso alle risorse naturali sono tra gli strumenti più efficaci per migliorare le condizioni di vita degli individui, strumenti che possono anche garantire la distribuzione della ricchezza costruendo una società più equa, in quanto le merci ed i servizi dell’ecosistema fungono da beni per le comunità. La corretta gestione dell’ambiente e delle risorse quindi è di estrema importanza per la lotta alla povertà ed in questo caso il ruolo e la responsabilità dei tecnici ambientali è cruciale. Il lavoro di ricerca qui presentato, partendo dall’analisi del problema della gestione delle risorse naturali e dal suo stretto legame con la povertà, rivisitando il concetto tradizionale di “sviluppo” secondo i nuovi filoni di pensiero, vuole suggerire soluzioni e tecnologie per la gestione sostenibile delle risorse naturali che abbiano come obiettivo il benessere delle popolazioni più povere e degli ecosistemi, proponendo inoltre un metodo valutativo per la scelta delle alternative, soluzioni o tecnologie più adeguate al contesto di intervento. Dopo l’analisi dello “stato del Pianeta” (Capitolo 1) e delle risorse, sia a livello globale che a livello regionale, il secondo Capitolo prende in esame il concetto di povertà, di Paese in Via di Sviluppo (PVS), il concetto di “sviluppo sostenibile” e i nuovi filoni di pensiero: dalla teoria della Decrescita, al concetto di Sviluppo Umano. Dalla presa di coscienza dei reali fabbisogni umani, dall’analisi dello stato dell’ambiente, della povertà e delle sue diverse facce nei vari paesi, e dalla presa di coscienza del fallimento dell’economia della crescita (oggi visibile più che mai) si può comprendere che la soluzione per sconfiggere la povertà, il degrado dell’ambiente, e raggiungere lo sviluppo umano, non è il consumismo, la produzione, e nemmeno il trasferimento della tecnologia e l’industrializzazione; ma il “piccolo e bello” (F. Schumacher, 1982), ovvero gli stili di vita semplici, la tutela degli ecosistemi, e a livello tecnologico le “tecnologie appropriate”. Ed è proprio alle Tecnologie Appropriate a cui sono dedicati i Capitoli successivi (Capitolo 4 e Capitolo 5). Queste sono tecnologie semplici, a basso impatto ambientale, a basso costo, facilmente gestibili dalle comunità, tecnologie che permettono alle popolazioni più povere di avere accesso alle risorse naturali. Sono le tecnologie che meglio permettono, grazie alle loro caratteristiche, la tutela dei beni comuni naturali, quindi delle risorse e dell’ambiente, favorendo ed incentivando la partecipazione delle comunità locali e valorizzando i saperi tradizionali, grazie al coinvolgimento di tutti gli attori, al basso costo, alla sostenibilità ambientale, contribuendo all’affermazione dei diritti umani e alla salvaguardia dell’ambiente. Le Tecnologie Appropriate prese in esame sono quelle relative all’approvvigionamento idrico e alla depurazione dell’acqua tra cui: - la raccolta della nebbia, - metodi semplici per la perforazione di pozzi, - pompe a pedali e pompe manuali per l’approvvigionamento idrico, - la raccolta dell’acqua piovana, - il recupero delle sorgenti, - semplici metodi per la depurazione dell’acqua al punto d’uso (filtro in ceramica, filtro a sabbia, filtro in tessuto, disinfezione e distillazione solare). Il quinto Capitolo espone invece le Tecnolocie Appropriate per la gestione dei rifiuti nei PVS, in cui sono descritte: - soluzioni per la raccolta dei rifiuti nei PVS, - soluzioni per lo smaltimento dei rifiuti nei PVS, - semplici tecnologie per il riciclaggio dei rifiuti solidi. Il sesto Capitolo tratta tematiche riguardanti la Cooperazione Internazionale, la Cooperazione Decentrata e i progetti di Sviluppo Umano. Per progetti di sviluppo si intende, nell’ambito della Cooperazione, quei progetti che hanno come obiettivi la lotta alla povertà e il miglioramento delle condizioni di vita delle comunità beneficiarie dei PVS coinvolte nel progetto. All’interno dei progetti di cooperazione e di sviluppo umano gli interventi di tipo ambientale giocano un ruolo importante, visto che, come già detto, la povertà e il benessere delle popolazioni dipende dal benessere degli ecosistemi in cui vivono: favorire la tutela dell’ambiente, garantire l’accesso all’acqua potabile, la corretta gestione dei rifiuti e dei reflui nonché l’approvvigionamento energetico pulito sono aspetti necessari per permettere ad ogni individuo, soprattutto se vive in condizioni di “sviluppo”, di condurre una vita sana e produttiva. È importante quindi, negli interventi di sviluppo umano di carattere tecnico ed ambientale, scegliere soluzioni decentrate che prevedano l’adozione di Tecnologie Appropriate per contribuire a valorizzare l’ambiente e a tutelare la salute della comunità. I Capitoli 7 ed 8 prendono in esame i metodi per la valutazione degli interventi di sviluppo umano. Un altro aspetto fondamentale che rientra nel ruolo dei tecnici infatti è l’utilizzo di un corretto metodo valutativo per la scelta dei progetti possibili che tenga presente tutti gli aspetti, ovvero gli impatti sociali, ambientali, economici e che si cali bene alle realtà svantaggiate come quelle prese in considerazione in questo lavoro; un metodo cioè che consenta una valutazione specifica per i progetti di sviluppo umano e che possa permettere l’individuazione del progetto/intervento tecnologico e ambientale più appropriato ad ogni contesto specifico. Dall’analisi dei vari strumenti valutativi si è scelto di sviluppare un modello per la valutazione degli interventi di carattere ambientale nei progetti di Cooperazione Decentrata basato sull’Analisi Multi Criteria e sulla Analisi Gerarchica. L’oggetto di questa ricerca è stato quindi lo sviluppo di una metodologia, che tramite il supporto matematico e metodologico dell’Analisi Multi Criteria, permetta di valutare l’appropriatezza, la sostenibilità degli interventi di Sviluppo Umano di carattere ambientale, sviluppati all’interno di progetti di Cooperazione Internazionale e di Cooperazione Decentrata attraverso l’utilizzo di Tecnologie Appropriate. Nel Capitolo 9 viene proposta la metodologia, il modello di calcolo e i criteri su cui si basa la valutazione. I successivi capitoli (Capitolo 10 e Capitolo 11) sono invece dedicati alla sperimentazione della metodologia ai diversi casi studio: - “Progetto ambientale sulla gestione dei rifiuti presso i campi Profughi Saharawi”, Algeria, - “Programa 1 milhão de Cisternas, P1MC” e - “Programa Uma Terra e Duas Águas, P1+2”, Semi Arido brasiliano.
Resumo:
La raccolta e l’utilizzo in chiave comparativa di dati di performance sanitaria risponde, tra le altre esigenze, a bisogni di accountability. Si osserva infatti a livello internazionale la diffusione di politiche di pubblicizzazione della qualità dei risultati: uno studio della letteratura di settore consente di confrontare i fattori più rilevanti delle principali esperienze di reporting già realizzate in Paesi dai sistemi sanitari molto diversi. Nel contesto italiano l’attenzione ai diritti dell’utente di concerto con la riforma del sistema informativo sanitario si pongono come premesse alla potenziale diffusione di dati di performance alla cittadinanza. Una interpretazione delle fonti normative e della giurisprudenza tramite il principio di trasparenza pare sostenere la tesi di una doverosità di informazione in capo alle amministrazioni pubbliche; l’analisi dei possibili scenari di impatto delle politiche di comunicazione ne condiziona però l’attuazione ad una programmazione strutturata e consapevole.
Resumo:
Dopo aver brevemente ricostruito l’evoluzione dell’istituto dell’incompatibilità nel pubblico impiego, tra la sua introduzione nell’Ordinamento italiano nel 1908 e la sua attuale formulazione (attraverso le riforme del 1923 e del 1957), l’autore –contestando un’opinione diffusa nella letteratura giuslavoristica- esclude che l’art. 98 Cost. obblighi il legislatore ordinario ad imporre un dovere di esclusività al lavoratore dipendente dalle pubbliche amministrazioni. Successivamente si osserva come nel corso di più di un secolo la Dottrina, comunque poco interessata al tema, non abbia saputo giustificare in maniera unitaria e coerente la disciplina delle incompatibilità (se non ricorrendo ad argomentazioni di natura etica o sociale); diversamente la Giurisprudenza, soprattutto in epoca repubblicana, ha cercato di ricondurre la ratio dell’istituto alla specificità del rapporto lavorativo, riuscendo a giustificare le previsioni (e a individuarne i confini di applicazione) solo in relazione alla specialità del rapporto di lavoro pubblico. Nel secondo capitolo si evidenzia come, in occasione della riforma di fine XX secolo, la scelta di riservare alla legge la disciplina delle incompatibilità nel pubblico impiego non sia necessariamente in contrasto con la privatizzazione del lavoro pubblico. Si descrivono inoltre le linee generali dell’istituto, evidenziandone gli aspetti problematici (in particolare rapporto tra art. 53 del D.Lgvo 165/01 e l’art. 1 commi 57 e ss. della L. 662/96) e la collocazione nell’ambito complessivo della riforma di privatizzazione (con particolare attenzione al tema della natura degli atti). Nell’ultimo capitolo, si evidenziano le criticità della disciplina vigente, anche alla luce della discutibile interpretazione datane dalla Corte di Cassazione. In particolare si sottolinea come il sistema sanzionatorio non sia coerente con la contrattualizzazione del rapporto di lavoro e mantenga una forte connotazione pubblicistica. Si rileva quindi come le critiche all’istituto si possano sostanzialmente ricondurre al fatto che il legislatore, mantenendo in vita un istituto risalente e riconducibile a esigenze di varia natura, non ha individuato univocamente nè il fine ultimo delle norme nè quale sia il bene che si intende proteggere; in tal modo si è disegnato un sistema che vieta irragionevolmente le sole attività remunerative, implica una profonda differenziazione pubblico/privato, comporta un sacrificio significativo per il lavoratore pubblico. Dopo aver negato la possibilità di ricondurre l’istituto alle previsioni di cui all’art. 2105 c.c., l’autore, riflettendo sulle ragioni fondanti l’esistenza di tale ultima previsione e in considerazione del dato incontrovertibile che oggi l’ordinamento fonda sul contratto sia i rapporti di impiego pubblico sia quelli di impiego privato, giunge ad individuare un unitario principio secondo il quale è illecito lo svolgimento, da parte del lavoratore, di attività inconciliabili con gli interessi che costituiscono la giustificazione profonda dell’attività del datore di lavoro. Si tratterebbe, insomma, di “un generale principio di tutela dell’interesse pubblico al regolare svolgimento dell’attività del datore, che si concretizza in entrambi i casi nel sorgere di obbligazioni negative (di non fare/di astenersi) in capo al lavoratore, riferite alle attività concorrenziali e a quelle incompatibili”(Cap III, 3.3) rispettivamente nel privato e nel pubblico Alla luce della esposta conclusione, l’autore auspica che tutto il sistema delle incompatibilità venga ridisegnato in una prospettiva che tenga conto dell’esigenza di uniformare al massimo le regole che governano il lavoro, indipendentemente dalla soggettività (pubblica o privata) dei datori. Un simile obiettivo, in termini di coerenza ed efficacia, appare perseguibile a partire dal modello disegnato dall’art. 53 del D.Lgvo 165/01 in materia di incarichi autorizzabili.
Resumo:
In questo lavoro di ricerca viene indagato il rapporto tra politiche pubbliche e gentrification attraverso la presa in esame della trasformazione fisica, sociale ed economica delle aree centrali di due importanti realtà urbane dell’Europa mediterranea: il Raval di Barcellona e il Centro Storico di Genova. Ciò che è avvenuto nelle due aree di studio è riconducile a quanto viene indicato in letteratura come policy-led gentrification o positive gentrification in quanto è a seguito dell’azione pubblica che si avvia il processo di ricambio sociale. Le autorità locali, con la trasformazione fisica e simbolica dello spazio, hanno perseguito l’inserimento di nuove funzioni e nuovi utenti al fine di superare le problematicità ivi presenti attraverso il conseguimento del social-balance. Pertanto, sia nel Raval che nel Centro Storico genovese, la gentrification è stata utilizzata come uno strumento per la rivitalizzazione sociale ed economica di due aree dall’importanza strategica per il successo dell’intera realtà urbana. La ricerca è suddivisa in tre parti. La prima è dedicata all’esposizione della letteratura sul tema al fine di dotare la ricerca di una solida base teorica. Seguono la seconda e terza parte nelle quali vengono affrontati i due casi di studio. Innanzitutto è verificata l’esistenza delle precondizioni necessarie all’avvio della gentrification a cui segue l’analisi e la descrizione della trasformazione dello spazio fisico. Il conseguente ricambio sociale viene indagato con la presa in esame dell’evoluzione delle caratteristiche della popolazione e attraverso l’interpretazione delle motivazioni alla base della strategia residenziale attuata dai gentrifier. L’analisi degli effetti del dispiegarsi del fenomeno mina la possibilità di etichettare come gentrification in senso strictu il processo di trasformazione che ha investito il Raval e il Centro Storico genovese. Dalla ricerca condotta si esclude, in entrambe le aree, la presenza di una gentrification che rispetti l’idealtipo individuato per le grandi città globali e si ritiene necessario ricorrere ad una disaggregazione concettuale. Ai fini dell’interpretazione di quanto avvenuto nel Raval e nel Centro Storico genovese sembra più utile ricorrere al concetto di marginal gentrification il quale prevede che in un’area degradata si verifichi un miglioramento delle condizioni strutturali ed estetiche degli edifici e un ricambio sociale ma senza che questo comporti un’elevazione al rango di quartiere esclusivo o elitario. La resilienza dimostrata dalle due aree ad un pieno processo di gentrification è imputabile tanto a specificità locali quanto riconducibile alla posizione occupata sulla gerarchia urbana internazionale dalla città di Barcellona e da quella di Genova
Resumo:
Il ginandromorfismo è il fenomeno per il quale un organismo manifesta contemporaneamente caratteristiche fenotipiche maschili e femminili. Per quanto riguarda la Classe degli Insetti, numerose segnalazioni di tale manifestazione sono reperibili in letteratura, ma un’ interpretazione generale sulle origini e sulle cause che la generano non è ancora stata fornita. Lo scopo di questa tesi è stato quello di studiare il fenomeno per quanto riguarda l’Imenottero Diprionide Diprion pini (Linnaeus, 1758) attraverso l’allevamento controllato dell’insetto, esperimenti di inincrocio, studio del cariotipo e la valutazione della comparsa e la distribuzione dei tessuti maschili e femminili negli individui ginandromorfi. Altri parametri biologici (quali i pesi degli individui) sono stati presi in considerazione nel tentativo di fornire una spiegazione riguardo i meccanismi genetici che regolano la determinazione del sesso in questa specie. Gynandromorphism is the phenomenon by which an organism manifests phenotypic characteristics both male and female. For the class of insects, numerous reports of this event can be found in the literature, but a general interpretation of the origins and causes that generate it has not yet been provided. The purpose of this thesis was to study the phenomenon with regard to the Diprionid wasp Diprion pini (Linnaeus, 1758) through the controlled rearing of the insect, inbreeding experiments, study of the karyotype and evaluation of the appearance and distribution of male and female tissue in gynandromorph specimens. Other biological parameters (such as the weights of individuals) were taken into account in an attempt to provide an explanation of the genetic mechanisms that regulate sex determination in this species.
Resumo:
L’attuale condizione che caratterizza il settore energetico richiede un necessario processo di riconversione che, oltre a favorire il risparmio energetico, riduca la dipendenza dai combustibili fossili ed accresca l’impiego di fonti energetiche rinnovabili, dando un contributo fondamentale alla riduzione delle emissioni di gas serra come diversi accordi internazionali richiedono. Si rende pertanto necessario accelerare i processi che da alcuni anni stanno favorendo l’utilizzo di energia da fonti rinnovabili. Tra queste, le fonti legate ai processi di trattamento biologico dei reflui stanno avendo un interessante sviluppo. Esistono numerosi processi biologici che consentono la produzione di energia in maniera indiretta, quali ad esempio i processi di digestione anaerobica finalizzati alla produzione di biogas e/o produzione biologica di idrogeno. In tale contesto si inserisce la tecnologia delle Microbial Fuel Cell, che consente la produzione diretta di energia elettrica, finalizzata al recupero energetico inteso al miglioramento dell’efficienza energetica e alla riduzione dei costi d’esercizio di impianti di trattamento biologico dei reflui. Il presente lavoro di Tesi di Dottorato sperimentale, svoltosi in collaborazione al laboratorio PROT.-IDR. della sede ENEA di Bologna, riporta i risultati dell’attività di ricerca condotta su una MFC (Microbial Fuel Cell) a doppio stadio biologico per il trattamento di reflui ad elevato carico organico e produzione continua di energia elettrica. E’ stata provata l’applicabilità della MFC con entrambi i comparti biotici utilizzando elettrodi di grafite non trattata ottenendo, con un carico organico in ingresso di circa 9 gd-1, valori di potenza massima prodotta che si attestano su 74 mWm-2, corrente elettrica massima generata di 175 mAm-2 ad una tensione di 421 mV, ed una conversione di COD in elettricità pari a 1,2 gCODm-2d-1. I risultati sono stati molto positivi per quanto riguarda le prestazioni depurative ottenute dalla MFC. L’efficienza di depurazione misurata ha raggiunto un valore massimo del 98% di rimozione del COD in ingresso, mentre e la concentrazione di azoto ammoniacale nell’effluente raccolto all’uscita del sedimentatore è sempre stata inferiore a 1 mgN-NH4+l-1. Tra gli obiettivi posti all’inizio della sperimentazione si è rivelata di notevole interesse la valutazione del possibile utilizzo della MFC come sistema per il monitoraggio on-line del COD e degli acidi grassi volatili (VFA) prodotti all’interno di un digestore anaerobico, attraverso la definizione di una correlazione tra i dati elettrici registrati in continuo e le concentrazioni di CODanaer e VFA misurate in diversi periodi della sperimentazione. L’analisi DGGE della biomassa catodica ha fornito uno strumento analitico utile allo studio della diversità della comunità microbica sospesa ed adesa al catodo e ha confermato la forte similarità delle specie batteriche riconosciute nei campioni analizzati. In particolare, le bande di sequenziamento ottenute sono affiliate ai gruppi batterici Firmicutes, -Proteobacteria, -Proteobacteria, -Proteobacteria e Bacteroidetes. Da quanto emerso dalla sperimentazione condotta si può pertanto concludere che ad oggi le MFC sono in fase di evoluzione rispetto ai primi prototipi utilizzati per lo studio delle comunità microbiali e per la comprensione dei meccanismi di trasferimento elettronico. Sfruttarne la potenza prodotta in maniera commerciale diviene una grande sfida per il futuro, ed è opinione comune che le prime applicazioni pratiche delle MFC saranno come fonte di recupero energetico per i dispositivi utilizzati per il monitoraggio dell’ambiente e per il trattamento delle acque reflue.
Resumo:
Cosa sappiamo del Genocidio? Cosa sappiamo del Rwanda? In che termini il giornalismo è elemento in comune di entrambi? La questione si fa più complicata in quanto vorremmo aggiungere a queste riflessioni il nodo della memoria. Che memoria abbiamo del Genocidio? Che memoria abbiamo del Rwanda? In che modo il giornalismo costruisce memoria? In questa tesi, abbiamo provato a rispondere a queste domande attraverso gli strumenti della semiotica del discorso e della cultura. Nella prima parte della ricerca abbiamo affrontato la nascita e l'affermazione della categoria di genocidio, l'invenzione e il Genocidio del Rwanda , indicando proposte per definire una possibile semiotica del genocidio. Nella seconda parte si è,invece, scesi nel particolare del discorso giornalistico, definendo i nodi teorici utili per mettere in luce i legami tra giornalismo e memoria e procedendo alle analisi della stampa italiana sul genocidio rwandese. Le conclusioni a cui si è giunti sono, rispetto alla costruzione giornalistica della realtà, che la stampa italiana ha ridotto quella complessità che ha caratterizzato ciò che abbiamo chiamato la biografia discorsiva del Rwanda. Questa stratificazione discorsiva viene risolta, o meglio, tradotta in enunciati che richiamano un odio tribale ancestrale, come se il Genocidio, laddove ne venisse descritta la pianificazione, non fosse altro che una conseguenza naturale di questo odio. Rispetto al rapporto tra memoria e giornalismo, abbiamo visto che è interrogabile rispetto alle dinamiche della cultura: si tratta, quindi, di considerare il ruolo di mediazione dei testi e la loro interpretazione. Ciò chiama in causa problemi di selezione e filtraggio, di inclusione ed esclusione, negoziazione di saperi condivisi, all’interno del problema più ampio della produzione del discorso e della cooperazione interpretativa.
Resumo:
Questa tesi ricostruisce la storia della giurisprudenza italiana che ha riguardato la legittimità o meno dell’impiego della diagnosi genetica preimpianto nell’ambito della procreazione medicalmente assistita, dall’emanazione della legge 40 del 2004 a tutt’oggi. Ed in particolare questa tesi si prefigge due obiettivi: uno, individuare ed illustrare le tipologie di argomenti utilizzati dal giurista-interprete per giudicare della legittimità o meno della pratica della diagnosi preimpianto degli embrioni prodotti, mediante le tecniche relative alla procreazione assistita; l’altro obiettivo, mostrare sia lo scontro fra i differenti argomenti, sia le ragioni per le quali prevalgono gli argomenti usati per legittimare la pratica della diagnosi preimpianto. Per raggiungere questi obiettivi, e per mostrare in maniera fenomenologica come avviene l’interpretazione giuridica in materia di diagnosi preimpianto, si è fatto principalmente riferimento alla visione che ha della detta interpretazione la prospettiva ermeneutica (concepita originariamente sul piano teoretico, quale ermeneutica filosofica, da H.G. Gadamer; divulgata ed approfondita sul piano giusfilosofico e della teoria dell’interpretazione giudica in Italia, fra gli altri, da F. Viola e G. Zaccaria). Così, in considerazione dei vari argomenti utilizzati per valutare la legittimità o meno della pratica della diagnosi preimpianto, i motivi per i quali in ultimo il giurista-interprete per giudicare ragionevolmente, deve ritenere legittima la pratica della diagnosi preimpianto sono i seguenti. I principi superiori dell’ordinamento e talune direttive giuridiche fondamentali dell’ordinamento, elaborate della giurisprudenza, le quali costituiscono la concretizzazione di detti principi e di una serie di disposizioni normative fondamentali per disciplinare il fenomeno procreativo, depongono per la legittimità della diagnosi preimpianto. Le tipologie degli argomenti impiegati per avallare la legittimità della diagnosi preimpianto attengono al tradizionale repertorio argomentativo a cui attinge il giurista, mentre la stessa cosa non si può dire per gli argomenti usati per negare la legittimità della diagnosi. Talune tipologie di argomenti utilizzate per negare la legittimità della diagnosi preimpianto costituiscono delle fallacie logiche, per esempio l’argomento del pendio scivoloso, e soprattutto le tipologie degli argomenti utilizzati per sostenere la legittimità della diagnosi preimpianto sono per lo più caratterizzate dalla ragionevolezza ed applicate per lo più opportunamente. Poi, si può osservare che: determinati argomenti, associati dal giurista-interprete ai principi i quali depongono per l’illegittimità della diagnosi preimpianto, facendo leva sulla categoria della possibilità, ed equiparando attualità e possibilità, privilegiano l’immaginazione alla realtà e portano a risultati interpretativi non razionalmente fondati; mentre gli argomenti associati dal giurista-interprete ai principi i quali depongono per la legittimità della diagnosi preimpianto, facendo leva sulla categoria della attualità, e tenendo ben distinte attualità e possibilità, privilegiano l’osservazione della realtà e portano a risultati razionalmente fondati.
Resumo:
Fra il 2006 e il 2008, molte commodity hanno fatto registrare rapidi e intensi aumenti di prezzo sui mercati internazionali. Fra queste, anche alcuni prodotti agricoli alla base dell’alimentazione umana. Il presente lavoro concentra l’attenzione su alcune commodity - frumento, riso, mais e semi di soia - riportando le loro quotazioni mensili a partire dal 2002, quindi con un largo anticipo rispetto al manifestarsi del fenomeno. L’obiettivo principale del lavoro è offrire una valida interpretazione dell’instabilità de prezzo di questi prodotti, individuando i fattori che sono alla base della volatilità e sottolineandone le implicazioni economiche e politiche a livello globale. La metodologia usata è duplice e composta da un’attenta analisi descrittiva dei fattori che hanno agito sulla domanda e sull’offerta dei prodotti in questione e un’analisi quantitativa, facendo ricorso alle tecniche statistiche proprie delle serie storiche.
Resumo:
Il presente lavoro di ricerca si inserisce all’interno degli ambiti di interesse del settore disciplinare dell’ICAR 10 – Architettura Tecnica, rappresentato dalla Storia della costruzione. In questo quadro, lo studio sulla Costruzione Moderna a Bologna tra il 1920 e il 1940, costituisce un tassello di una ricerca più ampia ed intesa a delineare l’importanza assunta dalla vicenda bolognese nel definire il profilo teorico ed applicativo della tecnica in cemento armato nella genesi del linguaggio architettonico che connota l’esperienza del Modernismo italiano degli anni trenta. La ricaduta più diretta della ricerca è rintracciabile nella creazione di una base informativa ipertestuale strutturata secondo diversi livelli di lettura tra loro correlati: la localizzazione, i progettisti e le imprese costruttrici, l’anno di realizzazione, la tipologia, le tecniche costruttive impiegate, la storia dell’edificio, le trasformazioni, la localizzazione della documentazione e le fonti bibliografiche, con collegamenti ipertestuali che consentono di consultare il materiale documentario. Gli esiti di tale studio hanno una duplice finalità: da un lato tale lavoro restituisce una mappatura analitica del patrimonio edilizio costruito nel ventennio analizzato, consentendo una registrazione sintetica ma puntuale delle fonti archivistiche e dei relativi apparati documentali. Un lavoro di supporto indispensabile per ogni futura ricerca intesa ad indagare le singole vicende che hanno accompagnato lo sviluppo edilizio della città di Bologna. In seconda istanza questo studio consente di porre in luce l’importanza assunta dai magisteri tecnici nel definire le scelte di ordine architettonico, ovvero di evidenziare come la conoscenza della storia materiale degli edifici induca a formulare una valutazione più appropriata e stringente sugli esiti architettonici conseguiti, superando così l’astrattezza di una interpretazione votata ai soli aspetti figurativi.
Resumo:
La tematica del presente scritto è l’analisi teorico-sperimentale del sistema edificio-impianto, che è funzione delle soluzioni progettuali adottate, dei componenti scelti e del tipo di conduzione prevista. La Direttiva 2010/31/CE sulle prestazioni energetiche degli edifici, entrata in vigore l’8 luglio 2010, pubblicata sulla Gazzetta Europea del 18 giugno 2010, sostituirà, dal 1º febbraio 2012, la direttiva 2002/91/CE. La direttiva prevede che vengano redatti piani nazionali destinati ad aumentare il numero di “edifici a energia quasi zero” e che entro il 31 dicembre 2020 tutti gli edifici di nuova costruzione dovranno essere “edifici a energia quasi zero”, per gli edifici pubblici questa scadenza è anticipata al 31 dicembre 2018. In questa prospettiva sono stati progettati due “edifici a energia quasi zero”, una villa monofamiliare e un complesso scolastico (scuola dell’infanzia, elementare, media inferiore) attualmente in via di realizzazione, con l’obiettivo principale di fornire un caso studio unico per ogni tipologia in quanto anche modulare e replicabile nella realtà del nostro territorio, che anticipano gli obiettivi fissati dalla Direttiva 2010/31/CE. I risultati ottenibili dai suddetti progetti, esposti nella tesi, sono il frutto di un attenta e proficua progettazione integrata, connubio tra progettazione architettonica ed energetico/impiantistica. La stessa progettazione ha esaminato le tecnologie, i materiali e le soluzioni tecniche “mirate” ai fini del comfort ambientale e di un’elevata prestazione energetica dell’edificio. Inoltre è stato dedicato ampio rilievo alla diagnosi energetica degli edifici esistenti attraverso 4 casi studio, i principali svolti durante i tre anni di dottorato di ricerca, esemplari del patrimonio edilizio italiano. Per ogni caso studio è stata condotta una diagnosi energetica dell’edificio, valutati i risultati e definita la classe energetica, ed in seguito sono stati presi in considerazione i possibili interventi migliorativi sia da un punto di vista qualitativo sia economico tenendo conto degli incentivi statali per l’incremento dell’efficienza energetica.
Resumo:
Il rapido progresso della tecnologia, lo sviluppo di prodotti altamente sofisticati, la forte competizione globale e l’aumento delle aspettative dei clienti hanno messo nuove pressioni sui produttori per garantire la commercializzazione di beni caratterizzati da una qualità sempre crescente. Sono gli stessi clienti che da anni si aspettano di trovare sul mercato prodotti contraddistinti da un livello estremo di affidabilità e sicurezza. Tutti siamo consapevoli della necessità per un prodotto di essere quanto più sicuro ed affidabile possibile; ma, nonostante siano passati oramai 30 anni di studi e ricerche, quando cerchiamo di quantificare ingegneristicamente queste caratteristiche riconducibili genericamente al termine qualità, oppure quando vogliamo provare a calcolare i benefici concreti che l’attenzione a questi fattori quali affidabilità e sicurezza producono su un business, allora le discordanze restano forti. E le discordanze restano evidenti anche quando si tratta di definire quali siano gli “strumenti più idonei” da utilizzare per migliorare l’affidabilità e la sicurezza di un prodotto o processo. Sebbene lo stato dell’arte internazionale proponga un numero significativo di metodologie per il miglioramento della qualità, tutte in continuo perfezionamento, tuttavia molti di questi strumenti della “Total Quality” non sono concretamente applicabili nella maggior parte delle realtà industriale da noi incontrate. La non applicabilità di queste tecniche non riguarda solo la dimensione più limitata delle aziende italiane rispetto a quelle americane e giapponesi dove sono nati e stati sviluppati questi strumenti, oppure alla poca possibilità di effettuare investimenti massicci in R&D, ma è collegata anche alla difficoltà che una azienda italiana avrebbe di sfruttare opportunamente i risultati sui propri territori e propri mercati. Questo lavoro si propone di sviluppare una metodologia semplice e organica per stimare i livelli di affidabilità e di sicurezza raggiunti dai sistemi produttivi e dai prodotti industriali. Si pone inoltre di andare al di là del semplice sviluppo di una metodologia teorica, per quanto rigorosa e completa, ma di applicare in forma integrata alcuni dei suoi strumenti a casi concreti di elevata valenza industriale. Questa metodologia come anche, più in generale, tutti gli strumenti di miglioramento di affidabilità qui presentati, interessano potenzialmente una vasta gamma di campi produttivi, ma si prestano con particolare efficacia in quei settori dove coesistono elevate produzioni e fortissime esigenze qualitative dei prodotti. Di conseguenza, per la validazione ed applicazione ci si è rivolti al settore dell’automotive, che da sempre risulta particolarmente sensibile ai problemi di miglioramento di affidabilità e sicurezza. Questa scelta ha portato a conclusioni la cui validità va al di là di valori puramente tecnici, per toccare aspetti non secondari di “spendibilità” sul mercato dei risultati ed ha investito aziende di primissimo piano sul panorama industriale italiano.
Resumo:
Nella presente analisi si è avuta l’eccezionale disponibilità di dati longitudinali su molti individui (6000studenti frequentanti le scuole superiori bolognesi). Per ottenere un modello che al meglio spiegasse e riproducesse l’andamento degli esiti scolastici (promozione alla classe successiva) tenendo conto del percorso scolastico nel tempo, si è scelto il modello a curva latente condizionato. La variabile risposta è combinazione lineare dell’esito di fine anno (Promosso/Non promosso); riassume, per ogni studente/anno scolastico, classe frequentata ed esito finale. Le variabili esplicative sono state selezionate tra le informazioni disponibili per gli individui. Vengono presentati alcuni dati aggregati, poi descritti i dati individuali che entreranno nel modello, evidenziando la composizione degli studenti. La prima fase è la stima del modello logistico, con specificazione delle criticità, che hanno indotto alla scelta successiva del modello dipendente dal tempo. Dopo la descrizione della metodologia principale utilizzata, la teoria del conditionalLCM, e la selezione degli indicatori di fitting, viene delineata la procedura di stima, e raggiunto il modello ottimale. Le variabili significative per spiegare l’andamento delle promozioni individuali nel tempo risultano: cittadinanza (italiani con risultati significativamente migliori degli stranieri), sesso (ragazze con percorso scolastico mediamente migliore dei ragazzi: la differenza risulta però significativa soltanto negli istituti tecnici e professionali), tipologia di scuola frequentata (studenti del liceo con risultati significativamente migliori di chi frequenta altri tipi di istituto). I risultati risultano fortemente dipendenti dai dati impiegati, specie riguardo al limite territoriale. Precedenti analisi evidenziavano una forte differenziazione dei risultati scolastici tra studenti del nord e del sud Italia, oltre che tra studenti dei comuni maggiormente popolati e studenti dei comuni di provincia. Sarebbe interessante disporre di dati individuali analoghi a quelli qui utilizzati, ma riferiti all’intero territorio nazionale, oppure ad un zona maggiormente vasta dell’Italia, onde saggiare l’entità dell’influenza sul percorso scolastico,ed in particolare sulla regolarità, della differenza territoriale.