134 resultados para Analisi di vulnerabilità sismica strutture esistenti


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questo lavoro ha come obiettivo l’utilizzo del Geographical Information System (GIS) per effettuare analisi di sicurezza, monitoraggio e valutazioni di impatto ambientale. Oggi, la totalità delle operazioni GIS possono essere svolte con software open source e in questa sedi si è scelto di utilizzare il GIS GRASS (Geographic Resources Analysis Support System) disponibile nei termini della GNU public license (GPL), mostrando l’usabilità e le notevoli potenzialità di tale software, nonché la qualità dei prodotti ottenibili, mai inferiori ai prodotti e agli strumenti messi a disposizione dai più radicati e diffusi programmi proprietari. Nel capitolo 4, vedremo l’applicazione all’analisi delle conseguenze di ipotetici incidenti, durante le operazioni di dismissione dell’impianto di processamento del combustibile nucleare, di Bosco Marengo (AL). Nel capitolo 5, vedremo applicazioni nel campo del monitoraggio della qualità dell’aria tramite analisi di immagini satellitari.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di ricerca tenta di inquadrare sotto nuove prospettive una problematica ormai classica all’interno della semiotica della pubblicità: l’analisi dello spot. I punti chiave del lavoro – e la pretesa di una certa differenza rispetto a lavori con oggetti affini – consistono sostanzialmente in tre aspetti. Innanzitutto, vi è un ritorno alle origini flochiane nella misura in cui non solo il contesto complessivo e le finalità che la ricerca si propone sono fortemente ancorati all’interno di obiettivi di marketing, ma tutto lo studio nella sua interezza nasce dal dialogo concreto tra metodologia di analisi semiotica e prassi concreta all’interno degli istituti di ricerca di mercato. La tesi non presenta quindi una collezione di analisi di testi pubblicitari condotte in modo autoriferito, quanto piuttosto di “messe alla prova” della metodologia, funzionali alla definizione di disegni di ricerca per la marketing research. Questo comporta un dialogo piuttosto stretto con metodologie affini (sociologia qualitativa e quantitativa, psicologia motivazionale, ecc.) nella convinzione che la priorità accordata all’oggetto di analisi sia sovraordinata rispetto all’ortodossia degli strumenti metodologici. In definitiva, lo spot è sempre e comunque analizzato all’interno di una prospettiva brand-centrica che ha ben in mente la semiotica della situazione di consumo rispetto alla quale lo spot agisce da leva di valorizzazione per l’acquisto. In secondo luogo, gli oggetti analizzati sono piuttosto vari e differenziati: non solo lo spot nella sua versione audiovisiva definitiva (il “girato”), ma anche storyboard, animatic, concept (di prodotto e di comunicazione). La prospettiva generativa greimasiana va a innestarsi su problematiche legate (anche) alla genesi dello spot, alla sua progettazione e riprogettazione/ottimizzazione. La tesi mostra quindi come una semiotica per le consulenze di marketing si diriga sul proprio oggetto ponendogli domande ben circoscritte e finalizzate a un obiettivo specifico, sostanzialmente derivato dal brief contenente le intenzioni comunicazionali del cliente-azienda. Infine, pur rimanendo all’interno di una teoria semiotica generativa (sostanzialmente greimasiana e post greimasiana), la ricerca adotta una prospettiva intrinsecamente multidisciplinare che se da un lato guarda a problematiche legate al marketing, al branding e alla comunicazione pubblicitaria e d’impresa tout court, dall’altro ritorna alle teorie dell’audiovisivo, mostrando affinità e differenze rispetto a forme audiovisive standard (il “film”) e a mutuazioni da nuove estetiche (la neotelevisione, il videoclip, ecc). La tesi si mostra solidamente convinta del fatto che per parlare di efficacia discorsiva sia imprescindibile approfondire le tematiche riguardanti il sincretismo espressivo e le specifiche modalità di manifestazione stilistica. In questo contesto, il lavoro si compone di quattro grandi aree tematiche. Dopo una breve introduzione sull’attualità del tema “spot” e sulla prospettiva analiticometodologica adottata (§ 1.), nel secondo capitolo si assume teoreticamente che i contenuti dello spot derivino da una specifica (e di volta in volta diversa) creolizzazione tra domini tematici derivanti dalla marca, dal prodotto (inteso tanto come concept di prodotto, quanto come prodotto già “vestito” di una confezione) e dalle tendenze socioculturali. Le tre dimensioni vengono valutate in relazione all’opposizione tra heritage, cioè continuità rispetto al passato e ai concorrenti e vision, cioè discontinuità rispetto alla propria storia comunicazionale e a quella dei concorrenti. Si esplorano inoltre altri fattori come il testimonial-endorser che, in quanto elemento già intrinsecamente foriero di elementi di valorizzazione, va a influire in modo rilevante sul complesso tematico e assiologico della pubblicità. Essendo la sezione della tesi che prende in considerazione il piano specificatamente contenutistico dello spot, questa parte diventa quindi anche l’occasione per ritornare sul modello delle assiologie del consumo di Jean-Marie Floch, approntando alcune critiche e difendendo invece un modello che – secondo la prospettiva qui esposta – contiene punti di attualità ineludibili rispetto a schematizzazioni che gli sono successive e in qualche modo debitrici. Segue una sezione (§ 3.) specificatamente dedicata allo svolgimento e dis-implicazione del sincretismo audiovisivo e quindi – specularmente alla precedente, dedicata alle forme e sostanze del contenuto – si concentra sulle dinamiche espressive. Lo spot viene quindi analizzato in quanto “forma testuale” dotata di alcune specificità, tra cui in primis la brevità. Inoltre vengono approfondite le problematiche legate all’apporto di ciascuna specifica sostanza: il rapporto tra visivo e sonoro, lo schermo e la sua multiprospetticità sempre più evidente, il “lavoro” di punteggiatura della musica, ecc. E su tutto il concetto dominante di montaggio, intrinsecamente unito a quello di ritmo. Il quarto capitolo ritorna in modo approfondito sul rapporto tra semiotica e ricerca di mercato, analizzando sia i rapporti di reciproca conoscenza (o non conoscenza), sia i nuovi spazi di intervento dell’analisi semiotica. Dopo aver argomentato contro un certo scetticismo circa l’utilità pragmatica dell’analisi semiotica, lo studio prende in esame i tradizionali modelli di valutazione e misurazione dell’efficacia pubblicitaria (pre- e post- test) cercando di semiotizzarne il portato. Ne consegue la proposta di disegni di ricerca semiotici modulari: integrabili tra loro e configurabili all’interno di progetti semio-quali-quantitativi. Dopo aver ridefinito le possibilità di un’indagine semiotica sui parametri di efficacia discorsiva, si procede con l’analisi di un caso concreto (§ 5.): dato uno spot che si è dimostrato efficace agli occhi dell’azienda committente, quali possono essere i modi per replicarne i fattori di successo? E come spiegare invece quelli di insuccesso delle campagne successive che – almeno teoricamente – erano pensate per capitalizzare l’efficacia della prima? Non si tratta quindi di una semiotica ingenuamente chiamata a “misurare” l’efficacia pubblicitaria, che evidentemente la marketing research analizza con strumenti quantitativi assodati e fondati su paradigmi di registrazione di determinati parametri sul consumatore (ricordo spontaneo e sollecitato, immagine di marca risultante nella mente di user e prospect consumer, intenzione d’acquisto stimolata). Piuttosto l’intervento qui esposto si preoccupa più funzionalmente a spiegare quali elementi espressivi, discorsivi, narrativi, siano stati responsabili (e quindi prospetticamente potranno condizionare in positivo o in negativo in futuro) la ricezione dello spot. L’analisi evidenzia come elementi apparentemente minimali, ancorati a differenti livelli di pertinenza siano in grado di determinare una notevole diversità negli effetti di senso. Si tratta quindi di un problema di mancata coerenza tra intenzioni comunicative e testo pubblicitario effettivamente realizzato. La risoluzione di tali questioni pragmatiche conduce ad approfondimenti teoricometodologici su alcuni versanti particolarmente interessanti. In primo luogo, ci si interroga sull’apporto della dimensione passionale nella costruzione dell’efficacia e nel coinvolgimento dello spettatore/consumatore. Inoltre – e qui risiede uno dei punti di maggior sintesi del lavoro di tesi – si intraprende una proficua discussione dei modelli di tipizzazione dei generi pubblicitari, intesi come forme discorsive. Si fanno quindi dialogare modelli diversi ma in qualche misura coestensivi e sovrapponibili come quelli di Jean Marie Floch, Guido Ferraro, Cosetta Saba e Chiara Giaccardi. Si perviene così alla costruzione di un nuovo modello sintetico, idealmente onnipervasivo e trasversale alle prospettive analizzate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro sono state analizzate diverse strategie di recupero di una cava dismessa situata presso la località Colombara (Monte San Pietro, Bologna). Su questi terreni sono state condotte tre prove, costituite da diverse parcelle nelle quali sono stati adottati differenti trattamenti. Sono state svolte analisi di tipo quantitativo del suolo e della parte epigea delle specie arbustive e arboree, focalizzandosi sull'azoto (N totale, ammoniacale, nitrico, e firma isotopica) e sulla sostanza organica del suolo. Inoltre è stata effettuata un'indagine qualitativa della composizione floristica. Scopo della tesi è quello di individuare le strategie più efficaci per un recupero di suoli degradati. Non sempre a trattamenti iniziali migliori corrispondono i migliori risultati portando a conclusioni apparentemente controintuitive a cui si è cercato di dare risposta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progresso tecnologico nel campo della biologia molecolare, pone la comunità scientifica di fronte all’esigenza di dare un’interpretazione all’enormità di sequenze biologiche che a mano a mano vanno a costituire le banche dati, siano esse proteine o acidi nucleici. In questo contesto la bioinformatica gioca un ruolo di primaria importanza. Un nuovo livello di possibilità conoscitive è stato introdotto con le tecnologie di Next Generation Sequencing (NGS), per mezzo delle quali è possibile ottenere interi genomi o trascrittomi in poco tempo e con bassi costi. Tra le applicazioni del NGS più rilevanti ci sono senza dubbio quelle oncologiche che prevedono la caratterizzazione genomica di tessuti tumorali e lo sviluppo di nuovi approcci diagnostici e terapeutici per il trattamento del cancro. Con l’analisi NGS è possibile individuare il set completo di variazioni che esistono nel genoma tumorale come varianti a singolo nucleotide, riarrangiamenti cromosomici, inserzioni e delezioni. Va però sottolineato che le variazioni trovate nei geni vanno in ultima battuta osservate dal punto di vista degli effetti a livello delle proteine in quanto esse sono le responsabili più dirette dei fenotipi alterati riscontrabili nella cellula tumorale. L’expertise bioinformatica va quindi collocata sia a livello dell’analisi del dato prodotto per mezzo di NGS ma anche nelle fasi successive ove è necessario effettuare l’annotazione dei geni contenuti nel genoma sequenziato e delle relative strutture proteiche che da esso sono espresse, o, come nel caso dello studio mutazionale, la valutazione dell’effetto della variazione genomica. È in questo contesto che si colloca il lavoro presentato: da un lato lo sviluppo di metodologie computazionali per l’annotazione di sequenze proteiche e dall’altro la messa a punto di una pipeline di analisi di dati prodotti con tecnologie NGS in applicazioni oncologiche avente come scopo finale quello della individuazione e caratterizzazione delle mutazioni genetiche tumorali a livello proteico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis presents a new Artificial Neural Network (ANN) able to predict at once the main parameters representative of the wave-structure interaction processes, i.e. the wave overtopping discharge, the wave transmission coefficient and the wave reflection coefficient. The new ANN has been specifically developed in order to provide managers and scientists with a tool that can be efficiently used for design purposes. The development of this ANN started with the preparation of a new extended and homogeneous database that collects all the available tests reporting at least one of the three parameters, for a total amount of 16’165 data. The variety of structure types and wave attack conditions in the database includes smooth, rock and armour unit slopes, berm breakwaters, vertical walls, low crested structures, oblique wave attacks. Some of the existing ANNs were compared and improved, leading to the selection of a final ANN, whose architecture was optimized through an in-depth sensitivity analysis to the training parameters of the ANN. Each of the selected 15 input parameters represents a physical aspect of the wave-structure interaction process, describing the wave attack (wave steepness and obliquity, breaking and shoaling factors), the structure geometry (submergence, straight or non-straight slope, with or without berm or toe, presence or not of a crown wall), or the structure type (smooth or covered by an armour layer, with permeable or impermeable core). The advanced ANN here proposed provides accurate predictions for all the three parameters, and demonstrates to overcome the limits imposed by the traditional formulae and approach adopted so far by some of the existing ANNs. The possibility to adopt just one model to obtain a handy and accurate evaluation of the overall performance of a coastal or harbor structure represents the most important and exportable result of the work.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Limiti sempre più stringenti sulle emissioni inquinanti ed una maggiore attenzione ai consumi, all'incremento di prestazioni e alla guidabilità, portano allo sviluppo di algoritmi di controllo motore sempre più complicati. Allo stesso tempo, l'unità di propulsione sta diventando un insieme sempre più variegato di sottosistemi che devono lavorare all'unisono. L'ingegnere calibratore si trova di fronte ad una moltitudine di variabili ed algoritmi che devono essere calibrati e testati e necessita di strumenti che lo aiutino ad analizzare il comportamento del motore fornendo risultati sintetici e facilmente accessibili. Nel seguente lavoro è riportato lo sviluppo di un sistema di analisi della combustione: l'obbiettivo è stato quello di sviluppare un software che fornisca le migliori soluzioni per l'analisi di un motore a combustione interna, in termini di accuratezza dei risultati, varietà di calcoli messi a disposizione, facilità di utilizzo ed integrazione con altri sistemi tramite la condivisione dei risultati calcolati in tempo reale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo di questa analisi è di coniugare la ricostruzione dei processi di assoggettamento che producono i copioni entro cui prende forma la soggettività dei profughi siriani, con la ricostruzione delle problematizzazioni alla base dei sistemi di controllo e gestione della circolazione regolare. Secondo l’UNHCR, tra il 2012 e il 2016 quasi un milione e mezzo di profughi siriani si è stabilita in Libano nel tentativo di sottrarsi all’intensificarsi del conflitto tra il regime di Assad e il fronte variegato di milizie ribelli. Questa popolazione in esilio si è confrontata con le politiche di amministrazione e controllo della loro presenza dispiegate dall’assemblaggio tra istituzioni locali e internazionali: in particolare, i governi libanesi che si sono avvicendati dal 2013 hanno progressivamente implementato interventi di inclusione differenziale della popolazione di profughi, relegandone la maggioranza in uno stato di marginalità e precarietà esistenziale. Di conseguenza, per molti di loro provare ad accedere a forme di mobilità regolare si impone come uno dei pochi percorsi possibili per ottenere il riconoscimento di un livello minimo di esistenza legittima. L’analisi sviluppata in questo elaborato si basa su una ricerca etnografica condotta in Libano nella regione dell’Akkar tra il 2019 e il 2020, a cui è stata associato uno studio dell’infrastruttura tecnico-politica dei Corridoi Umanitari, un programma per la mobilità dei profughi avviato nel biennio 2016-2017, grazie alla collaborazione tra autorità italiane e una serie di associazioni religiose attive in Italia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il superavvolgimento del DNA nelle cellule, regolato dalle DNA Topoisomerasi, influenza molti processi biologici, quali la trascrizione, la replicazione, la ricombinazione ed il rimodellamento della cromatina. La DNA Topoisomerasi IB eucariotica, (Top1), è un enzima efficiente nella rimozione dei superavvolgimenti del DNA in vitro e la sua principale funzione cellulare è la rimozione dei superavvolgimenti positivi e negativi generati durante la trascrizione e la replicazione. Risultati recenti hanno fornito evidenze sperimentali del coinvolgimento di Top1 in meccanismi multipli di regolazione dell’espressione genica eucariotica, in particolare nella fase di inizio e maturazione dei trascritti. Tuttavia, le funzioni di Top1 non sono ancora state stabilite a livello globale. Pertanto, nella presente tesi di dottorato abbiamo risposto a questa domanda con l’analisi dei profili di trascrizione genica globale e con studi di immunoprecipitazione della cromatina (ChIP) in cellule di S. cerevisiae. Circa il 9% dei geni sono influenzati da Top1, e l’analisi dei profili di espressione mostra che Top1 wt aumenta l’utilizzo del glucosio e dei pathway per la produzione di energia, con specifica diminuzione della trascrizione dei geni telomerici e subtelomerici. Abbiamo inoltre dimostrato che Top1 wt, ma non il suo mutante inattivo, aumenta la velocità di crescita cellulare nelle cellule di lievito studiate. Le analisi di ChIP mostrano che, in confronto all’assenza dell’enzima, Top1 wt diminuisce l’acetilazione dell’istone H4, compresa quella specifica della lisina 16, nel telomero destro del cromosoma XIV mentre la mutazione che inattiva l’enzima aumenta in maniera marcata l’acetilazione dell’istone H4 e la di-metilazione della lisina 4 dell’istone H3. Top1 wt incrementa anche il reclutamento di Sir3 nelle regioni di confine della cromatina silenziata dello stesso telomero. Studi di immunoprecipitazione indicano che l’enzima interagisce direttamente con la struttura della cromatina telomerica poichè entrambe le proteine, quella wt e quella inattiva, sono localizzate sulle ripetizioni telomeriche dei cromosomi di lievito. Questi risultati dimostrano che Top1, una proteina non essenziale in lievito, ottimizza i livelli globali dei trascritti per una crescita più efficiente di cellule in fase esponenziale. Indagando il meccanismo che è alla base della specifica repressione dei geni telomerici, abbiamo dimostrato che Top1 favorisce delle modifiche posttraduzionali degli istoni che indicano una struttura della cromatina repressa nelle regioni telomeriche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesi di dottorato si propone lo sviluppo di un modello spazialmente distribuito per produrre una stima dell'erosione superficiale in bacini appenninici. Il modello è stato progettato per simulare in maniera fisicamente basata il distacco di suolo e di sedimento depositato ad opera delle precipitazioni e del deflusso superficiale, e si propone come utile strumento per lo studio della vulnerabilità del territorio collinare e montano. Si è scelto un bacino collinare dell'Appennino bolognese per testare le capacità del modello e verificarne la robustezza. Dopo una breve introduzione per esporre il contesto in cui si opera, nel primo capitolo sono presentate le principali forme di erosione e una loro descrizione fisico-matematica, nel secondo capitolo verranno introdotti i principali prodotti della modellistica di erosione del suolo, spiegando quale interpretazione dei fenomeni fisici è stata data. Nel terzo capitolo verrà descritto il modello oggetto della tesi di dottorando, con una prima breve descrizione della componente afflussi-deflussi ed una seconda descrizione della componente di erosione del suolo. Nel quarto capitolo verrà descritto il bacino di applicazione del modello, i risultati della calibrazione ed un'analisi di sensitività. Infine si presenteranno le conclusioni sullo studio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il traffico veicolare è la principale fonte antropogenica di NOx, idrocarburi (HC) e CO e, dato che la sostituzione dei motori a combustione interna con sistemi alternativi appare ancora lontana nel tempo, lo sviluppo di sistemi in grado di limitare al massimo le emissioni di questi mezzi di trasporto riveste un’importanza fondamentale. Sfortunatamente non esiste un rapporto ottimale aria/combustibile che permetta di avere basse emissioni, mentre la massima potenza ottenibile dal motore corrisponde alle condizioni di elevata formazione di CO e HC. Gli attuali sistemi di abbattimento permettono il controllo delle emissioni da sorgenti mobili tramite una centralina che collega il sistema di iniezione del motore e la concentrazione di ossigeno del sistema catalitico (posto nella marmitta) in modo da controllare il rapporto aria/combustibile (Fig. 1). Le marmitte catalitiche per motori a benzina utilizzano catalizzatori “three way” a base di Pt/Rh supportati su ossidi (allumina, zirconia e ceria), che, dovendo operare con un rapporto quasi stechiometrico combustibile/comburente, comportano una minore efficienza del motore e consumi maggiori del 20-30% rispetto alla combustione in eccesso di ossigeno. Inoltre, questa tecnologia non può essere utilizzata nei motori diesel, che lavorano in eccesso di ossigeno ed utilizzano carburanti con un tenore di zolfo relativamente elevato. In questi ultimi anni è cresciuto l’interesse per il controllo delle emissioni di NOx da fonti veicolari, con particolare attenzione alla riduzione catalitica in presenza di un eccesso di ossigeno, cioè in condizioni di combustione magra. Uno sviluppo recente è rappresentato dai catalizzatori tipo “Toyota” che sono basati sul concetto di accumulo e riduzione (storage/reduction), nei quali l’NO viene ossidato ed accumulato sul catalizzatore come nitrato in condizioni di eccesso di ossigeno. Modificando poi per brevi periodi di tempo le condizioni di alimentazione da ossidanti (aria/combustibile > 14,7 p/p) a riducenti (aria/combustibile < 14,7 p/p) il nitrato immagazzinato viene ridotto a N2 e H2O. Questi catalizzatori sono però molto sensibili alla presenza di zolfo e non possono essere utilizzati con i carburanti diesel attualmente in commercio. Obiettivo di questo lavoro di tesi è stato quello di ottimizzare e migliorare la comprensione del meccanismo di reazione dei catalizzatori “storage-reduction” per l’abbattimento degli NOx nelle emissioni di autoveicoli in presenza di un eccesso di ossigeno. In particolare lo studio è stato focalizzato dapprima sulle proprietà del Pt, fase attiva nei processi di storage-reduction, in funzione del tipo di precursore e sulle proprietà e composizione della fase di accumulo (Ba, Mg ed una loro miscela equimolare) e del supporto (γ-Al2O3 o Mg(Al)O). Lo studio è stato inizialmente focalizzato sulle proprietà dei precursori del Pt, fase attiva nei processi di storage-reduction, sulla composizione della fase di accumulo (Ba, Mg ed una loro miscela equimolare) e del supporto (γ-Al2O3 o Mg(Al)O). E’ stata effettuata una dettagliata caratterizzazione chimico-fisica dei materiali preparati tramite analisi a raggi X (XRD), area superficiale, porosimetria, analisi di dispersione metallica, analisi in riduzione e/o ossidazione in programmata di temperatura (TPR-O), che ha permesso una migliore comprensione delle proprietà dei catalizzatori. Vista la complessità delle miscele gassose reali, sono state utilizzate, nelle prove catalitiche di laboratorio, alcune miscele più semplici, che tuttavia potessero rappresentare in maniera significativa le condizioni reali di esercizio. Il comportamento dei catalizzatori è stato studiato utilizzando differenti miscele sintetiche, con composizioni che permettessero di comprendere meglio il meccanismo. L’intervallo di temperatura in cui si è operato è compreso tra 200-450°C. Al fine di migliorare i catalizzatori, per aumentarne la resistenza alla disattivazione da zolfo, sono state effettuate prove alimentando in continuo SO2 per verificare la resistenza alla disattivazione in funzione della composizione del catalizzatore. I principali risultati conseguiti possono essere così riassunti: A. Caratteristiche Fisiche. Dall’analisi XRD si osserva che l’impregnazione con Pt(NH3)2(NO2)2 o con la sospensione nanoparticellare in DEG, non modifica le proprietà chimico-fisiche del supporto, con l’eccezione del campione con sospensione nanoparticellare impregnata su ossido misto per il quale si è osservata sia la segregazione del Pt, sia la presenza di composti carboniosi sulla superficie. Viceversa l’impregnazione con Ba porta ad una significativa diminuzione dell’area superficiale e della porosità. B. Caratteristiche Chimiche. L’analisi di dispersione metallica, tramite il chemiassorbimento di H2, mostra per i catalizzatori impregnati con Pt nanoparticellare, una bassa dispersione metallica e di conseguenza elevate dimensioni delle particelle di Pt. I campioni impregnati con Pt(NH3)2(NO2)2 presentano una migliore dispersione. Infine dalle analisi TPR-O si è osservato che: Maggiore è la dispersione del metallo nobile maggiore è la sua interazione con il supporto, L’aumento della temperatura di riduzione del PtOx è proporzionale alla quantità dei metalli alcalino terrosi, C. Precursore Metallo Nobile. Nelle prove di attività catalitica, con cicli ossidanti e riducenti continui in presenza ed in assenza di CO2, i catalizzatori con Pt nanoparticellare mostrano una minore attività catalitica, specie in presenza di un competitore come la CO2. Al contrario i catalizzatori ottenuti per impregnazione con la soluzione acquosa di Pt(NH3)2(NO2)2 presentano un’ottima attività catalitica, stabile nel tempo, e sono meno influenzabili dalla presenza di CO2. D. Resistenza all’avvelenamento da SO2. Il catalizzatore di riferimento, 17Ba1Pt/γAl2O3, mostra un effetto di avvelenamento con formazione di solfati più stabili che sul sistema Ba-Mg; difatti il campione non recupera i valori iniziali di attività se non dopo molti cicli di rigenerazione e temperature superiori ai 300°C. Per questi catalizzatori l’avvelenamento da SO2 sembra essere di tipo reversibile, anche se a temperature e condizioni più favorevoli per il 1.5Mg8.5Ba-1Pt/γAl2O3. E. Capacità di Accumulo e Rigenerabilità. Tramite questo tipo di prova è stato possibile ipotizzare e verificare il meccanismo della riduzione. I catalizzatori ottenuti per impregnazione con la soluzione acquosa di Pt(NH3)2(NO2)2 hanno mostrato un’elevata capacità di accumulo. Questa è maggiore per il campione bimetallico (Ba-Mg) a T < 300°C, mentre per il riferimento è maggiore per T > 300°C. Per ambedue i catalizzatori è evidente la formazione di ammoniaca, che potrebbe essere utilizzata come un indice che la riduzione dei nitrati accumulati è arrivata al termine e che il tempo ottimale per la riduzione è stato raggiunto o superato. Per evitare la formazione di NH3, sul catalizzatore di riferimento, è stata variata la concentrazione del riducente e la temperatura in modo da permettere alle specie adsorbite sulla superficie e nel bulk di poter raggiungere il Pt prima che l’ambiente diventi troppo riducente e quindi meno selettivo. La presenza di CO2 riduce fortemente la formazione di NH3; probabilmente perché la CO2, occupando i siti degli elementi alcalino-terrosi lontani dal Pt, impedisce ai nitriti/nitrati o all’H2 attivato di percorrere “elevate” distanze prima di reagire, aumentando così le possibilità di una riduzione più breve e più selettiva. F. Tempo di Riduzione. Si è migliorata la comprensione del ruolo svolto dalla concentrazione dell’agente riducente e dell’effetto della durata della fase riducente. Una durata troppo breve porta, nel lungo periodo, alla saturazione dei siti attivi, un eccesso alla formazione di NH3 Attraverso queste ultime prove è stato possibile formulare un meccanismo di reazione, in particolare della fase riducente. G. Meccanismo di Riduzione. La mobilità dei reagenti, nitriti/nitrati o H2 attivato è un elemento fondamentale nel meccanismo della riduzione. La vicinanza tra i siti di accumulo e quelli redox è determinante per il tipo di prodotti che si possono ottenere. La diminuzione della concentrazione del riducente o l’aumento della temperatura concede maggiore tempo o energia alle specie adsorbite sulla superficie o nel bulk per migrare e reagire prima che l’ambiente diventi troppo riducente e quindi meno selettivo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo sviluppo locale rappresenta, non solo per gli economisti, un tema di analisi sempre più rilevante sia al livello istituzionale che al livello scientifico. La complessità degli aspetti inerenti lo sviluppo locale richiede il coinvolgimento di diverse discipline, in ambito economico, politico, sociale e ambientale e di tutti i livelli istituzionali. Parallelamente è cresciuta l’esigenza di processi valutativi coerenti e sistematici, basati su di un numero sempre maggiore di strumenti e metodologie di valutazione. Dall’orientamento della Commissione Europea emerge del resto con sempre maggiore evidenza il binomio fra politica di sviluppo locale e valutazione, che coinvolge i diversi livelli di governo. Il presente lavoro realizza un quadro delle politiche di sviluppo locale, partendo dal livello europeo fino ad arrivare al livello locale, ed una successiva analisi di metodologie e strumenti di valutazione consolidati e di frontiera. La considerazione della valutazione come strumento strategico per le politiche di sviluppo locale trova applicazione nella realizzazione di una analisi comparativa di due aree di montagna. Tali aree, identificate nell’Appennino Bolognese e nell’area montana della Contea di Brasov in Romania, pur collocate in paesi a diverso livello di sviluppo, risultano confrontabili, in termini di similitudini e criticità, al fine di trarre considerazioni di policy inerenti il disegno di adeguate politiche di riqualificazione, mettendo in luce l’importanza del processo valutativo e la necessità di contribuire a diffondere una vera e propria cultura della valutazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A far data dalla pubblicazione di un importante ed illustre contributo scientifico (GIORGIANNI, voce Causa (dir. priv.), in Enc. dir., VI, Milano, 1960), e dalla proposta, in esso contenuta, di restituire spazio a fattispecie attributive di diritti giustificate, sotto il profilo causale, dal solo riferimento espresso al rapporto fondamentale che ne costituisca fondamento (le c.d. ), un serrato dibattito ha visto contrapporsi nel tempo fautori di soluzioni possibiliste e sostenitori di una più uniforme descrizione del sistema della circolazione dei diritti e dei rimedi connessi alla mancanza di causa negli atti di disposizione, per quanto avulsi dal contratto cui essi intendano dare compiuta attuazione. La ricerca ha cercato di dimostrare, attraverso una compiuta analisi di ciò che la formula expressio causae davvero significhi, come la presenza o assenza di questa non sia in grado di giustificare un effetto tanto pregnante come la sottrazione della vicenda traslativa alle conseguenze derivanti dalla mancanza di causa, per tale intendendosi il rapporto fondamentale che ne costituisce l’antecedente logico. Allo scrivente è parso che il vero nodo teorico da sciogliere non sia costituito dal concetto di causa che questi Autori assumono a fondamento, quanto piuttosto da una impropria valutazione dell’expressio causae. Tale valutazione conduce ad attribuire al momento ricognitivo, di cui l’enunciazione della causa consiste, una valenza sostanzialmente astratta che non si rinviene nemmeno nelle più estreme ricostruzioni delle fattispecie contemplate all’art. 1988 c.c. e che, in materia di accertamento negoziale, è senza eccezioni rifiutata. Ciò che sembra decisivo, infatti, è che la natura dell'expressio causae, in primo luogo ricognitiva del rapporto cui si dà esecuzione, ben lungi dal rappresentare elemento sufficiente per una autonoma considerazione della causa dell'atto (sussistente) e della causa dell'attribuzione (la cui conservazione è decisa dalle sorti del Rechtsgrund), non pare idonea a suffragare – seppur in via provvisoria, ma con una divergente considerazione dell’avente causa rispetto ai terzi ulteriori acquirenti – una soluzione compiutamente esaustiva del problema della giustificazione dell'effetto, rimandando a modelli – quello della dichiarazione di scienza, innanzitutto – rispetto ai quali una astrazione più che processuale sembra del tutto preclusa, anche per considerazioni storiche che si è cercato di descrivere. Del resto, l’analisi delle ipotesi in cui la ricognizione di un rapporto fondamentale, o la promessa di quanto già dovuto in forza di un rapporto fondamentale (art. 1988 c.c.) mostra come, indipendentemente dalla soluzione che si ritenga pertinente circa la natura di tali figure (meramente dichiarativa del vincolo o addirittura costitutiva), un effetto di astrazione materiale, per quanto relativa, è da escludersi. Trasposta nell’ambito delle prestazioni isolate, questa consapevolezza significa impossibilità di rendere invece materialmente astratta l’attribuzione (efficace immediatamente, e solo soggetta ad essere da un atto di segno contrario dall’avente causa al dante causa, oggetto di una pretesa giudiziale personale). La dichiarazione del rapporto fondamentale, che è intimamente connessa ed insopprimibile in ogni fenomeno di imputazione soggettiva (si deve infatti enunciare ciò cui si dà esecuzione), appare sicuramente sussumibile nello schema della dichiarazione di scienza, nell’effetto in senso lato ricognitivo. Ritenere che essa possa di fatto rendere irrilevante, ai fini della conservazione dell’efficacia della prestazione isolata cui si collega, la reale situazione del rapporto fondamentale (in ipotesi mai esistito, o successivamente venuto meno) significa introdurre surrettiziamente una ipotesi di riconoscimento costitutivo e astratto. Ma tale ultima soluzione non può trovare spazio in alcuna delle opzioni interpretative proposte in materia di riconoscimento e, nemmeno, in quella più estrema che ravvisa nel riconoscimento del debito titolato una forma di accertamento unilaterale. In conclusione, la dottrina delle prestazioni isolate nel fare dell’expressio causae l’elemento capace di decidere in via definitiva del verificarsi dell’effetto traslativo – effetto che va, giova ripeterlo, solo rimosso con un atto uguale e contrario assolutamente diverso da quanto nel nostro sistema appare essere, oggi, la ripetizione di indebito – determina una supervalutazione del momento ricognitivo, insito in ogni fenomeno di imputazione/esecuzione. Detto esito costituisce non tanto la recezione del Trennungsprinzip vigente in Germania, ammissibile nella misura in cui si reputi dispositiva la norma di cui all’art. 1376 c.c., quanto piuttosto la silenziosa riproposizione del modello della Schuldanerkenntnis (§781 B.G.B.), la cui totale estraneità rispetto alla tradizione giuridica delle codificazioni franco-italiane (Code civil, c.c. del 1865, c.c. del 1942) si crede di avere sufficientemente dimostrato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il carcinoma polmonare rappresenta un problema socio-sanitario di grande rilievo, essendo la prima causa di morte per neoplasia. Il carcinoma polmonare non a piccole cellule (non small cell lung cancer - NSCLC) rappresenta la variante istologica più frequente (80% dei casi di tumore polmonare). Al momento della diagnosi circa il 60-70% dei pazienti presenta una malattia in stadio avanzato o metastatico non essendo suscettibile di trattamento chirurgico. Per questi pazienti il trattamento chemioterapico determina un prolungamento della sopravvivenza e un miglioramento della qualità  della vita rispetto alla sola terapia di supporto, identificandosi come standard terapeutico. L'individuazione del migliore trattamento chemioterapico per questo subset di pazienti rappresenta pertanto una delle principali sfide della ricerca oncologica. I regimi polichemioterapici si possono dividere schematicamente in tre generazioni in relazione all'introduzione nel corso degli anni di nuovi agenti chemioterapici. Con l'avvento dei regimi di terza generazione, il trattamento del NSCLC avanzato sembra aver raggiunto un plateau, mancando infatti chiare dimostrazioni di superiorità  di un regime di ultima generazione rispetto ad un altro. Tra questi l'associazione cisplatino e gemcitabina rappresenta uno dei regimi standard più utilizzati in considerazione del suo favorevole rapporto costo-beneficio. Al fine di migliorare i risultati del trattamento chemioterapico in termini di attività  ed efficacia, una possibilità  consiste nell'individuazione di parametri predittivi che ci consentano di identificare il miglior trattamento per il singolo paziente. Tra i vari parametri predittivi valutabili, un crescente interesse è stato rivolto a quelli di carattere genetico, anche grazie all'avvento di nuove tecniche di biologia molecolare e al sequenziamento del genoma umano che ha dato nuovo impulso a studi di farmacogenetica e farmacogenomica. Sulla base di queste considerazioni, in questa tesi è stato effettuato uno studio mirato a valutare l'espressione di determinanti molecolari coinvolti nel meccanismo di azione di gemcitabina e cisplatino in pazienti affetti dai due tipi istologici principali di NSCLC, adenocarcinomi e carcinomi squamocellulari. Lo studio dei livelli di espressione genica è stata effettuata in tessuti di 69 pazienti affetti da NSCLC arruolati presso l'Istituto Europeo di Oncologia di Milano. In particolare, mediante Real Time PCR è stata valutata l'espressione genica di ERCC1, hENT1, dCK, 5'-NT, CDA, RRM1 e RRM2 in 85 campioni isolati con microdissezione da biopsie provenienti dai tessuti polmonari normali o tumorali o dalle metastasi linfonodali. Le analisi di questi tessuti hanno mostrato differenze significative per i pattern di espressione genica di diversi determinanti molecolari potenzialmente utile nel predire l'efficacia di gemcitabina/cisplatino e per personalizzare i trattamenti in pazienti affetti da cancro. In conclusione, l'evoluzione delle tecniche di biologia molecolare promossa dagli studi di farmacogenetica racchiude in sè notevoli potenzialità  per quanto concerne l'ideazione di nuovi protocolli terapeutici. Identificando le caratteristiche genotipiche e i livelli di espressione geniche di determinanti molecolari implicati nella risposta ai farmaci potremmo infatti predisporre delle mappe di chemiosensibilità-chemioresistenza per ciascun paziente, nell'ottica di approntare di volta in volta le più appropriate terapie antitumorali in base alle caratteristiche genetiche del paziente e della sua patologia neoplastica.