837 resultados para 616.5 Malattie del tegumento, dei peli, delle unghie


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi di dottorato focalizza su quei fenomeni nei quali è particolarmente visibile una diffusa propensione all’assunzione di responsabilità nei confronti del significato e delle conseguenze del proprio agire di mercato. La tesi esamina le implicazioni connesse ad una nuova etica del consumo sia dal punto di vista del consumatore sia da quello dell’impresa, in particolare indaga l’atteggiamento di consumatori e produttori rispetto a pratiche di responsabilità sociale di impresa. Nel primo capitolo “Dimensioni di un consumo in evoluzione” le griglie concettuali interpretative del fenomeno del consumo vengono distinte da quelle peculiari del sistema produttivo, arrivando all’individuazione di strumenti che svelano le logiche proprie del fenomeno indagato. In questo scenario la società complessa corrisponde alla società dei consumi e il consumo diventa area esperienziale, capace anche di creare senso, orizzonti valoriali e di assumere valenze interattive e simboliche. Nel secondo capitolo “Il cittadino consumatore” è stato rappresentato il variegato mondo del consumatore, quel cittadino che si esprime politicamente non solo con il voto ma anche attraverso le proprie pratiche di consumo che veicolano scelte, ideali, valori. Sono rappresentati i tanti volti del consumatore “responsabile”, “critico” ed “etico”, attraverso lo studio del commercio equo e solidale, i Gas, la finanza etica, tutti significativi segnali di mutamento con cui governi e imprese sono chiamati a confrontarsi. Vengono prese in esame ricerche nazionali e internazionali per meglio comprendere quanto e con quali modalità sono diffuse, nella popolazione, pratiche di consumo responsabile rispetto a ben identificate pratiche di Rsi. Nel terzo capitolo “La Responsabilità Sociale d’Impresa” si approfondisce il concetto di responsabilità sociale di impresa: sono illustrate le evoluzioni che questa prassi ha subito nel corso della storia, le sue differenti declinazioni attuali, gli elementi che la distinguono, i suoi strumenti. Nel quarto capitolo “La responsabilità sociale di impresa e la grande distribuzione” vengono analizzate le relazioni esistenti tra la grande distribuzione (Coop e Conad) e la Rsi, considerando anche il ruolo della grande distribuzione, nella metropoli, nelle scelte di consumo. Nello specifico si vogliono comprendere le strategie aziendali, la struttura organizzativa, i servizi, i prodotti “etici” distribuiti e la loro relazione con il consumatore. Il quinto capitolo “La ricerca” contiene la ricerca empirica, 60 interviste in profondità somministrate a consumatori di Coop e Conad e a elementi rappresentativi (dirigenti) delle aziende in questione; l’elaborazione dei dati avviene con l’analisi di contenuto attraverso la costruzione di frasi chiave. Le conclusioni finali a cui perveniamo cercano di fare luce sul mondo del consumo e su quello dell’impresa nel momento in cui si confrontano con la responsabilità del proprio agire. Emergono diversi elementi per sostenere che la cultura della responsabilità assume un peso tutt’altro che marginale nelle strategie di azione delle imprese e nell’analisi del comportamento dei consumatori. Il sistema impresa assume la responsabilità come elemento qualificante la propria politica industriale, legandolo alla sostenibilità, alla reputazione, al rapporto fiduciario con il cliente. Analizzando il ruolo dei cittadini consumatori nello spazio di riferimento, nell’impegno e nel tentativo di decidere, attraverso determinati consumi, il modo di vivere il proprio territorio, abbiamo forse compreso qualcosa in più. Si veicola attraverso le scelte di consumo un’idea di vivere la città per cui è imprescindibile la qualità della vita, perseguita anche attraverso l’approvazione o, di converso, il disconoscimento delle imprese e dei rispettivi prodotti. Nell’analisi dell’atteggiamento partecipativo del cittadino verso la propria sfera pubblica possiamo sostenere che la dimensione del consumo tracima di gran lunga il mercato prefigurando un differente modello di società.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisi in chiave economica e sociale dell'evoluzione di Internet, delle tecnologie legate al Web 2.0, dei fenomeni della pirateria, del software libero ed open source, del copyleft, dei contenuti aperti e della produzione tra pari. Introduzione dei concetti di economia del gratis ("freeconomics") e di coda lunga. Consigli manageriali pratici per i nuovi mercati digitali e per la competizione nella rete Internet.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato di tesi sviluppato ha come obiettivo l'ottimizzazione della Supply Chian di contesti manufatturieri con particolare attenzione alle procedure di approvvigionamento dei materiali e al problema dei materiali "mancanti" in produzione.Viene esposto il risultato di un’attività di analisi di due casi reali per l’ottimizzazione dell'impatto logistico del problema dell'alimentazione di sistemi di fabbricazione e montaggio. Lo studio è stato affrontato definendo un approccio basato su una duplice analisi del processo, top-down e bottom-up. Le due analisi condotte hanno permesso di procedere alla mappatura dell’intero processo end to end (che inizia con le richieste del cliente e termina con la consegna dei prodotti allo stesso) e di individuare le criticità in esso presenti, sulla base delle quali sono state fornite una serie di linee guida per la risoluzione del problema dei mancanti. I risultati ottenuti hanno evidenziato che l’ottimizzazione dell’area di pianificazione permette di migliorare la qualità dei dati in ingresso all’intero processo con conseguente diminuzione del numero di materiali mancanti. Tuttavia, la trasversalità dell’argomento ai processi aziendali impedisce la definizione di un approccio al problema focalizzato su un’area specifica. Infine, è stata eseguita una bozza di valutazione economica per la stima dei tempi di recupero degli investimenti necessari.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Oggetto della ricerca sono l’esame e la valutazione dei limiti posti all’autonomia privata dal divieto di abuso della posizione dominante, come sancito, in materia di tutela della concorrenza, dall’art. 3 della legge 10 ottobre 1990, n. 287, a sua volta modellato sull’art. 82 del Trattato CE. Preliminarmente, si è ritenuto opportuno svolgere la ricognizione degli interessi tutelati dal diritto della concorrenza, onde individuare la cerchia dei soggetti legittimati ad avvalersi dell’apparato di rimedi civilistici – invero scarno e necessitante di integrazione in via interpretativa – contemplato dall’art. 33 della legge n. 287/1990. È così emerso come l’odierno diritto della concorrenza, basato su un modello di workable competition, non possa ritenersi sorretto da ragioni corporative di tutela dei soli imprenditori concorrenti, investendo direttamente – e rivestendo di rilevanza giuridica – le situazioni soggettive di coloro che operano sul mercato, indipendentemente da qualificazioni formali. In tal senso, sono stati esaminati i caratteri fondamentali dell’istituto dell’abuso di posizione dominante, come delineatisi nella prassi applicativa non solo degli organi nazionali, ma anche di quelli comunitari. Ed invero, un aspetto importante che caratterizza la disciplina italiana dell’abuso di posizione dominante e della concorrenza in generale, distinguendola dalle normative di altri sistemi giuridici prossimi al nostro, è costituito dal vincolo di dipendenza dal diritto comunitario, sancito dall’art. 1, quarto comma, della legge n. 287/1990, idoneo a determinare peculiari riflessi anche sul piano dell’applicazione civilistica dell’istituto. La ricerca si è quindi spostata sulla figura generale del divieto di abuso del diritto, onde vagliarne i possibili rapporti con l’istituto in esame. A tal proposito, si è tentato di individuare, per quanto possibile, i tratti essenziali della figura dell’abuso del diritto relativamente all’esercizio dell’autonomia privata in ambito negoziale, con particolare riferimento all’evoluzione del pensiero della dottrina e ai più recenti orientamenti giurisprudenziali sul tema, che hanno valorizzato il ruolo della buona fede intesa in senso oggettivo. Particolarmente interessante è parsa la possibilità di estendere i confini della figura dell’abuso del diritto sì da ricomprendere anche l’esercizio di prerogative individuali diverse dai diritti soggettivi. Da tale estensione potrebbero infatti discendere interessanti ripercussioni per la tutela dei soggetti deboli nel contesto dei rapporti d’impresa, intendendosi per tali tanto i rapporti tra imprenditori in posizione paritaria o asimmetrica, quanto i rapporti tra imprenditori e consumatori. È stato inoltre preso in considerazione l’aspetto dei rimedi avverso le condotte abusive, alla luce dei moderni contributi sull’eccezione di dolo generale, sulla tutela risarcitoria e sull’invalidità negoziale, con i quali è opportuno confrontarsi qualora si intenda cercare di colmare – come sembra opportuno – i vuoti di disciplina della tutela civilistica avverso l’abuso di posizione dominante. Stante l’evidente contiguità con la figura in esame, si è poi provveduto ad esaminare, per quanto sinteticamente, il divieto di abuso di dipendenza economica, il quale si delinea come figura ibrida, a metà strada tra il diritto dei contratti e quello della concorrenza. Tale fattispecie, pur inserita in una legge volta a disciplinare il settore della subfornitura industriale (art. 9, legge 18 giugno 1998, n. 192), ha suscitato un vasto interessamento della dottrina. Si sono infatti levate diverse voci favorevoli a riconoscere la portata applicativa generale del divieto, quale principio di giustizia contrattuale valevole per tutti i rapporti tra imprenditori. Nel tentativo di verificare tale assunto, si è cercato di individuare la ratio sottesa all’art. 9 della legge n. 192/1998, anche in considerazione dei suoi rapporti con il divieto di abuso di posizione dominante. Su tale aspetto è d’altronde appositamente intervenuto il legislatore con la legge 5 marzo 2001, n. 57, riconoscendo la competenza dell’Autorità garante per la concorrenza ed il mercato a provvedere, anche d’ufficio, sugli abusi di dipendenza economica con rilevanza concorrenziale. Si possono così prospettare due fattispecie normative di abusi di dipendenza economica, quella con effetti circoscritti al singolo rapporto interimprenditoriale, la cui disciplina è rimessa al diritto civile, e quella con effetti negativi per il mercato, soggetta anche – ma non solo – alle regole del diritto antitrust; tracciare una netta linea di demarcazione tra i reciproci ambiti non appare comunque agevole. Sono stati inoltre dedicati brevi cenni ai rimedi avverso le condotte di abuso di dipendenza economica, i quali involgono problematiche non dissimili a quelle che si delineano per il divieto di abuso di posizione dominante. Poste tali basi, la ricerca è proseguita con la ricognizione dei rimedi civilistici esperibili contro gli abusi di posizione dominante. Anzitutto, è stato preso in considerazione il rimedio del risarcimento dei danni, partendo dall’individuazione della fonte della responsabilità dell’abutente e vagliando criticamente le diverse ipotesi proposte in dottrina, anche con riferimento alle recenti elaborazioni in tema di obblighi di protezione. È stata altresì vagliata l’ammissibilità di una visione unitaria degli illeciti in questione, quali fattispecie plurioffensive e indipendenti dalla qualifica formale del soggetto leso, sia esso imprenditore concorrente, distributore o intermediario – o meglio, in generale, imprenditore complementare – oppure consumatore. L’individuazione della disciplina applicabile alle azioni risarcitorie sembra comunque dipendere in ampia misura dalla risposta al quesito preliminare sulla natura – extracontrattuale, precontrattuale ovvero contrattuale – della responsabilità conseguente alla violazione del divieto. Pur non sembrando prospettabili soluzioni di carattere universale, sono apparsi meritevoli di approfondimento i seguenti profili: quanto all’individuazione dei soggetti legittimati, il problema della traslazione del danno, o passing-on; quanto al nesso causale, il criterio da utilizzare per il relativo accertamento, l’ammissibilità di prove presuntive e l’efficacia dei provvedimenti amministrativi sanzionatori; quanto all’elemento soggettivo, la possibilità di applicare analogicamente l’art. 2600 c.c. e gli aspetti collegati alla colpa per inosservanza di norme di condotta; quanto ai danni risarcibili, i criteri di accertamento e di prova del pregiudizio; infine, quanto al termine di prescrizione, la possibilità di qualificare il danno da illecito antitrust quale danno “lungolatente”, con le relative conseguenze sull’individuazione del dies a quo di decorrenza del termine prescrizionale. In secondo luogo, è stata esaminata la questione della sorte dei contratti posti in essere in violazione del divieto di abuso di posizione dominante. In particolare, ci si è interrogati sulla possibilità di configurare – in assenza di indicazioni normative – la nullità “virtuale” di detti contratti, anche a fronte della recente conferma giunta dalla Suprema Corte circa la distinzione tra regole di comportamento e regole di validità del contratto. È stata inoltre esaminata – e valutata in senso negativo – la possibilità di qualificare la nullità in parola quale nullità “di protezione”, con una ricognizione, per quanto sintetica, dei principali aspetti attinenti alla legittimazione ad agire, alla rilevabilità d’ufficio e all’estensione dell’invalidità. Sono poi state dedicate alcune considerazioni alla nota questione della sorte dei contratti posti “a valle” di condotte abusive, per i quali non sembra agevole configurare declaratorie di nullità, mentre appare prospettabile – e, anzi, preferibile – il ricorso alla tutela risarcitoria. Da ultimo, non si è trascurata la valutazione dell’esperibilità, avverso le condotte di abuso di posizione dominante, di azioni diverse da quelle di nullità e risarcimento, le sole espressamente contemplate dall’art. 33, secondo comma, della legge n. 287/1990. Segnatamente, l’attenzione si è concentrata sulla possibilità di imporre a carico dell’impresa in posizione dominante un obbligo a contrarre a condizioni eque e non discriminatorie. L’importanza del tema è attestata non solo dalla discordanza delle pronunce giurisprudenziali, peraltro numericamente scarse, ma anche dal vasto dibattito dottrinale da tempo sviluppatosi, che investe tuttora taluni aspetti salienti del diritto delle obbligazioni e della tutela apprestata dall’ordinamento alla libertà di iniziativa economica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente Tesi di Laurea Specialistica considera, partendo da un'analisi della normativa vigente e delle procedure aziendali interne, il Sistema di Gestione Integrato Qualità  Sicurezza Ambiente (SGI QSA) di HERA SpA con particolare attenzione alle tematiche relative alla Prevenzione e Protezione sul luogo di lavoro in riferimento al Testo Unico sulla sicurezza (D.Lgs 81/2008) . Nello specifico, l'elaborato si basa sull'esperienza maturata durante cinque mesi di stage effettuati presso l'ufficio "Servizio Prevenzione e Protezione" della Struttura Operativa Territoriale (SOT) Bologna. Durante la mia permanenza in HERA SpA, ho avuto modo di osservare e prendere parte alle attività  quotidianamente svolte sia in ufficio che presso gli impianti dislocati nel territorio della provincia di Bologna con particolare riguardo alla raccolta, gestione e fruibilità  dei dai inerenti la sicurezza dei luoghi di lavoro. Nell'ambito dello stage, ho avuto anche la possibilità , estremamente formativa, di prendere visione dei processi, delle tecnologie e delle modalità  operative sottostanti l'erogazione di servizi da parte di una Multiutility; acquisire consapevolezza e know how in merito alle energie messe in campo per effettuare attività  quali la raccolta e lo smaltimento di rifiuti piuttosto che rendere disponibile alle utenze la fornitura di acqua e gas. Ritengo che questo possa darmi un valore aggiunto sia da un punto di vista professionale che da un punto di vista umano. Scopo primario di questa trattazione è effettuare l'istantanea di un'azienda complessa e in rapida evoluzione come HERA a partire della Salute e Sicurezza dei Lavoratori con l'obiettivo di indicare le attività  eseguite durante lo stage e il contributo fornito allo sviluppo e al mantenimento del SGS (Sistema di Gestione per la Salute e la sicurezza). Per meglio evidenziare la diversa natura delle informazioni riportate, l'elaborato risulta diviso in due parti fondamentali: La I PARTE riguarda lo studio della normativa che regola il settore con particolare riferimento al TUSL Testo Unico per la Sicurezza sui Luoghi di Lavoro (norma vigente in Italia) e allo standard britannico OHSAS 18001 a cui possono fare riferimento le organizzazioni che intendono certificare il proprio sistema di gestione in materia di sicurezza. In seguito si andranno ad analizzare le norme ISO 9001e ISO14001 che riguardano rispettivamente la possibilità  di certificare il proprio sistema di gestione in merito a Qualità  del servizio e tutela dell'Ambiente. Infine saranno proposte alcune riflessioni riguardanti la necessità  di sviluppare un sistema di gestione integrato e certificato che permetta di avere una visione unitaria di Qualità  Sicurezza e Ambiente. Nella II PARTE si entrerà  nel merito delle attività  svolte dall'ufficio Prevenzione e Protezione: a partire dalle procedure aziendali che fungono da punto di contatto fra gli obblighi normativi e la necessità  di regolare l'operatività  dei lavoratori, saranno descritte le mansioni che mi sono state affidate e le attività  svolte durante lo stage.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Molecular profiling of Peripheral T-cell lymphomas not otherwise specified Peripheral T-cell lymphomas (PTCLs) are a heterogeneous group of tumors that the WHO classification basically subdivides into specified and not otherwise specified (NOS). In Western countries, they represent around 12% of all non-Hodgkin's lymphomas. In particular, PTCL/NOS is the commonest subtype, corresponding to about 60-70% of all T-cell lymphomas. However, it remains a complex entity showing great variety regarding either morphology, immunophenotype or clinical behavior. Specially, the molecular pathology of these tumors is still poorly known. In fact, many alteration were found, but no single genes were demonstrated to have a pathogenetic role. Recently, gene expression profiling (GEP) allowed the identification of PTCL/NOS-associated molecular signatures, leading to better understanding of their histogenesis, pathogenesis and prognostication. Interestingly, proliferation pathways are commonly altered in PTCLs, being highly proliferative cases characterized by poorer prognosis. In this study, we aimed to investigate the possible role in PTCL/NOS pathogenesis of selected molecules, known to be relevant for proliferation control. In particular, we analyzed the cell cycle regulators PTEN and CDKN1B/p27, the NF-kB pathway, and the tyrosin kinase PDGFR. First, we found that PTEN and p27 seem to be regulated in PTCL/NOS as in normal T-lymphocytes, as to what expression and cellular localization are concerned, and do not present structural abnormalities in the vast majority of PTCL/NOS. Secondly, NF-kB pathway appeared to be variably activated in PTCL/NOS. In particular, according to NF-kB gene expression levels, the tumors could be divided into two clusters (C1 and C2). Specially, C1 corresponded to cases presenting with a global down-regulation of the entire pathway, while C2 showed over-expression of genes involved in TNF signaling. Notably, by immunohistochemistry, we showed that either the canonical or the alternative NK-kB pathway were activated in around 40% of cases. Finally, we found PGDFRA to be consistently over-expressed (at mRNA and protein level) and activated in almost all PTCLs/NOS. Noteworthy, when investigating possible causes for PDGFRA deregulation, we had evidences that PDGFR over-expression is due to the absence of miR-152, which appeared to be responsible for PDGFRA silencing in normal T-cells. Furthermore, we could demonstrate that its aberrant activation is sustained by an autocrine loop. Importantly, this is the first case, to the best of our knowledge, of hematological tumor in which tyrosin kinase aberrant activity is determined by deregulated miRNA expression and autocrine loop activation. Taken together, our results provide novel insight in PTCL/NOS pathogenesis by opening new intriguing scenarios for innovative therapeutic interventions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’analisi condotta sulle condizioni geo-morfologiche dell’intera regione abruzzese e in particolare della città de L’Aquila ha evidenziato l’importanza del contesto paesaggistico territoriale che non può che essere assunto come riferimento progettuale per rinnovare il rapporto tra uomo e natura, soprattutto in una realtà come quella aquilana dove sono il paesaggio naturale e la struttura morfologica che permangono come fattori costanti nel tempo, nonostante le trasformazioni attuate dalla società o dagli eventi sismici che da sempre caratterizzano la storia della città e che rappresentano quindi due elementi in grado di restituire l’identità stessa della popolazione. Questa caratteristica rappresenta il pretesto per un approfondimento sul paesaggio dal punto di vista percettivo: è infatti l’uomo che nel corso dei secoli modifica fortemente il proprio territorio e la percezione che ha di esso. L’obiettivo di tale studio è quello di riuscire a cogliere, in fase progettuale, l’essenza del luogo, il carattere peculiare delle diverse suggestioni che i cittadini aquilani potranno riaffermare come parte della propria identità. Considerate tali premesse, il progetto propone il disegno di un nuovo parco urbano collocato entro le mura lungo l’intera lunghezza dell’area oggetto di studio; l’obiettivo è quello di collegare i poli verdi preesistenti del Parco del Castello e del Parco del Sole e contemporaneamente di ridefinire il lacerato rapporto tra centro storico e prima periferia eleggendo il verde ad elemento capace di una relazione attiva con il contesto urbano, con la possibilità di contribuire alla coesione sociale, alla sensibilizzazione ai temi ambientali e al miglioramento dell’offerta dei luoghi di ritrovo. Il nuovo parco ospiterà architetture legate alla musica e al teatro, temi da sempre di notevole importanza per la città, come testimoniano le numerose strutture che prima dell’evento tellurico arricchivano il patrimonio culturale della città. Per evitare che funzioni di così notevole importanza per la città corrano il rischio di essere progressivamente relegate verso la periferia ed i centri minori, il progetto propone di integrare all’interno del nuovo parco una serie di attività quali laboratori teatrali e foresterie per attori, centro ricreativo, biblioteca e sala espositiva, conservatorio, attività commerciali e residenze, disposti secondo una successione lineare da nord a sud. Tale intervento sarà integrato dalla realizzazione di un complesso di residenze,costituito da tre corpi lineari disposti secondo il naturale declivio del terreno, lungo l’asse est-ovest, in corrispondenza del prolungamento dei tracciati storici secondari. Si viene a creare, quindi una sorta di struttura a pettine, nella quale le aree verdi adibite ad orti e gli spazi costruiti si compenetrano definendo un vero e proprio filtro tra città storica e quella suburbana. La disposizione dei diversi edifici e la presenza in ognuno di essi di uno spazio pubblico esterno, sono pensati in modo tale da creare una successione di spazi collettivi, suggerita in risposta all’assenza di attrezzature pubbliche all’interno del quartiere preesistente. Il progetto prevede, infatti di dare maggiore spazio alle attività pubbliche, investendo sulla realizzazione di luoghi e di spazi per l’incontro e la collettività, che rappresentano un necessità primaria per ogni città ed in particolare per L’Aquila post sisma. Contestualmente al parco che costituisce una sorta di asse verde sviluppato in direzione nord-sud, il progetto si estende anche in direzione perpendicolare, lungo la direttrice est-ovest, attraverso la riqualificazione dell’asse storico di via San Bernardino, cercando di restituire ad esso ed alla monumentale scalinata omonima la valenza storica progressivamente perduta nel corso degli anni. Pertanto, il progetto prevede la ridefinizione di entrambi i lati della scalinata oggi abbandonati al verde incolto ed in particolare la realizzazione, lungo il lato orientale, di un nuovo polo culturale, costituito da una biblioteca ed una sala espositiva. Il nuovo edificio, assume un ruolo cardine all’interno del progetto, rappresentando uno dei punti di collegamento tra città storica e verde pubblico. Il complesso nasce dall’incontro di cinque elementi lineari disposti in modo tale da assecondare il naturale dislivello del terreno e da consentire la realizzazione di due ampi spazi pubblici: uno verde, pensato come prolungamento del parco, sul quale si affaccia l’ampia sala di lettura della biblioteca ed uno pavimentato, ai piedi della scalinata, delimitato da un portico a doppia altezza. Il nuovo edificio, consente inoltre di creare un belvedere dal parco verso la città storica, evocando una suggestione cara agli abitanti della città.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi è stato realizzato al fine di valutare la distribuzione geografica ed i livelli ambientali di concentrazione per una serie di metalli (Cr, Cu, Ni, Zn, Mn, Co, V, Ba, Pb, Sr e Hg) presenti all’interno dei sedimenti della laguna costiera Pialassa Baiona, situata nei pressi del porto e dell’area industriale di Ravenna. L’area di studio considerata rappresenta un esempio di ambiente di transizione, dove i fattori fisici e chimici variano su scala spaziale e temporale e dove le attività antropiche, recenti e non, hanno provocato impatti significativi sullo stato di qualità dei sedimenti, delle acque e degli ecosistemi. Lo studio è stato progettato seguendo un disegno di campionamento ortogonale, che tiene conto del gradiente naturale terra-mare, tipico delle zone di transizione, e del gradiente antropico, legato alla vicinanza con l’area industriale. Sulla base di questo disegno sono state campionate 4 aree differenti e per ciascuna area sono stati scelti casualmente tre siti. La caratterizzazione dei sedimenti dal punto di vista chimico è stata effettuata determinando la frazione labile e quindi più biodisponibile dei metalli, oggetto del presente studio, per mezzo di una tecnica di estrazione parziale con HCl 1 M. Le concentrazioni biodisponibili ottenute sono state poi confrontate con il contenuto totale dei metalli, determinato mediante digestione totale al micronde. I sedimenti sono stati inoltre caratterizzati dal punto di vista granulometrico e del contenuto in sostanza organica (Loss on Ignition, LOI%). I risultati ottenuti dalle analisi chimiche sono stati confrontati con i valori tipi di fondo naturale del Mar Adriatico e con i valori guida di riferimento nazionale (SQA-MA) ed internazionale (ERL, ERM, TEL e PEL), al fine di valutare lo stato di qualità dei sedimenti della Baiona e di effettuare uno screening per individuare eventuali situazioni di rischio per gli organismi bentonici. I risultati ottenuti sono stati poi elaborati statisticamente con un analisi della varianza (ANOVA) con lo scopo di valutare la variabilità spaziale dei metalli nei campioni analizzati e la presenza di eventuali differenze significative.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con il presente lavoro, che ha ad oggetto l’istituto dello scioglimento anticipato delle Camere nell’ordinamento costituzionale italiano, il candidato si propone tre obiettivi. Il primo è quello della ricostruzione dogmatica dell’istituto che sconta inevitabilmente un grosso debito nei confronti della vasta letteratura giuridica che si è sviluppata nel corso dei decenni. Il secondo obiettivo è quello, ben più originale, dell’indagine sulla prassi che ha contraddistinto il ricorso allo scioglimento nella peculiare realtà italiana. In questo modo si viene colmando uno spazio di ricerca diretto a leggere gli avvenimenti e a ricondurli in un quadro costituzionale sistematico, anche al fine di ricavare utili riflessioni circa la conformità della prassi stessa al dato normativo, nonché sulle modalità di funzionamento concreto dell'istituto. Il terzo obiettivo, quello più ambizioso, è utilizzare le considerazioni così sviluppate per ricercare soluzioni interpretative adeguate all’evoluzione subita dall’assetto politico-istituzionale italiano negli ultimi due decenni. Quanto al metodo, la scelta del candidato è stata quella di ricorrere ad uno strumentario che pone in necessaria sequenza logica: a) i presupposti storici/comparatistici e il dibattito in Assemblea costituente, utili per l’acquisizione del patrimonio del parlamentarismo europeo del tempo e per la comprensione del substrato su cui si costruisce l’edificio costituzionale; b) il testo costituzionale, avvalendosi anche delle importanti considerazioni svolte dalla dottrina più autorevole; c) la prassi costituzionale, consistente nella fase di implementazione concreta del disposto normativo. La finalità che il candidato si pone è dimostrare la possibilità di configurare lo scioglimento secondo un modello di tipo “primoministeriale”. Per quanto riguarda la prima parte della ricerca, dalla pur sintetica descrizione dei precedenti storici (sia rispetto alle realtà europee, inglese e francese in primis, che al periodo prerepubblicano) si trae conferma che l’operatività dell’istituto è intrinsecamente influenzata dalla forma di governo. Una prima indicazione che emerge con forza è come la strutturazione del sistema partitico e il grado di legame tra Assemblea rappresentativa e Gabinetto condizionino la ratio del potere di scioglimento, la sua titolarità ed il suo effettivo rendimento. Infatti, in presenza di regimi bipartitici e di impianti istituzionali che accentuano il raccordo fiduciario, il Capo dello Stato tende all’emarginazione, e lo scioglimento acquisisce carattere di automaticità tutte le volte in cui si verificano crisi ministeriali (eventualità però piuttosto rara); più consueto è invece lo scioglimento primoministeriale libero, come arma politica vera e propria attraverso cui il Governo in carica tende a sfruttare il momento migliore per ricercare il giudizio del popolo. Al contrario, dove il sistema politico è più dinamico, e il pluralismo sociale radicalizzato, il Capo dello Stato interferisce fortemente nella vita istituzionale e, in particolare, nella formazione dell’indirizzo politico: in quest’ottica lo scioglimento viene da questi inglobato, ed il suo ricorso subordinato ad esigenze di recupero della funzionalità perduta; soprattutto, quando si verificano crisi ministeriali (invero frequenti) il ricorso alle urne non è conseguenza automatica, ma semmai gli viene preferita la via della formazione di un Gabinetto poggiante su una maggioranza alternativa. L’indagine svolta dal candidato sui lavori preparatori mostra come il Costituente abbia voluto perseguire l'obiettivo di allargare le maglie della disciplina costituzionale il più possibile, in modo da poter successivamente ammettere più soluzioni interpretative. Questa conclusione è il frutto del modo in cui si sono svolte le discussioni. Le maggiori opzioni prospettate si collocavano lungo una linea che aveva ad un estremo una tassativa preordinazione delle condizioni legittimanti, ed all’altro estremo l’esclusiva e pressoché arbitraria facoltà decisionale dello scioglimento nelle mani del Capo dello Stato; in mezzo, la via mediana (e maggiormente gradita) del potere sì presidenziale, benché circondato da tutta una serie di limiti e garanzie, nel quadro della costruzione di una figura moderatrice dei conflitti tra Esecutivo e Legislativo. Ma non bisogna tralasciare che, seppure rare, diverse voci propendevano per la delineazione di un potere governativo di scioglimento la quale impedisse che la subordinazione del Governo al Parlamento si potesse trasformare in degenerazione assemblearista. Quindi, il candidato intende sottolineare come l’adamantina prescrizione dell’art. 88 non postuli, nell’ambito dell’interpretazione teleologica che è stata data, alcuno specifico indirizzo interpretativo dominante: il che, in altri termini, è l’ammissione di una pluralità di concezioni teoricamente valide. L'analisi del dettato costituzionale non ha potuto prescindere dalla consolidata tripartizione delle teorie interpretative. Dall'analisi della letteratura emerge la preferenza per la prospettiva dualistica, anche in virtù del richiamo che la Costituzione svolge nei confronti delle competenze sia del Presidente della Repubblica (art. 88) che del Governo (art. 89), il che lo convince dell’inopportunità di imporre una visione esclusivista, come invece sovente hanno fatto i sostenitori della tesi presidenziale. Sull’altro versante ciò gli permette di riconferire una certa dignità alla tesi governativa, che a partire dal primo decennio repubblicano era stata accantonata in sede di dibattito dottrinario: in questo modo, entrambe le teoriche fondate su una titolarità esclusiva assumono una pari dignità, benchè parimenti nessuna delle due risulti persuasiva. Invece, accedere alla tesi della partecipazione complessa significa intrinsecamente riconoscere una grande flessibilità nell’esercizio del potere in questione, permettendo così una sua più adeguata idoneità a mutare le proprie sembianze in fase applicativa e a calarsi di volta in volta nelle situazioni contingenti. Questa costruzione si inserisce nella scelta costituente di rafforzare le garanzie, ed il reciproco controllo che si instaura tra Presidente e Governo rappresenta la principale forma di tutela contro potenziali abusi di potere. Ad ognuno dei due organi spettano però compiti differenti, poiché le finalità perseguite sono differenti: come l’Esecutivo agisce normalmente secondo canoni politici, in quanto principale responsabile dell’indirizzo politico, al Capo dello Stato si addice soprattutto il compito di sorvegliare il regolare svolgimento dei meccanismi istituzionali, in posizione di imparzialità. Lo schema costituzionale, secondo il candidato, sembra perciò puntare sulla leale collaborazione tra i poteri in questione, senza però predefinire uno ruolo fisso ed immutabile, ma esaltando le potenzialità di una configurazione così eclettica. Assumendo questa concezione, si ha buon gioco a conferire piena cittadinanza costituzionale all’ipotesi di scioglimento disposto su proposta del Presidente del Consiglio, che si può ricavare in via interpretativa dalla valorizzazione dell’art. 89 Cost. anche secondo il suo significato letterale. Al discorso della titolarità del potere di scioglimento, il candidato lega quello circa i presupposti legittimanti, altro nodo irrisolto. La problematica relativa alla loro definizione troverebbe un decisivo ridimensionamento nel momento in cui si ammette la compartecipazione di Governo e Presidente della Repubblica: il diverso titolo con il quale essi cooperano consentirebbe di prevenire valutazioni pretestuose circa la presenza delle condizioni legittimanti, poichè è nel reciproco controllo che entrambi gli organi individuano i confini entro cui svolgere le rispettive funzioni. Si giustificano così sia ragioni legate ad esigenze di funzionalità del sistema (le più ricorrenti in un sistema politico pluripartitico), sia quelle scaturenti dalla divaricazione tra orientamento dei rappresentati e orientamento dei rappresentanti: purchè, sottolinea il candidato, ciò non conduca il Presidente della Repubblica ad assumere un ruolo improprio di interferenza con le prerogative proprie della sfera di indirizzo politico. Il carattere aperto della disciplina costituzionale spinge inevitabilmente il candidato ad approfondire l'analisi della prassi, la cui conoscenza costituisce un fondamentale modo sia per comprendere il significato delle disposizioni positive che per apprezzare l’utilità reale ed il rendimento sistemico dell’istituto. Infatti, è proprio dall'indagine sulla pratica che affiorano in maniera prepotente le molteplici virtualità dello strumento dissolutorio, con modalità operative che, a seconda delle singole fasi individuate, trovano una strutturazione casistica variabile. In pratica: nel 1953 e nel 1958 è l'interesse del partito di maggioranza relativa ad influenzare il Governo circa la scelta di anticipare la scadenza del Senato; nel 1963 e nel 1968 invece si fa strada l'idea del consenso diffuso allo scioglimento, seppure nel primo caso l'anticipo valga ancora una volta per il solo Senato, e nel secondo ci si trovi di fronte all'unica ipotesi di fine naturale della legislatura; nel 1972, nel 1976, nel 1979, nel 1983 e nel 1987 (con una significativa variante) si manifesta con tutta la sua forza la pratica consociativa, figlia della degenerazione partitocratica che ha svuotato le istituzioni giuridiche (a partire dal Governo) e cristallizzato nei partiti politici il centro di gravità della vita pubblica; nel 1992, a chiusura della prima epoca repubblicana, caratterizzata dal dominio della proporzionale (con tutte le sue implicazioni), si presentano elementi atipici, i quali vanno a combinarsi con le consolidate tendenze, aprendo così la via all'incertezza sulle tendenze future. È con l'avvento della logica maggioritaria, prepotentemente affacciatasi per il tramite dei referendum elettorali, a sconvolgere il quadro delle relazioni fra gli organi costituzionali, anche per quanto concerne ratio e caratteristiche del potere di scioglimento delle Camere. Soprattutto, nella fase di stretta transizione che ha attraversato il quadriennio 1992-1996, il candidato mette in luce come i continui smottamenti del sistema politico abbiano condotto ad una fase di destabilizzazione anche per quanto riguarda la prassi, incrinando le vecchie regolarità e dando vita a potenzialità fino allora sconosciute, addirittura al limite della conformità a Costituzione. La Presidenza Scalfaro avvia un processo di netta appropriazione del potere di scioglimento, esercitandolo in maniera esclusiva, grazie anche alla controfirma offerta da un Governo compiacente (“tecnicco”, perciò debitore della piena fiducia quirinalizia). La piena paternità presidenziale, nel 1994, è accompagnata da un altro elemento di brusca rottura con il passato, ossia quello della ragione legittimante: infatti, per la prima volta viene addotta palesemente la motivazione del deficit di rappresentatività. Altro momento ad aver costituito da spartiacque nell’evoluzione della forma di governo è stato il mancato scioglimento a seguito della crisi del I Governo Berlusconi, in cui forti erano state le pressioni perché si adeguasse il parlamentarismo secondo i canoni del bipolarismo e del concetto di mandato di governo conferito direttamente dagli elettori ad una maggioranza (che si voleva predefinita, nonostante essa in verità non lo fosse affatto). Dopo questa parentesi, secondo il candidato la configurazione dello strumento dissolutorio si allinea su ben altri binari. Dal punto di vista della titolarità, sono i partiti politici a riprendere vigorosamente un certo protagonismo decisionale, ma con una netta differenza rispetto al passato consociativo: ora, il quadro politico pare saldamente attestato su una dinamica bipolare, per cui anche in relazione all’opzione da adottare a seguito di crisi ministeriale sono le forze della maggioranza che decidono se proseguire la legislatura (qualora trovino l’accordo tra di loro) o se sciogliere (allorchè invece si raggiunga una sorta di maggioranza per lo scioglimento). Dal punto di vista dei presupposti, sembra consolidarsi l’idea che lo scioglimento rappresenti solo l’extrema ratio, chiamando gli elettori ad esprimersi solo nel momento in cui si certifica l’assoluta impossibilità di ripristinare la funzionalità perduta. Conclusioni. Il rafforzamento della prospettiva bipolare dovrebbe postulare una riconfigurazione del potere di scioglimento tesa a valorizzare la potestà decisionale del Governo. Ciò discenderebbe dal principio secondo cui il rafforzamento del circuito che unisce corpo elettorale, maggioranza parlamentare e Governo, grazie al collante di un programma politico condiviso, una coalizione che si presenta alle elezioni ed un candidato alla Presidenza del Consiglio che incarna la perfetta sintesi di tutte queste istanze, comporta che alla sua rottura non si può che tornare al giudizio elettorale: e quindi sciogliere le Camere, evitando la composizione di maggioranze che non rappresentano la diretta volontà popolare. Il candidato però non ritiene auspicabile l’adozione di un automatismo analogo alla regola dell'aut simul stabunt aut simul cadent proprio dell’esperienza regionale post 1999, perché soluzione eccessivamente rigida, che ingesserebbe in maniera inappropriata una forma parlamentare che comunque richiede margini di flessiblità. La proposta è invece di rileggere il testo costituzionale, rebus sic stantibus, nel senso di far prevalere un potere libero di proposta da parte del Governo, cui il Capo dello Stato non potrebbe non consentire, salvo svolgere un generale controllo di costituzionalità volto ad accertare l’insussistenza di alcuna forma di abuso. Su queste conclusioni il lavoro esprime solo prime idee, che meritano di essere approfondite. Come è da approfondire un tema che rappresenta forse l’elemento di maggiore originalità: trattasi della qualificazione e descrizione di un mandato a governare, ossia della compatibilità costituzionale (si pensi, in primis, al rapporto con il divieto di mandato imperativo di cui all’art. 67 Cost.) di un compito di governo che, tramite le elezioni, gli elettori affidano ad una determinata maggioranza, e che va ad arricchire il significato del voto rispetto a quello classico della mera rappresentanza delle istanze dei cittadini (e propria del parlamentarismo ottocentesco): riflessi di tali considerazioni si avrebbero inevitabilmente anche rispetto alla concezione del potere di scioglimento, che in siffatta maniera verrebbe percepito come strumento per il ripristino del “circuito di consonanza politica” che in qualche modo si sarebbe venuto a rompere. Ad ogni buon conto, già emergono dei riflessi in questo senso, per cui la strada intrapresa dal candidato pare quella giusta affinchè l’opera risulti completa, ben argomentata ed innovativa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduzione: Il cervico-carcinoma è la seconda neoplasia maligna per incidenza e mortalità nelle donne in tutto il mondo dopo il cancro al seno. L’infezione persistente da Papillomavirus Umani (HPV) è causa necessaria dell’insorgenza del cervico-carcinoma e delle sue lesioni pre-cancerose. L’infezione da HPV si associa anche ad altri carcinomi del distretto ano-genitale (a livello anale, vulvare, vaginale e del pene) e a circa il 25% dei carcinomi squamosi dell’orofaringe. I circa 40 genotipi di HPV che infettano la mucosa genitale vengono suddivisi in alto rischio (HR-HPV) e basso rischio (LR-HPV) oncogeno a seconda della alta e bassa associazione con la neoplasia cervicale. I 13 genotipi a più alto rischio oncogeno sono 16, 18, 31, 33, 35, 39, 45, 51, 52, 56, 58, 59 e 68. Di questi, otto (16, 18, 31, 33, 35, 45, 52 e 58) sono associati alla maggior parte dei carcinomi cervicali (circa 89%) e i genotipi 16 e 18 da soli sono riscontrati nel 70% circa delle neoplasie. L’insorgenza e progressione delle lesioni preneoplastiche cervicali è, però, associata non solo alla presenza di HPV ad alto rischio, ma, soprattutto, alla persistenza virale (> 18 mesi), alla capacità di integrazione degli HPV ad alto rischio e alla conseguente sovraespressione delle oncoproteine E6/E7. Inoltre, l’integrazione è spesso favorita da un’alta carica virale soprattutto per quanto riguarda alcuni genotipi (HPV16 e 18). L’infezione da HPV non interessa solo la cervice uterina ma tutto il distretto ano-genitale e quello testa-collo. L’HPV, in particolare il genotipo 16, è implicato, infatti, nell’insorgenza delle lesioni preneoplastiche della vulva (VIN) classificate come VIN classiche e nei carcinomi ad esse associati. L’incidenza del carcinoma vulvare in Europa è di 1.5/100.000 di cui circa il 45% è dovuto a HR-HPV (80% ad HPV16). Nonostante l’associazione tra HPV16 e carcinoma vulvare sia alta, ancora poco si conosce sul ruolo della carica virale e dell’integrazione in tali lesioni. Le lesioni che possono presentarsi nella regione testa-collo possono essere sia di natura benigna che maligna. I genotipi più frequentemente riscontrati in associazione a lesioni benigne (papillomi) sono HPV 6 e 11, quelli associati a forme tumorali (HNSCC) sono il genotipo 18 ma soprattutto il 16. Molti aspetti del coinvolgimento di HPV in queste patologie non sono ancora perfettamente conosciuti e spesso studi su tale argomento hanno mostrato risultati contraddittori, soprattutto perché vengono utilizzate metodiche con gradi diversi di sensibilità e specificità. Recenti dati di letteratura hanno tuttavia messo in evidenza che i pazienti affetti da HNSCC positivi ad HPV hanno una elevata risposta al trattamento chemioradioterapico rispetto ai pazienti HPV-negativi con un notevole impatto sul controllo locale e sulla sopravvivenza ma soprattutto sulla qualità di vita di tali pazienti, evitando di sottoporli a chirurgia sicuramente demolitiva. Scopo del lavoro: Sulla base di queste premesse, scopo di questo lavoro è stato quello di valutare l’importanza di marker quali la presenza/persistenza di HPV, la carica virale, la valutazione dello stato fisico del genoma virale e l’espressione degli mRNA oncogeni nella gestione di pazienti con lesioni preneoplastiche e neoplastiche di diverso grado, associate a papillomavirus mucosi. Per la valutazione dei markers virologici di progressione neoplastica abbiamo sviluppato dei saggi di real time PCR qualitativi e quantitativi studiati in modo da poter fornire, contemporaneamente e a seconda delle esigenze, risposte specifiche non solo sulla presenza e persistenza dei diversi genotipi di HPV, ma anche sul rischio di insorgenza, progressione e recidiva delle lesioni mediante lo studio di markers virologici quali carica virale, integrazione ed espressione degli mRNA. Abbiamo pertanto indirizzato la nostra attenzione verso tre popolazioni specifiche di pazienti: - donne con lesioni vulvari preneoplastiche (VIN) e neoplastiche, allo scopo di comprendere i complessi meccanismi patogenetici di tali patologie non sempre associate ad infezione da HPV; - pazienti con lesioni maligne a livello della regione testa-collo allo scopo di fornire informazioni utili all’elaborazione di un percorso terapeutico mirato (radiochemioterapico o chirurgico) a seconda o meno della presenza di infezione virale; - donne con lesioni cervicali di alto grado, trattate chirurgicamente per la rimozione delle lesioni e seguite nel follow-up, per stabilire l’importanza di tali marker nella valutazione della persistenza virale al fine di prevenire recidive di malattia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Punto di partenza per il lavoro presentato, sono le tematiche legate alle pratiche di consumo di cibo in un’ottica che superi una semplice visione utilitaristica delle stesse, mentre viene evidenziato invece il più profondo rapporto uomo-cibo e i fenomeni di socializzazione che ne scaturiscono. Si trovano pertanto a coniugarsi la sociologia dei consumi e la sociologia della cultura. La base per questa visione del cibo e delle pratiche di produzione e consumo ad esso collegate è l’ipotesi che nel rapporto uomo-cibo sia individuabile un livello di significato superiore al mero utilitarismo/nutrizionismo, che si compone di una dimensione strutturale, una dimensione simbolica ed una dimensione metaforica. Il cibo, e di conseguenza tutte le pratiche ad esso collegate (produzione, elaborazione, consumo), rientrano pertanto in maniera naturale nella categoria “cultura”, e quindi, accostandoci al paradigma del passaggio da natura a società, attraverso il cibo si crea e si alimenta la socialità del consorzio umano, e quindi l’umanità stessa. Accostando a queste concettualizzazioni l’idea che il consumo in generale possa diventare una prassi tramite cui esperire una più diffusa ricerca di sostenibilità nello sviluppo del territorio, (facendosi carico delle conseguenze socio-ambientali derivanti dalla fruizione di determinati oggetti piuttosto che altri), si è sviluppata l’ipotesi che al consumo alimentare possa competere un ruolo precipuamente attivo nella definizione di pratiche sociali orientate alla sostenibilità, capaci cioè di integrare attraverso il consumo – e in relazione all’indebolimento delle tradizionali agenzie di socializzazione – quella perdita di senso civico e solidarietà organizzata che sperimentiamo nelle prassi di vita quotidiana. Sul piano operativo, la tesi è articolata in sei capitoli: • Il percorso presentato prende le mosse dalla considerazione che il cibo, inteso in un’ottica sociologica, costituisce un fattore culturale non irrilevante, anzi fondamentale per il consorzio umano. Si fornisce quindi una breve descrizione del ruolo del cibo nei suoi accostamenti con la definizione di un territorio (e quindi con la sua storia, economia e società), con le arti visive, con il cinema, con la musica, ma anche con la sfera sensoriale (tatto, gusto, olfatto) ed emotivo-cognitiva (psiche) dell’uomo. • Successivamente, si analizza nello specifico la funzione socializzante delle pratiche alimentari, ripercorrendo le tappe principali degli studi classici di sociologia e antropologia dell’alimentazione e introducendo anche l’idea di cibo come simbolo e metafora, che si riflettono sul piano sociale e sulle relazioni tra gli individui. La constatazione che le pratiche legate al cibo sono le uniche attività umane da sempre e per sempre irrinunciabili è un chiaro indicatore di come esse giochino un ruolo fondamentale nella socializzazione umana. • Nel terzo capitolo, la prospettiva simbolico-metaforica è la base di un’analisi di tipo storico delle pratiche alimentari, nello specifico delle pratiche di consumo di cibo, dalle origini dell’umanità ai giorni nostri. Viene presentato un excursus essenziale in cui l’attenzione è focalizzata sulla tavola, sui cibi ivi serviti e sugli eventi di socializzazione che si sviluppano attorno ad essa, considerando situazioni storico-sociali oggettive di cui si è in grado, oggi, di ricostruire le dinamiche e le fasi più significative. • Il quarto capitolo costituisce un momento di riflessione teorica intorno al tema della globalizzazione nella contemporaneità. Sia per una logica progressione cronologica all’interno del lavoro presentato, sia per la rilevanza in quanto inerente alla società attuale in cui viviamo, non si è potuto infatti non soffermarsi un po’ più a fondo sull’analisi delle pratiche alimentari nella contemporaneità, e quindi nella società generalmente definita come “globalizzata” (o “mcdonaldizzata”, per dirla alla Ritzer) ma che in realtà è caratterizzata da un più sottile gioco di equilibri tra dimensione locale e dimensione globale, che si compenetrano come anche nel termine che indica tale equilibrio: il “glocale”. In questo capitolo vengono presentati i principali riferimenti teorici relativi a queste tematiche. • Nel quinto capitolo è stata analizzata, quindi, la declinazione in senso “alimentare” della relazione tra globale e locale, e quindi non solo i mutamenti intercorsi nella contemporaneità nelle pratiche di produzione, scambio e consumo di cibo con particolare riferimento ai sistemi culturali e al territorio, ma anche alcune proposte (sia teoriche che pratiche) a garanzia di uno sviluppo sostenibile del territorio, che trovi i suoi fondamenti sulla perpetuazione di modalità tradizionali di produzione, commercio e consumo di cibo. • Nel sesto capitolo viene analizzato un caso di studio significativo, (il movimento Slow Food, con il suo progetto Terra Madre) senza la pretesa di confermare o smentire né le ipotesi di partenza, né i concetti emersi in itinere, ma semplicemente con l’intenzione di approfondire il percorso svolto attraverso l’esemplificazione operativa e la ricerca entro un piccolo campione composto da testimoni significativi e intervistati, sottoposti a colloqui e interviste incentrate su item inerenti i temi generali di questo lavoro e sul caso di studio considerato. La scelta del caso è motivata dalla considerazione che, alla luce delle filosofia che lo anima e delle attività che svolge, il movimento Slow Food con il progetto Terra Madre costituisce una vera e propria eccellenza nella pianificazione di uno sviluppo sostenibile del territorio e delle sue risorse, tanto economiche quanto sociali e culturali. L’intera analisi è stata condotta tenendo presente l’importanza della comparazione e della collocazione del singolo caso non solo nel contesto sociale di riferimento, ma anche in sintonia con l’ipotesi della ricerca, e quindi con l’assunto che le pratiche alimentari possano guidare uno sviluppo sostenibile del territorio. Per analizzare la realtà individuata, si è in primo luogo proceduto alla raccolta e all’analisi di dati e informazioni volte alla ricostruzione della sua storia e del suo sviluppo attuale. Le informazioni sono state raccolte attraverso l’analisi di materiali, documenti cartacei e documenti multimediali. Si è poi proceduto con colloqui in profondità a testimoni significativi individuati nell’ambito delle attività promosse da Slow Food, con particolare riferimento alle attività di Terra Madre; le informazioni sono state elaborate con l’ausilio dell’analisi del contenuto. Alla luce di quanto analizzato, tanto a livello teorico quanto a livello empirico, la tesi si conclude con alcune considerazioni che, in linea con la finalità dichiarata di approfondire (più che di confermare o smentire) le ipotesi di partenza circa un ruolo fondamentale delle pratiche alimentari nello sviluppo sostenibile del territorio, non possono comunque non tendere ad una convalida dei concetti introduttivi. Si individuano pertanto spunti importanti per affermare che nelle pratiche alimentari, nei tre momenti in cui trovano specificazione (la produzione, lo scambio, il consumo), siano individuabili quei semi valoriali che possono dare solidità alle ipotesi di partenza, e che quindi - nell’intento di operare per uno sviluppo sostenibile del territorio - sia possibile farne un valido strumento al fine di costruire dei veri e propri percorsi di sostenibilità ancorati ai concetti di tutela della tradizione locale, recupero e salvaguardia dei metodi tradizionali di produzione e conservazione, certificazione di tipicità, controllo della distribuzione, riscatto e promozione delle modalità tradizionali di consumo con particolare riferimento alle culture locali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La leishmaniosi è una malattia protozoaria importante che interessa l’ambito della sanità animale e umana, in relazione al carattere zoonotico dell’infezione. In Italia l’infezione è sostenuta da Leishmania infantum, i cui ceppi viscerotropi sono responsabili della leishmaniosi canina (LCan) e della forma viscerale zoonotica (LVZ), ed i ceppi dermotropi della forma cutanea sporadica nell’uomo (LCS). La trasmissione dell’infezione è sostenuta da femmine ematofaghe di ditteri appartenenti al genere Phlebotomus, che hanno il ruolo di vettori biologici attivi. L’unico serbatoio domestico riconosciuto è il cane. In Italia la LCan è in forte espansione. Fino agli anni ottanta era presente in forma endemica nel centro-sud Italia e nelle isole mentre il nord Italia, fatta eccezione per la Liguria e una piccola parte dell’Emilia-Romagna risultava indenne. A partire dagli anni novanta, parallelamente ad un aumento della consistenza e del numero dei focolai nelle aree storicamente endemiche, sono iniziate, nelle regioni del Nord, le segnalazioni di focolai autoctoni stabili. Le attività del network scientifico LeishMap™, tra il 2002 e il 2005, hanno evidenziato un nuovo quadro epidemiologico in tutte le regioni del nord Italia, confermato anche da indagini successive. Alla riemergenza della leishmaniosi hanno concorso una serie di fattori ecologico-ambientali e umani. Tra i primi si ricorda il cambiamento climatico che ha influito sulla distribuzione e sulla densità della popolazione vettoriale; tra i secondi, ruolo fondamentale ha giocato la maggiore movimentazione di animali, provenienti da aree indenni, in zone interessate dalla malattia. La valutazione di tutti questi aspetti è stato il punto di partenza per la messa a punto di un progetto per la realizzazione della sorveglianza della leishmaniosi in Emilia-Romagna. Parte delle attività previste da tale progetto costituiscono la prima parte della presente tesi. Mediante la realizzazione di una banca dati e, la successiva georeferenziazione, dei casi di leishmaniosi canina (LCan) in cani di proprietà della regione e zone limitrofe (Pesaro-Urbino, Repubblica di San Marino), sono stati evidenziati 538 casi, la maggior parte dei quali nelle province di Bologna e Rimini (235 e 204, rispettivamente). Nelle due province sono stati individuati clusters di aggregazione importanti in base alla densità di casi registrati/km2 (4 nella provincia di Bologna e 3 in quella di Rimini). Nella seconda parte della presente tesi è stato approfondito l’aspetto diagnostico della malattia. Molte sono le metodiche applicabili alla diagnosi di LCan: da quelle dirette, come i metodi parassitologici e molecolari, a quelle indirette, come le tecniche sierologiche. Nella II parte sperimentale della presente tesi, 100 sieri di cane sono stati esaminati in Immunofluorescenza Indiretta (IFI), Enzyme-Linked Immunosorbent Assay (ELISA) e Western Blot (WB), al fine di valutare l’applicazione di queste metodiche a scopi diagnostici ed epidemiologici. L’elaborazione statistica dei risultati ottenuti conferma l’IFI metodica gold standard per la diagnosi della LCan. Inoltre, si è osservato che il grado di concordanza tra l’IFI e le altre due metodiche aumenta quando nell’animale si instaura una risposta anticorpale forte, che, corrisponderebbe ad uno stato di infezione in atto.