939 resultados para Pasiones del alma
Resumo:
La regolazione dell’espressione genica è un processo molto complesso e finemente controllato da fattori multipli, tra i quali quelli epigenetici hanno richiamato l’attenzione nell’ultima decade. I meccanismi di regolazione epigenetica comprendono la metilazione del DNA a livello delle isole CpG nella regione del promotore del gene e le modifiche istoniche post-traduzionali, quali acetilazioni e metilazioni. Questa serie di elementi di regolazione concorre a determinare uno stato di impacchettamento della cromatina più o meno rilassato, che influenzerà la trascrizione di geni critici, per esempio nello sviluppo o nelle neoplasie. Gli ambiti nei quali lo studio del profilo epigenetico ha assunto maggiore rilievo sono effettivamente quello oncologico e quello del differenziamento di cellule staminali, due contesti nei quali si è svolto il mio programma di Dottorato, nel quale ho seguito in parallelo più progetti presentati nella tesi in modo indipendente. La ricerca in campo tumorale è centrata sull’indagine di nuovi marcatori e sull’individuazione di profili epigenetici specifici per un determinato tumore che possano aiutare la diagnostica precoce, la classificazione e la sorveglianza dell’evoluzione clinica della neoplasia. In questo contesto si inserisce il progetto finalizzato alla costruzione di quadri associativi di metilazione in due tumori cerebrali, il glioblastoma (GBM) e l’oligodendroglioma (ODG). La casistica di GBM e di ODG in dotazione è stata valutata dal punto di vista della metilazione dei promotori di geni (MGMT, EMP3,..) con funzioni oncosoppressive e trovati ipermetilati anche in altri tumori o localizzati in regioni citologicamente instabili, per poter correlare questi dati con la risposta terapeutica nel caso del GBM o con i dati di perdita di eterozigosità (LOH) 1p19q nel caso dell’ODG. Parallelamente all’individuazione di marcatori epigenetici in ambito oncologico, la ricerca si sta muovendo anche nell’indagine di nuove potenziali terapie farmacologiche antitumorali su base epigenetica. In questo contesto, con lo scopo di approfondire le relazioni tra i meccanismi alla base della regolazione epigenetica, ci si è riproposti di valutare la correlazione tra il meccanismo di metilazione/demetilazione del DNA e quello di acetilazione/deacetilazione istonica e la loro vicendevole influenza nel determinare silenziamento genico piuttosto che riattivazione dell’espressione di geni ipermetilati. Sono stati usati farmaci epigenetici demetilanti, quali Azacitidina e Decitabina, inibitori della istone deacetilasi, quali la Tricostatina A, e inibitori della via di sintesi di molecole, le poliammine, coinvolte nella regolazione dell’espressione genica con modalità ancora da precisare in modo definitivo. Sebbene i meccanismi di regolazione epigenetica vengano studiati per lo più nel cancro, a causa delle gravi conseguenze che una loro disregolazione porta in termini di silenziamento di geni oncosoppressori, essi sono implicati fisiologicamente anche nel differenziamento di cellule staminali. Gli ultimi due progetti trattati nella tesi si contestualizzano in questo ambito. In particolare viene presentata la messa a punto di una metodologia di immunoprecipitazione sequenziale della cromatina finalizzata all’individuazione di due modificazioni istoniche associate alla stessa regione di DNA. Le modifiche hanno riguardato i marcatori rappresenatativi di cromatina trascrizionalmente repressa H3K27me3 (trimetilazione della Lys27 dell’istone H3) e di cromatina trascrizionalmente attiva H3K24me2 (dimetilazione della Lys4 dell’istone H3) che definiscono i domini detti bivalenti, associati a geni che codificano per fattori di trascrizione che regolano lo sviluppo in cellule embrionali staminali, mantenendoli pronti per un veloce indirizzamento verso l’ attivazione trascrizionale. Il ruolo che la regolazione epigenetica svolge durante il differenziamento di cellule staminali non è ancora noto con precisione. È chiaro però che la memoria della linea cellulare verso la quale si differenzia una cellula staminale adulta, implica l’utilizzo di modifiche epigenetiche, quali la metilazione del DNA e correlati pattern di metilazione e acetilazione istonica. L’ultimo progetto, trattato, è stato finalizzato a verificare il coinvolgimento dell’epigenetica e in particolare della metilazione dei promotori di fattori trascrizionali precocemente attivati durante il differenziamento verso il fenotipo muscolare cardiaco di cellule staminali umane derivate da tessuto adiposo (ADSCs).
La Pace Calda. La nascita del movimento antinucleare negli Stati Uniti e in Gran Bretagna, 1957-1963
Resumo:
The aim of this proposal is to offer an alternative perspective on the study of Cold War, since insufficient attention is usually paid to those organizations that mobilized against the development and proliferation of nuclear weapons. The antinuclear movement began to mobilize between the 1950s and the 1960s, when it finally gained the attention of public opinion, and helped to build a sort of global conscience about nuclear bombs. This was due to the activism of a significant part of the international scientific community, which offered powerful intellectual and political legitimization to the struggle, and to the combined actions of the scientific and organized protests. This antinuclear conscience is something we usually tend to consider as a fait accompli in contemporary world, but the question is to show its roots, and the way it influenced statesmen and political choices during the period of nuclear confrontation of the early Cold War. To understand what this conscience could be and how it should be defined, we have to look at the very meaning of the nuclear weapons that has deeply modified the sense of war. Nuclear weapons seemed to be able to destroy human beings everywhere with no realistic forms of control of the damages they could set off, and they represented the last resource in the wide range of means of mass destruction. Even if we tend to consider this idea fully rational and incontrovertible, it was not immediately born with the birth of nuclear weapons themselves. Or, better, not everyone in the world did immediately share it. Due to the particular climate of Cold War confrontation, deeply influenced by the persistence of realistic paradigms in international relations, British and U.S. governments looked at nuclear weapons simply as «a bullet». From the Trinity Test to the signature of the Limited Test Ban Treaty in 1963, many things happened that helped to shift this view upon nuclear weapons. First of all, more than ten years of scientific protests provided a more concerned knowledge about consequences of nuclear tests and about the use of nuclear weapons. Many scientists devoted their social activities to inform public opinion and policy-makers about the real significance of the power of the atom and the related danger for human beings. Secondly, some public figures, as physicists, philosophers, biologists, chemists, and so on, appealed directly to the human community to «leave the folly and face reality», publicly sponsoring the antinuclear conscience. Then, several organizations leaded by political, religious or radical individuals gave to this protests a formal structure. The Campaign for Nuclear Disarmament in Great Britain, as well as the National Committee for a Sane Nuclear Policy in the U.S., represented the voice of the masses against the attempts of governments to present nuclear arsenals as a fundamental part of the international equilibrium. Therefore, the antinuclear conscience could be defined as an opposite feeling to the development and the use of nuclear weapons, able to create a political issue oriented to the influence of military and foreign policies. Only taking into consideration the strength of this pressure, it seems possible to understand not only the beginning of nuclear negotiations, but also the reasons that permitted Cold War to remain cold.
Resumo:
La presente ricerca si inquadra nell’ambito della risoluzione dei problemi legati alla chirurgia ossea, per la cura e la sostituzione di parti di osso in seguito a fratture, lesioni gravi, malformazioni e patologie quali osteoporosi, tumori, etc… Attualmente la progettazione di impianti per le sostituzioni/rigenerazioni ossee richiede che i materiali sviluppati siano in grado di “mimare” la composizione e la morfologia dei tessuti naturali, in modo da generare le specifiche interazioni chimiche esistenti nei tessuti dell’organismo con cui vengono a contatto e quindi di biointegrarsi e/o rigenerare l’osso mancante nel miglior modo possibile, in termini qualitativi e quantitativi. Per lo sviluppo di sostituti ossei porosi sono state sperimentate 2 tecnologie innovative: il freeze-casting ed il foaming. Gli impianti ceramici realizzati hanno presentano una dimensione dei pori ed un’interconnessione adeguata sia per l’abitazione cellulare che per la penetrazione dei fluidi fisiologici e la vascolarizzazione. In particolare l’elevata unidirezionalità nei campioni ottenuti mediante freeze-casting si presenta molto promettente poiché fornisce cammini guida che migliorano la vascolarizzazione dell’impianto e l’abitazione cellulare in tempi rapidi e nella parte più interna dello scaffold. D’altra parte, la tecnologia del foaming ha permesso l’ottenimento di materiali apatitici ad alta porosità multidimensionale ed interconnessa con proprietà meccaniche implementate rispetto a tipologie precedenti e, lavorabili dopo sinterizzazione mediante prototipazione rapida. Per questo motivo, questi materiali sono attualmente in corso di sperimentazione, con risultati preliminari adeguati promettenti per un’applicazione clinica, come sostituti ossei di condilo mandibolare, sito estremamente critico per gli sforzi meccanici presenti. È stata dimostrata la possibilità di utilizzare lo scaffold ceramico biomimetico con la duplice funzione di sostituto osseo bioattivo e sistema di rilascio in situ di ioni specifici e di antibiotico, in cui la cinetica di rilascio risulta fortemente dipendente dalle caratteristiche chimico-fisico morfologiche del dispositivo (solubilità, area di superficie specifica,…). Per simulare sempre di più la composizione del tessuto osseo e per indurre specifiche proprietà funzionali, è stata utilizzata la gelatina come fase proteica con cui rivestire/impregnare dispositivi porosi 3D a base di apatite, con cui miscelare direttamente la fase inorganica calcio-fosfatica e quindi realizzare materiali bio-ibridi in cui le due fasi contenenti siano intimamente interagenti. Inoltre al fine di ridurre gli innumerevoli problemi legati alle infezioni ossee alcuni dei materiali sviluppati sono stati quindi caricati con antibiotico e sono state valutate le cinetiche di rilascio. In questa maniera, nel sito dell’impianto sono state associate le funzioni di trasporto e di rilascio di farmaco, alla funzione di sostituzione/rigenerazione ossee. La sperimentazione con la gelatina ha messo in luce proprietà posatamente sfruttabili della stessa. Oltre a conferire allo scaffold un implementata mimesi composizionale del tessuto osseo, ha infatti consentito di aumentare le proprietà meccaniche, sia come resistenza a compressione che deformazione. Unitamente a quanto sopra, la gelatina ha consentito di modulare la funzionalità di dispensatore di farmaco; mediante controllo della cinetica di rilascio, tramite processi di reticolazione più o meno spinti.
Resumo:
Lo scopo della presente tesi di dottorato è di illustrare il lavoro svolto nella progettazione del circuito a metallo liquido del Test Blanket System (TBS) Helium Cooled Lithium Lead (HCLL), uno dei sistemi fondamentali del reattore sperimentale ITER che dovrà dimostrare la fattibilità di produrre industrialmente energia elettrica da processi di fusione nucleare. Il blanket HCLL costituisce una delle sei configurazioni che verranno testate in ITER, sulla base degli esperimenti condotti nei 10 dieci anni di vita del reattore verrà selezionata la configurazione che determinerà la costituzione del primo reattore dimostrativo per la produzione di un surplus di energia elettrica venti volte superiore all’energia consumata, DEMO. Il circuito ausiliario del blanket HCLL è finalizzato, in DEMO all’estrazione del trizio generato mediante il TES; ed in ITER alla dimostrazione della fattibilità di estrarre il trizio generato e di poter gestire il ciclo del trizio. Lo sviluppo dei componenti, svolto in questa tesi, è accentrato su tale dispositivo, il TES. In tale ambito si inseriscono le attività che sono descritte nei capitoli della seguente tesi di dottorato: selezione e progettazione preliminare del sistema di estrazione del trizio dalla lega eutettica Pb15.7Li del circuito a metallo liquido del TBM HCLL; la progettazione, realizzazione e qualifica dei sensori a permeazione per la misura della concentrazione di trizio nella lega eutettica Pb15.7Li; la qualificazione sperimentale all’interno dell’impianto TRIEX (TRItium EXtarction) della tecnologia selezionata per l’estrazione del trizio dalla lega; la progettazione della diagnostica di misura e controllo del circuito ausiliario del TBM HCLL.
Resumo:
This PhD research is part of a project addressed to improve the quality of Grana Trentino production. The objectives were to evaluated if milk storage and collection procedures may affect cheese-making technology and quality. Actually the milk is collected and delivered to the cheese factory just after milking in 50 L cans without refrigeration or in tanks cooled at 18 °C. This procedure is expensive (two deliveries each day) and the milk quality is difficult to preserve as temperatures are not controlled. The milk refrigeration at the farm could allow a single delivery to the dairy. Therefore it could be a good strategy to preserve raw milk quality and reduce cheese spoilage. This operation may, however, have the drawbacks of favouring the growth of psychrotrophic bacteria and changing the aptitude of milk to coagulation. With the aim of studying the effect on milk and cheese of traditional and new refrigerated technologies of milk storage, two different collection and creaming technologies were compared. The trials were replicated in three cheese factories manufacturing Grana Trentino. Every cheese-making day, about 1000 milk liters were collected from always the same two farms in the different collection procedures (single or double). Milk was processed to produce 2 wheels of Grana trentino every day. During the refrigerated trials, milk was collected and stored at the farm in a mixed tank at 12 or 8 °C and then was carried to the dairy in truck once a day. 112 cheese making day were followed: 56 for traditional technology and 56 for the refrigerated one. Each one of these two thechnologies lead to different ways of creaming: long time in the traditional one and shorter in the new one. For every cheese making day we recorded time, temperatures and pH during the milk processing to cheese. Whole milk before ceraming, cream and skim milk after creaming, vat milk and whey were sampled during every cheese-making day for analysis. After 18 months ripening we opened 46 cheese wheels for further chemical and microbiological analyses. The trials were performed with the aim of: 1 estimate the effect of storage temperatures on microbial communities, physico-chemical or/and rheological differences of milk and skim milk after creaming. 2 detect by culture dependent (plate counts) and indipendent (DGGE) methodolgies the microbial species present in whole, skimmed milk, cream and cheese sampled under the rind and in the core; 3 estimate the physico-chemical characteristics, the proteolytic activity, the content of free aminoacids and volatile compounds in 18 months ripened Grana Trentino cheeses from different storing and creaming of milk technologies. The results presented are remarkable since this is the first in-deep study presenting microbiological and chemical analysis of Grana Trentino that even if belonging to Grana Padano Consortium, it is clearly different in the milk and in the manufacturing technology.
Resumo:
La ricerca oggetto della tesi dottorale è condotta allo scopo di verificare gli effetti concreti del procedimento di integrazione tra l’ordinamento comunitario e quello dei singoli Stati nazionali, sulla base del studio del diritto del contribuente alla restituzione delle somme pagate a titolo di imposte anticomunitarie, nel contesto dell’evoluzione interpretativa del diritto al rimborso dell’indebito tributario comunitario operata dalla Corte di Giustizia. Il lavoro si articola in due parti, volte, la prima, ad indagare le ragioni dell’originalità comunitaria del diritto al rimborso; la seconda a verificarne l’effettività, sul presupposto di principio dell’astratta astratta inderogabilità della tutela restitutoria, nella consapevolezza di tutti i rimedi nazionali esperibili al fine della sua applicazione. Il primo capitolo è dedicato alla definizione del contenuto tipico del diritto alla restituzione dell’indebito tributario comunitario. La premessa da cui si muove – sul filo rosso dell’effettività e del primato comunitari - è quella della constatazione del nesso funzionale che lega tra loro la qualificazione della posizione giuridica del singolo in termini di diritto soggettivo ed il processo di istituzionalizzazione dei rapporti tra l’ordinamento comunitario e quello nazionale. Rilevano, in questo senso, l’originalità comunitaria e l’intangibilità del diritto al rimborso dell’indebito (che è strumento di legalità comunitaria, nella misura in cui consente di ripristinare l’ordine violato attraverso il pagamento delle sole imposte dovute). L’analisi si articola, nel secondo capitolo, sulla considerazione della mancanza di un sistema normativo comunitario che disciplini l’applicazione del diritto, con il conseguente rinvio al principio dell’autonomia procedurale e procedimentale degli Stati, nei limiti dell’equivalenza e dell’effettività comunitarie. Lo scopo è quello di individuare tutti i rimedi – sia amministrativi, sia giurisdizionali – esperibili, al fine di verificare la corretta proporzione tra l’effettività comunitaria e il grado di tutela del singolo. Sull’esame degli effetti (negativi e positivi) derivati in capo al contribuente dall’applicazione del diritto è incentrato il terzo capitolo, che tratta del rapporto tra le azioni restitutorie e risarcitorie, come proposto dalla giurisprudenza comunitaria, al fine di garantire massimamente l’effettività della tutela (giurisdizionale e sostanziale) del singolo. Attraverso lo strumento della giurisprudenza comunitaria si rileva il contrasto che tra l’esistenza del diritto originariamente ed originalmente comunitario al rimborso delle imposte indebitamente pagate (che connota autonomamente la figura del contribuente europeo) e l’insufficienza degli strumenti attuativi del diritto al fine di garantire l’effetto utile del diritto comunitario. Con la constatazione di un sistema operativo sostanzialmente difforme da quello ideato dalla giurisprudenza comunitaria e l’intenzione di dimostrare gli effetti dell’influenza dei principi comunitari sul diritto processuale e procedurale nazionale.
Resumo:
La ricerca è dedicata all’individuazione e all’analisi delle misure cautelari poste a presidio del diritto d’autore. La materia della proprietà intellettuale è fra quelle nelle quali il tempo occorrente per far valere il diritto in via ordinaria comporta un pregiudizio irreparabile. Scopo dell’indagine è dunque quello di evidenziare come l’esperienza del contenzioso in materia di diritto d’autore abbia dato linfa sempre crescente al procedimento cautelare. In quest’ottica si deve considerare che la tendenziale stabilità delle misure cautelari anticipatorie rappresenta un primo passo, sia pure ancora insufficiente, verso uno svolgimento del processo connotato da celerità e speditezza, tale da garantire un’effettiva tutela giurisdizionale. La tutela cautelare diventa, dunque, la pietra milare per dare attuazione al principio di matrice chiovendiana per cui la durata del processo non deve andare a danno della parte che ha ragione, precludendo e vanificando l’attuazione del diritto. Nel corso dell’indagine si dà conto di come il legislatore non abbia individuato quali siano i provvedimenti anticipatori dotati di stabilità e abbia lasciato questo compito all’interprete. Il presente lavoro si impone anche di offrire qualche riflessione per individuare, nell’ambito della tutela cautelare del diritto d’autore, quali siano i provvedimenti cautelari idonei ad anticipare gli effetti della sentenza di merito.
Resumo:
I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.