180 resultados para AFL-CIO.
Resumo:
Questa tesi nasce dall’idea di sfruttare i recenti sviluppi della tecnica nell’ambito delle elaborazioni tridimensionali su immagini interne al corpo umano per creare nuovi strumenti di diagnosi e controllo utili ai fini medici. In particolare, si cercherà un nuovo strumento di diagnosi per una malattia, ampiamente diffusa tra la popolazione, che colpisce l’orecchio interno: la cupololitiasi, anche nota come vertigine parossistica posizionale benigna. Il presente studio, che fa parte di un più ampio progetto di ricerca, è volto a definire un protocollo sia di misure antropometriche che di densità di tessuti e alla verifica di parametri, su un numero limitato di campioni, la cui presenza consente di rilevare la malattia. Si cercano misure che diano valori differenti tra orecchi interni sani e malati, cioè segnali inequivocabili della presenza della cupololitiasi. Si utilizzano immagini provenienti da TAC effettuate a pazienti sofferenti di cupololitiasi per scopi diagnostici; si elaborano in 3D e si misurano con il programma di Materializze: MIMICS.
Resumo:
Il task del data mining si pone come obiettivo l'estrazione automatica di schemi significativi da grandi quantità di dati. Un esempio di schemi che possono essere cercati sono raggruppamenti significativi dei dati, si parla in questo caso di clustering. Gli algoritmi di clustering tradizionali mostrano grossi limiti in caso di dataset ad alta dimensionalità, composti cioè da oggetti descritti da un numero consistente di attributi. Di fronte a queste tipologie di dataset è necessario quindi adottare una diversa metodologia di analisi: il subspace clustering. Il subspace clustering consiste nella visita del reticolo di tutti i possibili sottospazi alla ricerca di gruppi signicativi (cluster). Una ricerca di questo tipo è un'operazione particolarmente costosa dal punto di vista computazionale. Diverse ottimizzazioni sono state proposte al fine di rendere gli algoritmi di subspace clustering più efficienti. In questo lavoro di tesi si è affrontato il problema da un punto di vista diverso: l'utilizzo della parallelizzazione al fine di ridurre il costo computazionale di un algoritmo di subspace clustering.
Resumo:
L’anguilla europea (Anguilla anguilla) è una specie eurialina catadroma, la cui area di riproduzione si trova a grande distanza dall’areale di distribuzione. Presenta un ciclo biologico piuttosto complesso caratterizzato da due metamorfosi: la prima, tipicamente larvale permette al “leptocefalo”, forma larvale marina tipica degli anguilliformi, di trasformarsi in anguilla “ceca”; la seconda, invece, trasforma l’anguilla “gialla” in “argentina” attraverso un processo definito di “argentinizzazione” nel quale si delineano preadattamenti alla maturazione sessuale che sarà completa durante la migrazione riproduttiva verso il Mar dei Sargassi. L’”argentinizzazione” innesca modificazioni fisiologiche (regressione del tratto digestivo), e morfologiche (aumento della massa corporea, ispessimento della pelle, modificazione dell’occhio e nuova pigmentazione). Il colore bruno verdastro con ventre giallo è prerogativa delle anguille in fase trofica, cioè quelle gialle, sessualmente immature. Quelle argentine presentano, invece, una colorazione più scura sul dorso e argenteo sul ventre. Inoltre le anguille argentine vanno incontro a cambiamenti ormonali per adattarsi all’ambiente marino, compiere la lunga migrazione e riprodursi. Per avere a disposizione risorse energetiche anche senza nutrirsi per molti mesi, devono accumulare grandi riserve di cui il 60% è destinato per lo sviluppo delle gonadi. Tuttavia i processi metabolici che consentono alle anguille argentine di effettuare lunghe migrazioni mantenendo un’alta efficienza del nuoto e nel contempo utilizzando limitate risorse, non sono sufficientemente conosciuti. Per fornire nuove informazioni, questo lavoro di tesi ha indagato se vi sia una modificazione del quadro proteico del siero delle anguille argentine rispetto alle gialle, e quali proteine eventualmente risultino sovra- o sotto- espresse in ciascuna delle due fasi del ciclo biologico. A tale fine si è applicata una tecnica innovativa, quale l’analisi proteomica, che permette di identificare in modo sistematico le proteine all’interno di un substrato biologico come iin questo caso il siero. Le anguille gialle ed argentine prese in esame sono state prelevate nelle Valli di Comacchio (FE). La valutazione quantitativa delle proteine, separate tramite elettroforesi bidimensionale su gel di poliacrilamide, si è fondata sull’analisi delle immagini attraverso specifici programmi (Proteomweaver). A tale proposito, si sono confrontati i gel di anguilla gialla ed argentina individuando gli spot corrispondenti alle proteine e quantificandoli. Gli spot differenzialmente espressi sono stati prelevati per essere poi identificati tramite spettrometria di massa (MS/MS), arrivando al riconoscimento di diverse proteine. Tra queste, sono state identificate due diverse isoforme di apolipoproteina, l’una più espressa nell’anguilla gialla, l’altra nell’argentina; tali proteine svolgono un ruolo importante nella facilitazione del trasporto lipidico e nell’assorbimento dei lipidi associato anche con la crescita degli ovociti. Il treno di spot relativo alla transferrina è decisamente più evidente nelle anguille argentine, il che potrebbe essere correlato al ruolo del ferro nell’emoglobina, mirato ad un maggiore apporto di ossigeno ai tessuti durante la lunga migrazione riproduttiva di questi animali. Lo studio è del tutto nuovo e al momento non sono disponibili sufficienti informazioni al contorno per trarre più ampie conclusioni; tuttavia esso merita di essere proseguito per contribuire alla comprensione degli eventi di metamorfosi in questa specie dal ciclo vitale complesso e in gran parte sconosciuto.
Resumo:
Negli ultimi cinquant’anni, in particolare dal 1956 al 2010, grazie a miglioramenti di tipo economico e sociale, il territorio urbanizzato italiano è aumentato di circa 600 mila ettari, cioè una superficie artificializzata pari quasi a quella dell’intera regione Friuli Venezia Giulia, con un aumento del 500% rispetto agli anni precedenti. Quando si parla di superfici “artificializzate” ci si riferisce a tutte quelle parti di suolo che perdono la propria caratteristica pedologica per essere asportate e divenire urbanizzate, cioè sostituite da edifici, spazi di pertinenza, parcheggi, aree di stoccaggio, strade e spazi accessori. La costruzione di intere periferie e nuclei industriali dagli anni ’50 in poi, è stata facilitata da un basso costo di mano d’opera e da una supposta presenza massiccia di risorse disponibili. Nonché tramite adeguati piani urbanistico-territoriali che hanno accompagnato ed assecondato questo orientamento. All’oggi, è evidente come questa crescita tumultuosa del tessuto urbanizzato non sia più sostenibile. Il consumo del suolo provoca infatti vari problemi, in particolare di natura ecologica e ambientale, ma anche sanitaria, economica e urbana. Nel dettaglio, secondo il dossier Terra Rubata1, lanciato all’inizio del 2012 dal FAI e WWF gli aspetti che vengono coinvolti direttamente ed indirettamente dalla conversione urbana dei suoli sono complessivamente i seguenti. Appartenenti alla sfera economico-energetica ritroviamo diseconomie dei trasporti, sperperi energetici, riduzione delle produzioni agricole. Per quanto riguarda la sfera idro-geo-pedologica vi è la possibilità di destabilizzazione geologica, irreversibilità d’uso dei suoli, alterazione degli assetti idraulici ipo ed epigei. Anche la sfera fisico-climatica non è immune a questi cambiamenti, ma può invece essere soggetta ad accentuazione della riflessione termica e dei cambiamenti 1 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 2 climatici, ad una riduzione della capacità di assorbimento delle emissioni, ad effetti sul sequestro del carbonio e sulla propagazione spaziale dei disturbi fisico-chimici. In ultimo, ma non per importanza, riguardo la sfera eco-biologica, ritroviamo problemi inerenti l’erosione fisica e la distruzione degli habitat, la frammentazione eco sistemica, la distrofia dei processi eco-biologici, la penalizzazione dei servizi ecosistemici dell’ambiente e la riduzione della «resilienza» ecologica complessiva. Nonostante ci sia ancora la speranza che questo orientamento possa “invertire la rotta”, non è però possibile attendere ancora. È necessario agire nell’immediato, anche adottando adeguati provvedimenti normativi e strumenti pianificatori ed operativi nell’azione delle pubbliche amministrazioni analogamente a quanto, come evidenziato nel dossier sopracitato2, hanno fatto altri paesi europei. In un recente documento della Commissione Europea3 viene posto l’anno 2050 come termine entro il quale “non edificare più su nuove aree”. Per fare ciò la Commissione indica che nel periodo 2000-2020 occorre che l’occupazione di nuove terre sia ridotta in media di 800 km2 totali. È indispensabile sottolineare però, che nonostante la stabilità demografica della situazione attuale, se non la sua leggera decrescenza, e la società attuale ha necessità di spazi di azione maggiori che non nel passato e possiede una capacità di spostamento a velocità infinitamente superiori. Ciò comporta una variazione enorme nel rapporto tra le superfici edificate (quelle cioè effettivamente coperte dal sedime degli edifici) e le superfici urbanizzate (le pertinenze pubbliche e private e la viabilità). Nell’insediamento storico, dove uno degli obiettivi progettuali era quello di minimizzare i tempi di accesso tra abitazioni e servizi urbani, questo rapporto varia tra il 70 e il 90%, mentre nell’insediamento urbano moderno è quasi sempre inferiore al 40-50% fino a valori anche inferiori al 20% in taluni agglomerati commerciali, 2 Dossier TERRA RUBATA Viaggio nell’Italia che scompare. Le analisi e le proposte di FAI e WWF sul consumo del suolo, 31 gennaio 2012 3 Tabella di marcia verso un’Europa efficiente nell’impiego delle risorse, settembre 2011 3 industriali o direzionali nei quali il movimento dei mezzi o le sistemazioni paesaggistiche di rappresentanza richiedono maggiori disponibilità di spazi. Come conciliare quindi la necessità di nuovi spazi e la necessità di non edificare più su nuove aree? Dai dati Istat il 3% del territorio Italiano risulta occupato da aree dismesse. Aree che presentano attualmente problemi di inquinamento e mancata manutenzione ma che potrebbero essere la giusta risorsa per rispondere alle necessità sopracitate. Enormi spazi, costruiti nella precedente epoca industriale, che possono essere restituiti al pubblico sotto forma di luoghi destinati alla fruizione collettiva come musei, biblioteche, centri per i giovani, i bambini, gli artisti. Allo stesso tempo questi spazi possono essere, completamente o in parte, rinaturalizzati e trasformati in parchi e giardini. La tematica, cosiddetta dell’archeologia industriale non si presenta come una novità, ma come una disciplina, definita per la sua prima volta in Inghilterra nel 1955, che vanta di esempi recuperati in tutta Europa. Dagli anni ’60 l’opinione pubblica cominciò ad opporsi alla demolizione di alcune strutture industriali, come ad esempio la Stazione Euston a Londra, riconoscendone l’importanza storica, culturale ed artistica. Questo paesaggio industriale, diviene oggi testimonianza storica di un’epoca e quindi per questo necessita rispetto e attenzione. Ciò non deve essere estremizzato fino alla esaltazione di questi immensi edifici come rovine intoccabili, ma deve invitare l’opinione pubblica e i progettisti a prendersene cura, a reintegrarli nel tessuto urbano donando loro nuove funzioni compatibili con la struttura esistente che andrà quindi lasciata il più possibile inalterata per mantenere una leggibilità storica del manufatto. L’Europa presenta vari casi di recupero industriale, alcuni dei quali presentano veri e propri esempi da seguire e che meritano quindi una citazione ed un approfondimento all’interno di questo saggio. Tra questi l’ex stabilimento FIAT del Lingotto a Torino, 4 la celebre Tate Modern di Londra, il Leipzig Baumwollspinnerei, il Matadero Madrid e la Cable Factory a Elsinky. Questi edifici abbandonati risultano all’oggi sparsi in maniera disomogenea anche in tutta Italia, con una maggiore concentrazione lungo le linee ferroviarie e nei pressi delle città storicamente industrializzate. Essi, prima di un eventuale recupero, risultano come rifiuti abbandonati. Ma come sopradetto questi rifiuti urbani possono essere recuperati, reinventati, riabilitati, ridotati di dignità, funzione, utilità. Se questi rifiuti urbani possono essere una nuova risorsa per le città italiane come per quelle Europee, perché non provare a trasformare in risorse anche i rifiuti di altra natura? Il problema dei rifiuti, più comunemente chiamati come tali, ha toccato direttamente l’opinione pubblica italiana nel 2008 con il caso drammatico della regione Campania e in particolare dalla condizione inumana della città di Napoli. Il rifiuto è un problema dovuto alla società cosiddetta dell’usa e getta, a quella popolazione che contrariamente al mondo rurale non recupera gli scarti impiegandoli in successive lavorazioni e produzioni, ma li getta, spesso in maniera indifferenziata senza preoccuparsi di ciò che ne sarà. Nel passato, fino agli anni ’60, il problema dello smaltimento dei rifiuti era molto limitato in quanto in genere gli scatti del processo industriale, lavorativo, costruttivo venivano reimpiegati come base per una nuova produzione; il materiale da riciclare veniva di solito recuperato. Il problema degli scarti è quindi un problema moderno e proprio della città, la quale deve quindi farsene carico e trasformarlo in un valore, in una risorsa. Se nell’equilibrio ecologico la stabilità è rappresentata dalla presenza di cicli chiusi è necessario trovare una chiusura anche al cerchio del consumo; esso non può terminare in un oggetto, il rifiuto, ma deve riuscire a reinterpretarlo, a trovare per 5 esso una nuova funzione che vada ad attivare un secondo ciclo di vita, che possa a sua volta generare un terzo ciclo, poi un quarto e cosi via. Una delle vie possibili, è quella di riciclare il più possibile i nostri scarti e quindi di disassemblarli per riportare alla luce le materie prime che stavano alla base della loro formazione. Uno degli ultimi nati, su cui è possibile agire percorrendo questa strada è il rifiuto RAEE4. Esso ha subito un incremento del 30,7% negli ultimi 5 anni arrivando ad un consumo di circa 19 kilogrammi di rifiuti all’anno per abitante di cui solo 4 kilogrammi sono attualmente smaltiti nelle aziende specializzate sul territorio. Dismeco s.r.l. è una delle aziende sopracitate specializzata nello smaltimento e trattamento di materiale elettrico ed elettronico, nata a Bologna nel 1977 come attività a gestione familiare e che si è poi sviluppata divenendo la prima in Italia nella gestione specifica dei RAEE, con un importante incremento dei rifiuti dismessi in seguito all'apertura del nuovo stabilimento ubicato nel Comune di Marzabotto, in particolare nel lotto ospitante l’ex-cartiera Rizzoli-Burgo. L’azienda si trova quindi ad operare in un contesto storicamente industriale, in particolare negli edifici in cui veniva stoccato il caolino e in cui veniva riciclata la carta stampata. Se la vocazione al riciclo è storica dell’area, grazie all’iniziativa dell’imprenditore Claudio Tedeschi, sembra ora possibile la creazione di un vero e proprio polo destinato alla cultura del riciclo, all’insegnamento e all’arte riguardanti tale tematica. L’intenzione che verrà ampliamente sviluppata in questo saggio e negli elaborati grafici ad esso allegati è quella di recuperare alcuni degli edifici della vecchia cartiera e donane loro nuove funzioni pubbliche al fine di rigenerare l’area. 4 RAEE: Rifiuti di Apparecchiature Elettriche ed Elettroniche, in lingua inglese: Waste of electric and electronic equipment (WEEE) o e-waste). Essi sono rifiuti di tipo particolare che consistono in qualunque apparecchiatura elettrica o elettronica di cui il possessore intenda disfarsi in quanto guasta, inutilizzata, o obsoleta e dunque destinata all'abbandono. 6 Il progetto, nello specifico, si occuperà di riqualificare energeticamente il vecchio laboratorio in cui veniva riciclata la carta stampata e di dotarlo di aree per esposizioni temporanee e permanenti, sale conferenze, aule didattiche, zone di ristoro e di ricerca. Per quanto riguarda invece l’area del lotto attualmente artificializzata, ma non edificata, vi è l’intenzione di riportarla a zona verde attraverso la creazione di un “Parco del Riciclo”. Questa zona verde restituirà al lotto un collegamento visivo con le immediate colline retrostanti, accoglierà i visitatori e li ospiterà nelle stagioni più calde per momenti di relax ma al tempo stesso di apprendimento. Questo perché come già detto i rifiuti sono risorse e quando non possono essere reimpiegati come tali vi è l’arte che se ne occupa. Artisti del calibro di Picasso, Marinetti, Rotella, Nevelson e molti altri, hanno sempre operato con i rifiuti e da essi sono scaturite opere d’arte. A scopo di denuncia di una società consumistica, semplicemente come oggetti del quotidiano, o come metafora della vita dell’uomo, questi oggetti, questi scarti sono divenuti materia sotto le mani esperte dell’artista. Se nel 1998 Lea Vergine dedicò proprio alla Trash Art una mostra a Rovereto5 significa che il rifiuto non è scarto invisibile, ma oggetto facente parte della nostra epoca, di una generazione di consumatori frugali, veloci, e indifferenti. La generazione dell’”usa e getta” che diviene invece ora, per necessita o per scelta generazione del recupero, del riciclo, della rigenerazione. L’ipotesi di progetto nella ex-cartiera Burgo a Lama di Reno è proprio questo, un esempio di come oggi il progettista possa guardare con occhi diversi queste strutture dismesse, questi rifiuti, gli scarti della passata società e non nasconderli, ma reinventarli, riutilizzarli, rigenerarli per soddisfare le necessità della nuova generazione. Della generazione riciclo.
Resumo:
Il concetto di “direct drive”, cioè l’applicazione diretta del motore all’utilizzatore, in modo da eliminare elementi di connessione intermedi (riduttori, pulegge, ecc…) con il vantaggio di migliorare il rendimento, ridurre gli ingombri, semplificare l’intera struttura, ridurre la manutenzione, è applicato con sempre maggior frequenza. L’azienda Graham Packaging Company Italia s.r.l. produce macchinari industriali per la produzione di packaging plastico, i quali montano un gruppo di estrusione a monte della macchina che alimenta il gruppo di soffiaggio: si possono, quindi, intuire alcuni vantaggi derivanti dall’applicazione del “direct drive”. Nella soluzione attualmente adottata dall’azienda la vite di estrusione, che gira a velocità relativamente basse, è collegata tramite un riduttore ad un motore asincrono trifase, che ruota a velocità significativamente superiori. L’ipotesi di una soluzione differente prevederebbe l’accoppiamento della vite ad un motore coppia (torque motor) caratterizzato da una elevata coppia e giri relativamente bassi. I vantaggi di tale accoppiamento sarebbero fondamentalmente il risparmio energetico derivante dall’esclusione del riduttore dal meccanismo e la maggiore facilità di regolazione della velocità e di conseguenza anche della portata dell’estrusore. La tesi ha lo scopo di analizzare nel particolare l’attuale situazione dal punto di vista del consumo energetico delle 11 taglie di estrusori, di valutare una soluzione con motore coppia consultando diversi fornitori di motori, di comparare le due varianti dal punto di vista dell’efficienza e dei vantaggi economici.
Resumo:
Introduzione ai concetti fondamentali che stanno alla base del filtraggio multi-target e alle diverse problematiche connesse, con particolare riguardo alle applicazioni di tracking, cioè di inseguimento del target. In seguito valutazione di un possibile approccio alla realizzazione di un filtro di questo tipo e alla sua implementazione su un calcolatore. Nella seconda parte della tesi sono illustrati i risultati sperimentali che si ottengono dall’implementazione.
Resumo:
Partendo da un precedente studio, realizzato su di una macchina cellofanatrice ad asse verticale, si è arrivati ad ottenere un modello analitico per la verifica strutturale dell’anello rotante di tali macchine. Si è cercato cioè, di fornire un valido strumento per il dimensionamento di anelli rotanti nelle moderne macchine cellofanatrici, aventi geometria coerente con quella presentata nelle ipotesi iniziali. Per fare ciò, si sono determinate, ove possibile, equazioni normalizzate e adimensionalizzate, che godono quindi di una più ampia validità di impiego; a partire dalle equazioni del precedente studio, che erano appunto finalizzate alla risoluzione del caso specifico preso in considerazione. Vengono presentate in questo elaborato le equazioni che descrivono la struttura precedentemente studiata ed il procedimento che si è effettuato per rendere il nuovo lavoro indipendente dalle caratteristiche delle sollecitazioni esterne e della geometria dell’anello stesso. Sono mostrate le equazioni ottenute per le varie incognite iperstatiche, per i momenti flettenti e sforzo normale normalizzati e assoluti, ed i relativi grafici. Grazie appunto ad alcuni di questi, si ottengono rapidamente, tramite l’applicazione di semplici formule, informazioni sullo stato di sollecitazione dell’anello. Sono infine presentati alcuni esempi per sottolineare la validità dei risultati ottenuti e la semplicità di utilizzo dei grafici ricavati.
Resumo:
L'elaborato consiste nella prima traduzione italiana delle tre opere cardine dell'Ars Analytica di François Viète. L’obiettivo di questa tesi è quello di condurre un’analisi, attraverso la traduzione, il commento e l’interpretazione di Isagoge in Artem analyticem, Ad Logisticem Speciosam Notae Priores, Zeteticorum libri quinque, testi fondamentali per lo sviluppo dell’algebra come disciplina autonoma e obiettiva, prestando particolare attenzione anche alle interpretazioni geometriche proposte dagli allievi di Viète. Infine vengono analizzati gli zetetici, cioè i problemi, riguardanti la risoluzione delle equazioni diofantee di secondo e terzo grado alla luce delle osservazioni riportate da Fermat nella sua copia dell’Aritmetica (edizione di Claude Gaspard Bacheti, 1621). Fermat, infatti propone un’analisi del testo diofanteo che va al di là di una semplice traduzione, ottenendo risultati che sono ben noti agli storici della matematica e ai matematici.
Resumo:
L'elaborato riguarda uno specifico attacco all'RSA tramite teoremi sui reticoli elaborato da Coppersmith. Dopo una breve introduzione sulla crittografia simmetrica e asimettrica, cioè a chiave pubblica, vengono definiti i reticoli, basi di reticoli, basi ridotte, l'algoritmo LLL. In seguito viene mostrato come applicare quest'ultimo algoritmo nella risoluzione di equazioni modulari ad una variabili e le sue applicazioni come attacco all'RSA.
Resumo:
Una delle tecnologie radio che negli ultimi anni ha subito il maggior sviluppo è quella dell’identificazione a radio frequenza (Radio Frequency Identification), utilizzata in un gran numero di ambiti quali la logistica, il tracciamento, l’autenticazione e i pagamenti elettronici. Tra le tecnologie specifiche legate all’RFID si ritrova la Near Field Communication (NFC). Questa è una tecnologia di trasmissione dati a corto raggio che rappresenta un’evoluzione dell’RFID. Una delle caratteristiche dell’NFC è quella di instaurare una comunicazione tra due dispositivi in maniera semplice e intuitiva. L’oggetto che instaura la comunicazione è il Reader, nell’ambito RFID è un dispositivo altamente specializzato, poiché può lavorare a diverse frequenze operative. L’elemento innovativo che ha consentito il successo dell’NFC è il fatto che questa tecnologia possa integrare il Reader in uno strumento di comunicazione di largo uso, ovvero lo smartphone. Questo permette di inizializzare lo scambio dati, sia esso di lettura di un circuito integrato passivo o una trasmissione peer-to-peer, a seguito del naturale gesto di avvicinare lo smartphone. Analisti ed esperti del settore sono convinti del successo dell’NFC, nonostante siano state smentite le attese che vedevano l’NFC integrato in oltre la metà dei cellulari entro il 2010. Tra le molteplici applicazioni NFC in questo elaborato ci si soffermerà in particolare sul cosiddetto Smart Poster. Questo utilizzo può essere molto efficace avendo una gamma di impiego molto vasta. Per l’immagazzinamento dei dati nei Tag o nelle Smart Card si è utilizzato un protocollo d’incapsulamento dati chiamato NDEF (NFC Data Exchange Format) trattato nel capitolo 3 di questa trattazione. Nella seconda parte dell’elaborato si è realizzata una sperimentazione per misurare le distanze di funzionamento di cellulari e Reader per PC. In questo ambito si è realizzato quello che si è definito lo Smart Brick, cioè un mattone che comunica con dispositivi NFC grazie all’installazione di un Tag al suo interno. Si parlerà della realizzazione e degli strumenti software/hardware che hanno permesso di realizzare e programmare questo ”mattone elettronico”.
Resumo:
Alcune osservazioni sperimentali portano ad affermare che la maggior parte della massa dell'universo è costituita da un tipo di materia definita oscura, cioè materia che interagisce solo gravitazionalmente e debolmente. I candidati più promettenti sono tipicamente identificati con le WIMP (Weakly Interacting Massive Particle). L'esperimento XENON1T per la rivelazione di materia oscura, in fase di costruzione nei Laboratori Nazionali del Gran Sasso, sfrutta uno spessore di 1.4 km di roccia schermante. Il rivelatore è una Time Projection Chamber contenente circa 2 tonnellate di xeno e avrà sensibilità per sezioni d’urto WIMP-nucleo spin-indipendent pari a circa 2x10-47 cm2 (per WIMP di massa 50 GeV/c2), due ordini di grandezza al di sotto degli attuali limiti. Per raggiungere tale sensibilità la TPC sarà inserita in una tank cilindrica riempita di acqua ultrapura, che fungerà sia da schermo passivo contro la radiazione esterna (gamma e neutroni di bassa energia), sia da veto per i muoni cosmici. I muoni possono infatti produrre neutroni di energia tale da raggiungere la TPC e simulare segnali tipici delle WIMP. Essi sono identificati per via della radiazione Cherenkov, emessa in seguito al loro passaggio in acqua, rivelata per mezzo di 84 fotomoltiplicatori (PMT) 8'' Hamamatsu R5912ASSY HQE. Lo studio delle prestazioni e delle caratteristiche dei PMT utilizzati nel sistema di veto di muoni sono lo scopo di questo lavoro di tesi. In particolare è stato preparato un opportuno setup per i test dei fotomoltiplicatori e sono state effettuate misure di guadagno, dark rate ed afterpulse. In una prima fase sono stati testati in aria 50 PMT presso la Sezione INFN di Bologna, nel periodo compreso tra Novembre 2012 e Marzo 2013 ed in una seconda fase sono stati testati in acqua 90 PMT presso i Laboratori Nazionali del Gran Sasso, nel periodo compreso tra Aprile e Settembre 2013.
Resumo:
Le caratteristiche del 99mTc e la possibilità per gli ospedali di produrlo in loco quotidianamente grazie ai generatori, hanno reso questo radioisotopo il più utilizzato della fisica medica: è richiesto in circa l’80% delle procedure di medicina nucleare con circa 7 milioni di somministrazioni all’anno in Europa e 8 milioni negli USA. Inoltre il campo di applicabilità del 99mTc è molto vasto: viene infatti utilizzato per scintigrafie ossee, epatiche, renali, celebrali, tiroidee e per il controllo della funzionalità epatica. A causa del notevole incremento dell’insorgenza di patologie oncologiche e dell’aumento della popolazione, la richiesta di 99mTc è sempre cresciuta negli anni ed è ancora destinata a crescere nei prossimi; l’unico fattore attenuante è lo sviluppo di altre tecniche di diagnostica funzionale come la PET ( Positron Emission Tomography ). Nonostante la creazione del 99mTc da generatori di 99Mo sia ancora oggi il metodo di produzione più efficiente, si sta ponendo recentemente la necessità di ricercare nuove tecniche di produzione dell’isotopo per soddisfare le grandi quantità richieste dal mercato globale. Questo accade perché malgrado l’utilizzo del 99mTc sia in forte crescita, la produzione di 99Mo è destinata a diminuire in quanto necessita di reattori nucleari: gli ingenti costi delle moderne centrali e le elevate quantità di scorie prodotte, stanno guidando la politica mondiale verso una denuclearizzazione che renderà in pochi anni impossibile soddisfare la richiesta di 99Mo della medicina nucleare. Questo lavoro di tesi si colloca in questo contesto, cioè nella ricerca di un metodo alternativo per la produzione di 99mTc: l’irraggiamento con protoni di un target di 100Mo arricchito, in un ciclotrone ad uso medicale. L’obbiettivo che si vuole raggiungere è fornire una stima attendibile su tale produzione, valutare la qualità dell’isotopo e mettere in luce eventuali problematiche riscontrabili.
Resumo:
La RNA interference è un processo attraverso il quale alcuni piccoli frammenti di RNA (19-25 nucleotidi) sono in grado di silenziare l'espressione genica. La sua scoperta, nel 1998, ha rivoluzionato le concezioni della biologia molecolare, minando le basi del cosiddetto Dogma Centrale. Si è visto che la RNAi riveste ruoli fondamentali in meccanismi di regolazione genica, nello spegnimento dell'espressione e funziona come meccanismo di difesa innata contro varie tipologie di virus. Proprio a causa di queste implicazioni richiama interesse non solo dal punto di vista scientifico, ma anche da quello medico, in quanto potrebbe essere impiegata per lo sviluppo di nuove cure. Nonostante la scoperta di tale azione desti la curiosità e l'interesse di molti, i vari processi coinvolti, soprattutto a livello molecolare, non sono ancora chiari. In questo lavoro si propongono i metodi di analisi di dati di un esperimento prodotto dall'Istituto di Biologia molecolare e cellulare di Strasburgo. Nell'esperimento in questione vengono studiate le funzioni che l'enzima Dicer-2 ha nel pathway - cioè la catena di reazioni biomolecolari - della RNA interference durante un'infezione virale nel moscerino della frutta Drosophila Melanogaster. Per comprendere in che modo Dicer-2 intervenga nel silenziamento bisogna capire in quali casi e quali parti di RNA vengono silenziate, a seconda del diverso tipo di mutazione dell'enzima stesso. Dunque è necessario sequenziare l'RNA nelle diverse condizioni sperimentali, ottenendo così i dati da analizzare. Parte dei metodi statistici che verranno proposti risultano poco convenzionali, come conseguenza della peculiarità e della difficoltà dei quesiti che l'esperimento mette in luce. Siccome le tematiche affrontate richiedono un approccio sempre più interdisciplinare, è aumentata considerevolmente la richiesta di esperti di altri settori scientifici come matematici, informatici, fisici, statistici e ingegneri. Questa collaborazione, grazie a una diversità di approccio ai problemi, può fornire nuovi strumenti di comprensione in ambiti che, fino a poco tempo fa, rientravano unicamente nella sfera di competenza dei biologi.
Resumo:
La mia sperimentazione si inserisce in un progetto di respiro nazionale- “AGER-STAY FRESH”- volto a trovare soluzioni di lavaggio alternative al cloro per il prolungamento della shelf-life delle produzioni di IV gamma. Questi prodotti rappresentano, attualmente, uno dei più promettenti ed innovativi comparti del settore ortofrutticolo e sono definiti, secondo le norme della Comunità Europea, prodotti minimamente trasformati, cioè soggetti a interventi tecnologici ridotti, ed utilizzabili per il consumo diretto senza ulteriori manipolazioni, o con manipolazioni minime. La loro espansione sul mercato deriva dal fatto che sono in grado di offrire alta convenienza, alto valore nutrizionale ed organolettico e sono concepiti dai consumatori come prodotti “genuini” in quanto a base vegetale e, generalmente, non contengono sostanze antimicrobiche. Tuttavia, le materie prime vegetali utilizzate per le produzioni di IV gamma sono spesso caratterizzate da elevate contaminazioni microbiche (4-6 log UFC/g) poiché, durante la crescita o il post-raccolta, frutti o vegetali vengono a contatto con il suolo, insetti o contaminazioni di origine umana.Al momento la shelf-life e la sicurezza d’uso di questa categoria di prodotti sono basate principalmente sul mantenimento della catena del freddo unitamente alla fase di lavaggio delle materie prime con sostanze clorate. Recentemente, però, alcuni autori hanno evidenziato alcuni svantaggi derivanti da questa fase di processo come la formazione di composti clorati cancerogeni. In questa prospettiva, il principale obiettivo di questo lavoro di tesi è stato quello di valutare gli effetti di olio essenziale di cedro e alcuni composti bioattivi degli oli essenziali (citrale, esanale, trans-2-esenale e carvacrolo), utilizzati singolarmente o in combinazione, sulla shelf-life di mele affettate di IV gamma. Su tutti i prodotti sono state eseguite analisi microbiologiche, di texture e colore. Un ulteriore obiettivo di questo lavoro sperimentale è stato quello di ottimizzare alcuni parametri di processo come la riduzione del rapporto acqua di lavaggio/prodotto ed incrementare la temperatura dell’acqua utilizzata al fine di meglio solubilizzare gli antimicrobici in fase di dipping.
Resumo:
In questo lavoro di tesi sono stati confrontati diversi protocolli per la purificazione della proteina CRM197 mediante cromatografia di affinità a cationi divalenti. Il CRM197 è una variante della tossina difterica caratterizzata da stessa massa molecolare e struttura. A causa di un’unica mutazione (G52E), tale variante è atossica e presenta numerose applicazioni in campo farmaceutico (in particolare nella preparazione di vaccini coniugati). Fino ad ora, per la produzione del CRM197 è stato utilizzato il ceppo originale di derivazione, cioè Corynebacterium diphteriae, e la produzione eterologa nel batterio Escherichia coli ha mostrato notevoli difficoltà. In particolare, mentre è stato possibile definire un valido protocollo di sovraespressione e di estrazione proteica, le fasi successive di purificazione e di refolding (rinaturazione) sono ancora problematiche e causano basse rese finali, ostacolando le prospettive di scale-up su scala industriale. Il CRM197, infatti, per le sue caratteristiche strutturali, come l’elevata percentuale di amminoacidi idrofobici e la presenza di foglietti β esposti al solvente, è suscettibile alla formazione di aggregati insolubili che impone, lungo tutto il processo, il controllo delle interazioni idrofobiche (con agenti denaturanti e/o detergenti). In un precedente lavoro di tesi, è stato sviluppato un protocollo valido per ottenere un’elevata espressione proteica intracellulare. Il primo passaggio di purificazione prevede una cromatografia di affinità su colonna che viene sfruttata anche per eseguire il refolding proteico. Tuttavia, durante la messa a punto di tale processo, sono stati osservati evidenti fenomeni di aggregazione della proteina, oltre all’instaurarsi di legami aspecifici proteina-proteina o proteina-resina cromatografica. In questo lavoro di tesi sono state affrontate alcune problematiche legate a tale passaggio di purificazione per cercare di individuare le condizioni ottimali per ottenere il CRM197 in forma nativa e biologicamente attiva.