895 resultados para PCM, accumulo latente, fluidi a cambiamento di fase, acido laurico
Resumo:
La simulazione di un sistema quantistico complesso rappresenta ancora oggi una sfida estremamente impegnativa a causa degli elevati costi computazionali. La dimensione dello spazio di Hilbert cresce solitamente in modo esponenziale all'aumentare della taglia, rendendo di fatto impossibile una implementazione esatta anche sui più potenti calcolatori. Nel tentativo di superare queste difficoltà, sono stati sviluppati metodi stocastici classici, i quali tuttavia non garantiscono precisione per sistemi fermionici fortemente interagenti o teorie di campo in regimi di densità finita. Di qui, la necessità di un nuovo metodo di simulazione, ovvero la simulazione quantistica. L'idea di base è molto semplice: utilizzare un sistema completamente controllabile, chiamato simulatore quantistico, per analizzarne un altro meno accessibile. Seguendo tale idea, in questo lavoro di tesi si è utilizzata una teoria di gauge discreta con simmetria Zn per una simulazione dell'elettrodinamica quantistica in (1+1)D, studiando alcuni fenomeni di attivo interesse di ricerca, come il diagramma di fase o la dinamica di string-breaking, che generalmente non sono accessibili mediante simulazioni classiche. Si propone un diagramma di fase del modello caratterizzato dalla presenza di una fase confinata, in cui emergono eccitazioni mesoniche ed antimesoniche, cioè stati legati particella-antiparticella, ed una fase deconfinata.
Resumo:
In questa tesi si sono valutate le prestazioni di un sistema di localizzazione multi-antenna di tag radio frequency identification (RFID) passivi in ambiente indoor. Il sistema, composto da un reader in movimento che percorre una traiettoria nota, ha come obiettivo localizzare il tag attraverso misure di fase; più precisamente la differenza di fase tra il segnale di interrogazione, emesso dal reader, e il segnale ricevuto riflesso dal tag che è correlato alla distanza tra di essi. Dopo avere eseguito una ricerca sullo stato dell’arte di queste tecniche e aver derivato il criterio maximum likelihood (ML) del sistema si è proceduto a valutarne le prestazioni e come eventuali fattori agissero sul risultato di localizzazione attraverso simulazioni Matlab. Come ultimo passo si è proceduto a effettuare una campagna di misure, testando il sistema in un ambiente reale. Si sono confrontati i risultati di localizzazione di tutti gli algoritmi proposti quando il reader si muove su una traiettoria rettilinea e su una traiettoria angolare, cercando di capire come migliorare i risultati.
Resumo:
Il testo contiene nozioni base di probabilità necessarie per introdurre i processi stocastici. Sono trattati infatti nel secondo capitolo i processi Gaussiani, di Markov e di Wiener, l'integrazione stocastica alla Ito, e le equazioni differenziali stocastiche. Nel terzo capitolo viene introdotto il rapporto tra la genetica e la matematica, dove si introduce l'evoluzione la selezione naturale, e altri fattori che portano al cambiamento di una popolazione; vengono anche formulate le leggi basilari per una modellizzazione dell’evoluzione fenotipica. Successivamente si entra più nel dettaglio, e si determina un modello stocastico per le mutazioni, cioè un modello che riesca ad approssimare gli effetti dei fattori di fluttuazione all'interno del processo evolutivo.
Resumo:
Il paesaggio attuale è un'eredità del passato.Solo chi conosce e capisce il passato è in grado di gestire il futuro.Lo studio dell'evoluzione naturale passata è utile quindi non solo per la comprensione dell'origine del nostro ambiente,ma anche per la pianificazione della gestione futura.Solo da pochi decenni si è per esempio riusciti a capire che gli estesi castagneti del Sud delle Alpi non hanno origine naturale,ma sono dovuti alla mano dell'uomo,che, al tempo della colonizzazione romana,ha iniziato a coltivare il castagno in maniera sistematica. Ma come è possibile ricostruire vicende della natura tanto remote? Sul fondo dei laghi e nelle torbiere i resti fossili di vegetali (p.es.polline e microcarboni) e di animali si sono accumulati nel corso dei millenni, rimanendo inalterati a causa della mancanza di ossigeno e quindi di organismi distruttori. Attraverso la trivellazione e l'analisi in laboratorio degli strati di questi sedimenti è possibile ricostruire il tipo di polline (e per analogia di vegetazione) e la frequenza di microcarboni (e quindi di incendi di bosco) che si sono succeduti nel corso dei millenni. E' quanto è stato fatto nel corso dell'ultimo decennio da parte dell'Università di Berna nei Laghi di Origlio e di Muzzano,ottenendo risultati interessanti e per certi versi anche inaspettati. A partire dal 5.500 a.C.la frequenza degli incendi è aumentata a causa dell'azione dell'uomo:i primi contadini delle nostre terre utilizzavano infatti il fuoco come mezzo per eliminare la foresta e guadagnare spazi aperti per l'agricoltura e l'allevamento del bestiame.Una pratica che nel corso dei millenni ha provocato anche una forte selezione della vegetazione arborea,distruggendo le foreste originali. La trasformazione del paesaggio forestale da parte dell'uomo non è quindi un fenomeno limitato agli ultimi 2.000 anni,ma ha le proprie radici nel Neolitico,oltre 7.000 anni orsono.Nel periodo del Ferro (800-15 a.C.),l'utilizzo del fuoco nella gestione del paesaggio diventa una pratica molto ricorrente, come dimostrano i picchi estremi della frequenza dei microcarboni.Bisognerà attendere l'introduzione del castagno durante l'Epoca Romana per assistere a un netto cambiamento di approccio:i castagneti diventano boschi di reddito da gestire senza l'aiuto del fuoco. A partire da questo momento,la frequenza degli incendi diminuisce drasticamente. Grazie a questi studi è stato quindi possibile capire l'origine della nostra attuale copertura boschiva e intuire quali sarebbero senza l'intervento dell'uomo le specie dominanti nei nostri boschi. Informazioni di estrema importanza per una futura gestione selvicolturale in sintonia con la natura.
Reformulation of a thermostable broadly protective recombinant vaccine against human papilloma virus
Resumo:
The causal relationship between Human Papilloma Virus (HPV) infection and cervical cancer has motivated the development, and further improvement, of prophylactic vaccines against this virus. 70% of cervical cancers, 80% of which in low-resources countries, are associated to HPV16 and HPV18 infection, with 13 additional HPV types, classified as high-risk, responsible for the remaining 30% of tumors. Current vaccines, Cervarix® (GlaxoSmithKline) and Gardasil®(Merk), are based on virus-like particles (VLP) obtained by self-assembly of the major capsid protein L1. Despite their undisputable immunogenicity and safety, the fact that protection afforded by these vaccines is largely limited to the cognate serotypes included in the vaccine (HPV 16 and 18, plus five additional viral types incorporated into a newly licensed nonavalent vaccine) along with high production costs and reduced thermal stability, are pushing the development of 2nd generation HPV vaccines based on minor capsid protein L2. The increase in protection broadness afforded by the use of L2 cross-neutralizing epitopes, plus a marked reduction of production costs due to bacterial expression of the antigens and a considerable increase in thermal stability could strongly enhance vaccine distribution and usage in low-resource countries. Previous studies from our group identified three tandem repeats of the L2 aa. 20-38 peptide as a strongly immunogenic epitope if exposed on the scaffold protein thioredoxin (Trx). The aim of this thesis work is the improvement of the Trx-L2 vaccine formulation with regard to cross-protection and thermostability, in order to identify an antigen suitable for a phase I clinical trial. By testing Trx from different microorganisms, we selected P. furiosus thioredoxin (PfTrx) as the optimal scaffold because of its sustained peptide epitope constraining capacity and striking thermal stability (24 hours at 100°C). Alternative production systems, such as secretory Trx-L2 expression in the yeast P. pastoris, have also been set-up and evaluated as possible means to further increase production yields, with a concomitant reduction of production costs. Limitations in immune-responsiveness caused by MHC class II polymorphisms –as observed, for example, in different mouse strains- have been overcome by introducing promiscuous T-helper (Th) epitopes, e.g., PADRE (Pan DR Epitope), at both ends of PfTrx. This allowed us to obtain fairly strong immune responses even in mice (C57BL/6) normally unresponsive to the basic Trx-L2 vaccine. Cross-protection was not increased, however. I thus designed, produced and tested a novel multi-epitope formulation consisting of 8 and 11 L2(20-38) epitopes derived from different HPV types, tandemly joined into a single thioredoxin molecule (“concatemers”). To try to further increase immunogenicity, I also fused our 8X and 11X PfTrx-L2 concatemers to the N-terminus of an engineered complement-binding protein (C4bp), capable to spontaneously assemble into ordered hepatmeric structures, previously validated as a molecular adjuvant. Fusion to C4bp indeed improved antigen presentation, with a fairly significant increase in both immunogenicity and cross-protection. Another important issue I addressed, is the reduction of vaccine doses/treatment, which can be achieved by increasing immunogenicity, while also allowing for a delayed release of the antigen. I obtained preliminary, yet quite encouraging results in this direction with the use of a novel, solid-phase vaccine formulation, consisting of the basic PfTrx-L2 vaccine and its C4bp fusion derivative adsorbed to mesoporus silica-rods (MSR).
Resumo:
Un sistema meccanico è descritto da equazioni differenziali spesso non lineari. Nel maggior numero dei casi tali equazioni non sono risolubili per via analitica e quindi si ricorre all'analisi qualitativa del moto che permette di ricavare informazioni su di esso senza integrare le equazioni. Nell’approccio qualitativo il metodo più utilizzato è la discussione alla Weierstrass che permette di ricavare informazioni sul moto di un punto materiale, che si muove di moto unidimensionale, soggetto a forze conservative, a partire dalla legge di conservazione dell'energia totale. Un altro metodo molto efficace è la costruzione del diagramma di fase, che nel caso di un punto materiale si riduce allo studio delle curve di livello dell’energia totale e permette di rappresentare lo stato del sistema in ogni istante di tempo. Infine altri due metodi analitici che si utilizzano nel caso di oscillazioni non lineari sono il metodo delle approssimazioni successive e delle perturbazioni. In questa tesi viene illustrato ampiamente il primo metodo e si danno alcuni cenni degli altri due, corredandoli con esempi.
Resumo:
Questo lavoro di tesi nasce all’interno del nucleo di ricerca in didattica della fisica dell’Università di Bologna, coordinato dalla professoressa Olivia Levrini e che coinvolge docenti di matematica e fisica dei Licei, assegnisti di ricerca e laureandi. Negli ultimi anni il lavoro del gruppo si è concentrato sullo studio di una possibile risposta all'evidente e pressante difficoltà di certi docenti nell'affrontare gli argomenti di meccanica quantistica che sono stati introdotti nelle indicazioni Nazionali per il Liceo Scientifico, dovuta a cause di vario genere, fra cui l'intrinseca complessità degli argomenti e l'inefficacia di molti libri di testo nel presentarli in modo adeguato. In questo contesto, la presente tesi si pone l’obiettivo di affrontare due problemi specifici di formalizzazione matematica in relazione a due temi previsti dalle Indicazioni Nazionali: il tema della radiazione di corpo nero, che ha portato Max Planck alla prima ipotesi di quantizzazione, e l’indeterminazione di Heisenberg, con il cambiamento di paradigma che ha costituito per l’interpretazione del mondo fisico. Attraverso un confronto diretto con le fonti, si cercherà quindi di proporre un percorso in cui il ruolo del protagonista sarà giocato dagli aspetti matematici delle teorie analizzate e dal modo in cui gli strumenti della matematica hanno contribuito alla loro formazione, mantenendo un costante legame con le componenti didattiche. Proprio in quest'ottica, ci si accorgerà della forte connessione fra i lavori di Planck e Heisenberg e due aspetti fondamentali della didattica della matematica: l'interdisciplinarietà con la fisica e il concetto di modellizzazione. Il lavoro finale sarà quindi quello di andare ad analizzare, attraverso un confronto con le Indicazioni Nazionali per il Liceo Scientifico e con alcune esigenze emerse dagli insegnanti, le parti e i modi in cui la tesi risponde a queste richieste.
Resumo:
Lo studio del polimorfismo gioca un ruolo fondamentale in diversi ambiti di ricerca, con applicazioni importanti nel campo dei semi conduttori organici e dei farmaci, dovuto al fatto che i diversi polimorfi di una sostanza presentano proprietà chimico-fisiche distinte. Questo lavoro di tesi si è focalizzato sullo studio del polimorfismo del paracetamolo, principio attivo (API) di diversi farmaci molto utilizzati, attraverso l’utilizzo della microscopia Raman. La microscopia Raman è una tecnica efficace per l’indagine del polimorfismo di materiali organici ed inorganici, in quanto permette di monitorare la presenza di diverse fasi solide e le loro trasformazioni su scala micrometrica. Le differenze di struttura cristallina che caratterizzano i polimorfi vengono analizzate attraverso gli spettri Raman nella regione dei modi reticolari (10-150 cm^{-1}), le cui frequenze sondano le interazioni inter-molecolari, molto sensibili anche a lievi differenze di impaccamento molecolare. Con questa tecnica abbiamo caratterizzato le forme I, II, III (quella elusiva) e diverse miscele di fase di paracetamolo su campioni ottenuti con numerose tecniche di crescita dei cristalli. Per questa tesi è stato svolto anche uno studio computazionale, attraverso metodi Density Functional Theory (DFT) per la molecola isolata e metodi di minimizzazione dell’energia e di dinamica reticolare per i sistemi cristallini. Abbiamo inoltre verificato se il modello di potenziale di letteratura scelto (Dreiding [Mayo1990]) fosse adatto per descrivere la molecola di paracetamolo, le strutture dei suoi polimorfi e i relativi spettri vibrazionali.
Resumo:
Nel sistema nervoso centrale i neuroni comunicano l'uno con l'altro attraverso le connessioni sinaptiche e sono soggetti a centinaia di stimoli, ma hanno la capacità di distinguerli l'uno dall'altro. L'abilità delle sinapsi di interpretare questi cambiamenti morfologici e biochimici è detta \textit{plasticità sinaptica} e l'obiettivo di questa tesi è proprio studiare un modello per le dinamiche di questo affascinante processo, da un punto di vista prima deterministico e poi stocastico. Infatti le reazioni che inducono la plasticità sinaptica sono ben approssimate da equazioni differenziali non lineari, ma nel caso di poche molecole bisogna tener conto delle fluttuazioni e quindi sono necessari dei metodi di analisi stocastici. Nel primo capitolo, dopo aver introdotto gli aspetti fondamentali del sistema biochimico coinvolto e dopo aver accennato ai diversi studi che hanno approcciato l'argomento, viene illustrato il modello basato sull'aggregazione delle proteine (PADP) volto a spiegare la plasticità sinaptica. Con il secondo capitolo si introducono i concetti matematici che stanno alla base dei processi stocastici, strumenti utili per studiare e descrivere la dinamica dei sistemi biochimici. Il terzo capitolo introduce una giustificazione matematica riguardo la modellizzazione in campo medio e vede una prima trattazione del modello, con relativa applicazione, sui moscerini. Successivamente si applica il modello di cui sopra ai mammiferi e se ne studia nel dettaglio la dinamica del sistema e la dipendenza dai parametri di soglia che portano alle varie transizioni di fase che coinvolgono le proteine. Infine si è voluto osservare questo sistema da un punto di vista stocastico inserendo il rumore di Wiener per poi confrontare i risultati con quelli ottenuti dall'approccio deterministico.
Resumo:
Il consumo di prodotti da forno lievitati in Italia, è rilevante in occasione di alcune feste religiose quali Pasqua e Natale. Prodotti come il Panettone e Colomba hanno acquisito una diffusione nazionale ed internazionale. Questi prodotti sono ottenuti mediante procedure specifiche caratterizzate da passaggi simili. In ogni caso la loro preparazione parte dall’utilizzo di un lievito madre continuamente rinfrescato. Il lievito madre (o impasto acido) è una miscela di acqua e farina fermentata da un microbiota complesso che include LAB, che producono acido lattico, e lieviti fermentativi che producono CO2 ed etanolo con conseguenze sulle caratteristiche reologiche e organolettiche, soprattutto per il profilo aromatico del prodotto finale. In questo lavoro mi sono occupato di valutare l’evoluzione della composizione microbica della Colomba nelle diverse fasi del processo produttivo, cercando di individuare le relazioni fra il microbiota e alcune caratteristiche chimico-fisiche del prodotto. Il lavoro di caratterizzazione del microbiota del prodotto, effettuato nelle diverse fasi del processo produttivo, ha mostrato come l’impasto madre sia caratterizzato da una bassa biodiversità sia di LAB che di lieviti. I microorganismi dominanti risultano essere due biotipi della specie L. sanfranciscensis e, per i lieviti, un solo biotipo della specie T. delbrueckii, con la comparsa di C. humilis solo in un campione con una frequenza relativa molto bassa. Per quel che riguarda l’evoluzione del microbiota durante il processo produttivo, l’aggiunta del lievito commerciale altera i rapporti tra LAB/ lieviti dove le concentrazioni dei LAB, durante impastamento, si riducono incidendo sulle caratteristiche chimico-fisiche degli impasti stessi in termini di maggiori valori di pH e ridotto contenuto in acido lattico. L’aggiunta di S. cerevisiae e successiva lievitazione incidono significativamente sul profilo aromatico del prodotto, in termini di riduzione di acidi (acido acetico) e di esteri ed aumento di molecole: etanolo, alcol fenetilico, acetaldeide ed acetoino, derivanti del lievito commerciale.
Resumo:
Nella presente analisi si è avuta l’eccezionale disponibilità di dati longitudinali su molti individui (6000studenti frequentanti le scuole superiori bolognesi). Per ottenere un modello che al meglio spiegasse e riproducesse l’andamento degli esiti scolastici (promozione alla classe successiva) tenendo conto del percorso scolastico nel tempo, si è scelto il modello a curva latente condizionato. La variabile risposta è combinazione lineare dell’esito di fine anno (Promosso/Non promosso); riassume, per ogni studente/anno scolastico, classe frequentata ed esito finale. Le variabili esplicative sono state selezionate tra le informazioni disponibili per gli individui. Vengono presentati alcuni dati aggregati, poi descritti i dati individuali che entreranno nel modello, evidenziando la composizione degli studenti. La prima fase è la stima del modello logistico, con specificazione delle criticità, che hanno indotto alla scelta successiva del modello dipendente dal tempo. Dopo la descrizione della metodologia principale utilizzata, la teoria del conditionalLCM, e la selezione degli indicatori di fitting, viene delineata la procedura di stima, e raggiunto il modello ottimale. Le variabili significative per spiegare l’andamento delle promozioni individuali nel tempo risultano: cittadinanza (italiani con risultati significativamente migliori degli stranieri), sesso (ragazze con percorso scolastico mediamente migliore dei ragazzi: la differenza risulta però significativa soltanto negli istituti tecnici e professionali), tipologia di scuola frequentata (studenti del liceo con risultati significativamente migliori di chi frequenta altri tipi di istituto). I risultati risultano fortemente dipendenti dai dati impiegati, specie riguardo al limite territoriale. Precedenti analisi evidenziavano una forte differenziazione dei risultati scolastici tra studenti del nord e del sud Italia, oltre che tra studenti dei comuni maggiormente popolati e studenti dei comuni di provincia. Sarebbe interessante disporre di dati individuali analoghi a quelli qui utilizzati, ma riferiti all’intero territorio nazionale, oppure ad un zona maggiormente vasta dell’Italia, onde saggiare l’entità dell’influenza sul percorso scolastico,ed in particolare sulla regolarità, della differenza territoriale.
Resumo:
Si vuole dimostrare la fattibilità di realizzazione di una serie di misuratori di portata fluidi da applicare principalmente per le misure di portata dei fluidi di un motore in prova al banco. Queste portate di interesse riguardano: liquido di raffreddamento, tipicamente acqua a una temperatura prossima ai 100°C, olio lubrificante, tipicamente ad una temperatura di 150°C, aria di aspirazione, BlowBy, aria che filtra dalle fasce elastiche e dalla camera di combustione passa in coppa e quindi presenta goccioline e vapori d'olio, e possibilmente EGR. La prima fase consiste nel valutare ciò che offre il mercato per rendersi conto di quali sono i livelli di prestazione di misura dei sensori commerciali e il loro prezzo. Dunque, oltre alla consultazione di datasheet, segue una richiesta di preventivi ai fornitori di tali prodotti. Conclusa la fasce di analisi di mercato sopra descritta si avvia la fase di design del misuratore. Dopo l'analisi il principio di misura ottimale risulta quello ultrasonico. In particolare è opportuno effettuare una prima distinzione fra misuratori per liquidi e per gas, i quali naturalmente presenteranno differenze geometriche sia per la compatibilità con l'impianto nel quale verranno montati sia per le caratteristiche del fluido di cui interessa la misura. Disegnata a CAD la geometria i due tubi vengono stampati in 3D, dopodichè vengono montati i trasduttori per la generazione e la ricezione degli ultrasuoni. Si effettuano le prove di laboratorio, per liquidi e poi per gas, nel primo caso misurando la portata acqua messa in circolo da una pompa, nel secondo caso misurando la portata aria di un Ducati al banco motori. I dati acquisiti da varie prove vengono poi elaborati tramite Matlab, e si ricavano conclusioni in termini di rumore, accuratezza, ripetibilità ed infine di conferma che è fattibile realizzarli ad un costo contenuto ma che per riuscirci è necessario molto più sviluppo e ottimizzazione.
Resumo:
En esta investigación se ha diseñado y fabricado un panel de escayola que incorpora un 45% en peso de material de cambio de fase, manteniendo las propiedades físicas y mecánicas exigidas en la normativa de aplicación para yesos de construcción (UNE EN 13279 y referencias a la RY 85). Así, un panel de 1,0 m2 y 1,5 cm de espesor, contiene 4,75 kg de PCM, cantidad muy superior a la conseguida hasta la fecha (3 kg/m2). Para ello se ha mejorado previamente sus prestaciones mecánicas y físicas mediante adiciones binarias: fibras de polipropileno y dispersión de melanina formaldehído. Este porcentaje es capaz de almacenar en 1,5 cm de espesor cinco veces la energía térmica de un panel de cartón yeso con el mismo espesor y la misma cantidad que una fábrica de 1/2 pie de ladrillo hueco, en el rango de temperaturas próximas a la de confort (20-30 ºC)
Resumo:
This thesis has been focused on the proteomic characterization of human saliva from donors of different ages, starting from birth up to adult age, and pediatric brain tumor tissues. The first study has been performed in order to compare the acid-insoluble fraction of saliva from preterm with at-term newborns and adults and establish if differences exist. In the second study medulloblastoma and pilocytic astrocytoma pediatric brain tumor extracts have been compared. In both studies 2- DE analysis was coupled with high resolution tandem mass spectrometry (MS/MS). The proteomic characterization of the acid-insoluble fractions of saliva from preterm newborns allowed to integrate data previously obtained on the acid-soluble fraction by HPLC-electrospray ionization (ESI)-mass spectrometry (MS), and to evidence several differences between preterm newborns, at-term newborns and adults. Spots differentially expressed between the three groups, according to image analysis of the gels, were submitted to in-gel tryptic digestion and the peptide mixture analyzed by high performance HPLC-ESI-MS/MS for their characterization. By this strategy, we identified three over-expressed proteins in atterm newborns with respect to preterm newborns and adults (BPI fold-containing family A member 1, two proteoforms of annexin A1, and keratin type 1 cytoskeletal 13), and several over-expressed proteins in adults (fatty acid-binding protein, S100A6, S100A7, two proteoforms of S100A9, several proteoforms of prolactin-inducible protein, Ig kappa chain, two proteoforms of cystatin SN, one proteoform of cystatin S and several proteoforms of α-amylase 1). Moreover, for the first time, it was possible to assign by MS/MS four spots of human saliva 2-DE, already detected by other authors, to different proteoforms of S100A9. The strategy applied used a sequential staining protocol to the 2-DE gels, first with Pro-Q Diamond, that allows specific detection of phosphoproteins, and successively with total protein SYPRO Ruby stain. In the second study, proteomic analysis of two pediatric brain tumor tissues pointed out differences between medulloblastoma, the prevalent malignant tumor in childhood, and pilocytic astrocytoma, the most common, that only rarely shows a malignant progression. Due to the limited availability of bioptic tissue, the study was performed on pooled tumor tissues, and was focused on acid-insoluble fraction to integrate the characterization performed by a group of colleagues in Rome on the acid-soluble fraction by high performance HPLC-ESI-MS/MS. The results indicated that the two tumors exhibit different proteomic profiles and evidenced interesting differential expression of several proteins. Among them, peroxiredoxin- 1, peptidyl-prolyl cis–trans isomerase A, heterogeneous nuclear ribonucleoproteins A2/B1, mitochondrial isoform of malate dehydrogenase, nucleoside diphosphate kinase A, glutathione S-transferase P and fructose bisphosphate aldolase A resulted significantly over-expressed in medulloblastoma while glial fibrillary acidic protein, serotransferrin, α crystallin B chain, ferritin light chain, annexin A5, fatty acid-binding protein (brain), sorcin and apolipoprotein A-I resulted significantly over-expressed in pilocytic astrocytoma. In conclusion, the work done allowed to evidence the usefulness of using an integrated bottom-up/top-down approach, based on 2-DE-MS analysis and high performance MS in order to obtain a complete characterization of the proteome under investigation, revealing and identifying, not only peptides and small proteins, but also proteins with higher MW, that often it is not possible to identify by using exclusively a top-down ESI-MS approach.