998 resultados para POI
Resumo:
NGAL (Neutrophil Gelatinase-associated Lipocalin ) is a protein of lipocalin superfamily. Recent literature focused on its biomarkers function in several pathological condition (acute and chronic kidney damage, autoimmune disease, malignancy). NGAL biological role is not well elucidated. Several are the demonstration of its bacteriostatic role. Recent papers have indeed highlight NGAL role in NFkB modulation. The aim of this study is to understand whether NGAL may exert a role in the activation (modulation) of T cell response through the regulation of HLA-G complex, a mediator of tolerance. From 8 healthy donors we obtained peripheral blood mononuclear cells (PBMCs) and we isolated by centrifugation on a Ficoll gradient. Cells were then treated with four concentrations of NGAL (40-320 ng/ml) with or without iron. We performed flow cytometry analysis and ELISA test. NGAL increased the HLA-G expression on CD4+ T cells, with an increasing corresponding to the dose. Iron effect is not of unique interpretation. NGAL adiction affects regulatory T cells increasing in vitro expansion of CD4+ CD25+ FoxP3+ cells. Neutralizing antibody against NGAL decreased HLA-G expression and reduced significantly CD4+ CD25+ FoxP3+ cells percentage. In conclusion, we provided in vitro evidence of NGAL involvement in cellular immunity. The potential role of NGAL as an immunomodulatory molecule has been evaluated: it has been shown that NGAL plays a pivotal role in the induction of immune tolerance up regulating HLA-G and T regulatory cells expression in healthy donors. As potential future scenario we highlight the in vivo role of NGAL in immunology and immunomodulation, and its possible relationship with immunosuppressive therapy efficacy, tolerance induction in transplant patients, and/or in other immunological disorders.
Resumo:
L’elaborato ha avuto ad oggetto l’analisi delle sofisticate soluzioni normative proposte dall’ordinamento nazionale in relazione all’evoluzione della finanza di progetto. In particolare, è stata condotto un dettagliato studio delle fasi che compongono il project financing, nonché dei soggetti che, a diverso titolo e ragione, vi partecipano. L’elaborato contiene, poi, recenti esempi concreti di project financing nelle infrastrutture primarie (autostrade) tra cui il progetto di costruzione e la successiva gestione dell’autostrada regionale Medio Padana veneta, dell’autostrada regionale Cispadana, e dell’autostrada “Nogara-mare”. L’ultimo parte della tesi è stata infine incentrata sull’analisi delle più recenti pronunce giurisprudenziali in materia di project financing. In particolare, si ha avuto modo di analizzare il fenomeno dello jus poenitendi dell’amministrazione aggiudicatrice, nonché, più in generale gli eventi che possono negativamente incidere sulla finanza di progetto (mancata aggiudicazione, risoluzione del contratto di gestione, ecc.).
Resumo:
Lo scopo di questa tesi è di esporre il cuore centrale della teoria di Galois, la risolubilità per radicali delle equazioni polinomiali nel caso in cui il campo di partenza abbia caratteristica 0. L’operato è articolato in tre capitoli. Nel primo capitolo vengono introdotte le nozioni fondamentali della teoria dei campi e della teoria di Galois. Nel secondo capitolo, si sviluppa il problema della risolubilità per radicali. Vengono prima introdotti i gruppi risolubili e alcune loro particolarità. Poi vengono introdotte le nozioni di estensioni radicali e risolubili e relativi teoremi. Nel paragrafo 2.3 viene dimostrato il teorema principale della teoria, il teorema di Galois, che identifica la risolubilità del gruppo di Galois con la risolubilità dell’estensione. Infine l’ultimo paragrafo si occupa della risolubilità dei polinomi, sfruttando il loro campo di spezzamento. Nel terzo ed ultimo capitolo, viene discussa la risolubilita` dell’equazione polinomiale generale di grado n. Vengono inoltre riportati diversi esempi ed infine viene presentato un esempio di estensione di Galois di grado primo p non risolubile in caratteristica p.
Resumo:
Questa tesi si prefigge lo scopo di dimostrare il teorema di Igusa. Inizia introducendo algebricamente i numeri p-adici e ne dà una rappresentazione grafica. Sviluppa poi un integrale definito dalla misura di Haar, invariante per traslazione e computa alcuni esempi. Utilizza il blow up come strumento per la risoluzione di alcuni integrali ed enuncia un'applicazione del teorema di Hironaka sulla risolubilità delle singolarità. Infine usa questi risultati per dimostrare il teorema di Igusa.
Resumo:
La ricerca indaga tensioni e trasformazioni che investono le principali correnti di pensiero politico in Francia nei primi anni della monarchia di Luglio, e vi osserva l’emergere del concetto di classe. Assumendo la dimensione dell’avvenimento come punto di intersezione fra storia e teoria, l’elaborato si concentra sul periodo novembre 1831-giugno 1832 per analizzare il modo in cui, nell’ordine del discorso politico repubblicano, liberale e socialista, le vicende di questi mesi vengono interpretate cercando di dar nome alle figure sociali che esse fanno irrompere nel dibattito pubblico. Il titolo Fra il nome e la storia fa dunque riferimento allo sforzo di indagare il campo di tensione che si apre fra concreto divenire storico e grandi operazioni di nominazione che segnano l’affiorare di strutture concettuali della lunga durata. L’emergere della nozione di classe operaia e delle categorie che intorno a essa si organizzano viene interpretata come una «formazione discorsiva» che pone in questione significato e confini del politico. La frattura del 1848 è assunta come orizzonte e margine esterno della ricerca nella misura in cui si ipotizza che essa segni una prima affermazione del regime di verità di tale formazione discorsiva: lo statuto politico del lavoro. L’elaborato consta di quattro capitoli. I primi tre indagano la riflessione sul politico e la funzione che in essa svolge il concetto di classe a partire dall’interpretazione di alcuni avvenimenti del tornante 1831-32 proposta nel discorso repubblicano del quotidiano «Le National» e della Société des Amis du Peuple, in quello del liberalismo dottrinario di François Guizot e in quello socialista nascente, prima del movimento sansimoniano, e poi muovendo fino al 1848 francese con l’analisi propostane da Karl Marx. Il quarto capitolo indaga infine la dimensione del «sociale», la sua elaborazione e articolazione attraverso il lavoro di studio e oggettivazione delle figure del mondo del lavoro.
Resumo:
Il contesto nazionale è cambiato recentemente per l’introduzione del nuovo Sistema Geodetico coincidente con quello Europeo (ETRS89, frame ETRF00) e realizzato dalle stazioni della Rete Dinamica Nazionale. Sistema geodetico, associato al cartografico UTM_ETRF00, divenuto per decreto obbligatorio nelle Pubbliche Amministrazioni. Questo cambiamento ha consentito di ottenere rilevamenti dei dati cartografici in coordinate assolute ETRF00 molto più accurate. Quando i dati così rilevati vengono utilizzati per aggiornamenti cartografici perdono le coordinate originarie e vengono adattati a particolari cartografici circostanti. Per progettare una modernizzazione delle mappe catastali e delle carte tecniche finalizzata a consentire l’introduzione degli aggiornamenti senza modificarne le coordinate assolute originarie, lo studio è iniziato valutando come utilizzare sviluppi di strutturazione dei dati topografici presenti nel Database Geotopografico, modellizzazioni 3D di fabbricati nelle esperienze catastali INSPIRE, integrazioni in ambito MUDE tra progetti edilizi e loro realizzazioni. Lo studio è proseguito valutando i servizi di posizionamento in tempo reale NRTK presenti in Italia. Inoltre sono state effettuate sperimentazioni per verificare anche in sede locale la precisione e l’affidabilità dei servizi di posizionamento presenti. La criticità della cartografia catastale deriva sostanzialmente dal due fatti: che originariamente fu inquadrata in 850 Sistemi e successivamente fu trasformata in Roma40 con una esigua densità di punti rimisurati; che fino al 1988 fu aggiornata con modalità non rigorose di bassa qualità. Per risolvere tali criticità si è quindi ipotizzato di sfruttare le modalità di rilevamento NRTK per aumentare localmente la densità dei punti rimisurati e reinquadrare le mappe catastali. Il test, realizzato a Bologna, ha comportato un’analisi preliminare per individuare quali Punti Fiduciali considerare coerenti con le specifiche cartografiche per poi utilizzarli e aumentare localmente la densità dei punti rimisurati. La sperimentazione ha consentito la realizzazione del progetto e di inserire quindi i prossimi aggiornamenti senza modificarne le coordinate ETRF00 ottenute dal servizio di posizionamento.
Resumo:
Il presente lavoro è strutturato in quattro parti analizzando e comparando le pubblicazioni del settore scientifico italiano, anglofono e tedesco di riferimento. Nel primo capitolo della tesi viene proposta una riflessione sulle parole che ruotano attorno al tema dei DSA e della disabilità. Nel secondo capitolo vengono presentati, a partire dalla letteratura scientifica di riferimento, gli indicatori di rischio che segnalano possibili disturbi specifici di apprendimento e le caratteristiche di apprendimento dei DSA mettendo in luce potenzialità e talenti spesso intrinseci. Nel terzo capitolo viene vagliata la normativa di riferimento, in particolare la recente Legge 170/2010 e le relative Linee Guida. Nel quarto capitolo, partendo dal tema della diffusione delle tecnologie dell’informazione e della comunicazione (da ora in poi TIC) nel mondo della scuola, sono ampiamente trattati i principali strumenti compensativi (sintesi vocale, libri digitali, mappe concettuali, Lavagna Interattiva Multimediale) e le misure dispensative adottabili. Nel quinto capitolo viene analizzato in tutte le sue parti il Piano Didattico Personalizzato (da ora in poi PDP) e viene proposto un possibile modello di PDP pubblicato sul sito dell'Ufficio per l’Ambito Territoriale di Bologna. Nel sesto capitolo della tesi viene presentato il Progetto Regionale ProDSA. Il Progetto, rivolto a studenti, con diagnosi di DSA, delle scuole secondarie di primo grado e del primo biennio delle secondarie di secondo grado dell’Emilia-Romagna, ha visto, grazie a un finanziamento della Regione, la consegna in comodato d'uso gratuito di tecnologie compensative agli alunni che hanno aderito. La sezione empirica del presente lavoro indaga l’uso reale che è stato fatto degli strumenti proposti in comodato d’uso e le motivazioni legate alla scelta di non utilizzarli in classe. Nel settimo capitolo vengono proposti strumenti progettati per rispondere concretamente alle criticità emerse dall'analisi dei dati e per sensibilizzare il mondo della scuola sulle caratteristiche dei DSA.
Resumo:
In questa tesi verranno chiariti i concetti di open source e software libero e alcune nozioni utili a comprenderli. Verranno poi spiegate brevemente le licenze GPLv3 AGPLv3 e LGPLv3. Infine verrà spiegato come applicare la licenza GPLv3 al proprio programma, e verranno forniti alcuni consigli su come diffonderlo nel web.
Resumo:
L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.
Resumo:
Questa tesi consiste nello sviluppo di codice per un applicativo esistente. Tale applicativo si occupa di simulazione di protocolli di rete su varie topologie di rete. La parte di cui si occupa questa tesi è la fase di analisi dei file di traccia generati. Tale fase è una delle tre fasi dell'applicativo. I file di traccia contengono informazioni che permettono di stimare due grandezze, copertura e ritardo. Per copertura si intende una media fra tutte le coperture. Ogni copertura sarà relativa ad uno specifico nodo della rete. Per copertura di uno specifico nodo della rete si intende la parte di messaggi arrivati a quel nodo relativamente a tutti i messaggi generati all'interno della rete. Per ritardo si intende la media del numero di salti che avvengono per arrivare ai vari nodi che compongono la rete. I valori calcolati, mediante le informazioni contenute nei trace file, vengono poi memorizzati su dei file. Oltre al calcolo di queste specifiche grandezze, la tesi include anche una possibile soluzione relativa al parallelismo dei processi. Tale soluzione mira ad avere un numero, stabilito in base alla memoria principale libera, di processi che vengono eseguiti in maniera parallela.
Resumo:
Negli ultimi anni si è verificato un enorme cambiamento per quanto riguarda le tecnologie utilizzate nello sviluppo di applicazioni, spostandosi sempre verso soluzioni più innovative. In particolare l'utente, diventando sempre più esperto, si ritrova ad essere sempre più esigente. Qui nasce la necessità di modernizzare la gestione degli appuntamenti con la clientela da parte delle attività commerciali tramite l'uso di uno scheduler online. Lo scopo di questo documento è quello di illustrare come è stato realizzato un prototipo di questo sistema, partendo dalle interviste ai committenti e analisi dei relativi problemi, per arrivare poi alla sua realizzazione, utilizzando tecnologie e design innovativi e di ultima generazione.
Resumo:
Con l’avvento di Internet, potentissimo strumento tecnologico di diffusione di informazioni e di comunicazione a distanza, anche le modalità di apprendimento sono cambiate: persino nelle scuole si tende a non utilizzare più i classici libri di testo, ma ad utilizzare dispositivi dai quali scaricare in formato elettronico, libri, dispense, test, video ed ogni altro genere di materiale di apprendimento, dando vita a un vero e proprio nuovo modo di apprendere chiamato E-learning, più veloce, comodo e ricco di alternative rispetto al vecchio modello offline che si presentava sottoforma di floppy inizialmente e poi di CD-ROM. E-learning significa, electronic based learning, ed è appunto una vera e propria metodologia di didattica che sfrutta e viene facilitata da risorse e servizi disponibili e accessibili virtualmente in rete. Al momento vi sono numerose piattaforme di E-learning, una delle quali è il nucleo di questa tesi, ovvero il tool autore AContent. Questo documento di tesi, infatti, raccoglie la descrizione della progettazione e della fase implementativa della gestione delle politiche di copyright per il tool AContent. L’obbiettivo è quello di rendere possibile l’assegnazione di un copyright a qualsiasi tipo di materiale didattico venga creato, caricato e/o condiviso sulla piattaforma in questione. Pertanto l’idea è stata quella di dare la possibilità di scegliere fra più copyright preimpostati, utilizzando degli standard di licenze riguardanti i diritti d’autore, lasciando anche l’opportunità di inserire la propria politica.
Resumo:
All’interno della Riserva Marina di Miramare, in particolare nella zona A, vengono svolte da sempre attività di balneazione a scopo educativo, didattico e di visita guidata, autorizzate dall’Ente Gestore. In questo studio, è stato scelto un set significativo di specie, su cui verificare un livello di efficacia di gestione rispetto al possibile impatto causato da attività svolte in snorkeling, in particolare seawatching e mini corsi di biologia marina per bambini. Per prima cosa, con l’utilizzo di un GPS, si è voluto caratterizzare l’itinerario svolto dalle attività, come un insieme di punti, e questa procedura è stata ripetuta più volte per avere una rappresentazione realistica del percorso. In seguito attraverso QGIS, è stato possibile creare delle Mappe di concentrazione dei punti, per individuare i siti in cui i turisti, che si apprestano a svolgere le attività, si soffermano maggiormente ad osservare gli organismi sottostanti, in questo modo sono state evidenziate delle aree lungo il percorso, caratterizzate da un maggiore impatto antropico. Il campionamento in acqua si è svolto in queste aree, attraverso l’ausilio di transetti, lungo i quali sono stati presi dati di presenza/assenza inerenti al set di specie preso in considerazione. A ciascuna specie, sono stati poi attribuiti dei criteri: Vulnerabilità, Valore eco-naturalistico, Diffusione, Valore estetico e Valore economico, per mezzo dei quali sono state individuate le specie che necessitano di maggiore attenzione, in quanto potrebbero subire danni a causa delle attività che si svolgono in Riserva.
Resumo:
L'obiettivo della tesi è stato quello di indagare il complesso problema della vulnerabilità sismica dei ponte in muratura ad arco utilizzando modelli semplificati. Dopo una descrizione dei materiali da costruzione impiegati nella realizzazione e dei principali elementi dei un ponti in muratura, si è indirizzato lo studio di un ponte ad arco situato nel comune di San Marcello Pistoiese. Viene mostrato un modello numerico che permette di descrivere il comportamento strutturale del ponte sotto azione sismica e di valutare la capacità di carico del ponte sottoposto ad una azione trasversale. In un secondo momento viene descritta la realizzazione di un modello in scala del ponte, che è stato sottoposto a prove distruttive effettuate per valutare la capacità di carico del ponte rispetto ad un ipotetica azione orizzontale. Si è cercato poi di inquadrare il problema in un modello teorico che faccia riferimento all'analisi limite. Esso descrive un cinematismo di collasso a telaio che prende spunto dal quadro fessurativo del modello in muratura. Infine sono stati presentati modelli FEM numerici in ordine di complessità crescente, cercando di inquadrare il comportamento meccanico del prototipo del ponte. Tre tipi di modelli sono rappresentati: un telaio incernierato alle estremità costituito da elementi beam con resistenza alla flessione . Il secondo tipo è costituito da una reticolare equivalente che mima lo schema del ponte ed è formato solo da bielle. Infine, il terzo tipo cerca di descrivere l'intero modello con elementi tridimensionali.
Resumo:
L’interesse della ricerca per le applicazioni dei materiali organici all’elettronica è cresciuto ampiamente negli ultimi anni e alcuni gruppi di ricerca hanno studiato la possibilità di sfruttare materiali organici per costruire rivelatori diretti di raggi X. Nel 2003 si immaginava che l’assenza di elementi con numero atomico alto, propria della maggior parte degli organici, scoraggiasse il loro impiego come rivelatori. Tuttavia, la recente scoperta delle proprietà di fotoassorbimento dei monocristalli di 4-idrossicianobenzene (4HCB) potrebbe smentire questa ipotesi e, anzi, suscitare un certo interesse applicativo. Tra i possibili vantaggi operativi del 4HCB come rivelatore ci potrebbero essere, oltre al basso costo, tensioni di funzionamento sull’ordine dei volt e una certa flessibilità meccanica. L’obiettivo del seguente lavoro di tesi è esplorare la risposta che forniscono i monocristalli di 4HCB ai raggi X quando vengono installati su matrici flessibili con elettrodi di contatto in geometrie particolari, interspaziati di 22 µm. Sono state condotte varie misure di risposta elettrica al buio e sotto un fascio di raggi X e nel seguito saranno presentati i risultati. Il primo capitolo è dedicato ad un’introduzione teorica alla struttura dei materiali organici e ai modelli di trasporto dei semiconduttori organici. È evidenziato il fatto che non esiste ad oggi una teoria comprensiva ed efficace come per gli inorganici e vengono discussi alcuni metodi per determinare sperimentalmente la mobilità. La teoria Space Charge Limited Current (SCLC), che modella le caratteristiche corrente-tensione di un solido di piccolo spessore, quando il materiale ha bassa conducibilità e il suo trasporto di carica è mediato sostanzialmente da portatori dello stesso segno, viene introdotta nel capitolo 2. L’importanza di questo modello sta nel fatto che fornisce un metodo efficace per determinare sperimentalmente la mobilità dei portatori in molti materiali organici. Il campo dei rivelatori organici diretti di raggi X è piuttosto recente, e non esiste ancora un’efficace inquadratura teorica. Per questo motivo il capitolo 3 espone lo stato attuale dei rivelatori di raggi X e presenta i meccanismi alla base dei rivelatori inorganici diretti a stato solido e poi discute dei rivelatori organici indiretti già esistenti, gli scintillatori. La descrizione degli apparati sperimentali utilizzati per le misure viene demandata al capitolo 4, mentre il quinto capitolo espone i risultati ottenuti.