1000 resultados para numeri trascendenti pi greco numero di Nepero Liouville Lindemann
Resumo:
Il progetto di questa tesi affronta le tematiche relative agli interventi di riqualificazione, adeguamento e rigenerazione urbana di un edificio residenziale di 15 unità abitative situato nella zona della Bolognina in Via Tibaldi. Le condizioni di vetustà dell’edificato e l’evoluzione economico sociale del quartiere hanno portato negli anni all’insorgere di nuove situazioni di criticità. Si sono riscontrati problemi relativi alle dimensioni degli alloggi (troppo grandi per le esigenze dei nuovi nuclei familiari), ai bassi livelli di comfort interni (rapporti illuminanti non rispettati e dimensioni dei vani non confacenti a normativa), all’accessibilità (vano ascensore inefficiente) e alla bassa efficienza energetica, che produce elevati costi di esercizio. L’analisi degli spazi esterni invece ha evidenziato uno stato di abbandono della corte, caratterizzata dalla disorganizzazione dei percorsi e delle aree verdi oltre a una carenza del numero di posti auto necessari agli abitanti dell’isolato. L’obiettivo che si pone la tesi è quello di adeguare l’area alle nuove esigenze dell’utenza e di migliorare gli standard qualitativi dell’edificato, considerando la fattibilità dell’intervento e ipotizzando misure che si pongano in alternativa ad una demolizione completa dell’edificio. Inoltre, le soluzioni proposte sono state studiate in modo da poter essere applicate non solo sul caso studio, ma anche sull’intero isolato, in un’ottica di riqualificazione urbana.Per gli spazi interni, le scelte adottate riguardano la demolizione e ricostruzione puntuali delle murature non portanti o collaboranti e l’ampliamento delle superfici finestrate, conformando a normativa i vani degli alloggi, dotandoli di una maggior superficie utile e riducendo la condizione di discomfort luminoso interno. La stessa strategia è stata adottata anche per ridefinire e diversificare il taglio degli alloggi. Infine per migliorare l’accessibilità all’edificio e agli alloggi le soluzioni prevedono l’inserimento un sistema loggiato per rendere raggiungibili direttamente dal vano ascensore preesistente, che presentava uno sbarco solo interpiano, due appartamenti per piano (dal primo al quarto). Per raggiungere invece le unità abitative collocate nel piano rialzato si è previsto di innalzare la quota del terreno fino all’altezza della soglia di ingresso ai vani. Parallelamente ci si è occupati della riprogettazione degli spazi esterni, optando per un’azione a scala urbana. La riorganizzazione delle aree è avvenuta attraverso l’inserimento di nuovi percorsi pedonali di collegamento all’edificato e mediante la progettazione e riqualificazione di spazi per la socializzazione. Infine, per arginare le problematiche relative al fabbisogno di parcheggi, si è agito diversificando e ponendo su livelli differenti la viabilità carrabile e gli spazi verdi attraverso l’inserimento di un parcheggio seminterrato.
Resumo:
Questo elaborato si concentra sullo studio della trasformata di Fourier e della trasformata Wavelet. Nella prima parte della tesi si analizzano gli aspetti fondamentali della trasformata di Fourier. Si definisce poi la trasformata di Fourier su gruppi abeliani finiti, richiamando opportunamente la struttura di tali gruppi. Si mostra che calcolare la trasformata di Fourier nel quoziente richiede un minor numero di operazioni rispetto a calcolarla direttamente nel gruppo di partenza. L'ultima parte dell'elaborato si occupa dello studio delle Wavelet, dette ondine. Viene presentato quindi il sistema di Haar che permette di definire una funzione come serie di funzioni di Haar in alternativa alla serie di Fourier. Si propone poi un vero e proprio metodo per la costruzione delle ondine e si osserva che tale costruzione è strettamente legata all'analisi multirisoluzione. Un ruolo cruciale viene svolto dall'identità di scala, un'identità algebrica che permette di definire certi coefficienti che determinano completamente le ondine. Interviene poi la trasformata di Fourier che riduce la ricerca dei coefficienti sopra citati, alla ricerca di certe funzioni opportune che determinano esplicitamente le Wavelet. Non tutte le scelte di queste funzioni sono accettabili. Ci sono vari approcci, qui viene presentato l'approccio di Ingrid Daubechies. Le Wavelet costituiscono basi per lo spazio di funzioni a quadrato sommabile e sono particolarmente interessanti per la decomposizione dei segnali. Sono quindi in relazione con l'analisi armonica e sono adottate in un gran numero di applicazioni. Spesso sostituiscono la trasformata di Fourier convenzionale.
Resumo:
Haematococcus pluvialis è una delle specie microalgali di maggior interesse biotecnologico, poiché rappresenta la maggior fonte naturale del pigmento astaxantina, carotenoide molto ricercato nell’ industria mangimistica, nutraceutica, cosmetica e farmacologica. La produzione massiva di questa specie è ancora caratterizzata da numerose limitazioni allo scale-up; il principale collo di bottiglia della coltivazione è rappresentato dalla crescita lenta e dal relativamente basso numero di cellule finali che vengono raggiunte, traducendosi in una minore quantità di astaxantina prodotta. Lo scopo di questo lavoro è stato quello di provare ad incrementare le velocità di crescita della fase iniziale dello stadio vegetativo dell’alga, utilizzando sostanze di crescita quali fitoormoni, sostanza organica, vitamine e medium formulati con diversi rapporti N/P, in modo tale da ottenere un maggiore numero di cellule che possono essere indotte a produrre astaxantina. Alcune condizioni hanno mostrato effetti sulla crescita, tuttavia la condizione che ha fornito un maggior incremento come numero di cellule è stata quella caratterizzata dall’utilizzo di un basso valore del rapporto N/P, rispetto al valore solitamente utilizzato per questa specie. Nonostante siano necessari ancora diversi sforzi per individuare i fattori biotici e abiotici che regolano la crescita di H. pluvialis nell’ottica di una produzione massiva, il principale collo di bottiglia di questo processo può essere quindi ridotto con l’utilizzo delle sostanze stimolanti la crescita sperimentate in questo lavoro e dalla formulazione di medium di crescita che forniscano un compromesso tra un alto numero di cellule finali e costi di produzione relativamente contenuti.
Resumo:
Il funzionamento del cervello umano, organo responsabile di ogni nostra azione e pensiero, è sempre stato di grande interesse per la ricerca scientifica. Dopo aver compreso lo sviluppo dei potenziali elettrici da parte di nuclei neuronali in risposta a stimoli, si è riusciti a graficare il loro andamento con l'avvento dell'ElettroEncefaloGrafia (EEG). Tale tecnologia è entrata a far parte degli esami di routine per la ricerca di neuropsicologia e di interesse clinico, poiché permette di diagnosticare e discriminare i vari tipi di epilessia, la presenza di traumi cranici e altre patologie del sistema nervoso centrale. Purtroppo presenta svariati difetti: il segnale è affetto da disturbi e richiede un'adeguata elaborazione tramite filtraggio e amplificazione, rimanendo comunque sensibile a disomogeneità dei tessuti biologici e rendendo difficoltoso il riconoscimento delle sorgenti del segnale che si sono attivate durante l'esame (il cosiddetto problema inverso). Negli ultimi decenni la ricerca ha portato allo sviluppo di nuove tecniche d'indagine, di particolare interesse sono la ElettroEncefaloGrafia ad Alta Risoluzione (HREEG) e la MagnetoEncefaloGrafia (MEG). L'HREEG impiega un maggior numero di elettrodi (fino a 256) e l'appoggio di accurati modelli matematici per approssimare la distribuzione di potenziale elettrico sulla cute del soggetto, garantendo una migliore risoluzione spaziale e maggior sicurezza nel riscontro delle sorgenti neuronali. Il progresso nel campo dei superconduttori ha reso possibile lo sviluppo della MEG, che è in grado di registrare i deboli campi magnetici prodotti dai segnali elettrici corticali, dando informazioni immuni dalle disomogeneità dei tessuti e andando ad affiancare l'EEG nella ricerca scientifica. Queste nuove tecnologie hanno aperto nuovi campi di sviluppo, più importante la possibilità di comandare protesi e dispositivi tramite sforzo mentale (Brain Computer Interface). Il futuro lascia ben sperare per ulteriori innovazioni.
Resumo:
Questo lavoro di tesi è stato finalizzato allo studio dell’applicabilità e dell’efficacia di una modalità di confezionamento dell’olio extra vergine di oliva (EVO) in grado di raggiungere due obiettivi: - il prolungamento della shelf-life dell’olio d’oliva grazie ad un’azione protettiva del packaging dalla radiazione luminosa; - l’ottenimento di un’estetica accattivante che consenta al consumatore di apprezzare colore e livello del prodotto contenuto. È stata, quindi, testata l’efficacia di un film protettivo trasparente, termoretraibile, stampabile e con effetto barriera contro le radiazioni UV applicato su bottiglie in vetro trasparente, confrontando i risultati ottenuti con quelli raccolti per campioni conservati in bottiglie in vetro scuro e trasparente. Per la realizzazione di questo studio sono stati utilizzati due EVO monovarietali e per ognuno di questi sono state confrontate tre tipologie di confezionamento: vetro scuro, vetro trasparente rivestito con pellicola, vetro trasparente. Per simulare un processo di “invecchiamento accelerato” le bottiglie sono state poste in un termostato (20 °C) all’interno del quale sono state istallate delle lampade in grado di illuminare le bottiglie in continuo e i campioni erano monitorati ad intervalli regolari (5, 10 e 15 settimane). Le determinazioni analitiche svolte (titrimetriche, spettrofotometriche, cromatografiche e sensoriali) hanno riguardato i principali parametri quali-quantitativi correlati allo stato idrolitico (acidità libera, digliceridi) ed ossidativo (numero di perossidi) degli oli d’oliva, nonché relativi alle molecole antiossidanti (contenuto in fenoli totali e tocoferoli) ed agli attributi sensoriali. I risultati ottenuti da queste prove esplorative hanno evidenziato come l’applicazione di sleeve additivate con anti-UV su bottiglie in vetro trasparente possa costituire una valida modalità di confezionamento dell’olio EVO, anche se saranno necessarie ulteriori conferme ed approfondimenti.
Resumo:
L'espressione del gene MYCN è un importante indicatore della severità del NBL. Poiché il numero di copie di MYCN è un indice grezzo della sua espressione quantificarle utilizzando tecniche come la “fluorescent in situ hybridization” (FISH) può servire a formulare una stima del livello di espressione MYCN [Shapiro 1993]. Tuttavia, l'espressione aberrante di MYCN nel NBL non è sempre associata all'amplificazione genica; pertanto la valutazione diretta del livello di espressione di questo gene sarebbe un miglior indicatore prognostico. Questa tesi è stata sviluppata nell'ambito di un progetto che si propone di realizzare un sensore biomolecolare sintetico per l'identificazione del livello di espressione di MYCN. Di seguito saranno presentati i dettagli relativi alla progettazione della topologia circuitale e all’analisi in silico che sono state condotte per caratterizzare il comportamento dinamico del sistema. Questo lavoro è stato svolto nel laboratorio di Ingegneria Cellulare e Molecolare "S. Cavalcanti", presso la Sede di Cesena del Dipartimento di Ingegneria dell'Energia elettrica e dell'Informazione "Guglielmo Marconi" (DEI) dell’Ateneo di Bologna.
Analisi e progettazione di soluzioni robotiche per l'alimentazione di macchine automatiche per il tè
Resumo:
Nel presente elaborato è stato valutato l’inserimento di robot commerciali per il caricamento di materiali da processare da macchine automatiche del tè. Sono state affrontate sia valutazioni di tipo progettuale che di tipo economico al fine di poter ottenere e confrontare soluzioni che fossero concretamente realizzabili, in linea con le normative vigenti ed economicamente vantaggiose rispetto alle convenzionali soluzioni senza robot. L’elevato numero di aspetti da considerare ha richiesto lo studio e l’integrazione di campi tematici differenti.
Resumo:
I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.
Confronto simulativo tra architetture per la mobilità: analisi simulatore MIPv6 e confronto con ABPS
Resumo:
Il presente elaborato tratta il lavoro di studio, analisi e sperimentazione effettuato dal sottoscritto, Giovanni Sitta, in conclusione al Corso di Laurea Magistrale in Informatica presso l'Università degli Studi di Bologna. Questo ha dapprima previsto un periodo di approfondimento di alcune architetture di supporto alla mobilità dei terminali di rete, in particolare di due protocolli allo stato dell'arte, Mobile IPv6 (MIPv6) e Locator/Identifier Separation Protocol (LISP), e di una terza architettura sperimentale denominata Always Best Packet Switching (ABPS). Sono stati in seguito esaminati tre simulatori, uno per ciascuna architettura di supporto alla mobilità considerata, realizzati come estensioni della libreria INET del framework OMNeT++, assicurandosi che fossero conformi alle specifiche del protocollo implementato (almeno entro i limiti di semplificazione rilevanti ai fini del lavoro), e correggendone eventuali problematiche, mancanze e anomalie in caso questi non le rispettassero. Sono poi stati configurati alcuni scenari simulativi utilizzando le tre librerie, in prima battuta di natura molto semplice, utilizzati per verificare il corretto funzionamento dei simulatori in condizioni ideali, e successivamente più complessi, allestendo un ambiente di esecuzione più verosimile, dotato di un maggior numero di host connessi alla rete e di ostacoli per i segnali radio usati nelle comunicazioni wireless. Tramite i risultati sperimentali ottenuti da queste simulazioni è stato infine possibili realizzare un confronto tra le prestazioni di MIPv6, LISP e ABPS.
Resumo:
La presente tesi di Laurea Magistrale ha lo scopo di studiare sperimentalmente il comportamento a fatica dei calcestruzzi rinforzati con fibre macro-sintetiche (Macro Synthetic Fiber Reinforced Concrete, MSFRC). Sono condotte prove cicliche di flessione su tre punti al fine di caratterizzare il comportamento dei calcestruzzi fibrorinforzati in regime fessurato nel caso di fatica ad alto numero di cicli (High Cycle Fatigue, HCF). Oltre a prove di fatica sono condotte anche prove monotone a flessione al fine di ottenere la caratterizzazione meccanica del materiale determinandone i principali parametri di frattura; i risultati di tali prove sono utili anche a definire la procedura di prova definitiva da adottare durante i test di fatica. Le testimonianze presenti in letteratura sul comportamento a fatica degli FRC rinforzati con fibre sintetiche sono molto limitate, specialmente nel caso di fatica ad alto numero di cicli; inoltre le prove cicliche, a differenza delle prove monotone, non sono prove standardizzate e quindi definite dalla normativa. Nel corso della presente campagna sperimentale si cercherà quindi di definire una procedura per poter eseguire in maniera stabile le prove di flessione, monotone e di fatica, su campioni prismatici di calcestruzzo fibrorinforzato. L’idea alla base della campagna sperimentale oggetto di questa tesi è quella di riprodurre, mediante prove di fatica, le usuali condizioni di esercizio a cui sono sottoposte, durante la loro vita utile, strutture come pavimentazioni stradali o industriali; infatti il traffico stradale o il transito di macchinari possono indurre su strutture del genere dei carichi ripetuti nel tempo tali da provocarne il collasso per fatica. La presente tesi è articolata in otto capitoli nei quali verranno evidenziate le principali proprietà, sia meccaniche che fisiche, del materiale composito oggetto dello studio, saranno definite le procedure dei test eseguiti e verranno discussi i risultati derivanti da essi.
Resumo:
In questo elaborato viene descritto il funzionamento dei Beacon. Essi rappresentano un congegno che sfrutta la tecnologia Bluetooth 4.0, la quale, rispetto alle precedenti, si differenzia per alcune innovazioni apportate. Il loro utilizzo originario era rivolto al mondo del Mobile Advertising, ovvero l’invio di messaggi ad hoc agli utenti, sulla base di studi mirati a personalizzare un contenuto. Con lo scorrere del tempo invece si sono cercate nuove modalità d'uso in relazione al mondo da cui derivano: L'”Internet of Things” (IoT). Questa espressione descrive l'intento di dare vita agli oggetti. L'obiettivo di fondo è stato quello di delineare uno dei possibili casi d'uso. Nel concreto il sistema si prefigge, sfruttando l’interazione tra gli utenti, di monitorare la posizione in ambienti indoor di oggetti, usando il segnale RSSI dei Beacon ai quali sono associati, fornire l’aggiornamento dell’indirizzo in cui sono situati, visualizzabile sulle mappe Google con cui l’app è collegata, notificare ai proprietari gli eventuali ritrovamenti di uno di essi, rintracciare i dispositivi altrui. Prima di ciò, si è svolta un'analisi inerente le prestazioni che i Beacon sono in grado di offrire, in condizioni normali, prestando attenzione ad alcuni parametri come: frequenza di trasmissione (l’intervallo entro il quale vengono emessi segnali), il periodo di scansione (l’effettivo periodo di attività), più un’altra serie di risultati acquisiti durante l'esecuzione di alcuni esperimenti.
Resumo:
I campi di impiego della gomma da pneumatici fuori uso (PFU) nel settore stradale sono vari ed il numero di studi che comprovano l'utilizzo di questo materiale di riciclo è crescente. Il prodotto esaminato nella seguente ricerca è un legante bituminoso modificato (PmB tradizionale), al quale il poverino di gomma da PFU è aggiunto manualmente (meccanicamente) al miscelatore. La tecnologia è di tipo Dry, nella quale la frazione di gomma è impiegata in sostituzione a una porzione di inerti fini, direttamente nel conglomerato. Ai fini di tale studio sono stati stesi 300 metri di SMA (Splitt Mastix Asphalt) lungo la S.P. 569 nel centro abitato di Zola Predosa (BO). Di questi una parte è costituita da SMA tradizionale, mentre la parte restante è divisa tra SMA contenente 1,20% in peso di PFU e SMA contenente 0,75% in peso di PFU. Durante la stesa sono effettuate delle prove sull'esposizione dei lavoratori a inquinanti presenti in miscele bituminose con addizione di poverino da PFU e prove di esposizione ambientale. Sono state successivamente predisposte 3 diverse indagini sperimentali: la prima nell'arco di due giorni (02-03 Ottobre 2014) a due mesi dalla stesa del materiale (31 Luglio 2014), la seconda oltre sei mesi dalla stesa (14-15 Aprile 2015) e la terza ad 1 anno dalla prima sessione di controllo (Ottobre 2015). Nella prima campagna di indagine è stato eseguito il prelievo di campioni carotati per la verifica fisico-meccanica delle miscele posate e degli spessori. In tutte e tre le campagne di indagine sono state effettuate prove per la valutazione dell'emissione e dell'assorbimento acustico della pavimentazione tramite tecnologia Close Proximity Index (CPX). I dati raccolti riguardati le emissioni ambientali e l'inquinamento acustico sono stati poi analizzati al in di determinare il grado di deterioramento delle caratteristiche superficiali e di confrontare il comportamento dei diversi materiali all'usura.
Resumo:
“Immaginate di potervi rilassare a casa in una giornata d’estate tenendo le finestre aperte per lasciare passare la brezza ma senza essere disturbati dai rumori della città, oggi è possibile”. Quello che voglio fare attraverso questa tesi è di studiare la fattibilità per la realizzazione di una finestra che permetta il passaggio dell’aria ma non dei rumori. L’idea di questa particolare finestra silenziosa mi è stata fornita dallo studio fatto dal professor Sang-Hoon Kim del Mokpo National University maritime e dal professor Seong-Hyun Lee del Korea Institute of Machinery and Materials in Corea del Sud. Essi hanno utilizzato i metamateriali acustici per risolvere il problema dell’inquinamento sonoro in città. Queste finestre hanno il vantaggio di tenere i rumori fuori dalla nostra abitazione ma permettere il passaggio dell’aria attraverso dei fori aventi dimensioni e posizioni adeguate da garantire questo particolare fenomeno. I principi su cui si basano queste finestre sono: la diffrazione e i risonatori di Helmholtz, che analizzeremo nel dettaglio nei capitoli 1 e 2 di questa tesi. Dopo aver analizzato i due principi attraverso simulazione fatte mediante il programma COMSOL multiphysics, sono passata all’analisi della finestra vera e propria: ovvero alla realizzazione delle dimensioni adeguate dei risonatori di Helmholtz utilizzati, alle dimensioni dei rispettivi fori d’ingresso e alla combinazione di questi risonatori per ricavare la miglior finestra silenziosa, che trattenesse al suo esterno il maggior numero di dB.
Resumo:
Internet è la rete globale a cui si può avere accesso in modo estremamente facile, consentendo praticamente a chiunque di inserire i propri contenuti in tempi rapidi, a costi quasi nulli e senza limitazioni geografiche. Il progresso tecnologico e la maggiore disponibilità della banda larga, uniti alle nuove modalità di fruizione ed ai nuovi format, hanno portato ben il 70% degli web users a vedere video online regolarmente. La popolarità dei servizi di streaming video è cresciuta rapidamente, tanto da registrare dei dati di traffico impressionanti negli ultimi due anni. Il campo applicativo della tesi è Twitch, il più celebre servizio di streaming che è riuscito ad imporsi come quarto sito negli Stati Uniti per traffico Internet: un dato sorprendente se pensiamo che si occupa solo di videogiochi. Il fenomeno Twitch è destinato a durare, lo dimostrano i 970 milioni di dollari investiti da Amazon nel 2014 per acquistare la piattaforma, diventata così una sussidiaria di Amazon. L'obiettivo della tesi è stato lo studio di mercato della piattaforma, attraverso il recupero e l'analisi delle informazioni reperibili in letteratura, nonché attraverso estrapolazione di dati originari mediante le API del sito. Si è proceduto all’analisi delle caratteristiche del mercato servito, in termini di segmentazione effettiva, rivolta alla messa in evidenza della possibile dipendenza dai comportamenti dei player, con particolare attenzione alla possibile vulnerabilità.
Resumo:
L'identificazione di un blazar è molto difficile, questo è un oggetto molto particolare e che ha un'attività molto ricca. Nella pratica l'identificazione di un blazar avviene confrontando la sua emissione in banda radio con la sua emissione in banda gamma, che sono entrambe proprie dei blazar. Il problema è che non si dispone di un telescopio in grado di rivelare con estrema precisione entrambe le bande, quindi si procede utilizzando i dati radio provenienti da un dato radiotelescopio e i dati in banda gamma provenienti da un altro telescopio. Quando le emissioni nelle due bande presentano, ad esempio, una variabilità simultanea, l'identificazione è certa. Ma questa minoranza di casi non è molto frequente e quindi spesso si procede con un'analisi probabilistica basata sulle posizioni delle sorgenti. Il lancio di Fermi nel 2008 ha portato ad un fortissimo aumento del numero di sorgenti gamma note e, fra queste, la maggior parte sono blazar. Una significativa frazione di queste sorgenti Fermi (circa il 30%) rimane non identificata. In questo lavoro vengono inizialmente caratterizzate le proprietà radio dei blazar e in particolare dei blazar gamma noti finora. In seguito verrà approfondita l'analisi delle sorgenti Fermi non identificate per stabilire una possibile compatibilità con le proprietà dei blazar e quindi per cercare di capire se queste sorgenti possano essere a loro volta dei blazar non ancora riconosciuti.