910 resultados para 004.072 Elaborazione dei dati, Scienza degli elaboratori, Informatica - Attività di ricerca
Resumo:
Nell’ambito di un progetto di ricerca sui sistemi di accumulo dell’energia elettrica, in corso di avvio al “Laboratorio di microreti di generazione e accumulo” di Ravenna, è stato sviluppato un modello di calcolo in grado di simulare il comportamento di un elettrolizzatore.Il comportamento di un generico elettrolizzatore è stato modellato mediante una serie di istruzioni e relazioni matematiche, alcune delle quali ricavate tramite un’analisi dettagliata della fisica del processo di elettrolisi, altre ricavate empiricamente sulla base delle prove sperimentali e dei dati presenti nella bibliografia. Queste espressioni sono state implementate all’interno di un codice di calcolo appositamente sviluppato, realizzato in linguaggio Visual Basic, che sfrutta come base dati i fogli di calcolo del software Microsoft Excel per effettuare la simulazione. A partire dalle caratteristiche dell’elettrolizzatore (pressione e temperatura di esercizio, dimensione degli elettrodi, numero di celle e fattore di tuning, più una serie di coefficienti empirici) e dell’impianto generale (potenza elettrica disponibile e pressione di stoccaggio), il modello è in grado di calcolare l’idrogeno prodotto e l’efficienza globale di produzione e stoccaggio. Il modello sviluppato è stato testato sia su di un elettrolizzatore alcalino, quello del progetto PHOEBUS, basato su una tecnologia consolidata e commercialmente matura, sia su di un apparecchio sperimentale di tipo PEM in fase di sviluppo: in entrambi i casi i risultati forniti dal modello hanno trovato pieno riscontro coi dati sperimentali.
Resumo:
In virtù della crescente importanza dell’impiego del software nel settore dei dispositivi medici, come software indipendente (stand-alone) oppure come software incorporato in un altro dispositivo medico, un requisito essenziale per il suo utilizzo è la validazione secondo lo stato dell’arte. La certificazione come dispositivo medico diviene in tal modo fonte di garanzia e di sicurezza per il suo impiego. Il Sistema Informativo di Laboratorio (LIS), supportando il processo operativo dei dispositivi medico-diagnostici in vitro, necessita di una regolamentazione in tale direzione. Il workflow del Laboratorio Analisi, suddiviso in fasi preanalitica, analitica e postanalitica, ha beneficiato dell’introduzione di un sistema informatico in grado di gestire le richieste di esami dei pazienti e di processare e memorizzare le informazioni generate dalle apparecchiature presenti nel laboratorio. Più di ogni altro scenario clinico, il Laboratorio Analisi si presta ad essere organizzato sfruttando un modello di gestione fortemente integrato. Le potenzialità ad esso connesse garantiscono un aumento di produttività, una riduzione degli errori di laboratorio e una maggior sicurezza sia per i professionisti sanitari che per l’intero processo analitico. Per l’importanza clinica affidata al dato di laboratorio, la sua diffusione deve avvenire in maniera veloce e sicura; ciò è possibile se il ritorno elettronico dei risultati al medico richiedente si avvale dello standard HL7, il cui utilizzo è promosso dal modello IHE. La presenza di un unico database sanitario contenente anagrafiche univoche, facilmente aggiornabili, riduce il rischio di errata identificazione del paziente e, in particolare, offre la possibilità di disporre dei risultati di esami precedenti, opportunità particolarmente utile nel delineare il quadro clinico di pazienti cronici. Tale vantaggio e molte altre strategie, in grado di migliorare la qualità dell’assistenza e dell’outcome clinico, permettono di definire il laboratorio clinico come “motore di appropriatezza”.
Resumo:
Nella prima parte di questo progetto di tesi, ho analizzato tutte le nozioni teoriche rilevanti in merito alla teoria della transizione. Il primo concetto condiviso in questa trattazione è quello di transizione. Nella parte finale del capitolo, il focus si sposta sul ruolo, in una generica transizione, delle nicchie. Lo strumento centrale in questa struttura sono gli esperimenti di transizione, i quali forniscono un approccio alternativo ai progetti di innovazione classica che sono incentrati nell'ottenimento di soluzioni a breve termine. Vi è dunque una forte relazione tra nicchia e sperimentazione. Infine la trattazione si concentra sul tema dello Strategic Niche Management. Nel secondo capitolo, analizzo il tema della sostenibilità inserita in un contesto universitario. Questa sezione si focalizza sulle strategie di alto livello richieste per dare avvio alla transizione universitaria verso la sostenibilità, identificando gli ostacoli e gli elementi portanti, e definendo una vision al fine di concretizzarla. Il capitolo guida, passo per passo, le università che tentano di mettere in pratica il proprio obiettivo e la vision di sviluppo sostenibile. Una delle problematiche principali per stimare gli sforzi verso la sostenibilità nelle università è costituita in modo particolare dagli strumenti di valutazione. Per questo motivo, è stata sviluppata la valutazione grafica della sostenibilità nell'università (GASU). Al fine di riassumere quanto detto fin qui ed avere un quadro generale più chiaro dell'organizzazione di un campus universitario che mira a diventare sostenibile, ho utilizzato lo strumento gestionale della SWOT Analysis. Negli ultimi due capitoli, infine, analizzo nel dettaglio il modello Green Office. La teorizzazione di questo modello e l'elaborazione dei 6 principi del Green Office sono state effettuate da rootAbility. Le seguenti pagine presentano 3 casi studio di come i 6 principi dei Green Office sono stati adattati alle 3 unità di sostenibilità guidate da studenti e supportate da staff qualificato. L'oggetto della trattazione sono i principali GO affermatisi nei Paesi Bassi. A seguito dell'introduzione del modello relativo al Green Office e dell'illustrazione degli esempi presi in esame, è stato sfruttato lo strumento della feasibility analysis al fine di giudicare se l'idea di business sia praticabile. Il mezzo con cui ho condotto l'analisi sotto riportata è un questionario relativo al modello di Green Office implementato, nel quale viene chiesto di valutare gli aspetti relativi alla organizational feasibility e alla financial feasibility. Infine nella sezione finale ho considerato i Green Office come fossero un unico movimento. L'analisi mira a considerare l'impatto globale del Green Office Movement nei sistemi universitari e come, a seguito del loro consolidarsi nella struttura accademica, possano divenire prassi comune. La struttura proposta contiene elementi sia da il SNM (Strategic Niche Management) che dal TE (Transition Experiment).
Resumo:
Nell’ambito del nuoto, la scelta della strumentazione è legata all’ambiente, il metodo più utilizzato per analizzare il movimento degli atleti, ancora oggi, è quello dell’analisi video, che utilizza videocamere subacquee. L’analisi video in acqua ha diversi limiti: presenta errori legati alla turbolenza e alla rifrazione aria/acqua, necessità di elevati tempi sia per la calibrazione sia per l’elaborazione dei dati, non consente un feedback in tempo reale e quindi non fornisce informazioni immediate all’allenatore e ha costi elevati. Da qui la necessità di investigare altri metodi. Il metodo alternativo proposto, per la prima volta da Oghi et al. nel 2000 utilizza i sensori inerziali (IMU- Inertial Measurements Units) che possono essere indossati dall’atleta, previa impermeabilizzazione. Non sono invasivi e non limitano eccessivamente il movimento, non richiedono un setup di calibrazione complesso e hanno costi ridotti. Per questo elaborato sono stati stimati i parametri che vengono tipicamente utilizzati dagli allenatori per valutare le performance degli atleti durante l’allenamento: parametri temporali legati alle fasi della bracciata e la velocità istantanea. Sono state effettuate prove sul campo, presso il Laboratorio di Biomeccanica della Scuola di Farmacia, Biotecnologie e Scienze Motorie, situato nella palestra Record del CUSB di Bologna.
Resumo:
Conoscere dal punto di vista tecnico-costruttivo una costruzione storica è fondamentale per un’attendibile valutazione della sicurezza strutturale attuale e per la scelta di un eventuale ed efficace intervento di miglioramento. Per le strutture di interesse storico appartenenti al patrimonio culturale, ma anche per gli altri edifici, risulta difficile conoscere le origini del manufatto, le modifiche avvenute nel corso del tempo dovute a fenomeni di danneggiamento derivanti dal peggioramento delle condizioni dei materiali e dall’avvenimento di eventi calamitosi a causa della mancanza di documentazione storica. La mia tesi e’ focalizzata su tecniche di indagine non distruttive in modo da migliorare la conoscenza della struttura per poi intervenire in modo corretto. L’obiettivo del lavoro svolto e’ stato indagare il contributo delle indagini sperimentali alla diagnosi di edifici storici, in particolare elementi strutturali lignei e di muratura applicando indagini sperimentali non distruttive. Ho dapprima descritto lo stato dell’arte delle varie prove effettuate attraverso la lettura e il confronto di diversi articoli tecnico-scientifici riportando gli obiettivi, la strumentazione impiegata e i risultati ottenuti dalle diverse prove. Ho poi effettuato uno studio del materiale legno utilizzato per le costruzioni, riportandone la descrizione dal punto di vista strutturale, le caratteristiche fisiche, chimiche e meccaniche, le diverse classificazioni e le fasi di lavorazione. Quindi ho analizzato alcune delle prove non distruttive necessarie per una diagnosi di elementi lignei. Per ogni prova vengono riportate alcune caratteristiche, il principio di funzionamento e la strumentazione utilizzata con eventuali software annessi. Negli ultimi 3 capitoli si procede con l’applicazione sperimentale delle prove in sito o in laboratorio precedentemente descritte, in diversi casi di studio; in particolare 1) l’applicazione della prova di compressione assiale su alcuni provini ricavati da un elemento strutturale in legno antico per ricavare vari parametri fisici e meccanici; 2) lo studio di una capriata di legno presente in laboratorio, recuperata dopo il sisma dell’Emilia del 2012, iniziando dall’ispezione visuale classificazione a vista degli elementi sulla base di quanto riportato nella normativa per poi analizzare i dati delle varie prove non distruttive eseguite. 3) Infine è applicata la prova termografica ad un edificio di interesse storico, come l’ex Monastero di Santa Marta, situato in via S. Vitale a Bologna per indagare la tipologia strutturale, le tecnologie costruttive impiegate nelle varie epoche di questo complesso.
Resumo:
L’obiettivo del lavoro è stato quello di definire la filiera di smaltimento dei rifiuti di plastica di origine domestica. La modellazione della stessa ha preso come riferimento un insieme di informazioni rese disponibili dal CONAI, Consorzio Nazionale degli Imballaggi. Noti gli attori e le attività svolte al fine dell’avvio a recupero della frazione raccolta, è stato sviluppato un modello economico adeguato al fine di ripartire i costi delle attività in funzione della gestione del materiale. Tale modellazione non prende in esame le spese e gli introiti allocati al Consorzio, ma si focalizza sulle attività di raccolta, selezione e avvio a recupero. Ci si è poi concentrati sulla modellazione economica dell’avvio a recupero della frazione di plastica raccolta dal Comune di Bologna. Ripartendo la responsabilità di gestione tra il gestore del servizio (Hera), il Centro Comprensoriale (CC Akron Granarolo), i Centri di Selezione (CSS Argeco e Idealservice) e i riciclatori (tra quelli convenzionati al consorzio) si è definito il modello economico per il caso in esame. In particolare, si è adottato un approccio simulativo di allocazione del materiale selezionato in vista della modalità di vendita di alcuni prodotti tramite asta online. La quantificazione economica in sé risente di assunzioni definite per la determinazione di una componente di costo che possa essere il può possibile esaustiva delle operazioni svolte. Si è poi proceduto definendo una stima della quantità di diossido di carbonio prodotta in fase di combustione di carburante per la movimentazione dei flussi del caso di studio. I valori in esame sono stati desunti come prodotto tra la quantità di CO2 emessa per i chilometri percorsi a seconda della tipologia di mezzo adottata per la movimentazione dei flussi. I dati relativi alle quantità di anidrite carbonica prodotte sono stime in grammi di CO2 al chilometro realizzate da Arpa e distinte in funzione delle soluzioni tecnologiche da implementare secondo le disposizioni redatte dalla Comunità Europea. La nota metodologica adottata prevede di analizzare i risultati ottenuti in funzione della distanza percorsa, dei costi di trasporto e della quantità di CO2 generata per le attività.
Resumo:
Le ex Officine Reggiane si trovano nell’Area Nord di Reggio Emilia e si inseriscono all’interno del progetto di riqualificazione indetto dall’Amministrazione Comunale e descritto nel Piano Strutturale Comunale 2011. Il tema affrontato in questa tesi, elaborato all’interno del Laboratorio di laurea in Architettura sostenibile, si sviluppa su due scale: quella urbana e quella architettonica. In primo luogo il progetto definisce delle strategie di intervento per la riqualificazione della ‘area Reggiane, esplicitate attraverso un masterplan; poi approfondisce parte di un fabbricato e lo spazio aperto adiacente. Attività svolte e risultati conseguiti. Per prima cosa si sono svolte delle analisi morfologiche e geografiche di Reggio Emilia e una lettura approfondita del PSC 2011 al fine di comprendere le strategie dell’Amministrazione e le principali linee di sviluppo della città. In un secondo momento si è passati all’analisi diretta dell’area ex Officine Reggiane, acquisendo informazioni sulla sua storia e sulla sua conformazione. Questo è stato possibile attraverso la lettura di documenti e alle visite in loco. Sulla base dei dati ottenuti e constatata la vocazione dell’area è stato possibile formulare un’idea di masterplan. Successivamente abbiamo approfondito parte del fabbricato 15 a, uno degli edifici a sud-ovest dell’area. Il progetto vero e proprio è stato proceduto da una fase di rilievo ed è sfociato nell’ideazione di una biblioteca e di spazi di coworking inseriti all’interno del fabbricato esistente; parallelamente abbiamo dato una possibile configurazione allo spazio aperto ad est del blocco analizzato. L’edificio della biblioteca è stato approfondito al dettaglio. In ogni fase siamo state supportate da strumenti per la valutazione del comfort indoor e outdoor.
Resumo:
Da poco più di 30 anni la comunità scientifica è a conoscenza dell’occasionale presenza di strutture cicloniche con alcune caratteristiche tropicali sul Mar Mediterraneo, i cosiddetti medicane. A differenza dei cicloni baroclini delle medie latitudini, essi posseggono una spiccata simmetria termica centrale che si estende per gran parte della troposfera, un occhio, talvolta privo di nubi, e una struttura nuvolosa a bande spiraleggianti. Ad oggi non esiste ancora una teoria completa che spieghi la loro formazione ed evoluzione. La trattazione di questa tesi, incentrata sull’analisi dei campi di vorticità potenziale e di umidità relativa, è sviluppata nell’ottica di una miglior comprensione delle dinamiche alla mesoscala più rilevanti per la nascita dei medicane. Lo sviluppo di tecniche avanzate di visualizzazione dei campi generati dal modello WRF, quali l’animazione tridimensionale delle masse d’aria aventi determinate caratteristiche, ha permesso l’individuazione di due zone di forti anomalie di due campi derivati dalla vorticità potenziale in avvicinamento reciproco, intensificazione e mutua interazione nelle ore precedenti la formazione dei medicane. Tramite la prima anomalia che è stata chiamata vorticità potenziale secca (DPV), viene proposta una nuova definizione di tropopausa dinamica, che non presenta i problemi riscontrati nella definizione classica. La seconda anomalia, chiamata vorticità potenziale umida (WPV), individua le aree di forte convezione e permette di avere una visione dinamica dello sviluppo dei medicane alle quote medio-basse. La creazione di pseudo immagini di vapore acqueo tramite la teoria del trasferimento radiativo e la comparazione di queste mappe con quelle effettivamente misurate nei canali nella banda del vapore acqueo dai sensori MVIRI e SEVIRI dei satelliti Meteosat hanno da un lato confermato l’analisi modellistica, dall’altro consentito di stimare gli errori spazio-temporali delle simulazioni. L’utilizzo dei dati di radianza nelle microonde, acquisiti dai sensori AMSU-B e MHS dei satelliti NOAA, ha aggiunto ulteriori informazioni sia sulle intrusioni di vorticità potenziale che sulla struttura degli elementi convettivi presenti sul dominio, in modo particolare sulla presenza di ghiaccio in nube. L’analisi dettagliata di tre casi di medicane avvenuti nel passato sul Mar Mediterraneo ha infine consentito di combinare gli elementi innovativi sviluppati in questo lavoro, apportando nuove basi teoriche e proponendo nuovi metodi di indagine non solo per lo studio di questi fenomeni ma anche per un’accurata ricerca scientifica su ciclogenesi di altro tipo.
Resumo:
Le variabili ambientali e lo sfruttamento della pesca sono dei possibili fattori nel determinare la struttura della comunità demersale. L’area di studio è il Golfo di Antalya, con un area aperta ed una chiusa ad ogni attività di pesca, il periodo di studio ha coperto tre stagioni (primavera, estate, autunno). Lo scopo è quello di delineare un quadro generale sulla distribuzione spaziale e temporale delle risorse alieutiche demersali in quest’area. In questo lavoro di tesi la PCA è stata usata al fine di determinare le variabili ambientali (ossigeno, salinità, temperatura, pH, materia sospesa) che determinano maggiormente la differenza tra le stazioni, tecniche di analisi multivariata hanno invece indagato una possibile variazione su scala spaziale e temporale dei parametri abiotici. La Cluster Analysis effettuata sui dati di abbondanza ha delineato quattro raggruppamenti principali, due ad una profondità minore di 100 m e due ad una profondità maggiore (40% di similarità). Questi risultati sono confermati dall’analisi MDS. L’analisi SIMPER ha messo in evidenza le specie che maggiormente incidono sulla differenza tra strati di profondità. Gli indici di biodiversità sono stati calcolati per indagare la diversità e la variabilità temporale e spaziale della comunità demersale. Due procedure la BIO-ENV e la DistLM (Distance-based linear models) sono state effettuate per individuare le variabili abiotiche che potrebbero essere responsabili dei diversi raggruppamenti nella struttura del popolamento demersale. Le specie commerciali: Mullus barbatus, Upeneus moluccensis, Upeneus pori sono state prese come oggetto per la ricerca di possibili effetti della pesca a livello di popolazione. Per i dati di abbondanza e di biomassa di queste specie è stata eseguita l’analisi multivariata MANOVA (Multivariate Analysis of Variance) al fine di trovare eventuali variazioni dovute ai fattori profondità, stagione e transetto. Per ogni specie è stata valutata la sex ratio. Il metodo Bhattacharya ha permesso di determinare le classi di età e la loro abbondanza. In ultimo la relazione peso-lunghezza è stata ricavata separatamente per gli individui maschi e femmine al fine di determinare il tipo di crescita per ogni sesso.
Resumo:
In questa tesi viene proposta un'analisi di tipo politolinguistico di una selezione di discorsi pronunciati dal politico inglese Nigel Farage. Alla fine degli anni 90 dello scorso secolo il linguista tedesco Armin Burkhardt ha proposto un nuovo metodo di analisi linguistica andatosi ad integrare agli studi classici relativi al discorso politico, alla retorica e all'analisi del contenuto. Mediante tale approccio transdisciplinare è possibile avvalersi degli strumenti di analisi forniti dalla linguistica e dallo studio del discorso, così come dei metodi di ricerca impiegati nei campi della scienza politica, della sociolinguistica e della retorica politica, fornendo un quadro analitico più complesso ed articolato. Nella presente tesi non solo vengono identificate le peculiarità della retorica del leader euroscettica, bensì viene effettuata un'analisi sia linguistica che contestuale, affrontando le tematiche del pensiero euroscettico e la sua tradizione in Inghilterra, identificando i temi principali trattati da Farage nei suoi discorsi. Individuato l'ambito di studio, viene poi proposta un'analisi di tipo sia quantitativo che qualitativo delle tecniche discorsive di Farage, partendo dalla descrizione del linguaggio e della retorica in generale sino all'identificazione delle strategie più efficaci all'ottenimento del consenso presso l'opinione pubblica in materia economica ed europea.
Resumo:
L'idea di questo studio nasce dalla volontà di capire quali sono le competenze necessarie affinché un interprete riesca a comunicare in modo efficace. In particolare, abbiamo voluto effettuare un'analisi delle competenze comunicative degli interpreti nella loro lingua madre (in questo caso, l'italiano), poiché spesso questa competenza viene data per scontata, per il semplice fatto che si tratta della lingua parlata sin dall'infanzia. Per raggiungere questo obiettivo abbiamo trascritto e analizzato 20 interpretazioni consecutive, realizzate dagli studenti del DIT (Dipartimento di Interpretazione e Traduzione) di Forlì, durante gli esami finali che hanno avuto luogo tra il 2009 e il 2014. Il presente elaborato è suddiviso in quattro capitoli: nel primo capitolo, di natura teorica, proporremo una definizione del concetto di competenza comunicativa, che sarà divisa a sua volta in competenza linguistica, pragmatica e socio-pragmatica. Successivamente, metteremo in rilievo le altre competenze che un interprete di conferenza professionista dovrebbe avere. Il secondo capitolo sarà invece dedicato alla descrizione del concetto di qualità in interpretazione, principio estremamente importante per capire quali caratteristiche deve soddisfare il discorso prodotto da un interprete. Nel terzo capitolo, di natura pratica, presenteremo la modalità di raccolta dei dati e il risultato dell'analisi delle interpretazioni consecutive trascritte; mettendo in risalto alcune problematiche a livello comunicativo come interferenze linguistiche, calchi, problemi a livello lessicale, morfosintattico, incoerenze e omissioni. Infine, nel quarto capitolo proporremo alcune considerazioni conclusive sui temi trattati nei capitoli precedenti.
Resumo:
Le malattie neurodegenerative sono caratterizzate da aggregazione proteica, dipendente dalla perdita della usuale struttura fisiologica funzionale delle proteine coinvolte, a favore di conformazioni tossiche (patologiche). Il modello corrente descrive questi cambiamenti conformazionali come eventi rari e ritiene che non esista una sola conformazione patogena, ma che tali possibili conformazioni siano piuttosto eterogenee. La caratterizzazione di queste strutture è, di conseguenza, difficile con le tradizionali tecniche in bulk che permettono di studiare solo la conformazione media e non rendono possibile il riconoscimento delle caratteristiche dei conformeri individuali. Lo sviluppo delle tecniche di singola molecola ha permesso di studiare in modo approfondito le conformazioni possibili. In questo lavoro la spettroscopia di forza di singola molecola basata sull'AFM viene applicata a PrP (proteina responsabile delle encefalopatie spongiformi trasmissibili). Si studiano gli equilibri conformazionali del monomero e quelli di costrutti oligomerici, allo scopo di caratterizzare gli step iniziali dei processi aggregativi. Nel corso di questo lavoro di tesi è stato, in particolare, sviluppato un sistema di analisi dati, al fine di studiare in modo quantitativo le distribuzioni di eventi ottenute. Grazie a tale strumento è stato possibile riconoscere i segnali di unfolding della conformazione nativa del monomero e notare come essa sia presente anche in costrutti oligomerici, ad indicare come questo ripiegamento sia stabile anche in presenza di più monomeri ravvicinati. Si è osservato l'effetto del pH sulla stabilità di tale struttura, notando come pH acidi destabilizzino il ripiegamento nativo. Inoltre si è studiato il ruolo dell'orientazione dei monomeri nella formazione di strutture dimeriche. Monomeri e oligomeri di PrP sono stati descritti come proteine parzialmente strutturate il cui panorama energetico contiene molti minimi locali, dando origine a parecchie conformazioni transienti.
Resumo:
La capacità di estrarre entità da testi, collegarle tra loro ed eliminare possibili ambiguità tra di esse è uno degli obiettivi del Web Semantico. Chiamato anche Web 3.0, esso presenta numerose innovazioni volte ad arricchire il Web con dati strutturati comprensibili sia dagli umani che dai calcolatori. Nel reperimento di questi temini e nella definizione delle entities è di fondamentale importanza la loro univocità. Il nostro orizzonte di lavoro è quello delle università italiane e le entities che vogliamo estrarre, collegare e rendere univoche sono nomi di professori italiani. L’insieme di informazioni di partenza, per sua natura, vede la presenza di ambiguità. Attenendoci il più possibile alla sua semantica, abbiamo studiato questi dati ed abbiamo risolto le collisioni presenti sui nomi dei professori. Arald, la nostra architettura software per il Web Semantico, estrae entità e le collega, ma soprattutto risolve ambiguità e omonimie tra i professori delle università italiane. Per farlo si appoggia alla semantica dei loro lavori accademici e alla rete di coautori desumibile dagli articoli da loro pubblicati, rappresentati tramite un data cluster. In questo docu delle università italiane e le entities che vogliamo estrarre, collegare e rendere univoche sono nomi di professori italiani. Partendo da un insieme di informazioni che, per sua natura, vede la presenza di ambiguità, lo abbiamo studiato attenendoci il più possibile alla sua semantica, ed abbiamo risolto le collisioni che accadevano sui nomi dei professori. Arald, la nostra architettura software per il Web Semantico, estrae entità, le collega, ma soprattutto risolve ambiguità e omonimie tra i professori delle università italiane. Per farlo si appoggia alla semantica dei loro lavori accademici e alla rete di coautori desumibile dagli articoli da loro pubblicati tramite la costruzione di un data cluster.
Resumo:
Questa tesi si prefigge l’obiettivo di analizzare alcuni aspetti critici della sicurezza in ambito cloud. In particolare, i problemi legati alla privacy, dai termini di utilizzo alla sicurezza dei dati personali più o meno sensibili. L’aumento esponenziale di dati memorizzati nei sistemi di cloud storage (es. Dropbox, Amazon S3) pone il problema della sensibilità dei dati su un piano tutt'altro che banale, dovuto anche a non ben chiare politiche di utilizzo dei dati, sia in termini di cessione degli stessi a società di terze parti, sia per quanto riguarda le responsabilità legali. Questa tesi cerca di approfondire ed esaminare le mancanze più preoccupanti degli stessi. Oltre ad analizzare le principali criticità e i punti deboli dei servizi cloud, l’obiettivo di questo lavoro sarà quello di fare chiarezza sui passi e le infrastrutture che alcune aziende (es. Amazon) hanno implementato per avvicinarsi all’idea di 'safeness' nel cloud. Infine, l’ultimo obiettivo posto sarà l’individuazione di criteri per la valutazione/misura del grado di fiducia che l’utente può porre in questo contesto, distinguendo diversi criteri per classi di utenti. La tesi è strutturata in 4 capitoli: nel primo sarà effettuata una tassonomia dei problemi presenti nei sistemi cloud. Verranno presentati anche alcuni avvenimenti della storia recente, in cui queste problematiche sono affiorate. Nel secondo capitolo saranno trattate le strategie di 'safeness' adottate da alcune aziende, in ambito cloud. Inoltre, saranno presentate alcune possibili soluzioni, dal punto di vista architetturale. Si vedrà come il ruolo dell'utente sarà di estrema importanza. Il terzo capitolo sarà incentrato sulla ricerca di strumenti e metodi di valutazione che un utente, o gruppo di utenti, può utilizzare nei confronti di questi sistemi. Infine, il quarto capitolo conterrà alcune considerazioni conlusive sul lavoro svolto e sui possibili sviluppi di questa tesi.
Resumo:
In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.