815 resultados para Moduli, rappresentazione, algebre semplici
Resumo:
Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.
Resumo:
Il presente lavoro di tesi è stato svolto presso la DTU, Technical University of Denmark, nel Department of Energy Conversion and Storage, Riso Campus. Lo scopo del periodo di soggiorno estero è stato quello di caratterizzare appropriati moduli termoelettrici forniti da aziende del settore, utilizzando un opportuno apparato di caratterizzazione. Quest’ultimo è noto come “module test system” e, nello specifico, è stato fornito dalla PANCO GmbH, azienda anch’essa attiva nel campo delle tecnologie termoelettriche. Partendo da uno studio teorico dei fenomeni fisici interessati (effetto Seebeck per la produzione di potenza termoelettrica), si è cercato in seguito di analizzare le principali caratteristiche, ed elementi, del “module test system”. Successivamente a questa prima fase di analisi, sono stati condotti esperimenti che, con l’aiuto di modelli computazionali implementati attraverso il software Comsol Multiphysics, hanno permesso di studiare l’affidabilità del sistema di caratterizzazione. Infine, una volta acquisite le basi necessarie ad una corretta comprensione dei fenomeni fisici e delle caratteristiche relative alla strumentazione, sono stati analizzati moduli termoelettrici di tipo commerciale. In particolare, sono stati estrapolati dati quali correnti, tensioni, gradienti di temperatura, che hanno permesso di ricavare flussi termici, efficienze, e potenze che caratterizzano il modulo in questione durante le condizioni di funzionamento. I risultati ottenuti sono stati successivamente comparati con dati forniti dal produttore, presenti sul catalogo.
Resumo:
Il presente lavoro di tesi si inserisce nel contesto dei sistemi ITS e intende realizzare un insieme di protocolli in ambito VANET relativamente semplici ma efficaci, in grado di rilevare la presenza di veicoli in avvicinamento a un impianto semaforico e di raccogliere quelle informazioni di stato che consentano all’infrastruttura stradale di ottenere una stima il più possibile veritiera delle attuali condizioni del traffico in ingresso per ciascuna delle direzioni previste in tale punto. Si prevede di raccogliere i veicoli in gruppi durante il loro avvicinamento al centro di un incrocio. Ogni gruppo sarà costituito esclusivamente da quelle vetture che stanno percorrendo uno stesso tratto stradale e promuoverà l’intercomunicazione tra i suoi diversi membri al fine di raccogliere e integrare i dati sulla composizione del traffico locale. Il sistema realizzato cercherà di trasmettere alle singole unità semaforiche un flusso di dati sintetico ma costante contenente le statistiche sull’ambiente circostante, in modo da consentire loro di applicare politiche dinamiche e intelligenti di controllo della viabilità. L’architettura realizzata viene eseguita all’interno di un ambiente urbano simulato nel quale la mobilità dei nodi di rete corrisponde a rilevazioni reali effettuate su alcune porzioni della città di Bologna. Le performance e le caratteristiche del sistema complessivo vengono analizzate e commentate sulla base dei diversi test condotti.
Resumo:
La tesi si divide in due parti, la prima riguarda lo studio e caratterizzazione di sensori di luminosità e temperatura per una barriera frangisole intelligente. La seconda parte si basa sullo studio di una connessione wireless attraverso l'utilizzo di moduli XBee.
Resumo:
La tesi è incentrata sui recenti sviluppi della narrativa testimoniale dell’America Latina. Verranno presi in considerazione gli ultimi contributi critici dedicati al rapporto tra finzione e realtà in letteratura, e sarà dato spazio alla costruzione narrativa della realtà e alla nascita del testimonio, come genere a sé, che raccoglie alcune delle principali opere latinoamericane degli ultimi quaranta anni. Nello specifico, l’indagine riguarderà la rappresentazione letteraria della violenza nella narrativa di denuncia di tre autori ispoanoamericani: la novela negra di Enrique Serna, il poliziesco testimoniale di Rodolfo Walsh e la scrittura estrema di Roberto Bolaño. Obiettivo della ricerca è capire in che modo i tre scrittori hanno raccontato le loro verità alternative, provando a salvaguardare la memoria, e quali effetti hanno ottenuto. Verranno analizzate non solo le tematiche affrontate, facendo riferimento quindi al contesto storico, politico e sociale al quale si rifanno, ma saranno illustrate anche le differenti tecniche di costruzione del romanzo, dell’intreccio e della trama, e verrà isolato il ruolo del testimone (diretto o indiretto) e delle fonti, per cogliere le differenze ma anche le similitudini stilistiche e narrative di ognuna delle opere. Più in generale, dimostreremo come e quanto i testi di questi autori costituiscano in realtà una forte critica al sistema imperante e diano voce alle categorie sociali altrimenti emarginate.
Resumo:
Quelle est la différence entre un flibustier et un pirate ? Ce projet de recherche est basé sur cette question enfantine. En fait, les historiens contemporains, qui ont consacré de nombreuses pages à la « piraterie » et à la « flibuste » de l’âge moderne, n’ont pas réussi à répondre à cette – apparemment – simple question. Les reconstructions et les théories développées, en fait, ont assimilé ces deux phénomènes, en traitant les deux termes comme de simples synonymes. Mais, si cela peut être considéré comme vrai aujourd’hui, il n'était pas au cours des XVIIème et XVIIIème siècles. À l'époque, pirate était équivalent de « hostis humani generis », et comme tel craint et persécuté. Les flibustiers, au contraire, ont été considérés comme l’un des groupes les plus importants dans les premiers établissements des îles de la Mer des Caraïbes. En outre, le terme flibustier, dans la correspondance des gouverneurs français, se réfère à un élément considéré comme essentiel pour la réussite du processus de construction de la colonie, et également cruciale pour la consolidation des établissements américains. C’est donc la relation spéciale entre les flibustiers et le Nouveau Monde est l’objet de cette thèse. En utilisant une approche historico-culturel, on a essayé de contextualiser le phénomène de la flibuste dans le « processus d’américanisation » des premières communautés européennes en Amérique. La relation étroite entre les colons des établissements français de Saint-Domingue (aujourd’hui Haïti) et les nombreux espaces - économique, militaire, diplomatique, social, humain - des Caraïbes a fait des flibustiers un élément fortement « américanisé ». Grâce à la lecture des documents d'archives et les mémoires des années entre 1684 et 1727, on a reconstruit la dynamique de la relation entre ce groupe et le contexte américain, avec une attention particulière à la dynamique culturelle et sociale.
Resumo:
In this experimental thesis, two luminescent Ir(III) and Re(I) complexes which have a terminal alkynyl group on the tetrazole ligand were prepared. The aim was to use them as building blocks, in order to synthesize more complex structures. We explored two simple reactions: the first one was a coupling, for the formation of Ir(III)/Au(III) and Re(I)/Au(III) hetero binuclear complexes, and the second was a 1,3-dipolar Cu(I)-catalyzed “Click” cycloaddition, between the terminal alkyne and azide. The synthesized products were characterized through photophysical analysis, evaluating how the photoemissive properties of these substrates were affected by the formation of more complex structures. In questo lavoro di tesi sperimentale sono stati preparati due complessi luminescenti di Ir(III) e Re(I) che presentano un alchino terminale sul legante tetrazolico. Lo scopo è stato quello di utilizzarli come building blocks per la sintesi di strutture più complesse. Sono state esplorate due semplici reazioni: la prima di coupling, per la formazione di complessi etero binucleari Ir(III)/Au(III) e Re(I)/Au(III), e la seconda di “click”, ossia una cicloaddizione 1,3-dipolare Cu(I) catalizzata tra l’alchino terminale e un’azide. I prodotti sintetizzati sono stati caratterizzati attraverso analisi fotofisiche, valutando come le proprietà fotoemissive di questi substrati siano influenzate in seguito alla formazione di strutture più complesse.
Resumo:
La maggior parte dei pazienti che vengono sottoposti a interventi chirurgici per tumori solidi hanno un’età superiore a 70 anni1. Circa il 30% di questi pazienti vengono considerati “fragili”. Questi infatti presentano numerose comorbidità ed hanno un più elevato rischio di sviluppare complicanze postoperatorie con perdita della riserva funzionale residua. Per questo non esistono sistemi semplici di screening che permettano ai medici responsabili del trattamento di identificare questi pazienti con aumentato rischio postoperatorio. Identificare i pazienti a rischio è infatti il primo passo nel processo attraverso il quale è possibile prevenire in necessarie complicanze postoperatorie come delirio, eventi cardiovascolari e perdita della funzionalità complessiva con conseguente perdita di autonomia. Scopo di questo studio è quello di confrontare l’accuratezza nella previsione di mortalità e morbidità a 30 giorni dei tre test preditivi “Groningen Frailty Index” (GFI); “Vulnerable Elders Survey” (VES-13); “timed up and go test” con alcune componenti del Preoperative Assessment of Cancer in the Elderly (PACE). Lo studio verrà effettuato sui pazienti con età maggiore di 70 anni che dovranno essere sottoposti a intervento chirurgico in anestesia generale per la presenza di una neoplasia solida.
Resumo:
Il web ha cambiato radicalmente le nostre vite. Grazie ad esso, oggi si possono fare cose che solo qualche decennio fa erano pura fantascienza, come ad esempio la telepresenza o gli interventi chirurgici da remoto, ma anche cose più “semplici” come seguire corsi di formazione (anche universitaria), effettuare la spesa, operare con il proprio conto corrente, tutto restando comodamente a casa propria, semplificando così la vita di tutti. Allo stesso tempo il web è stato utilizzato per fini tutt’altro che nobili, ad esempio per commettere crimini informatici, recare danni alla concorrenza, compiere varie forme di truffe ecc. Ogni persona dovrebbe comportarsi in modo corretto e nel pieno rispetto del prossimo, sia sul mondo reale che sul web, ma purtroppo non è sempre così. Per quanto riguarda il mondo del web, sta agli sviluppatori soddisfare le necessità dei propri utenti, assicurandosi però che la propria applicazione non verrà usata per recare qualche tipo di danno a terzi o alla propria infrastruttura. Questa tesi nasce da un idea dei docenti del corso di Programmazione riguardo alla realizzazione di un modulo del sito web del corso che si occupa della correzione automatica di esercizi scritti in linguaggio C dagli studenti del corso, dove per correzione automatica si intende la verifica della correttezza degli esercizi.
Resumo:
Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.
Resumo:
La ricerca ha come oggetto l’edizione critica di circa tremila regesti di documenti di area bolognese datati al X-XII secolo. I documenti sono stati trascritti tra il XVII e XVIII secolo in undici cartulari ecclesiastici, conservati presso l’Archivio di Stato di Bologna. Il lavoro s’inserisce nel progetto di edizione delle carte bolognesi di epoca medievale in corso presso la cattedra di Paleografia latina e Diplomatica dell’Università di Bologna, attualmente incentrata sull’edizione delle carte del secolo XII. La ricerca si propone come strumento di supporto a tale progetto e come completamento delle carte già pubblicate: i cartulari, infatti, offrono spesso copie di documenti mancanti dell’originale o in cattivo stato di conservazione, e costituiscono l’unica traccia di una memoria storica altrimenti perduta. Le raccolte esaminate si collocano a ridosso del periodo napoleonico, quando la maggior parte degli enti ecclesiastici venne soppressa e i loro beni incamerati dallo Stato; esse quindi rispecchiano la condizione dei principali archivi ecclesiastici cittadini dei primi secoli del Medioevo bolognese. La ricerca è strutturata in una prima parte volta a definire in termini storico-diplomatistici la tipologia di fonte esaminata: oggi i cartulari non sono più intesi come semplici raccoglitori di documenti, ma come sistema organico di fonti in grado di far luce su aspetti importanti della storia dell’ente che li ha prodotti. L’indagine del loro contesto di produzione permette di comprenderne meglio le finalità, la forma e il valore giuridico. Parte della ricerca è stata poi incentrata sullo studio delle ragioni che hanno portato gli istituti religiosi bolognesi alla redazione dei cartulari: a tal fine è stata esaminata la legislazione ecclesiastica cinque-settecentesca in materia di conservazione della documentazione e il rapporto della legislazione stessa con la prassi archivistica. Infine è stata realizzata l’edizione critica vera e propria dei regesti, mirante a descrivere le caratteristiche principali di ciascun cartulario.
Resumo:
Intersection theory on moduli spaces has lead to immense progress in certain areas of enumerative geometry. For some important areas, most notably counting stable maps and counting stable sheaves, it is important to work with a virtual fundamental class instead of the usual fundamental class of the moduli space. The crucial prerequisite for the existence of such a class is a two-term complex controlling deformations of the moduli space. Kontsevich conjectured in 1994 that there should exist derived version of spaces with this specific property. Another hint at the existence of these spaces comes from derived algebraic geometry. It is expected that for every pair of a space and a complex controlling deformations of the space their exists, under some additional hypothesis, a derived version of the space having the chosen complex as cotangent complex. In this thesis one version of these additional hypothesis is identified. We then show that every space admitting a two-term complex controlling deformations satisfies these hypothesis, and we finally construct the derived spaces.
Resumo:
Il progetto Eye-Trauma si colloca all'interno dello sviluppo di un simulatore chirurgico per traumi alla zona oculare, sviluppato in collaborazione con Simulation Group in Boston, Harvard Medical School e Massachusetts General Hospital. Il simulatore presenta un busto in silicone fornito di moduli intercambiabili della zona oculare, per simulare diversi tipi di trauma. L'utilizzatore è chiamato ad eseguire la procedura medica di saturazione tramite degli strumenti chirurgici su cui sono installati dei sensori di forza e di apertura. I dati collezionati vengono utilizzati all'interno del software per il riconoscimento dei gesti e il controllo real-time della performance. L'algoritmo di gesture recognition, da me sviluppato, si basa sul concetto di macchine a stati; la transizione tra gli stati avviene in base agli eventi rilevati dal simulatore.
Resumo:
La tesi consiste nella ricerca di un candidato ideale per la soluzione del problema di Dirichlet. Vengono affrontati gli argomenti in maniera graduale, partendo dalle funzioni armoniche e le loro relative proprietà, passando per le identità e le formule di rappresentazione di Green, per finire nell'analisi del problema sopra citato, mediante i risultati precedentemente ottenuti, per concludere trovando la formula integrale di Poisson come soluzione ma anche come formula generale per sviluppi in vari ambiti.
Resumo:
Tradizionalmente, l'obiettivo della calibrazione di un modello afflussi-deflussi è sempre stato quello di ottenere un set di parametri (o una distribuzione di probabilità dei parametri) che massimizzasse l'adattamento dei dati simulati alla realtà osservata, trattando parzialmente le finalità applicative del modello. Nel lavoro di tesi viene proposta una metodologia di calibrazione che trae spunto dell'evidenza che non sempre la corrispondenza tra dati osservati e simulati rappresenti il criterio più appropriato per calibrare un modello idrologico. Ai fini applicativi infatti, può risultare maggiormente utile una miglior rappresentazione di un determinato aspetto dell'idrogramma piuttosto che un altro. Il metodo di calibrazione che viene proposto mira a valutare le prestazioni del modello stimandone l'utilità nell'applicazione prevista. Tramite l'utilizzo di opportune funzioni, ad ogni passo temporale viene valutata l'utilità della simulazione ottenuta. La calibrazione viene quindi eseguita attraverso la massimizzazione di una funzione obiettivo costituita dalla somma delle utilità stimate nei singoli passi temporali. Le analisi mostrano come attraverso l'impiego di tali funzioni obiettivo sia possibile migliorare le prestazioni del modello laddove ritenute di maggior interesse per per le finalità applicative previste.