188 resultados para XCSubd refactoring fltk librerie grafiche
Resumo:
Доклад, поместен в сборника на Националната конференция "Образованието в информационното общество", Пловдив, май 2011 г.
Resumo:
Тодор П. Чолаков, Димитър Й. Биров - Тази статия представя цялостен модел за автоматизиран реинженеринг на наследени системи. Тя описва в детайли процесите на превод на софтуера и на рефакторинг и степента, до която могат да се автоматизират тези процеси. По отношение на превода на код се представя модел за автоматизирано превеждане на код, съдържащ указатели и работа с адресна аритметика. Също така се дефинира рамка за процеса на реинженеринг и се набелязват възможности за по-нататъшно развитие на концепции, инструменти и алгоритми.
Resumo:
In questo elaborato viene sperimentato un iter processuale che consenta di utilizzare i sensori termici affiancati a fotocamere digitale in ambito fotogrammetrico al fine di ottenere prodotto dal quale sono estrapolabili informazioni geometriche e termiche dell’oggetto di studio. Il rilievo fotogrammetrico è stato svolto mediante l’utilizzo di un drone con equipaggiamento multisensoriale, termico e digitale, su una porzione di territorio soggetto ad anomalie termiche nei pressi di Medolla (MO). Per l’analisi termica e geometrica sono stati posizionati sul campo 5 target termici di cui ne sono state misurate le coordinate per la georeferenziazione delle nuvole dense di punti e la temperatura. In particolare sono state eseguite due riprese aeree dalle quali sono stati estratti i frame necessari per i processi di restituzione fotogrammetrica. Le immagini sono state sottoposte ad una fase di trattamento che ha prodotto immagini rettificate prive di delle distorsioni impresse dall’obbiettivo. Per la creazione degli elaborati vettoriali e raster a colori e termici sono stati impiegati inizialmente software di fotogrammetria digitale in grado di fornire scene tridimensionali georeferenziate dell’oggetto. Sono state sviluppate sia in un ambiente open-source, sia sfruttando programmi commerciali. Le nuvole dense sono state successivamente trattate su una piattaforma gratuita ad interfaccia grafica. In questo modo è stato possibile effettuare dei confronti tra i diversi prodotti e valutare le potenzialità dei software stessi. Viene mostrato come creare un modello tridimensionale, contenente sia informazioni geometriche che informazioni termiche, partendo dalla nuvola termica e da quella a colori. Entrambe georeferenziate utilizzando gli stessi punti fotogrammetrici d’appoggio. Infine i prodotti ottenuti sono stati analizzati in un ambiente GIS realizzando sovrapposizioni grafiche, confronti numerici, interpolazioni, sezioni e profili.
Resumo:
L’attenzione di questa tesi si pone sulla progettazione e lo sviluppo di un automa per il controllo di sistemi a pilotaggio remoto. Punto di partenza dell'intero progetto è stata l'analisi del quadrirotore programmato ed utilizzato dai ricercatori del progetto SHERPA. Le funzionalità evidenziate dall'analisi sono state poi elaborate secondo l'approccio con Attuatore Generalizzato ed implementate in Codesys. Questo software si compone di una parte di controllo, una di simulazione ed una o più interfacce grafiche dedicate all'interazione con l'utente. L'utilizzo di Codesys ha permesso di implementare un automa modulare e riusabile, base di partenza per i futuri progetti di automi aerei. L'automa realizzato consente infine di simulare il comportamento di un generico sistema a pilotaggio remoto e di osservarne la sequenza logica con cui le azioni vengono eseguite.
Resumo:
La llegada de forasteros a nuestro país no era una empresa fácil de acometer en una España en crisis después de 1898, dividida políticamente entre conservadores y liberales, y con serias carencias en sus infraestructuras y transportes. La actividad comercial española necesitaba nuevos frentes y el turismo podría convertirse en un importante factor y motor mercantil.La búsqueda y la construcción en torno a ese objetivo comenzó a partir de 1905, cuando la iniciativa pública y privada realizaron las primeras gestiones encaminadas a este fin, y se constituyen se constituyeron sociedades-sindicatos, según el modelo francés, para fomentar la afición por los viajes y la recepción de viajeros.
Resumo:
La tesis mariológica de la conceptio per aurem, según la cual la Virgen María habría concebido a Jesucristo por el oído en el momento de escuchar del ángel el mensaje celestial anunciándole que, sin perder su virginidad, sería madre del Hijo de Dios encarnado, ha merecido hasta ahora muy pocos estudios académicos rigurosamente fundados en fuentes primarias. De hecho, en la literatura especializada son muy escasas las referencias a tal teoría y, cuando algún estudioso la evoca, casi siempre se contenta con aludir a ella, sin aportar pruebas documentales. Sin embargo, tal como lo revelan las nueve pinturas italianas aquí analizadas, esa teoría fue ilustrada mediante sutiles metáforas visuales en muchas obras pictóricas medievales, las cuales se inspiraron en una sólida tradición literaria. Además una pléyade de Padres de la Iglesia y teólogos medievales testimonia, mediante afirmaciones explícitas, que semejante teoría gozó de notable aceptación entre los maestros del pensamiento cristiano. Basándose en numerosos textos patrísticos y teológicos, este artículo intenta dos objetivos esenciales: exponer, ante todo, las distintas formulaciones teóricas propuestas por esos pensadores; y además, tratar de poner en luz los significados dogmáticos que subyacen bajo esa sorprendente tesis.
Resumo:
(POO) est l’utilisation de patrons de conception (PC). Un PC est un arrangement caractéristique de classes permettant d’offrir une solution éprouvée, tout en obtenant un code réutilisable et compréhensible. Plusieurs PC sont définis, dont 24 par la GoF [12] et plusieurs autres sont apparus par la suite. Le concept de PC est abstrait ce qui peut amener différentes interprétations. Ces différences peuvent aussi causer une mauvaise implémentation qui peut réduire les avantages d’utiliser ce patron. Ce projet consiste à concevoir un outil facilitant l’utilisation des PC. L’outil Génération et Restructuration de Patrons de Conception(GRPC) permet la génération automatique du squelette d’un patron de conception ainsi que la restructuration d’un code en le transformant structure respectant un PC. La génération et la restructuration automatique permettent d’obtenir un code uniforme et de qualité tout en respectant le patron de conception. La compréhension et la maintenance du code sont ainsi améliorées. GRPC est module d’extension pour l’environnement de développement Eclipse écrit en Java. Le code est conçu pour être facilement compréhensible et extensible. Les deux principaux objectifs de GRPC sont de restructurer (refactoring) une section de code vers l’architecture d’un patron de conception et de générer des squelettes de patrons de conception. Une interface graphique permet de guider l’utilisateur et d’aller chercher toutes les informations importantes pour le fonctionnement du logiciel. Elle permet aussi de configurer les éléments du patron de conception. Pour s’assurer de la possibilité d’effectuer une restructuration, chaque patron est associé avec une ou plusieurs règles qui analysent le code pour détecter la présence d’une structure particulière. Des procédures aident les développeurs à ajouter de nouveaux PC dans GRPC. GRPC fournit des fonctionnalités permettant d’implémenter quelques patrons de conception de la POO définis dans le livre Design Patterns : Elements of Reusable Object-Oriented Software.
Resumo:
Grazie all'evoluzione dei servizi di rete indirizzare le interfacce di rete come se fossero i veri destinatari delle comunicazioni è diventato obsoleto. Per questo è nato il concetto di Internet of Threads, in cui gli indirizzi IP sono assegnati ad ogni processo in esecuzione nel computer mediante una rete ethernet virtuale. Attualmente esistono progetti che forniscono la gestione della rete virtuale e librerie che forniscono lo stack TCP/IP da integrare all'interno dei propri programmi. Queste librerie richiedono però la modifica e ricompilazione del proprio codice, anche a causa della loro interfaccia differente dai Berkeley Socket. Attraverso PycoTCP è possibile sperimentare all'interno di un ambiente IoTh senza riscrivere il proprio codice. Inoltre unifica le API fornite dalle librerie sottostanti esponendo una interfaccia identica a quella standard del Python, in modo che non sia necessario imparare un altro metodo di programmazione per utilizzare il nuovo paradigma.
Resumo:
Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.
Resumo:
La tesi prende in esame l’attività artistica di Nicolò dell’Abate (Modena, 1509 – Parigi, 1571), con particolare riferimento alla sua grafica. L’artista lavorò circa sessanta anni suddivisi fra l’Emilia, in alcune delle sue piccole entità politiche autonome come Modena, Scandiano, Soragna, Busseto, Bologna, e la Francia, potente stato nazionale che, all’epoca qui presa in considerazione, era guidato dalla casata dei Valois: la carriera italiana di Nicolò dell’Abate si sviluppa in un arco temporale che si estende dal 1529 alla primavera del 1552, quando si trasferisce definitivamente oltralpe, morendo a Parigi alla fine di marzo del 1571. L’elaborato è diviso in quattro capitoli, dei quali il primo, introduttivo, ripercorre per sommi capi le principali tappe della sfaccettata attività italiana; il secondo e il terzo sono invece incentrati sull’esame dell’attività artistica francese del maestro, con particolare riferimento alla grafica, indagata sulla base della ricostruzione del contesto storico, culturale e artistico della Francia dell’epoca, con specifico riguardo alla corte reale della famiglia Valois nei periodi compresi fra l’arrivo di Nicolò, nel 1552, e la morte prematura del re Enrico II, nel 1559, e fra il 1560 e il 1571, durante il quale deteneva il potere de facto la regina madre Caterina de’ Medici, moglie di Enrico. Il quarto e ultimo capitolo costituisce il catalogo dei disegni italiani e francesi: è preceduto da un saggio introduttivo che esamina lo stile disegnativo di Nicolò dell’Abate in Italia e in Francia, le sue caratteristiche fondamentali e il suo mutamento, oltre alle tecniche grafiche impiegate dall’artista, la loro evoluzione e variazione e il loro ruolo nella sua poetica. Infine, in appendice, è presente il regesto delle fonti francesi sull’attività dell’artista e di alcuni dei maggiori esponenti della cosiddetta scuola di Fontainebleau.
Resumo:
Nuclear cross sections are the pillars onto which the transport simulation of particles and radiations is built on. Since the nuclear data libraries production chain is extremely complex and made of different steps, it is mandatory to foresee stringent verification and validation procedures to be applied to it. The work here presented has been focused on the development of a new python based software called JADE, whose objective is to give a significant help in increasing the level of automation and standardization of these procedures in order to reduce the time passing between new libraries releases and, at the same time, increasing their quality. After an introduction to nuclear fusion (which is the field where the majority of the V\&V action was concentrated for the time being) and to the simulation of particles and radiations transport, the motivations leading to JADE development are discussed. Subsequently, the code general architecture and the implemented benchmarks (both experimental and computational) are described. After that, the results coming from the major application of JADE during the research years are presented. At last, after a final discussion on the objective reached by JADE, the possible brief, mid and long time developments for the project are discussed.
Resumo:
Knowledge graphs and ontologies are closely related concepts in the field of knowledge representation. In recent years, knowledge graphs have gained increasing popularity and are serving as essential components in many knowledge engineering projects that view them as crucial to their success. The conceptual foundation of the knowledge graph is provided by ontologies. Ontology modeling is an iterative engineering process that consists of steps such as the elicitation and formalization of requirements, the development, testing, refactoring, and release of the ontology. The testing of the ontology is a crucial and occasionally overlooked step of the process due to the lack of integrated tools to support it. As a result of this gap in the state-of-the-art, the testing of the ontology is completed manually, which requires a considerable amount of time and effort from the ontology engineers. The lack of tool support is noticed in the requirement elicitation process as well. In this aspect, the rise in the adoption and accessibility of knowledge graphs allows for the development and use of automated tools to assist with the elicitation of requirements from such a complementary source of data. Therefore, this doctoral research is focused on developing methods and tools that support the requirement elicitation and testing steps of an ontology engineering process. To support the testing of the ontology, we have developed XDTesting, a web application that is integrated with the GitHub platform that serves as an ontology testing manager. Concurrently, to support the elicitation and documentation of competency questions, we have defined and implemented RevOnt, a method to extract competency questions from knowledge graphs. Both methods are evaluated through their implementation and the results are promising.
Resumo:
Nel panorama attuale dei media audiovisivi caratterizzato da un’ampia quantità di contenuti e da modalità diverse per fruirli è fondamentale per i distributori riuscire a emergere tra la concorrenza. In particolar modo, nel settore televisivo dove ci sono tante opportunità di visione per i consumatori, che possono scegliere tra diverse tipologie di canali i quali offrono multiple modalità di accesso e per la fruizione dei propri contenuti. L’obiettivo dello studio è mostrare la rilevanza della strategia di branding della propria impresa televisiva per riuscire nell’intento di differenziarsi dalla concorrenza e promuoversi, facendo arrivare al pubblico la propria value proposition, l’identità dell’attività in questione. Il TV branding impatta sulle scelte comunicative, valoriali, grafiche, visive e sonore del player televisivo, ma influenza anche le decisioni sul prodotto e i conduttori. Rappresenta la costruzione del brand nella sua interezza. Nel lavoro ci sarà un’analisi sul complesso scenario del mercato televisivo attuale per passare ad analizzare i vari punti dell’attività di branding che i vertici delle imprese televisive devono curare per creare valore e spiccare tra la concorrenza. Infine, il progetto converge sull’analisi dell’attività di marketing di tre casi, che si diversificano tra loro per le aree di business che coprono e per le differenti strategie di branding, ma i contenuti sportivi fanno da trade union tra queste realtà. Sky Sport è il player leader del settore della produzione e distribuzione di contenuti sportivi e opera in modalità multicanale. Eurosport è il player dedicato allo sport di Discovery, “la casa degli sport olimpici”. La strategia adottata per la fruizione dei contenuti sportivi è multipiattaforma. Infine, l’analisi verte sull’unicità del caso DAZN, l’OTT esclusivamente dedicata allo sport. DAZN mira a cambiare le modalità di vivere i contenuti sportivi. L'OTT sportiva rivolge attenzione alla valorizzazione del proprio brand.
Resumo:
Negli ultimi anni, a causa della crescente tendenza verso i Big Data, l’apprendimento automatico è diventato un approccio di previsione fondamentale perché può prevedere i prezzi delle case in modo accurato in base agli attributi delle abitazioni. In questo elaborato, verranno messe in pratica alcune tecniche di machine learning con l’obiettivo di effettuare previsioni sui prezzi delle abitazioni. Ad esempio, si può pensare all’acquisto di una nuova casa, saranno tanti i fattori di cui si dovrà preoccuparsi, la posizione, i metri quadrati, l’inquinamento dell’aria, il numero di stanze, il numero dei bagni e così via. Tutti questi fattori possono influire in modo più o meno pesante sul prezzo di quell’abitazione. E’ proprio in casi come questi che può essere applicata l’intelligenza artificiale, nello specifico il machine learning, per riuscire a trovare un modello che approssimi nel miglior modo un prezzo, data una serie di caratteristiche. In questa tesi verrà dimostrato come è possibile utilizzare l’apprendimento automatico per effettuare delle stime il più preciso possibile dei prezzi delle case. La tesi è divisa in 5 capitoli, nel primo capitolo verranno introdotti i concetti di base su cui si basa l’elaborato e alcune spiegazioni dei singoli modelli. Nel secondo capitolo, invece, viene trattato l’ambiente di lavoro utilizzato, il linguaggio e le relative librerie utilizzate. Il terzo capitolo contiene un’analisi esplorativa sul dataset utilizzato e vengono effettuate delle operazioni per preparare i dati agli algoritmi che verranno applicati in seguito. Nel capitolo 4 vengono creati i diversi modelli ed effettuate le previsioni sui prezzi mentre nel capitolo 5 vengono analizzati i risultati ottenuti e riportate le conclusioni.
Resumo:
TARO (Tons of Articles Ready to Outline) è un progetto che ha come scopo quello di realizzare un sistema per la raccolta, l'analisi e il confronto di articoli di giornali online. Sono state scelte come fonti testate giornalistiche internazionali e i loro canali di pubblicazione, come ad esempio i Feed RSS e le Homepage. Gli articoli vengono quindi analizzati attraverso NER e Sentiment Analysis per poi individuare quali argomenti siano trattati da più testate e quali invece risultino esclusivi di una sola, sfruttando algoritmi di similarità. Il progetto è sviluppato in Python e sono utilizzate diverse librerie, tra cui Scrapy, per la raccolta di articoli, Argos, per la traduzione delle notizie al fine di allinearle linguisticamente, SpaCy, per le analisi semantiche, e Pandas per la visualizzazione dei risultati ottenuti. Uno degli obiettivi è sfruttare questa pipeline al fine di effettuare analisi socio-culturali interessanti utilizzando le informazioni date dagli articoli giornalistici stessi, oltre che osservare le potenzialità delle analisi semantiche fatte su notiziari.