941 resultados para XML-RPC
Resumo:
The electric dipole response of neutron-rich nickel isotopes has been investigated using the LAND setup at GSI in Darmstadt (Germany). Relativistic secondary beams of 56−57Ni and 67−72Ni at approximately 500 AMeV have been generated using projectile fragmentation of stable ions on a 4 g/cm2 Be target and subsequent separation in the magnetic dipole fields of the FRagment Separator (FRS). After reaching the LAND setup in Cave C, the radioactive ions were excited electromagnetically in the electric field of a Pb target. The decay products have been measured in inverse kinematics using various detectors. Neutron-rich 67−69Ni isotopes decay by the emission of neutrons, which are detected in the LAND detector. The present analysis concentrates on the (gamma,n) and (gamma,2n) channels in these nuclei, since the proton and three-neutron thresholds are unlikely to be reached considering the virtual photon spectrum for nickel ions at 500 AMeV. A measurement of the stable 58Ni isotope is used as a benchmark to check the accuracy of the present results with previously published data. The measured (gamma,n) and (gamma,np) channels are compared with an inclusive photoneutron measurement by Fultz and coworkers, which are consistent within the respective errors. The measured excitation energy distributions of 67−69Ni contain a large portion of the Giant Dipole Resonance (GDR) strength predicted by the Thomas-Reiche-Kuhn energy-weighted sum rule, as well as a significant amount of low-lying E1 strength, that cannot be attributed to the GDR alone. The GDR distribution parameters are calculated using well-established semi-empirical systematic models, providing the peak energies and widths. The GDR strength is extracted from the chi-square minimization of the model GDR to the measured data of the (gamma,2n) channel, thereby excluding any influence of eventual low-lying strength. The subtraction of the obtained GDR distribution from the total measured E1 strength provides the low-lying E1 strength distribution, which is attributed to the Pygmy Dipole Resonance (PDR). The extraction of the peak energy, width and strength is performed using a Gaussian function. The minimization of trial Gaussian distributions to the data does not converge towards a sharp minimum. Therefore, the results are presented by a chi-square distribution as a function of all three Gaussian parameters. Various predictions of PDR distributions exist, as well as a recent measurement of the 68Ni pygmy dipole-resonance obtained by virtual photon scattering, to which the present pygmy dipole-resonance distribution is also compared.
Resumo:
Lo scopo di questa dissertazione è di identificare le tecnologie più appropriate per la creazione di editor parametrici per documenti strutturati e di descrivere LIME, un editor di markup parametrico e indipendente dal linguaggio. La recente evoluzione delle tecnologie XML ha portato ad un utilizzo sempre più consistente di documenti strutturati. Oggigiorno, questi vengono utilizzati sia per scopi tipografici sia per l’interscambio di dati nella rete internet. Per questa ragione, sempre più persone hanno a che fare con documenti XML nel lavoro quotidiano. Alcuni dialetti XML, tuttavia, non sono semplici da comprendere e da utilizzare e, per questo motivo, si rendono necessari editor XML che possano guidare gli autori di documenti XML durante tutto il processo di markup. In alcuni contesti, specialmente in quello dell’informatica giuridica, sono stati introdotti i markup editor, software WYSIWYG che assistono l’utente nella creazione di documenti corretti. Questi editor possono essere utilizzati anche da persone che non conoscono a fondo XML ma, d’altra parte, sono solitamente basati su uno specifico linguaggio XML. Questo significa che sono necessarie molte risorse, in termini di programmazione, per poterli adattare ad altri linguaggi XML o ad altri contesti. Basando l’architettura degli editor di markup su parametri, è possibile progettare e sviluppare software che non dipendono da uno specifico linguaggio XML e che possono essere personalizzati al fine di utilizzarli in svariati contesti.
Resumo:
L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.
Resumo:
Lavoro svolto per la creazione di una rete citazionale a partire da articoli scientifici codificati in XML JATS. Viene effettuata un'introduzione sul semantic publishing, le ontologie di riferimento e i principali dataset su pubblicazioni scientifiche. Infine viene presentato il prototipo CiNeX che si occupa di estrarre da un dataset in XML JATS un grafo RDF utilizzando l'ontologia SPAR.
Resumo:
This thesis aims at investigating a new approach to document analysis based on the idea of structural patterns in XML vocabularies. My work is founded on the belief that authors do naturally converge to a reasonable use of markup languages and that extreme, yet valid instances are rare and limited. Actual documents, therefore, may be used to derive classes of elements (patterns) persisting across documents and distilling the conceptualization of the documents and their components, and may give ground for automatic tools and services that rely on no background information (such as schemas) at all. The central part of my work consists in introducing from the ground up a formal theory of eight structural patterns (with three sub-patterns) that are able to express the logical organization of any XML document, and verifying their identifiability in a number of different vocabularies. This model is characterized by and validated against three main dimensions: terseness (i.e. the ability to represent the structure of a document with a small number of objects and composition rules), coverage (i.e. the ability to capture any possible situation in any document) and expressiveness (i.e. the ability to make explicit the semantics of structures, relations and dependencies). An algorithm for the automatic recognition of structural patterns is then presented, together with an evaluation of the results of a test performed on a set of more than 1100 documents from eight very different vocabularies. This language-independent analysis confirms the ability of patterns to capture and summarize the guidelines used by the authors in their everyday practice. Finally, I present some systems that work directly on the pattern-based representation of documents. The ability of these tools to cover very different situations and contexts confirms the effectiveness of the model.
Resumo:
In this thesis, the author presents a query language for an RDF (Resource Description Framework) database and discusses its applications in the context of the HELM project (the Hypertextual Electronic Library of Mathematics). This language aims at meeting the main requirements coming from the RDF community. in particular it includes: a human readable textual syntax and a machine-processable XML (Extensible Markup Language) syntax both for queries and for query results, a rigorously exposed formal semantics, a graph-oriented RDF data access model capable of exploring an entire RDF graph (including both RDF Models and RDF Schemata), a full set of Boolean operators to compose the query constraints, fully customizable and highly structured query results having a 4-dimensional geometry, some constructions taken from ordinary programming languages that simplify the formulation of complex queries. The HELM project aims at integrating the modern tools for the automation of formal reasoning with the most recent electronic publishing technologies, in order create and maintain a hypertextual, distributed virtual library of formal mathematical knowledge. In the spirit of the Semantic Web, the documents of this library include RDF metadata describing their structure and content in a machine-understandable form. Using the author's query engine, HELM exploits this information to implement some functionalities allowing the interactive and automatic retrieval of documents on the basis of content-aware requests that take into account the mathematical nature of these documents.
Resumo:
L'avvento delle nuove tecnologie e dei nuovi terminali Smartphone, ha portato ad una sempre più ampia implementazioni di applicazioni mobile. L'obiettivo di questa tesi è quello di illustrare il processo di progettazione ed implementazione di una mobile App per la Web Radio degli studenti universitari di Cesena: Uniradio Cesena.
Resumo:
Questa tesi tratta la gestione dei formati digitali dei testi, parziale argomento del progetto Biblio dell'università di Bologna. L'analisi proposta in questa tesi prevede la proposta di un'architettura che sfrutta in parte tecnologie già esistenti come linguaggi di markup, gestione di frammenti di testo con XPointer e epubcfi, tools per NLP, TEI, DocBook. Questa architettura ha il compito di modificare i formati digitali dei documenti in modo tale che la struttura sia indipendente dall'impaginazione. Ciò avviene attraverso l'introduzione delle unità informative, ossia nuovi elementi nella struttura del testo. Le unità informative sono di vari tipi, quelle più rilevanti ed innovative riguardano parti di testo e periodi; esse, infatti, permettono di identificare un preciso periodo dall'opera senza che esso dipenda dal tipo di impaginazione. Per ottenere questo risultato sono state sollevate tre problematiche principali: la gestione delle opere già esistenti, la gestione delle traduzioni, la gestione di opere inedite; esse vengono rispettivamente risolte nelle proposte dei postprocessor, del translationSystem e dell'authorSystem. Tutte e tre si basano sulla produzione di un'enumerazione delle unità informative, con una particolare attenzione per i periodi. Per riuscire a reperire i periodi si sfruttano le tecnologie di riconoscimento NLP. Il translationSystem e l'authorSystem presentano inoltre funzioni per la gestione della numerazione. Inoltre si prende in considerazione un repository e un sistema di autenticazione certificato per combattere furti d'identità, plagi e simili. Comprende accenni al recupero di unità informative sulla base di FRBR e una proposta per un sistema multiautore.
Resumo:
La tesi è strutturata in tre macro capitoli: • e-learning: questo capitolo tratta i tre principi su cui è basato questo progetto quali e-learning, m-learning ed incidental learning descrivendo l’evoluzione di questi tre concetti e analizzando ognuno di essi nel dettaglio partendo dal principio, l’e-learning. Verranno poi presentati dei progetti inerenti a queste tipologie di apprendimento per fare in modo di dare un’idea più chiara di questi concetti. • Specifiche di progetto: in questo secondo capitolo vengono descritte, ad alto livello, le tecnologie utilizzate per lo sviluppo di questo progetto, descrivendo, per ognuna, le caratteristiche e le applicazioni che essa ha avuto all’interno del progetto. • Implementazione: nel terzo e ultimo capitolo verranno descritte, e motivate, le scelte implementative adottate per sviluppare l’applicazione iLocalApp e verranno mostrati scorci di codice per rendere più chiaro l’utilizzo delle varie API e tecnologie all’interno del progetto.
Resumo:
L'obiettivo di questa tesi è lo sviluppo di due applicativi per l'azienda EBWorld. Il primo desktop, sviluppato in Java, è utilizzato per gestire la memoria interna di un dispositivo Android collegato al computer, installare l'applicazione mobile sviluppata a seguito ed esportare i progetti, creati dall'utente, durante l'utilizzo dell'applicativo mobile. Il secondo è un applicativo Android, utilizzato per la visualizzazione e l'interazione con dati georiferiti e permette all'utente di creare progetti inserendo ulteriori elementi georiferiti. Per la memorizzazione dei dati sono stati utilizzati diversi file XML e per la comunicazione tra l'applicativo Java ed un dispositivo Android, sono stati utilizzati la libreria JMTP in combinazione con i comandi ADB.
Resumo:
Nell'ottica di trovare modalità sempre più intuitive per movimentare manipolatori industriali l’obiettivo della tesi è quello di realizzare una mobile app su piattaforma Android in grado appunto di movimentare un generico manipolatore industriale. L'applicazione sviluppata fornisce all'utente un’interfaccia semplice e intuitiva che permette, dopo un’opportuna configurazione iniziale, di controllare il moto di un manipolatore industriale attraverso l’uso del touch screen e degli elementi grafici dell’interfaccia. Oltre a istruire un manipolatore l’applicazione offre anche delle funzionalità per il salvataggio e la gestione di determinate configurazioni che il manipolatore può assumere nello spazio. Il grande vantaggio dell’applicazione è quello di fornire un’interfaccia universale per la movimentazione di qualsiasi manipolatore. Si può affermare quindi che essa fornisce un livello di astrazione superiore. In questo progetto di tesi è stato effettuato il testing dell'applicazione sviluppata sia con il manipolatore industriale Comau Smart Six, robot antropomorfo a 6 gradi di libertà, sia con un manipolatore simulato in Unity 3D. Sono stati raccolti dei dati, in particolare dei grafici, che mettono in relazione i comandi impartiti al manipolatore e i dati ricevuti da questo, in modo da ricavarne dei parametri che misurano l'efficienza e la correttezza dell'applicazione.
Resumo:
The current study investigated the effects of supplementing rumen-protected choline (RPC) on metabolic profile, selected liver constituents and transcript levels of selected enzymes, transcription factors and nuclear receptors involved in mammary lipid metabolism in dairy goats. Eight healthy lactating goats were studied: four received no choline supplementation (CTR group) and four received 4g RPC chloride/day (RPC group). The treatment was administered individually starting 4 weeks before expected kidding and continuing for 4 weeks after parturition. In the first month of lactation, milk yield and composition were measured weekly. On days 7, 14, 21 and 27 of lactation, blood samples were collected and analysed for glucose, beta-hydroxybutyrate, non-esterified fatty acids and cholesterol. On day 28 of lactation, samples of liver and mammary gland tissue were obtained. Liver tissue was analysed for total lipid and DNA content; mammary tissue was analysed for transcripts of lipoprotein lipase (LPL), fatty acid synthase (FAS), sterol regulatory binding proteins 1 and 2, peroxisome proliferator-activated receptor gamma and liver X receptor alpha. Milk yield was very similar in the two groups, but R PC goats had lower (P < 0.05) plasma beta-hydroxybutyrate. The total lipid content of liver was unaffected (P = 0.890), but the total lipid/DNA ratio was lower (both P < 0.05) in RPC than CTR animals. Choline had no effect on the expression of the mammary gland transcripts involved in lipid metabolism. The current plasma and liver data indicate that choline has a positive effect on liver lipid metabolism, whereas it appears to have little effect on transcript levels in mammary gland of various proteins involved in lipid metabolism. Nevertheless, the current results were obtained from a limited number of animals, and choline requirement and function in lactating dairy ruminants deserve further investigation.