983 resultados para File sharing applications
Resumo:
L'explosió d'aplicacions a Internet basades en oferir serveis de localització, com són portals web de mobilitat o aplicacions de seguiment de vehicles en línia han motivat aquest projecte. Google Maps ens permet afegir mapes fàcilment en un lloc web amb la seva API, però OpenLayers, una llibreria JavaScript lliure ens dóna l'opció de carregar cobertures de mapa i marcadors des de qualsevol font. OpenStreetMap proporciona dades geogràfiques de manera lliure, com per exemple mapes de carrers i carreteres. Un estudi acurat de l'estructura i agrupació de les dades en el format OSM i el desenvolupament d'un servidor basat en el model de tessel·les, són els principals elements de partida per crear la nostra pròpia font de dades cartogràfiques. En aquest projecte s'analitza i processa DXF Drawing eXchange Format passant al format OSM. Un fitxer OSM conté la informació geogràfica necessària per a la base de dades espaial a partir de la qual, entre d'altres aplicacions, es podran visualitzar els mapes propis en una aplicació de seguiment de vehicles o en un portal web.
Resumo:
Grâce à des développements technologiques récents, tels que le système de positionnement par satellites GPS (Global Positioning System) en mode différentie on est maintenant capable de mesurer avec une grande précision non seulement le profil de vitesse de déplacement d'un sujet sur la terre mais aussi sa trajectoire en faisant totalement abstraction de la chronométrie classique. De plus, des capteurs accélérométriques miniaturisés permettent d'obtenir un complément d'information biomécanique utile (fréquence et longueur du pas, signature accélérométrique individuelle). Dans cet artide, un exemple d'application de ces deux techniques à des sports tels que le ski alpin (descente ou Super G) et le sprint est présenté. La combinaison de plusieurs mesures physiologiques, cinétiques et biomécaniques permettra de mieux comprendre les facteurs endogènes et exogènes qui jouent un rôle dans l'amélioration des performances de l'homme.
Resumo:
So-called online Voting Advice Applications (VAAs) have become very popular all over Europe. Millions of voters are using them as an assistance to make up their minds for which party they should vote. Despite this popularity there are only very few studies about the impact of these tools on individual electoral choice. On the basis of the Swiss VAA smartvote we present some first findings about the question whether VAAs do have a direct impact on the actual vote of their users. In deed, we find strong evidence that Swiss voters were affected by smartvote. However, our findings are somewhat contrary to the results of previous studies from other countries. Furthermore, the quality of available data for such studies needs to be improved. Future studies should pay attention to both: the improvement of the available data, as well as the explanation of the large variance of findings between the specific European countries.
Dynamic stackelberg game with risk-averse players: optimal risk-sharing under asymmetric information
Resumo:
The objective of this paper is to clarify the interactive nature of the leader-follower relationship when both players are endogenously risk-averse. The analysis is placed in the context of a dynamic closed-loop Stackelberg game with private information. The case of a risk-neutral leader, very often discussed in the literature, is only a borderline possibility in the present study. Each player in the game is characterized by a risk-averse type which is unknown to his opponent. The goal of the leader is to implement an optimal incentive compatible risk-sharing contract. The proposed approach provides a qualitative analysis of adaptive risk behavior profiles for asymmetrically informed players in the context of dynamic strategic interactions modelled as incentive Stackelberg games.
Resumo:
1. Species distribution modelling is used increasingly in both applied and theoretical research to predict how species are distributed and to understand attributes of species' environmental requirements. In species distribution modelling, various statistical methods are used that combine species occurrence data with environmental spatial data layers to predict the suitability of any site for that species. While the number of data sharing initiatives involving species' occurrences in the scientific community has increased dramatically over the past few years, various data quality and methodological concerns related to using these data for species distribution modelling have not been addressed adequately. 2. We evaluated how uncertainty in georeferences and associated locational error in occurrences influence species distribution modelling using two treatments: (1) a control treatment where models were calibrated with original, accurate data and (2) an error treatment where data were first degraded spatially to simulate locational error. To incorporate error into the coordinates, we moved each coordinate with a random number drawn from the normal distribution with a mean of zero and a standard deviation of 5 km. We evaluated the influence of error on the performance of 10 commonly used distributional modelling techniques applied to 40 species in four distinct geographical regions. 3. Locational error in occurrences reduced model performance in three of these regions; relatively accurate predictions of species distributions were possible for most species, even with degraded occurrences. Two species distribution modelling techniques, boosted regression trees and maximum entropy, were the best performing models in the face of locational errors. The results obtained with boosted regression trees were only slightly degraded by errors in location, and the results obtained with the maximum entropy approach were not affected by such errors. 4. Synthesis and applications. To use the vast array of occurrence data that exists currently for research and management relating to the geographical ranges of species, modellers need to know the influence of locational error on model quality and whether some modelling techniques are particularly robust to error. We show that certain modelling techniques are particularly robust to a moderate level of locational error and that useful predictions of species distributions can be made even when occurrence data include some error.
Resumo:
L'éthique, en particulier dans sa version théologique, est exposée aujourd'hui à des mises à l'épreuve redoutables. Sans cesse solicitée par le public et les médias, elle engage une intelligence de la foi, une capacité analytique, une mobilisation de la raison et une implication des émotions. Le présent ouvrage entend conjoindre trois exigences: théorique, figurative et pratique. L'exigence théorique reprend à nouveaux frais la question des fondements de l'éthique, à l'interface de la rationalité, de la foi et de la théologie. L'exigence figurative, non sans rapport avec la démarche généalogique, précise les enjeux du dialogue que le théologien mène avec différentes formes de réflexion philosophique. L'exigence pratique, enfin, renoue les fils, jamais perdus de vue, avec l'expérience et l'existence des humains et des sociétés, sur la base de plusieurs cas exemplaires d'éthique appliquée: statut de l'embryon, compréhension de la maladie et de la santé, définition de la mort, transplantation d'organes, engagement social, toxicomanie, etc.
Resumo:
The recent advances in sequencing technologies have given all microbiology laboratories access to whole genome sequencing. Providing that tools for the automated analysis of sequence data and databases for associated meta-data are developed, whole genome sequencing will become a routine tool for large clinical microbiology laboratories. Indeed, the continuing reduction in sequencing costs and the shortening of the 'time to result' makes it an attractive strategy in both research and diagnostics. Here, we review how high-throughput sequencing is revolutionizing clinical microbiology and the promise that it still holds. We discuss major applications, which include: (i) identification of target DNA sequences and antigens to rapidly develop diagnostic tools; (ii) precise strain identification for epidemiological typing and pathogen monitoring during outbreaks; and (iii) investigation of strain properties, such as the presence of antibiotic resistance or virulence factors. In addition, recent developments in comparative metagenomics and single-cell sequencing offer the prospect of a better understanding of complex microbial communities at the global and individual levels, providing a new perspective for understanding host-pathogen interactions. Being a high-resolution tool, high-throughput sequencing will increasingly influence diagnostics, epidemiology, risk management, and patient care.
Resumo:
We prove a criterion for the irreducibility of an integral group representation p over the fraction field of a noetherian domain R in terms of suitably defined reductions of p at prime ideals of R. As applications, we give irreducibility results for universal deformations of residual representations, with a special attention to universal deformations of residual Galois representations associated with modular forms of weight at least 2.
Resumo:
This paper studies the relationship between investor protection, entrepreneurial risk taking and income inequality. In the presence of market frictions, better protection makes investors more willing to take on entrepreneurial risk when lending to firms, thereby improving the degree of risk sharing between financiers and entrepreneurs. On the other hand, by increasing risk sharing, investor protection also induces more firms to undertake risky projects. By increasing entrepreneurial risk taking, it raises income dispersion. By reducing the risk faced by entrepreneurs, it reduces income volatility. As a result, investor protection raises income inequality to the extent that it fosters risk taking, while it reduces it for a given level of risk taking. Empirical evidence from a panel of forty-five countries spanning the period 1976-2000 supports the predictions of the model.
Resumo:
Résumé: L'évaluation de l'exposition aux nuisances professionnelles représente une étape importante dans l'analyse de poste de travail. Les mesures directes sont rarement utilisées sur les lieux même du travail et l'exposition est souvent estimée sur base de jugements d'experts. Il y a donc un besoin important de développer des outils simples et transparents, qui puissent aider les spécialistes en hygiène industrielle dans leur prise de décision quant aux niveaux d'exposition. L'objectif de cette recherche est de développer et d'améliorer les outils de modélisation destinés à prévoir l'exposition. Dans un premier temps, une enquête a été entreprise en Suisse parmi les hygiénistes du travail afin d'identifier les besoins (types des résultats, de modèles et de paramètres observables potentiels). Il a été constaté que les modèles d'exposition ne sont guère employés dans la pratique en Suisse, l'exposition étant principalement estimée sur la base de l'expérience de l'expert. De plus, l'émissions de polluants ainsi que leur dispersion autour de la source ont été considérés comme des paramètres fondamentaux. Pour tester la flexibilité et la précision des modèles d'exposition classiques, des expériences de modélisations ont été effectuées dans des situations concrètes. En particulier, des modèles prédictifs ont été utilisés pour évaluer l'exposition professionnelle au monoxyde de carbone et la comparer aux niveaux d'exposition répertoriés dans la littérature pour des situations similaires. De même, l'exposition aux sprays imperméabilisants a été appréciée dans le contexte d'une étude épidémiologique sur une cohorte suisse. Dans ce cas, certains expériences ont été entreprises pour caractériser le taux de d'émission des sprays imperméabilisants. Ensuite un modèle classique à deux-zone a été employé pour évaluer la dispersion d'aérosol dans le champ proche et lointain pendant l'activité de sprayage. D'autres expériences ont également été effectuées pour acquérir une meilleure compréhension des processus d'émission et de dispersion d'un traceur, en se concentrant sur la caractérisation de l'exposition du champ proche. Un design expérimental a été développé pour effectuer des mesures simultanées dans plusieurs points d'une cabine d'exposition, par des instruments à lecture directe. Il a été constaté que d'un point de vue statistique, la théorie basée sur les compartiments est sensée, bien que l'attribution à un compartiment donné ne pourrait pas se faire sur la base des simples considérations géométriques. Dans une étape suivante, des données expérimentales ont été collectées sur la base des observations faites dans environ 100 lieux de travail différents: des informations sur les déterminants observés ont été associées aux mesures d'exposition des informations sur les déterminants observés ont été associé. Ces différentes données ont été employées pour améliorer le modèle d'exposition à deux zones. Un outil a donc été développé pour inclure des déterminants spécifiques dans le choix du compartiment, renforçant ainsi la fiabilité des prévisions. Toutes ces investigations ont servi à améliorer notre compréhension des outils des modélisations ainsi que leurs limitations. L'intégration de déterminants mieux adaptés aux besoins des experts devrait les inciter à employer cet outil dans leur pratique. D'ailleurs, en augmentant la qualité des outils des modélisations, cette recherche permettra non seulement d'encourager leur utilisation systématique, mais elle pourra également améliorer l'évaluation de l'exposition basée sur les jugements d'experts et, par conséquent, la protection de la santé des travailleurs. Abstract Occupational exposure assessment is an important stage in the management of chemical exposures. Few direct measurements are carried out in workplaces, and exposures are often estimated based on expert judgements. There is therefore a major requirement for simple transparent tools to help occupational health specialists to define exposure levels. The aim of the present research is to develop and improve modelling tools in order to predict exposure levels. In a first step a survey was made among professionals to define their expectations about modelling tools (what types of results, models and potential observable parameters). It was found that models are rarely used in Switzerland and that exposures are mainly estimated from past experiences of the expert. Moreover chemical emissions and their dispersion near the source have also been considered as key parameters. Experimental and modelling studies were also performed in some specific cases in order to test the flexibility and drawbacks of existing tools. In particular, models were applied to assess professional exposure to CO for different situations and compared with the exposure levels found in the literature for similar situations. Further, exposure to waterproofing sprays was studied as part of an epidemiological study on a Swiss cohort. In this case, some laboratory investigation have been undertaken to characterize the waterproofing overspray emission rate. A classical two-zone model was used to assess the aerosol dispersion in the near and far field during spraying. Experiments were also carried out to better understand the processes of emission and dispersion for tracer compounds, focusing on the characterization of near field exposure. An experimental set-up has been developed to perform simultaneous measurements through direct reading instruments in several points. It was mainly found that from a statistical point of view, the compartmental theory makes sense but the attribution to a given compartment could ñó~be done by simple geometric consideration. In a further step the experimental data were completed by observations made in about 100 different workplaces, including exposure measurements and observation of predefined determinants. The various data obtained have been used to improve an existing twocompartment exposure model. A tool was developed to include specific determinants in the choice of the compartment, thus largely improving the reliability of the predictions. All these investigations helped improving our understanding of modelling tools and identify their limitations. The integration of more accessible determinants, which are in accordance with experts needs, may indeed enhance model application for field practice. Moreover, while increasing the quality of modelling tool, this research will not only encourage their systematic use, but might also improve the conditions in which the expert judgments take place, and therefore the workers `health protection.
Resumo:
Con la mayor capacidad de los nodos de procesamiento en relación a la potencia de cómputo, cada vez más aplicaciones intensivas de datos como las aplicaciones de la bioinformática, se llevarán a ejecutar en clusters no dedicados. Los clusters no dedicados se caracterizan por su capacidad de combinar la ejecución de aplicaciones de usuarios locales con aplicaciones, científicas o comerciales, ejecutadas en paralelo. Saber qué efecto las aplicaciones con acceso intensivo a dados producen respecto a la mezcla de otro tipo (batch, interativa, SRT, etc) en los entornos no-dedicados permite el desarrollo de políticas de planificación más eficientes. Algunas de las aplicaciones intensivas de E/S se basan en el paradigma MapReduce donde los entornos que las utilizan, como Hadoop, se ocupan de la localidad de los datos, balanceo de carga de forma automática y trabajan con sistemas de archivos distribuidos. El rendimiento de Hadoop se puede mejorar sin aumentar los costos de hardware, al sintonizar varios parámetros de configuración claves para las especificaciones del cluster, para el tamaño de los datos de entrada y para el procesamiento complejo. La sincronización de estos parámetros de sincronización puede ser demasiado compleja para el usuario y/o administrador pero procura garantizar prestaciones más adecuadas. Este trabajo propone la evaluación del impacto de las aplicaciones intensivas de E/S en la planificación de trabajos en clusters no-dedicados bajo los paradigmas MPI y Mapreduce.
Resumo:
S’ha dissenyat un Laboratori Virtual d’Equips Electrònics per múltiples aplicacions específiques com a reforç docent en l’àrea de l’electrònica VERiLAB (Virtual ElectRonic LABoratory) i, a més, s’han dissenyat un conjunt de 9 pràctiques guiades per treure el màxim rendiment al laboratori virtual. El laboratori Virtual és una potent eina de treball per aplicacions docents com a programari d’iniciació a la utilització d’equips electrònics bàsics que podem trobar a qualsevol laboratori d’electrònica. Aquesta eina permet augmentar el nombre d’hores de treball pràctic fora del laboratori. La primera versió d’aquest programari es va dissenyar a l’any 2004 a la Universitat de Barcelona amb el software LabVIEW_7, el qual permet obtenir un fitxer executable amb el qual els alumnes poden treballar fora del laboratori. D’aquesta forma els alumnes únicament necessiten un ordinador per a poder fer les pràctiques. La primera versió del laboratori disposava d’un generador de funcions, un oscil·loscopi i un analitzador d’espectres com a equips electrònics, i a més a més incorporava un mòdul de filtres i un motor DC per treballar amb els equips. La versió 2 del Laboratori Virtual es va desenvolupar amb aquest projecte MQD i es va introduir una font d’alimentació, un multímetre de sobre taula i un portàtil com a equips electrònics. Es van crear també diferents mòduls de sistemes electrònics: filtres analògics, configuracions bàsiques basades en l’amplificador operacional, l’amplificador operacional no ideal i un circuit de rectificació d’ona completa. Aquests mòduls han premés ampliar el camp d’aplicació del Laboratori Virtual a diferents assignatures de l’àrea de l’electrònica.
Resumo:
"Vegeu el resum a l'inici del document del fitxer adjunt."