915 resultados para Data replication processes
Resumo:
It has been shown that in reality at least two general scenarios of data structuring are possible: (a) a self-similar (SS) scenario when the measured data form an SS structure and (b) a quasi-periodic (QP) scenario when the repeated (strongly correlated) data form random sequences that are almost periodic with respect to each other. In the second case it becomes possible to describe their behavior and express a part of their randomness quantitatively in terms of the deterministic amplitude–frequency response belonging to the generalized Prony spectrum. This possibility allows us to re-examine the conventional concept of measurements and opens a new way for the description of a wide set of different data. In particular, it concerns different complex systems when the ‘best-fit’ model pretending to be the description of the data measured is absent but the barest necessity of description of these data in terms of the reduced number of quantitative parameters exists. The possibilities of the proposed approach and detection algorithm of the QP processes were demonstrated on actual data: spectroscopic data recorded for pure water and acoustic data for a test hole. The suggested methodology allows revising the accepted classification of different incommensurable and self-affine spatial structures and finding accurate interpretation of the generalized Prony spectroscopy that includes the Fourier spectroscopy as a partial case.
Resumo:
This document presents a tool able to automatically gather data provided by real energy markets and to generate scenarios, capture and improve market players’ profiles and strategies by using knowledge discovery processes in databases supported by artificial intelligence techniques, data mining algorithms and machine learning methods. It provides the means for generating scenarios with different dimensions and characteristics, ensuring the representation of real and adapted markets, and their participating entities. The scenarios generator module enhances the MASCEM (Multi-Agent Simulator of Competitive Electricity Markets) simulator, endowing a more effective tool for decision support. The achievements from the implementation of the proposed module enables researchers and electricity markets’ participating entities to analyze data, create real scenarios and make experiments with them. On the other hand, applying knowledge discovery techniques to real data also allows the improvement of MASCEM agents’ profiles and strategies resulting in a better representation of real market players’ behavior. This work aims to improve the comprehension of electricity markets and the interactions among the involved entities through adequate multi-agent simulation.
Resumo:
This paper presents the Realistic Scenarios Generator (RealScen), a tool that processes data from real electricity markets to generate realistic scenarios that enable the modeling of electricity market players’ characteristics and strategic behavior. The proposed tool provides significant advantages to the decision making process in an electricity market environment, especially when coupled with a multi-agent electricity markets simulator. The generation of realistic scenarios is performed using mechanisms for intelligent data analysis, which are based on artificial intelligence and data mining algorithms. These techniques allow the study of realistic scenarios, adapted to the existing markets, and improve the representation of market entities as software agents, enabling a detailed modeling of their profiles and strategies. This work contributes significantly to the understanding of the interactions between the entities acting in electricity markets by increasing the capability and realism of market simulations.
Resumo:
This project proposes an approach for supporting Indoor Navigation Systems using Pedestrian Dead Reckoning-based methods and by analyzing motion sensor data available in most modern smartphones. Processes suggested in this investigation are able to calculate the distance traveled by a user while he or she is walking. WLAN fingerprint- based navigation systems benefit from the processes followed in this research and results achieved to reduce its workload and improve its positioning estimations.
Resumo:
Nowadays, participatory processes attending the need for real democracy and transparency in governments and collectives are more needed than ever. Immediate participation through channels like social networks enable people to give their opinion and become pro-active citizens, seeking applications to interact with each other. The application described in this dissertation is a hybrid channel of communication of questions, petitions and participatory processes based on Public Participation Geographic Information System (PPGIS), Participation Geographic Information System (PGIS) and ‘soft’ (subjective data) Geographic Information System (SoftGIS) methodologies. To achieve a new approach to an application, its entire design is focused on the spatial component related with user interests. The spatial component is treated as main feature of the system to develop all others depending on it, enabling new features never seen before in social actions (questions, petitions and participatory processes). Results prove that it is possible to develop a working application mainly using open source software, with the possibility of spatial and subject filtering, visualizing and free download of actions within application. The resulting application empowers society by releasing soft data and defines a new breaking approach, unseen so far.
Resumo:
Grasslands in semi-arid regions, like Mongolian steppes, are facing desertification and degradation processes, due to climate change. Mongolia’s main economic activity consists on an extensive livestock production and, therefore, it is a concerning matter for the decision makers. Remote sensing and Geographic Information Systems provide the tools for advanced ecosystem management and have been widely used for monitoring and management of pasture resources. This study investigates which is the higher thematic detail that is possible to achieve through remote sensing, to map the steppe vegetation, using medium resolution earth observation imagery in three districts (soums) of Mongolia: Dzag, Buutsagaan and Khureemaral. After considering different thematic levels of detail for classifying the steppe vegetation, the existent pasture types within the steppe were chosen to be mapped. In order to investigate which combination of data sets yields the best results and which classification algorithm is more suitable for incorporating these data sets, a comparison between different classification methods were tested for the study area. Sixteen classifications were performed using different combinations of estimators, Landsat-8 (spectral bands and Landsat-8 NDVI-derived) and geophysical data (elevation, mean annual precipitation and mean annual temperature) using two classification algorithms, maximum likelihood and decision tree. Results showed that the best performing model was the one that incorporated Landsat-8 bands with mean annual precipitation and mean annual temperature (Model 13), using the decision tree. For maximum likelihood, the model that incorporated Landsat-8 bands with mean annual precipitation (Model 5) and the one that incorporated Landsat-8 bands with mean annual precipitation and mean annual temperature (Model 13), achieved the higher accuracies for this algorithm. The decision tree models consistently outperformed the maximum likelihood ones.
Resumo:
The limited ability of common variants to account for the genetic contribution to complex disease has prompted searches for rare variants of large effect, to partly explain the 'missing heritability'. Analyses of genome-wide genotyping data have identified genomic structural variants (GSVs) as a source of such rare causal variants. Recent studies have reported multiple GSV loci associated with risk of obesity. We attempted to replicate these associations by similar analysis of two familial-obesity case-control cohorts and a population cohort, and detected GSVs at 11 out of 18 loci, at frequencies similar to those previously reported. Based on their reported frequencies and effect sizes (OR≥25), we had sufficient statistical power to detect the large majority (80%) of genuine associations at these loci. However, only one obesity association was replicated. Deletion of a 220 kb region on chromosome 16p11.2 has a carrier population frequency of 2×10(-4) (95% confidence interval [9.6×10(-5)-3.1×10(-4)]); accounts overall for 0.5% [0.19%-0.82%] of severe childhood obesity cases (P = 3.8×10(-10); odds ratio = 25.0 [9.9-60.6]); and results in a mean body mass index (BMI) increase of 5.8 kg.m(-2) [1.8-10.3] in adults from the general population. We also attempted replication using BMI as a quantitative trait in our population cohort; associations with BMI at or near nominal significance were detected at two further loci near KIF2B and within FOXP2, but these did not survive correction for multiple testing. These findings emphasise several issues of importance when conducting rare GSV association, including the need for careful cohort selection and replication strategy, accurate GSV identification, and appropriate correction for multiple testing and/or control of false discovery rate. Moreover, they highlight the potential difficulty in replicating rare CNV associations across different populations. Nevertheless, we show that such studies are potentially valuable for the identification of variants making an appreciable contribution to complex disease.
Resumo:
Samples of volcanic rocks from Alboran Island, the Alboran Sea floor and from the Gourougou volcanic centre in northern Morocco have been analyzed for major and trace elements and Sr-Nd isotopes to test current theories on the tectonic geodynamic evolution of the Alboran Sea. The Alboran Island samples are low-K tholeiitic basaltic andesites whose depleted contents of HFS elements (similar to0.5xN-MORB), especially Nb (similar to0.2xN-MORB), show marked geochemical parallels with volcanics from immature intra-oceanic arcs and back-arc basins. Several of the submarine samples have similar compositions, one showing low-Ca boninite affinity. Nd-143/Nd-144 ratios fall in the same range as many island-arc and back-arc basin samples, whereas Sr-87/Sr-86 ratios (on leached samples) are somewhat more radiogenic. Our data point to active subduction taking place beneath the Alboran region in Miocene times, and imply the presence of an associated back-arc spreading centre. Our sea floor suite includes a few more evolved dacite and rhyolite samples with (Sr-87/Sr-86)(0) up to 0.717 that probably represent varying degrees of crustal melting. The shoshonite and high-K basaltic andesite lavas from Gourougou have comparable normalized incompatible-element enrichment diagrams and Ce/Y ratios to shoshonitic volcanics from oceanic island arcs, though they have less pronounced Nb deficits. They are much less LIL- and LREE-enriched than continental arc analogues and post-collisional shoshonites from Tibet. The magmas probably originated by melting in subcontinental lithospheric mantle that had experienced negligible subduction input. Sr-Nd isotope compositions point to significant crustal contamination which appears to account for the small Nb anomalies. The unmistakable supra-subduction zone (SSZ) signature shown by our Alboran basalts and basaltic andesite samples refutes geodynamic models that attribute all Neogene volcanism in the Alboran domain to decompression melting of upwelling asthenosphere arising from convective thinning of over-thickened lithosphere. Our data support recent models in which subsidence is caused by westward rollback of an eastward-dipping subduction zone beneath the westemmost Mediterranean. Moreover, severance of the lithosphere at the edges of the rolling-back slab provides opportunities for locally melting lithospheric mantle, providing a possible explanation for the shoshonitic volcanism seen in northern Morocco and more sporadically in SE Spain. (C) 2004 Elsevier B.V. All rights reserved.
Resumo:
The relationship between the child's cogni tive development and neurological maturation has been of theoretical interest for many year s. Due to diff iculties such as the lack of sophisticated techniques for measur ing neurolog ical changes and a paucity of normative data, few studies exist that have attempted to correlate the two factors. Recent theory on intellectual development has proposed that neurological maturation may be a factor in the increase of short-term memory storage space. Improved technology has allowed reliable recordings of neurolog ical maturation.. In an attempt to correlate cogni tive development and neurological maturation, this study tested 3-and II-year old children. Fine motor and gross motor short-term memory tests were used to index cogni tive development. Somatosensory evoked potentials elici ted by median nerve stimulation were used to measure the time required for the sensation to pass along the nerve to specific points on the somatosensory pathway. Times were recorded for N14, N20, and P22 interpeak latencies. Maturation of the central nervous system (brain and spinal cord) and the peripheral nervous system (outside the brain and spinal cord) was indi~ated by the recorded times. Signif icant developmental di fferences occurred between 3-and ll-year-olds in memory levels, per ipheral conduction velocity and central conduction times. Linear regression analyses showed that as age increased, memory levels increased and central conduction times decreased. Between the ll-year-old groups, there were no significant differences in central or peripheral nervous system maturation between subjects who achieved a 12 plus score on the digit span test of the WISC-R and those who scored 7 or lower on the same test. Levels achieved on the experimental gross and fine motor short-term memory tests differed significantly within the ll-year-old group.
Resumo:
While there has been a recent shift away from isolated, institutionalized living conditions, persons with Intellectual Disabilities (ID) may still experience restricted access to choice when it comes to making decisions about the basic aspects of their lives. A tension remains between protecting individuals from harm and promoting their right to independence and personal liberties. This tension creates complex questions and ethical concerns for care providers supporting persons with ID. This study explored the ethical decision-making processes of care providers and specifically, how care providers describe the balance of protecting supported individuals from harm while promoting their right to self-determination. Semi-structured interviews were conducted with six care providers employed by a local community agency that supports young and older adults with ID. Data were analysed using thematic analysis and broader themes were developed following phases of open and selective coding. Results indicated that care providers described ethical decision-making processes as frequent, complex, subjective, and uncomfortable. All participants described the importance of promoting independent decision-making among the individuals they support and assisting supported individuals to make informed decisions. Participants also reported work colleagues and supervisors as primary sources of information when resolving ethical concerns. This suggests that complex ethical decision-making processes are being taken seriously by care providers and supervising staff. The results of this study are well-positioned to be applied to the development of a training program for frontline care providing staff supporting individuals in community care settings.
Resumo:
In this paper, we develop finite-sample inference procedures for stationary and nonstationary autoregressive (AR) models. The method is based on special properties of Markov processes and a split-sample technique. The results on Markovian processes (intercalary independence and truncation) only require the existence of conditional densities. They are proved for possibly nonstationary and/or non-Gaussian multivariate Markov processes. In the context of a linear regression model with AR(1) errors, we show how these results can be used to simplify the distributional properties of the model by conditioning a subset of the data on the remaining observations. This transformation leads to a new model which has the form of a two-sided autoregression to which standard classical linear regression inference techniques can be applied. We show how to derive tests and confidence sets for the mean and/or autoregressive parameters of the model. We also develop a test on the order of an autoregression. We show that a combination of subsample-based inferences can improve the performance of the procedure. An application to U.S. domestic investment data illustrates the method.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Le virus de l'hépatite C (VHC) touche 3% de la population mondiale et environ 30% des patients chroniquement infectés développeront une fibrose hépatique. Son génome est un ARN simple brin de polarité positive qui possède un cadre ouvert de lecture flanqué de deux régions non traduites hautement conservées. Différents facteurs peuvent influencer le cycle de réplication du VHC. Deux d’entre eux ont été étudiés dans cette thèse. Tout d'abord, nous nous sommes intéressés à l'effet des structures secondaires et tertiaires du génome sur la réplication du VHC. Les extrémités 5' et 3' du génome contiennent des structures ARN qui régulent la traduction et la réplication du VHC. Le 3'UTR est un élément structural très important pour la réplication virale. Cette région est constituée d’une région variable, d’une séquence poly(U/C) et d’un domaine hautement conservé appelé région X. Des études in vitro ont montré que le 3'UTR possède plusieurs structures ARN double brin. Cependant, les structures ARN telles qu'elles existent dans le 3'UTR dans un contexte de génome entier et dans des conditions biologiques étaient inconnues. Pour élucider cette question, nous avons développé une méthode in situ pour localiser les régions ARN simple brin et double brin dans le 3'UTR du génome du VHC. Comme prédit par les études antérieures, nous avons observé qu’in situ la région X du 3’UTR du génome présente des éléments ARN double brin. Étonnamment, lorsque la séquence poly (U/UC) est dans un contexte de génome entier, cette région forme une structure ARN double brin avec une séquence située en dehors du 3'UTR, suggérant une interaction ARN-ARN distale. Certaines études ont démontré que des structures ARN présentes aux extrémités 5’ et 3' du génome du VHC régulent à la fois la traduction et la réplication du VHC. Cela suggère qu'il y aurait une interaction entre les extrémités du génome qui permettrait de moduler ces deux processus. Dans ce contexte, nous avons démontré l'existence d'une interaction distale ARN-ARN, impliquant le domaine II du 5'UTR et la séquence codante de NS5B du génome du VHC. En outre, nous avons démontré que cette interaction joue un rôle dans la réplication de l'ARN viral. Parallèlement, nous avons étudié l'impact d'une molécule immuno-modulatrice sur la réplication du VHC. La fibrose hépatique est une manifestation majeure de l’infection par le VHC. Hors, il a été montré qu'une molécule immuno-modulatrice appelée thalidomide atténuait la fibrose chez les patients infectés par le VHC. Cependant, son impact sur la réplication virale était inconnu. Ainsi, nous avons étudié l'effet de cette molécule sur la réplication du VHC in vitro et nous avons démontré que la thalidomide active la réplication du virus en inhibant la voie de signalisation de NF-kB. Ces résultats soulignent l’importance de la voie de signalisation NF-kB dans le contrôle de la réplication du VHC, et sont à prendre en considération dans l’établissement d’un traitement contre la fibrose hépatique.
Resumo:
Cet article s'intéresse aux processus de clarification des rôles professionnels lors de l'intégration d'une infirmière praticienne spécialisée dans les équipes de première ligne au Québec.
Resumo:
Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.