876 resultados para Scale not given.None


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Traditional psychometric theory and practice classify people according to broad ability dimensions but do not examine how these mental processes occur. Hunt and Lansman (1975) proposed a 'distributed memory' model of cognitive processes with emphasis on how to describe individual differences based on the assumption that each individual possesses the same components. It is in the quality of these components ~hat individual differences arise. Carroll (1974) expands Hunt's model to include a production system (after Newell and Simon, 1973) and a response system. He developed a framework of factor analytic (FA) factors for : the purpose of describing how individual differences may arise from them. This scheme is to be used in the analysis of psychometric tes ts . Recent advances in the field of information processing are examined and include. 1) Hunt's development of differences between subjects designated as high or low verbal , 2) Miller's pursuit of the magic number seven, plus or minus two, 3) Ferguson's examination of transfer and abilities and, 4) Brown's discoveries concerning strategy teaching and retardates . In order to examine possible sources of individual differences arising from cognitive tasks, traditional psychometric tests were searched for a suitable perceptual task which could be varied slightly and administered to gauge learning effects produced by controlling independent variables. It also had to be suitable for analysis using Carroll's f ramework . The Coding Task (a symbol substitution test) found i n the Performance Scale of the WISe was chosen. Two experiments were devised to test the following hypotheses. 1) High verbals should be able to complete significantly more items on the Symbol Substitution Task than low verbals (Hunt, Lansman, 1975). 2) Having previous practice on a task, where strategies involved in the task may be identified, increases the amount of output on a similar task (Carroll, 1974). J) There should be a sUbstantial decrease in the amount of output as the load on STM is increased (Miller, 1956) . 4) Repeated measures should produce an increase in output over trials and where individual differences in previously acquired abilities are involved, these should differentiate individuals over trials (Ferguson, 1956). S) Teaching slow learners a rehearsal strategy would improve their learning such that their learning would resemble that of normals on the ,:same task. (Brown, 1974). In the first experiment 60 subjects were d.ivided·into high and low verbal, further divided randomly into a practice group and nonpractice group. Five subjects in each group were assigned randomly to work on a five, seven and nine digit code throughout the experiment. The practice group was given three trials of two minutes each on the practice code (designed to eliminate transfer effects due to symbol similarity) and then three trials of two minutes each on the actual SST task . The nonpractice group was given three trials of two minutes each on the same actual SST task . Results were analyzed using a four-way analysis of variance . In the second experiment 18 slow learners were divided randomly into two groups. one group receiving a planned strategy practioe, the other receiving random practice. Both groups worked on the actual code to be used later in the actual task. Within each group subjects were randomly assigned to work on a five, seven or nine digit code throughout. Both practice and actual tests consisted on three trials of two minutes each. Results were analyzed using a three-way analysis of variance . It was found in t he first experiment that 1) high or low verbal ability by itself did not produce significantly different results. However, when in interaction with the other independent variables, a difference in performance was noted . 2) The previous practice variable was significant over all segments of the experiment. Those who received previo.us practice were able to score significantly higher than those without it. J) Increasing the size of the load on STM severely restricts performance. 4) The effect of repeated trials proved to be beneficial. Generally, gains were made on each successive trial within each group. S) In the second experiment, slow learners who were allowed to practice randomly performed better on the actual task than subjeots who were taught the code by means of a planned strategy. Upon analysis using the Carroll scheme, individual differences were noted in the ability to develop strategies of storing, searching and retrieving items from STM, and in adopting necessary rehearsals for retention in STM. While these strategies may benef it some it was found that for others they may be harmful . Temporal aspects and perceptual speed were also found to be sources of variance within individuals . Generally it was found that the largest single factor i nfluencing learning on this task was the repeated measures . What e~ables gains to be made, varies with individuals . There are environmental factors, specific abilities, strategy development, previous learning, amount of load on STM , perceptual and temporal parameters which influence learning and these have serious implications for educational programs .

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Ontario Tender Fruit Marketing Board operates under the Farm Producers Marketing Act. It covers all tender fruit farmers who produce either fresh or canned products. Today the board has over 500 grower-members. Tender fruit in the Niagara region includes: peaches, pears, plums, grapes and cherries. The fruits are used in a number of different ways, from jams and jellies to desserts, sauces and wine. Peaches were first harvested along the Niagara river in 1779. Peter Secord (Laura Secord’s uncle) is thought to be the first farmer to plant fruit trees when he took a land grant near Niagara in the mid 1780s. Since the beginnings of Secord’s farm, peaches, pears and plums have been grown in the Niagara region ever since. However, none of the original varities of peach trees remain today. Peaches were often used for more than eating by early settlers. The leaves and bark of the tree was used to make teas for conditions such as chronic bronchitis, coughs and gastritis. Cherries have been known to have anti-inflammatory and pain relieving properties. Like peaches and cherries, pears had many uses for the early pioneers. The wood was used to make furniture. The juice made excellent ciders and the leaves provided yellow dyes. Plums have been around for centuries, not only in the Niagara region, but throughout the world. They have appeared in pre-historic writings and were present for the first Thanksgiving in 1621. The grape industry in Ontario has also been around for centuries. It began in 1798 when land was granted to Major David Secord (brother-in-law to Laura Secord) slightly east of St. David’s, on what is Highway No. 8 today. Major Secord’s son James was given a part of the land in 1818 and in 1857 passed it onto Porter Adams. Adams is known to be the first person to plant grapes in Ontario1. Tender fruits are best grown in warm temperate climates. The Niagara fruit belt, stretching 65km from Hamilton to Niagara on the Lake, provides the climate necessary for this fruit production. This belt produces 90% of Ontario’s annual tender fruit crop. It is one of the largest fruit producing regions in all of Canada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Transcript (original grammar and spelling retained): My dear wife I take this time to inform you that I am well hoping that these few lines will Reach you and find you the same I shall in form you of all our Battles that we have had sence I left home we crossed in to Canada the 2 day of July and took fort Erie on the 3 day of July without loss of one man. We then marched down to Chipway eighteen miles below the Fort Erie we got there on the forth day and had our first battle on the 5 day our loss was not jistly known But the inemy loss was double to ours. The 6 day we started with the 2 Brigade to make a bridge a crost the crick two miles a bove the fort in Building the Bridge the inemy Brought up their Canon and playd upon us with their artiliery a bout two hours We drove them from the fort our loss was none the inemy loss was nineteen ciled dead on the ground we then marched to Queenston when we got thare our inemy had fledfrom the fort we then remained thair to Queenston ten days then we marched down to Fort George But that caurdly Chaney did not a rive with the fleet so we had to return back to Queenston thare was a bout six hundred militia formed on the heights of land thay fired up on us from their pickets and retreated to the mane body our flankers ciled and wounded and took about twenty before they got to the Maine body we then marched up the hill they gave us two firs but did not damage and then retreated from the field we stayed there one knight and then marched to Chipway and stayed there one night and the next day just as the sun set the first Brigade marched up in order to give them Battle a bout two miles from the Crick and began the Battle the 2 Brigade has to March up to the Niagara path and ingaged them we charged up on their artlery and took all their Canon Miller commanded the four companys that charged....the battles lasted three hours and forty minutes our loss was about 8 hundred cild and wounded our inemies loss was a bout fourteen hundred cild and wounded the next morning we Marched up in order to give them Battle a gin but thay was afraid to ingage us we then marched to Fort Erie and went to fortiffing and made a strong place the inemy folered us up and Began to cananade and held it fifty three days thay a tacked the fort the fifteenth of august thay atacked a bout one hiour be fore day Light we saw them and Blue up our maggerzean & two hundred of our inemy our loss wasa bout forty cild and wounded and our inemy loss was a bout one thousand on the 7 Day of September we atacked them and took their batteries and Broke all their canon and drove them from the field our loss was a Bout two hundred cild and wounded our inemy loss was a Bout 8 hundred cild and wounded...we crossed in to Canada with five thousand and came out with fifteen hundred we then Marched to Sackett’s harbor....am well and harty for the present....a bout comming home it uncarting for there is not any....given this winter as yet But I shall try to Come home if I Can But if I Cant I want you should take good car of the Phiddness[?] I have not Received any Money as yet But soon as I do receive some I send some home. I want you should write to me as soon as you receive this and and how Much Stock you wintor I Received your Letter with Great pleasure I feel uneasy a bout you I am a frade that you are sick or dead this is from your husband Chase Clough

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this study of 109 adolescents from the eighth grade of seven public elementary schools in Ontario, the relationship among adolescents’ violent video game playing patterns, habits and attitudes, their levels of moral reasoning, and their attitudes towards violence in real life was investigated. In addition, gender differences were addressed. The mixed-methodology was employed combining qualitative and quantitative data. The research results confirmed that playing video games in general is a very popular activity among those adolescents. Significant negative relationship was found between adolescents’ amount of time playing violent video games during the day and their scores on The Sociomoral Reflection Measure. Significant difference was also found between adolescents who play violent video games and those who do not play violent video games on their scores on The Attitudes Towards Violence Scale. Boys and girls significantly differed in the amount of playing video games during the day, the reasons for playing video games, their favourite video game choices, and their favourite video game character choices. Boys and girls also significantly differed on their choices of personality traits of selected video game characters, the identification with video game characters, and their mood experiences while playing video games. The findings are put into the educational context and the context of normal development, and suggestions are given for parents, for educators, and for future violent video game research.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Researchers have conceptualized repetitive behaviours in individuals with Autism Spectrum Disorder (ASD) on a continuum oflower-Ievel, motoric, repetitive behaviours and higher-order, repetitive behaviours that include symptoms ofOCD (Hollander, Wang, Braun, & Marsh, 2009). Although obsessional, ritualistic, and stereotyped behaviours are a core feature of ASD, individuals with ASD frequently experience obsessions and compulsions that meet DSM-IV-TR (American Psychiatric Association, 2000) criteria for Obsessive-Compulsive Disorder (OCD). Given the acknowledged difficulty in differentiating between OCD and Autism-related obsessive-compulsive phenomena, the present study uses the term Obsessive Compulsive Behaviour (OCB) to represent both phenomena. This study used a multiple baseline design across behaviours and ABC designs (Cooper, Heron, & Heward, 2007) to investigate if a 9-week Group Function-Based Cognitive Behavioural Therapy (CBT) decreased OCB in four children (ages 7 - 11 years) with High Functioning Autism (HFA). Key treatment components included traditional CBT components (awareness training, cognitive-behavioural skills training, exposure and response prevention) as well as function-based assessment and intervention. Time series data indicated significant decreases in OCBs. Standardized assessments showed decreases in symptom severity, and increases in quality of life for the participants and their families. Issues regarding symptom presentation, assessment, and treatment of a dually diagnosed child are discussed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this thesis we study the properties of two large dynamic networks, the competition network of advertisers on the Google and Bing search engines and the dynamic network of friend relationships among avatars in the massively multiplayer online game (MMOG) Planetside 2. We are particularly interested in removal patterns in these networks. Our main finding is that in both of these networks the nodes which are most commonly removed are minor near isolated nodes. We also investigate the process of merging of two large networks using data captured during the merger of servers of Planetside 2. We found that the original network structures do not really merge but rather they get gradually replaced by newcomers not associated with the original structures. In the final part of the thesis we investigate the concept of motifs in the Barabási-Albert random graph. We establish some bounds on the number of motifs in this graph.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

"Thèse présentée à la Faculté des études supérieures en vue de l'obtention du grade de Docteur en droit (LL.D.)"

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé Depuis le début des années 1990, la recherche sur le développement régional a pris une importance considérable dans les disciplines de l’économie et de la géographie dans la plupart des pays. De nombreuses études ont été consacrées à ce sujet et l’on constate une approche analytique de plus en plus sophistiquée. Que les économies pauvres ont tendance à converger vers les pays riches, ou bien à diverger au fil du temps est une question qui a attiré l'attention des décideurs et des universitaires depuis quelques décennies. Convergence ou de divergence économique est un sujet d'intérêt et de débat, non seulement pour valider ou non les deux modèles principaux de croissance qui sont considérés comme concurrent (l’approche néo-classique et celle des approches de croissance endogène), mais aussi pour ses implications pour les publiques politiques. En se basant sur une analyse des politiques de développement régional et des analyses statistiques de la convergence et des disparités régionales, les objectifs de cette thèse sont de tenter de fournir une explication des différents processus et des modèles de développement économique régional poursuivis dans le cas de territoires immenses en utilisant le Canada et la Chine comme études de cas, d'entreprendre une analyse des différents facteurs et des forces motrices qui sous-tendent le développement régional dans ces deux pays, et d'explorer à la fois les réussites et les échecs apparents dans les politiques de développement régional en comparant et contrastant les expériences de développement régional et les modèles de ces deux pays. A fin d'atteindre cet objectif, la recherche utilise une approche multi-scalaire et des méthodes de mesure multidimensionnelle dans le cadre des analyses sur les disparités « régionales » entre les macro régions (sous-ensembles de provinces) des deux pays, des provinces et des régions urbaines sélectionnées, dans le but ultime d’identifier des problèmes existants en termes de développement régional et de pouvoir proposer des solutions. Les étapes principales de la recherche sont : 1. La cueillette des données statistiques pour le Canada et la Chine (incluant les provinces de Québec et de Xinjiang) pour une gamme d’indicateurs (voir ci-dessous). 2. D’entreprendre une analyse de chaque dimension dans les deux juridictions: Population (p.ex. composition, structure, changement); Ressources (p. ex. utilisation, exploitation de l’énergie); Environnement (p.ex. la pollution); et le Développement socioéconomique (p.ex. le développement et la transformation des secteurs clé, et les modèles de développement rural et urbain), et les disparités changeantes par rapport à ces dimensions. 3. La définition d’une typologie de différents types de région en fonction de leurs trajectoires de développement, ce qui servira pour critiquer l’hypothèse centre-périphérie. 4. Le choix d’une région métropolitaine dans chaque juridiction (province). 5. D’entreprendre une analyse temporelle des événements clé (politiques, investissements) dans chaque région et les facteurs impliqués dans chaque événement, en utilisant l’information documentaire générale et des agences institutionnelles impliqués actuellement et dans un passée récent. Cette étude a tenté d'expliquer les schémas et les processus des deux économies, ainsi que la présentation d'études de cas qui illustrent et examinent les différences dans les deux économies à partir de l’échelle nationale jusqu’au niveau régional et provincial et aussi pour certaines zones urbaines. Cette étude a essayé de répondre aux questions de recherche comme: Est-il vrai que les pays avec des plus grandes territoires sont associés avec des plus grandes disparités interrégionales? Quel est le résultat des comparaisons entre pays développés et pays en développement? Quels sont les facteurs les plus importants dans le développement économique de vastes territoires dans les pays développés et pays en développement? Quel est le mécanisme de convergence et de divergence dans les pays développés et, respectivement, les pays en développement? Dans l'introduction à la thèse, le cadre général de l'étude est présenté, suivie dans le chapitre 1 d'une discussion sur les théories et les concepts utilisés dans la littérature théorique principale qui est pertinent à l'étude. Le chapitre 2 décrit la méthodologie de recherche. Le chapitre 3 présente une vue d'ensemble des politiques de développement économique régional et les programmes du Canada et de la Chine dans des périodes différentes à différentes échelles. Au chapitre 4, la convergence des deux pays à l'échelle nationale et la convergence provinciale pour chaque pays sont examinés en utilisant différentes méthodes de mesure telles que les méthodes traditionnelles, la convergence bêta et la convergence sigma. Dans le chapitre le plus complexe, le chapitre 5, les analyses comparatives sont présentées à l'aide de données statistiques, à partir des analyses des cas régionaux et provinciaux retenus des deux pays. Au chapitre 6, ces dispositions sont complétées par une analyse des régions urbaines choisies, qui permet également des aperçus sur les régions les plus périphériques. Dans la recherche proposée pour cette thèse, la politique, la population, le revenu, l'emploi, la composition industrielle, l'investissement, le commerce et le facteur de la migration sont également pris en compte comme facteurs importants de l'analyse régionale compte tenu de la superficie du territoire des deux pays et les différences de population entre eux. Cette thèse a évalué dans quelle mesure les politiques gouvernementales ont réussi à induire la convergence régionale ou ont encore ont creusé davantage les disparités régionales, ce qui implique nécessairement une évaluation de la durabilité des patrons et des programmes de développement régional. Cette étude a également mis l'accent sur les disparités régionales et la politique de développement régional, les comparaisons entre pays, pour mesurer la convergence entre les pays et entre les régions, y compris l'analyse spatiale, d'identifier les facteurs les plus actifs tels que la population, les ressources, la politique, l'urbanisation, les migrations, l'ouverture économique et leurs différents rôles dans le développement économique de ces grands territoires (au Canada et Chine). Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionales et les disparités régionales dans les deux économies. L'approche adoptée a révélé les différentes mosaïques complexes du développement régional dans les deux pays. Les résultats de cette étude ont démontré que la disparité en termes de revenu régional est une réalité dans chaque zone géographique, et que les causes sont nombreuses et complexes. Les deux économies ont certains parallèles dans la mise en œuvre des politiques de développement économique régional, mais il existe des différences importantes aussi et elles se sont développées à différentes vitesses. Les deux économies se sont développées depuis la Seconde Guerre mondiale, mais la Chine a connu une croissance rapide que le Canada comme témoignent de nombreux indicateurs depuis 1980. Cependant, la Chine est maintenant confrontée à un certain nombre de problèmes économiques et sociaux, y compris les disparités régionales marquées, un fossé toujours croissant entre les revenus ruraux et urbains, une population vieillissante, le chômage, la pauvreté et la dégradation rapide de l'environnement avec toujours plus de demandes en énergie. Le développement économique régional en Chine est plus déséquilibré. Le Canada accuse un degré de disparités régionales et provinciales moins important que la Chine. Dans les cas provinciaux, il existe d'importantes différences et de disparités dans la structure économique et spatiale du Québec et du Xinjiang. Les disparités infra provinciales sont plus grandes que celles à l’échelle des provinces et des grandes régions (des sous-ensembles de provinces). Les mécanismes de convergence et de divergence dans les deux pays sont différents. Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionale et les disparités régionales dans les deux économies. Cette étude démontre également que l'urbanisation (les métropoles et les villes) s’avère être le facteur le plus actif et contribue à l'économie régionale dans ces grands territoires. L'ouverture a joué un rôle important dans les économies des deux pays. La migration est un facteur majeur dans la stimulation de l'économie des deux pays mais de façons différentes. Les résultats empiriques démontrent que les disparités régionales ne peuvent pas être évitées et elles existent presque partout. Il n'y a pas une formule universelle et de politiques spécifiques sont de mise pour chaque région. Mais il semble possible pour les décideurs politiques nationaux et régionaux d’essayer de maintenir l'écart à une échelle raisonnable pour éviter l'instabilité sociale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous avons effectué ce travail afin d’évaluer l’impact d’une utilisation accrue des antirétroviraux (ARV) sur l’émergence de la résistance dans le cadre d’une cohorte de sujets infectés par le VIH-1, enrôlés au Mali pour recevoir la thérapie antirétrovirale. La première partie de ce travail a évalué la résistance primaire auprès de 101 sujets naïfs aux ARV. Cette étude a démontré que la majorité des sujets (71,3%) étaient infectés par le sous-type CRF02_AG. La prévalence de la résistance primaire était de 9,9%. Ce chiffre dépasse largement la moyenne de 5,5% observée dans les pays en développement et le seuil des 5% fixé par l’OMS dans le cadre de la surveillance de la résistance. Les mutations associées aux analogues de la thymidine ou « Thymidine-associated Mutations » (TAMs): M41L, D67N, L210W, T215A/Y, K219E liées à la résistance aux inhibiteurs nucléosidiques de la transcriptase inverse (INTI) ainsi que les mutations K103N, V108I, V179E et Y181C impliquées dans la résistance aux inhibiteurs non nucléosidiques de la transcriptase inverse (INNTI) étaient majoritairement observées. Ces mutations sont compatibles avec les régimes de traitement de première ligne utilisés au Mali, composés de stavudine/lamivudine/nevirapine. Nous n’avons pas trouvé de mutations majeures aux inhibiteurs de protéase (IP), probablement du fait que cette classe d’ARV est rarement utilisée au Mali. Cependant plusieurs polymorphismes au niveau du gène de la protéase, particulièrement L10I et L10V ont été observés à une fréquence très élevée (18,80%). Compte tenu de ces premiers résultats, une suite logique de ce travail était de savoir comment des souches de sous-type CRF02_AG évolueraient sous la pression de sélection des ARV. Nous avons abordé ces questions dans une étude de cohorte de 132 sujets infectés majoritairement avec le sous-type CRF02_AG débutant une thérapie de première ligne. Nos résultats suggèrent que la présence de mutation de résistance primaire pourrait avoir un effet sur l’efficacité du traitement. Par exemple, la présence d’une seule mutation INNTI avant traitement comme K103N ou V179E était suffisante pour mener à l’échec au traitement (charge virale supérieure à 400 copies/ml). Par ailleurs, nous avons effectué des expériences in vitro pour mieux évaluer l’impact du polymorphisme L10I/V chez le sous-type CRF02_AG. Il faut savoir que le rôle de ce polymorphisme reste incertain chez le sous-type CRF02_AG, car aucune étude in vitro n’avait été réalisée auparavant. Nos résultats indiquent chez le sous-type sauvage CRF02_AGwt_10L une légère augmentation de la concentration inhibitrice 50% (IC50) pour le darunavir, le lopinavir et le nelfinavir comparativement au sous-type de référence B HXB2_10L avec respectivement un « Fold Change » (FC) de 1,2, 1,3 et 1,5. Cette augmentation est plus importante pour le lopinavir avec un FC (1,3) très proche de son seuil biologique (1,6). Comparativement au type sauvage CRF02_AGwt_10L, nos deux mutants CRF02_AGL10I et CRF02_AGL10V ont démontré une légère augmentation d’IC50 pour l’indinavir (avec respectivement un FC de 1,3 et 1,2) et une diminution pour le lopinavir (avec respectivement un FC de 0,78 et 0,75). Toutes ces observations suggèrent que la mutation en position 10 pourrait avoir un impact chez le sous-type CRF02_AG. Toutefois, la signification clinique de ces observations doit être déterminée. En conclusion, nos résultats supportent d’une part la nécessité de renforcer la surveillance de la résistance aux ARV et d’autre part, il fournit des informations nécessaires à l’amélioration des stratégies thérapeutiques afin de prévenir les échecs aux traitements chez les sous-types non B, particulièrement le CRF02_AG.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Naïvement perçu, le processus d’évolution est une succession d’événements de duplication et de mutations graduelles dans le génome qui mènent à des changements dans les fonctions et les interactions du protéome. La famille des hydrolases de guanosine triphosphate (GTPases) similaire à Ras constitue un bon modèle de travail afin de comprendre ce phénomène fondamental, car cette famille de protéines contient un nombre limité d’éléments qui diffèrent en fonctionnalité et en interactions. Globalement, nous désirons comprendre comment les mutations singulières au niveau des GTPases affectent la morphologie des cellules ainsi que leur degré d’impact sur les populations asynchrones. Mon travail de maîtrise vise à classifier de manière significative différents phénotypes de la levure Saccaromyces cerevisiae via l’analyse de plusieurs critères morphologiques de souches exprimant des GTPases mutées et natives. Notre approche à base de microscopie et d’analyses bioinformatique des images DIC (microscopie d’interférence différentielle de contraste) permet de distinguer les phénotypes propres aux cellules natives et aux mutants. L’emploi de cette méthode a permis une détection automatisée et une caractérisation des phénotypes mutants associés à la sur-expression de GTPases constitutivement actives. Les mutants de GTPases constitutivement actifs Cdc42 Q61L, Rho5 Q91H, Ras1 Q68L et Rsr1 G12V ont été analysés avec succès. En effet, l’implémentation de différents algorithmes de partitionnement, permet d’analyser des données qui combinent les mesures morphologiques de population native et mutantes. Nos résultats démontrent que l’algorithme Fuzzy C-Means performe un partitionnement efficace des cellules natives ou mutantes, où les différents types de cellules sont classifiés en fonction de plusieurs facteurs de formes cellulaires obtenus à partir des images DIC. Cette analyse démontre que les mutations Cdc42 Q61L, Rho5 Q91H, Ras1 Q68L et Rsr1 G12V induisent respectivement des phénotypes amorphe, allongé, rond et large qui sont représentés par des vecteurs de facteurs de forme distincts. Ces distinctions sont observées avec différentes proportions (morphologie mutante / morphologie native) dans les populations de mutants. Le développement de nouvelles méthodes automatisées d’analyse morphologique des cellules natives et mutantes s’avère extrêmement utile pour l’étude de la famille des GTPases ainsi que des résidus spécifiques qui dictent leurs fonctions et réseau d’interaction. Nous pouvons maintenant envisager de produire des mutants de GTPases qui inversent leur fonction en ciblant des résidus divergents. La substitution fonctionnelle est ensuite détectée au niveau morphologique grâce à notre nouvelle stratégie quantitative. Ce type d’analyse peut également être transposé à d’autres familles de protéines et contribuer de manière significative au domaine de la biologie évolutive.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

À la base, les jeux de hasard et d’argent (JHA) se révèlent pour la grande majorité des gens une activité ludique agréable. On les associe effectivement aux loisirs, puisqu’ils répondent pratiquement aux mêmes besoins, dont la curiosité, le divertissement, la détente, la socialisation et la reconnaissance (Chevalier, 2003; Chevalier & Papineau, 2007; Paradis & Courteau, 2003). En contrepartie, ils constituent tout de même un risque d’excès. Bien que personne ne soit vraiment à l’abri de la dépendance, les écrits scientifiques montrent que certains groupes se révèlent particulièrement à risque. Avec les personnes qui souffrent de troubles mentaux et toxicomaniaques (Walters, 1997), la population correctionnelle se trouve parmi les individus les plus susceptibles de présenter des problèmes liés au jeu pathologique (Abbott, McKenna, & Giles, 2005; Ashcroft, Daniels, & Hart, 2004; Lahn, 2005). Or, si plusieurs études informent sur les habitudes de jeu précarcérales des hommes condamnés à l’emprisonnement, peu renseignent sur ce qu’il advient de cette pratique à l’intérieur des établissements de détention. Malgré une interdiction formelle des services correctionnels, on reconnaît pourtant la présence des JHA en prison (Abbott et al., 2005; Lahn & Grabosky, 2003; Nixon, Leigh, & Grabosky, 2006; Williams, Royston, & Hagen, 2005; Lahn, 2005). Cependant, la plupart des études se contentent trop souvent de dresser un portrait purement descriptif des types de jeux et des formes de mises. Une meilleure compréhension de cette pratique intra-muros se révèle essentielle, ne serait-ce que si l’on tient compte de la proportion non négligeable de détenus aux prises avec une telle dépendance. Cette thèse entend donc améliorer la compréhension de cette pratique dans les établissements de détention fédéraux du Québec, en se basant sur l’opinion et l’expérience de 51 hommes qui y sont incarcérés. Des entrevues qualitatives en français ont été effectuées avec des détenus québécois de plus de 18 ans, purgeant une peine d’emprisonnement minimale de vingt-quatre mois. Les résultats obtenus suite à des analyses thématiques sont répartis dans trois articles scientifiques. Le premier article décrit le déroulement des JHA intra-muros et analyse l’influence du milieu carcéral sur l’accès à ces activités et leur signification. Contrairement à nos attentes, le règlement interdisant les paris ne s’avère pas un obstacle central à leur pratique. Des éléments liés au contexte correctionnel et à la sentence en restreignent davantage la participation. La disponibilité et les bienfaits habituellement retirés des JHA, comme le plaisir et l’excitation, s’avèrent beaucoup plus limités que ce que ces activités offrent habituellement dans la société libre. Le second article étudie les conséquences potentielles des JHA, de même que la façon dont les détenus y réagissent. À la base, le seul fait que ces activités impliquent obligatoirement un échange d’argent, de biens de valeur ou de services rendus engendre pour tous les joueurs un risque de contracter des dettes. Une analyse dynamique montre que certaines frictions se développent autour des JHA, qui s’expliquent toutefois mieux par les caractéristiques du milieu carcéral. Le dernier article aborde les motifs qui justifient la participation ou non de la population correctionnelle à des JHA durant leur incarcération. Il tient compte des habitudes de jeu au cours des douze mois qui ont précédé la détention, soit des non-joueurs, des joueurs récréatifs et des joueurs problématiques. Pour la plupart des détenus, les JHA servent d’alternative ludique à l’ennui, mais certains les utilisent également dans le but de s’intégrer, voire indirectement de se protéger. Fait encore plus intéressant, malgré la présence de joueurs dépendants parmi les hommes interviewés, aucune des motivations généralement associées au jeu pathologique n’a été rapportée pour justifier la pratique des JHA en prison. En somme, les JHA demeurent généralement sans conséquence dans les établissements de détention québécois, puisque très peu de détenus semblent dépasser leurs limites et s’endetter. Les conflits entourant ces activités apparaissent surtout sous forme de querelles, suite à des doutes sur l’intégrité d’un joueur ou une défaite non assumée. Les événements violents, comme des règlements de compte, faisant suite à des dettes impayées se révèlent exceptionnels. Les résultats de cette thèse montrent également que certains joueurs pathologiques, malgré l’opportunité de s’adonner à des JHA, s’abstiennent ou cessent de miser au cours de leur incarcération. Ces dernières données permettent de réfléchir sur le concept de dépendance et sur les éléments prometteurs pour le traitement des joueurs problématiques incarcérés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le problème de l’extrême pauvreté dans le Tiers-monde n’est pas d’abord une question économique. Il est avant tout politique parce qu’il est la conséquence directe des choix de société et de l’organisation du pouvoir au niveau des États et des diverses instances de la communauté internationale. Le politique a pour objet la conquête du pouvoir et la répartition des richesses à grande échelle. Il s’agit aussi d’un problème moral parce que les options prises collectivement par les peuples et le concert des nations ne s’orientent pas toujours vers la vertu de justice et l’égalité de chances pour tous. Extrême pauvreté et justice globale forment un binôme qui nous ramène donc au cœur de la philosophie politique et morale. Après la Seconde guerre mondiale, la philosophie politique a élargi ses horizons. Elle réfléchit davantage à l’exercice du pouvoir sur la scène internationale et la distribution des richesses au niveau mondial. Le phénomène de la mondialisation économique crée une dépendance mutuelle et d’importantes influences multilatérales entre les États. Plus que par le passé, l’autarcie n’est guère envisageable. Le dogme de la souveraineté intangible des États, issu du Traité de Westphalie au XVIIe siècle, s’avère de plus en plus caduque au regard des enjeux communs auxquels l’humanité fait actuellement face. D’où la nécessité d’une redéfinition du sens des souverainetés nationales et d’une fondation des droits cosmopolitiques pour chaque individu de la planète. Voilà pourquoi le binôme extrême pauvreté/justice globale nécessite une réflexion philosophique sur le concept de la responsabilité qui s’étend non seulement sur la sphère nationale, mais aussi sur une large amplitude cosmopolitique. L’expression « pays du Tiers-monde » peut sembler archaïque, péjorative et humiliante. Cependant, mieux que celles de « pays sous-développés » ou « pays en voie de développement », elle rend compte, sans euphémisme, de la réalité crue, brute et peu élégante de la misère politique et économique qui y sévit. Bien qu’elle semble désuète, elle délimite assez clairement le domaine de définition conceptuel et géographique de notre champ d’investigation philosophique. Elle désigne l’ensemble des pays qui sont exclus de la richesse économique répartie entre les nations. Étant donné que le pouvoir économique va généralement avec le pouvoir politique, cet ensemble est aussi écarté des centres décisionnels majeurs. Caractérisée par une pauvreté extrême, la réalité tiers-mondiste nécessité une analyse minutieuse des causes de cette marginalisation économique et politique à outrance. Une typologie de la notion de responsabilité en offre une figure conceptuelle avec une géométrie de six angles : la causalité, la moralité, la capacité, la communauté, le résultat et la solidarité, comme fondements de la réparation. Ces aspects sous lesquels la responsabilité est étudiée, sont chapeautés par des doctrines philosophiques de types conséquentialiste, utilitariste, déontologique et téléologique. La typologie de la responsabilité donne lieu à plusieurs solutions : aider par philanthropie à sauver des vies humaines ; établir et assigner des responsabilités afin que les torts passés et présents soient réparés aussi bien au niveau national qu’international ; promouvoir l’obligation de protéger dans un contexte international sain qui prenne en considération le devoir négatif de ne pas nuire aux plus défavorisés de la planète ; institutionnaliser des règles transfrontalières de justice ainsi que des droits cosmopolitiques. Enfin, nous entendrons par omniresponsabilité la responsabilité de tous vis-à-vis de ceux qui subissent les affres de l’extrême pauvreté dans le Tiers-monde. Loin d’être un concept-valise fourre-tout, c’est un ensemble de responsabilités partagées par des acteurs identifiables de la scène mondiale, en vue de la coréparation due aux victimes de l’injustice globale. Elle vise un telos : l’épanouissement du bien-être du citoyen du monde.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le logiciel de simulation des données et d'analyse est Conquest V.3