374 resultados para Méthode des caractéristiques généralisées
Resumo:
Les E. coli entérotoxinogènes (ETEC) sont souvent la cause de diarrhée post-sevrage chez le porc. Deux types d’entérotoxines sont retrouvées chez les ETEC, soit les thermolabiles, comme la toxine LT, et les thermostables, comme EAST-1, STa et STb. Cette dernière est composée de 48 acides aminés et est impliquée dans la pathologie causée par les ETEC. Pour la première fois un variant de la toxine STb fut découvert dans une étude. Nous avons alors émis l’hypothèse qu’il y a présence de variants dans la population de souches ETEC du Québec. Dans les 100 souches STb+ analysées, 23 possédaient le gène de la toxine avec une variation dans la séquence génétique : l’asparagine était présente en position 12 remplaçant ainsi l’histidine. Une corrélation entre la présence du variant et la présence de facteurs de virulence retrouvés dans ces 100 souches ETEC étudiées a été effectuée. Ce variant semble fortement associé à la toxine STa puisque toutes les souches variantes ont hybridé avec le gène codant pour cette dernière. Étant donné sa présence répandue dans la population de souches ETEC du Québec, nous avons de plus émis l’hypothèse que ce variant a des caractéristiques biologiques altérées par rapport à la toxine sauvage. L’analyse par dichroïsme circulaire a montré que le variant et la toxine sauvage ont une structure secondaire ainsi qu’une stabilité similaires. Par la suite, l’attachement au récepteur de la toxine, le sulfatide, a été étudié par résonnance plasmonique de surface (biacore). Le variant a une affinité au sulfatide légèrement réduite comparativement à la toxine sauvage. Puisque l’internalisation de la toxine fut observée dans une étude précédente et qu’elle semble liée à la toxicité, nous avons comparé l’internalisation du variant et de la toxine sauvage à l’intérieur des cellules IPEC-J2. L’internalisation du variant dans les cellules est légèrement supérieure à l’internalisation de la toxine sauvage. Ces résultats suggèrent que le variant est biochimiquement et structurellement comparable à la toxine sauvage.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Contexte : L’activité physique est une composante centrale du développement physique, psychologique et social de l'enfant, particulièrement au sein d'une société où l'impact de la sédentarité et de l'obésité devient de plus en plus important. Cependant, les trajectoires d’activité physique hors école et leurs déterminants sont peu étudiés et les connaissances sur ce sujet sont limitées. Il est également notoire que les types d’activité physique sont rarement pris en considération. Objectif : Ce mémoire a pour but (a) de déterminer les trajectoires de pratique d’activité physique au cours du développement des enfants (b) de valider l’association entre l’activité physique supervisée et l’activité non supervisée et (c) d’identifier les déterminants au niveau du quartier, de la famille et des caractéristiques individuelles associés aux trajectoires de pratique d’activité physique supervisée et non supervisée. Participants : 1 814 enfants (51% garçons) nés en 1998 ayant participé à l’Étude Longitudinale du Développement des Enfants du Québec (ELDEQ). Les données récoltées proviennent uniquement de leur mère. Mesures : La fréquence de l’activité physique supervisée et non supervisée a été mesurée à quatre reprises alors que les enfants étaient âgés entre 5 et 8 ans. Les déterminants ainsi que les variables contrôles ont été mesurés alors que les enfants avaient 4 ou 5 ans. Résultats : Trois trajectoires d’activité physique supervisée et non supervisée ont été identifiées. Les résultats suggèrent que les trajectoires d’activité physique supervisée, représentant respectivement 10%, 55.3% et 34.7% de la population, sont relativement stables même si elles subissent une légère augmentation avec le temps. Des trois trajectoires d’activité physique non supervisée représentant respectivement 14.1%, 28.1% et 57.8% de la population, une augmente considérablement avec le temps alors iv que les deux autres sont stables. Ces deux séries de trajectoires ne sont pas associées significativement entre elles. L’éducation de la mère, l’entraide dans le quartier de résidence ainsi que la prosocialité des enfants déterminent les deux types d’activité physique. La suffisance de revenu et la pratique sportive de la mère sont associées seulement aux trajectoires d’activité physique supervisée. La famille intacte discrimine l’appartenance aux trajectoires d’activité physique non supervisée. Conclusion : Premièrement, la pratique de l’activité physique est relativement stable entre 5 et 8 ans. Deuxièmement, l’activité physique supervisée ainsi que l’activité physique non supervisée sont deux pratiques qui se développent différemment et qui possèdent leurs propres déterminants. Troisièmement, une approche écologique permet de mieux saisir la complexité de ces deux processus.
Resumo:
Bien que les règles de droits et des directives administratives dictent leur conduite, les policiers jouissent d’une latitude considérable dans la manière d’appliquer la loi et de dispenser des services. Puisque l’exercice efficient de toute forme d’autorité nécessite la reconnaissance de sa légitimité (Tyler, 2004), plus l’application de leurs pouvoirs discrétionnaires est jugée arbitraire ou excessive, plus les citoyens risquent d’utiliser des mécanismes normaux d’opposition ou de riposte. Dans cette optique, la présente étude cherche à départager les causes des 15 023 épisodes de voie de fait, menace, harcèlement, entrave et intimidation, qualifiés de défiance, dont les policiers du Service de police de la ville de Montréal (SPVM) ont été la cible entre 1998-2008 selon leur registre des événements (Module d’information policière – MIP). Elle présume qu’à interactions constantes entre la police et les citoyens, les comportements de défiance policière seront fonction du niveau de désordre du quartier et des caractéristiques des personnes impliquées. Plus les policiers interceptent de jeunes, de minorités ethniques et d’individus associés aux gangs de rue, plus ils risquent d’être défiés. Elle suppose également que la probabilité qu’une intervention soit défiée dépend de l’excessivité des activités policières menées dans le quartier. Plus un quartier est sur-contrôlé par rapport à son volume de crimes (overpoliced), plus le climat local est tendu, plus les policiers sont perçus comme étant illégitimes et plus ils risquent d’être défiés lorsqu’ils procèdent à une intervention. Enfin, les comportements de défiance sont peut-être simplement fonction du niveau d’interactions entre les policiers et les citoyens, à conditions sociales et criminogènes des quartiers tenues constantes. Une série d’analyses de corrélation tend à confirmer que les comportements de défiance varient en fonction de l’âge, de l’ethnicité et de l’appartenance à un gang de rue de l’auteur. Par contre, les conditions sociales et criminogènes des quartiers paraissent être des causes antécédentes à la défiance puisqu’elles encouragent un volume plus élevé d’interventions dans les quartiers désorganisés, lequel influe sur le nombre d’incidents de défiance. Contrairement à notre hypothèse, les résultats tendent à démontrer que les policiers risquent davantage d’être défiés dans les quartiers sous-contrôlés (underpoliced). Quant à elles, les analyses multiniveaux suggèrent que le nombre d’incidents de défiance augmente à chaque fois qu’une intervention policière est effectuée, mais que cette augmentation est influencée par les quartiers propices aux activités criminelles des gangs de rue. En ce sens, il est probable que l’approche policière dans les quartiers d’activités « gangs de rue » soit différente, par souci de protection ou par anticipation de problèmes, résultant plus fréquemment en des actes de défiance à l’égard des policiers.
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Resumo:
RÉSUMÉ Cette étude porte sur la présence phénicienne en Syrie du Nord uniquement pendant la première moitié de l’Âge du Fer, i.e entre 1000 et 500 av. J.C. Elle est fondée sur l’analyse des données archéologiques et littéraires des principaux sites côtiers de cette région, al Mina, Ras el Bassit, Tell Kazel, Tell Soukas et Amrit. Après une présentation des caractéristiques culturelles de la civilisation phénicienne, j’aborde l’analyse de ces sites. Les données qui permettent de prouver une présence phénicienne dans la région s’avèrent nombreuses et j’en conclus que les Phéniciens devaient constituer une minorité importante de la population de ces sites, au même titre que les Grecs ou les Chypriotes, la majorité étant d’origine syrienne. Mais dans certains cas, notamment sur les sites les plus proches des grandes capitales phéniciennes, il n’est pas impossible qu’ils aient été majoritaires. L’étude illustrera par ailleurs l’importance du rôle des cités de la Syrie du Nord dans les échanges commerciaux et culturels avec les autres cultures du Sud-Est du bassin méditerranéen, notamment celles de la Grèce, île de Chypre, de la Cilicie et de la Syrie intérieure.
Resumo:
L’image qu’a la population du phénomène des gangs est fortement influencée par les médias. Les informations véhiculées par les journaux et par les canaux de nouvelles mettent généralement l’emphase sur les stéréotypes associés aux gangs et aux comportements de ces derniers. Ceci a pour conséquence de rehausser la crainte que développe la population à l’endroit des gangs de rue. Dans un contexte où le phénomène des gangs paraît devenu omniprésent dans nos quartiers, nos villes et représente une problématique en expansion dans plusieurs grandes villes du Québec et du Canada, une attention particulière portée au trafic de drogues fait par les membres de gangs de rue, reconnu par plusieurs comme la principale activité des gangs de rue, revêt sans nul doute un grand intérêt. Obtenir la description la plus précise possible, faite par des membres ou d’ex-membres de gangs de rue, à partir de leurs connaissances concernant le trafic de drogues étant donné leur appartenance et leur implication dans les activités d’un gang de rue et, le cas échéant, le trafic de drogues effectué par ce dernier, représente l’objectif principal de la présente étude. C’est par le biais d’entrevues avec les principaux concernés que le trafic de drogues fait par les membres de gangs est abordé. Au total, quinze entrevues semi-directives ont été réalisées auprès de membres et ex-membres de gangs de rue, tous – à une exception près - pris en charge au Centre jeunesse de Montréal-Institut universitaire. Globalement, il ressort de cette étude qu’en plus du trafic de stupéfiants, les gangs ou les membres de gangs s’adonneraient à une délinquance polymorphe, le trafic étant rarement l’unique source de revenus du gang ou du membre. De plus, le trafic de stupéfiants ne serait pas une activité exclusive aux gangs de rue auxquels appartiennent les membres interviewés. Ainsi, même si l’on retrouve un certain nombre de membres participant à la vente comme activité structurée d’un gang, il est possible pour un membre d’effectuer de la vente de drogues de façon indépendante, tout en étant affilié à un gang de rue. Il appert que la plupart des interviewés font partie d’une clique, s’identifient à une couleur ou à un quartier, et s’approvisionnent en drogues auprès de membres plus âgés et hauts placés dans la structure des gangs de rue, que les répondants identifient comme étant les vétérans. En ce qui les concerne, les répondants signalent l’importance de gagner la confiance des plus haut placés s’ils souhaitent débuter et évoluer dans la vente de stupéfiants. Lorsque la confiance est présente et que le nouveau vendeur débute ses activités, soit il s’approprie un territoire, généralement à l’intérieur de son quartier, soit on lui fournit un endroit de vente où il peut « travailler ». La présence d’un membre de la famille déjà affilié à un gang paraît faciliter le processus d’accès des nouveaux à l’activité de trafic. Lorsque les interviewés abordent l’aspect du territoire de vente, plusieurs dimensions viennent s’y greffer : la compétition, les conflits, les interactions avec les gangs ennemis et la violence, pour ne nommer que celles-là. Les interviewés indiquent vendre une certaine variété de drogues, le cannabis et le crack représentant les deux drogues les plus couramment citées. La marge de profits varierait, entre autres, en fonction du type de drogue vendue, du quartier et des caractéristiques de la clientèle. Cette dernière, malgré qu’elle soit diversifiée, comporte une constante : les consommateurs dépendants sont, comme plusieurs interviewés l’ont mentionné, prêts à tout pour assurer leur consommation. Les consommateurs sont ordinairement des étudiants, des propriétaires de commerces, des employés de bars, des travailleurs de la construction, des itinérants, des prostitués, des fêtards, des voyageurs de passage à Montréal. Les répondants dénotent également la présence de policiers, agents doubles, pouvant se présenter comme clients. Ceci étant, il leur apparaît essentiel de développer des habiletés permettant de détecter la présence policière et la distinguer des clients réguliers. Côté consommation, les interviewés affirment se limiter presqu’essentiellement à l’alcool et au cannabis. Néanmoins, plusieurs avouent avoir consommé une grande variété d’intoxicants au cours de leur vie. Plusieurs signalent qu’une trop grande consommation nuit à la vente de stupéfiants.
Resumo:
La vision fournit des informations essentielles sur la surface de marche, ainsi que sur la taille, la forme et la position d’obstacles potentiels dans notre environnement. Dans le cas d’un prédateur, la vision fournit également des informations sur la vitesse d’une proie potentielle. Les mécanismes neuronaux impliqués dans l’exécution des modifications de la marche sous guidage visuel sont relativement bien connus, mais ceux impliqués dans la planification de ces modifications de la marche sont peu étudiés. Le cortex pariétal postérieur (CPP) semble être un candidat approprié si l’on considère les propriétés du CPP lors des mouvements d’atteinte vers une cible. Le but des présents travaux est de déterminer la contribution du CPP au contrôle de la locomotion sous guidage visuel. La première étude présentée dans cette thèse a pour hypothèse que le CPP du chat est impliqué dans la planification du placement précis du pied lors des modifications volontaires de la marche. Nous avons entraîné les animaux à enjamber des obstacles en mouvement attachés à la ceinture d’un tapis roulant. Afin d’augmenter la nécessité d’intégrer les informations visuelles et proprioceptives, nous avons dissocié la vitesse des obstacles de celle du tapis roulant. Nous avons observé que plus la vision devient critique pour la tâche, plus les déficits sont importants. Notre analyse démontre que ceux-ci résultent d’un placement inapproprié du pied dans le cycle de marche précédant l’enjambement de l’obstacle. Ceci suggère que le CPP est impliqué dans la planification du placement précis du pied pendant la locomotion sous guidage visuel. La vision directe est disponible lors de la modification de l’activité des membres antérieurs, mais n’est plus disponible lorsque l’obstacle passe sous le corps. Par conséquent, la modification de l’activité des membres postérieurs doit être basée sur l’information gardée en mémoire et coordonnée avec celle des membres antérieurs. Notre deuxième étude a pour but de caractériser les mécanismes neuronaux responsables de cette coordination. Nous avons proposé que le CPP soit impliqué dans la coordination des membres antérieurs et postérieurs lors de l’enjambement d’obstacles. Pour tester cette hypothèse, nous avons enregistré l’activité de neurones de l’aire 5 pendant la même tâche. Nous avons découvert deux populations: une qui décharge lors du passage de l’obstacle entre les membres antérieurs et postérieurs et une autre qui décharge lors du passage de l’obstacle par les membres postérieurs. Dans la tâche de dissociation visuelle, la décharge est modifiée en fonction du temps de passage de l’obstacle sous le corps et reflète la modification du couplage entre les membres lors du changement dans la stratégie d’enjambement. De plus, ces mêmes neurones maintiennent une décharge soutenue lorsqu’un obstacle fixe se trouve entre les membres antérieurs et postérieurs ou les deux membres postérieurs (limite testée : 1-2min). Ces neurones pourraient être responsables de l’emmagasinage à plus long terme des caractéristiques d’un obstacle pour le guidage des mouvements des membres postérieurs. Nos résultats suggèrent que le CPP est impliqué dans l’intégration des informations visuelles et proprioceptives pour la planification du placement précis du pied devant un obstacle. Le patron de décharge de nos populations neuronales suggère qu’il encode également l’information temporelle et spatiale concernant la vitesse et la position de l’obstacle afin de coordonner l’activité des quatre membres pendant la tâche. Finalement, nous proposons qu’une des fonctions du CPP soit d’estimer la position des membres par rapport à l’obstacle en mouvement.
Resumo:
A l’époque de la Nouvelle-France, il n’était pas rare que des enfants de moins d’un an décèdent. Les parents acceptaient avec sagesse et résignation le décès de leurs enfants. Telle était la volonté du Tout-Puissant. Grâce au Registre de la Population du Québec Ancien (R.P.Q.A.) élaboré par le Programme de Recherche en Démographie Historique (P.R.D.H), l’ampleur de la mortalité infantile a pu être mesurée selon plusieurs critères, quelques facteurs déterminants examinés ainsi qu’une composante intergénérationnelle identifiée. Couvrant pour la première fois la totalité de l’existence de la colonie, nos résultats confirment l’importance de la mortalité des enfants aux XVIIe et XVIIIe siècles (entre 140 et 260‰ avant correction pour le sous-enregistrement des décès). Des disparités tangibles ont été constatées entre les sexes, selon le lieu de naissance ainsi que selon la catégorie professionnelle à laquelle appartient le père de l’enfant. L’inégalité des probabilités de survie des tout-petits reflète l’iniquité physiologique entre les genres, avec une surmortalité masculine de l’ordre de 20%, et l’influence de l’environnement dans lequel vit la famille : les petits de la ville de Québec décédaient en moyenne 1,5 à 1,2 fois plus que les petits des campagnes. Montréal, véritable hécatombe pour l’instant inexpliquée, perdait 50% de ses enfants avant l’âge d’un an, ce qui représente 1,9 fois plus de décès infantiles que ceux des enfants de la campagne, qui jouissent malgré tout des bienfaits de leur environnement. Les effets délétères de l’usage de la mise en nourrice, qui touche plus de la moitié des enfants des classes aisées citadines, ravagent leur descendance de plus en plus profondément. L’examen de la mortalité infantile sous ses composantes endogène et exogène révèle que la mortalité de causes exogènes explique au moins 70% de tous les décès infantiles. La récurrence des maladies infectieuses, l’absence d’hygiène personnelle, l’insalubrité des villes constituaient autant de dangers pour les enfants. Dans une perspective davantage familiale et intergénérationnelle où l’enfant est partie intégrante d’une fratrie, des risques significatifs ont été obtenus pour plusieurs caractéristiques déterminantes. Les mères de moins de 20 ans ou de plus de 30 ans, les enfants de rang de naissance supérieur à 8, un intervalle intergénésique inférieur à 21 mois ou avoir son aîné décédé accroissent les risques de décéder avant le premier anniversaire de l’ordre de 10 à 70%, parce que le destin d’un enfant n’est pas indépendant des caractéristiques de sa mère ou de sa fratrie. Nous avons aussi constaté une relation positive entre la mortalité infantile expérimentée par une mère et celle de ses filles. La distribution observée des filles ayant perdu au moins 40% de leurs enfants au même titre que leur mère est 1,3 à 1,9 fois plus grande que celle attendue pour les filles ayant eu 9 enfants et moins ou 10 enfants et plus. Il existerait une transmission intergénérationnelle de la mortalité infantile même lorsqu’on contrôle pour la période et la taille de la famille.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation
Resumo:
Fond : Le substrat de fibrillation auriculaire (FA) vagale et celui secondaire à remodelage par tachycardie auriculaire (RTA) partagent beaucoup des caractéristiques : période réfractaire efficace (PRE) réduite, hétérogénéité accrue de PRE et quelques mécanismes moléculaires communs. Cette étude a comparé les 2 substrats à une abréviation comparable de PRE. Méthodes : Chez chacun de 6 chiens de groupe de stimulation vagal (SV), les paramètres de stimulation cervicale bilatérale de nerves vagaux ont été ajustés pour produire la même PRE moyenne (calculé à 8 sites des oreillettes gauche et droite) avec 6 chiens de groupe de RTA assorti à sexe et poids. Des paramètres électrophysiologiques, la durée moyenne de la fibrillation auriculaire (DAF) et les fréquences dominantes (FD) locales ont étés calculés. Résultats : En dépit des PREs assorties (SV: 80±12msec contre RTA: 79±12msec) la DAF était plus longue (*), l’hétérogénéité de conduction était plus élevée (*), la FD était plus rapide (*) et la variabilité de FD plus grande (*) chez les chiens SV. Les zones de maximum FD qui reflètent les zones d’origine de FA étaient à côté de ganglions autonomes chez les chiens SV. Conclusions : Pour un PRE atriale comparable, la FA secondaire à SV est plus rapide et plus persistante que la FA avec un substrat de RTA. Ces résultats sont consistants avec des modèles de travail suggérant que l'hyperpolarisation SV-induite contribue de façon important à la stabilisation et à l'accélération des rotors qui maintiennent la FA. La similitude de la distribution de FD du groupe vagal avec la distribution des lésions d’ablation après cartographie des électrogrammes atriales fragmentés suggère des nouvelles techniques d’ablation. La distribution des FD entre le SV et le RTA fournit de nouvelles idées au sujet de possible rémodelage neuroreceptorial et indique des différences importantes entre ces substrats de FA superficiellement semblables.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
SOMMAIRE Cette recherche est basée sur l’étude de la pièce Adieu, Robinson, écrite par Julio Cortazar pour le théâtre radiophonique en 1977. Publiée en 1984, elle a été rééditée en 1995 –après le décès de son auteur– et diffusée, vers la fin des années 70, sur tous les continents. L’analyse de l’œuvre a été réalisée en tenant compte de deux orientations différentes mais complémentaires: l’une plus formelle ou technique et l’autre idéologique. Il y a, d’abord, l’étude du théâtre radiophonique comme discours qui utilise un langage spécifique –le langage radiophonique– et suppose un “théâtre écrit pour la radio”, et ce, à partir des œuvres de Rudolf Arnheim, Armand Balsebre et Etienne Fuzellier. Puis, il y a une mise en contexte de la pièce en faisant référence à la situation particulièrement mouvementée de l’Amérique latine, pendant les années 70, en mettant en rapport le sujet de la “décolonisation” avec celui de la libération. Avant d’aborder le sujet du théâtre radiophonique –ce qui inclut ses origines en Argentine, les premières pièces et les caractéristiques du format– et en prenant comme référence l’auteur Jésus Martin-Barbero, nous revoyons brièvement l’histoire du mélodrame, ce spectacle de forte valeur émotionnelle présent en Amérique latine, notamment, dans le théâtre radiophonique et le feuilleton télévisé. Suivant une revue des caractéristiques concernant le style d’écriture de Cortazar, nous analysons la pièce théâtrale d’un point de vue qui tient compte, principalement, des catégories d’espace et de temps, particulièrement importantes dans l’étude d’une œuvre radiophonique. Finalement, cette étude prétend démontrer que le but de Julio Cortazar, en écrivant Adieu, Robinson, n’était pas de proposer un passe-temps radiophonique, mais plutôt d’atteindre un public plus vaste via un puissant moyen de communication en lui offrant une fable anticolonialiste. Mots-clés : Cortazar, Robinson Crusoé, décolonisation, sémiologie du théâtre radiophonique.
Resumo:
Entre 15% et 20% des enseignants du Québec abandonnent la profession avant d’atteindre cinq années d’expérience (Martel et Ouellette, 2003). Les difficultés rencontrées peuvent perturber leur insertion et freiner le développement de leur identité professionnelle (Baillauquès et Breuse, 1993). Pour les soutenir, des commissions scolaires offrent des mesures parmi lesquelles le mentorat est privilégié. La recherche visait à mieux comprendre le mentorat en enseignement pour en identifier des caractéristiques favorables au développement de l’identité professionnelle des enseignants débutants. Les deux concepts sont mis en relation, s’appuyant sur les travaux de Houde (1995) et de Gohier, Anadón, Bouchard, Charbonneau et Chevrier (2001). Les aspects retenus pour l’analyse sont : les caractéristiques de la relation mentorale, les fonctions du mentor et le développement des sentiments de compétence, de reconnaissance et d’appartenance à la profession. Cinq entrevues semi-dirigées ont été menées auprès d’enseignantes débutantes du primaire de la région de Montréal ayant vécu une relation mentorale d’un an. Les données ont été traitées qualitativement. Les résultats montrent que, selon les participantes, le mentorat peut favoriser le développement du sentiment de compétence. Toutefois, les sentiments de reconnaissance et d’appartenance sont attribuables à l’expérience et la sociabilité. Un portrait du mentor et des conditions de réussite de la relation mentorale sont aussi présentés. Le fait que seules des mentorées du primaire aient été interrogées constitue une limite. La généralisation est impossible, mais les résultats peuvent servir à d’autres études sur l’identité professionnelle ainsi qu’au développement de programmes d’insertion professionnelle et à la formation de mentors.
Resumo:
Dans la première partie, nous présentons les résultats de l'étude du supraconducteur sans inversion de symétrie LaRhSi3 par spectroscopie muonique. En champ nul, nous n'avons pas détecté de champ interne. Ceci indique que la fonction d'onde de l'état supraconducteur n'est pas dominée par l'état triplet. Les mesures en champ transverse de 35G présentent une transition en accord avec la transition de phase attendue sous le champ critique Hc1. Nous avons répété ces mesures pour un champ entre Hc1 et Hc2, 150G. Le spectre obtenu pour ces mesures conserve l'asymétrie et relaxe rapidement à basse température tel que prédit pour un supraconducteur dans la phase d'Abrikosov. Néanmoins, les relaxations produites par ce balayage en température présentent une transition à près de 2 fois la température critique attendue. Dans la deuxième partie de ce mémoire, nous donnons l'interprétation des résultats de la diffraction neutronique inélastique par l'étude des champs électriques cristallins. Ces mesures ont été effectuées sur des aimants frustrés SrHo2O4 et SrDy2O4 sous la forme de poudre. L'étude des niveaux produits par les champs cristallins par la méthode des opérateurs de Stevens indique une perte du moment cinétique dans les deux matériaux. Pour le SrDy2O4, l'état fondamental serait constitué de quatre états dégénérés quasi accidentellement qui portent un moment magnétique total non-nul. Toute fois, nos mesures de susceptibilité magnétique ne montrent aucun ordre au-dessus de 50mK. Pour le SrHo2O4, le fondamental est formé d'une paire accidentelle. Nous obtenons un moment magnétique de 6.94(8)$\mu_B$ ce qui s'accorde avec les données expérimentales.