989 resultados para Tournées de véhicules avec fenêtres de temps
Resumo:
Cette thèse porte sur le rapport université/entreprise au Mexique après 1990. Il s’agit d’une étude de cas sur l’Université Nationale Autonome du Mexique (UNAM), la plus grande université mexicaine et la plus importante institution productrice de connaissances scientifiques au pays. À partir de 1988, l’introduction au Mexique d’une économie du marché a été le point de départ des nombreux changements politiques et économiques qui ont modifié les conditions d’exploitation des organisations et des institutions au pays. Ainsi, depuis 1990, le nouveau contexte politique et économique du Mexique a modifié les politiques gouvernementales vers les institutions publiques y compris celles de la santé et de l’éducation. Pour ce qui est des universités publiques mexicaines, ces politiques ont réduit leur financement et leur ont demandé une participation plus active à l’économie nationale, par la production de connaissances pouvant se traduire en innovation dans le secteur de la production. Ces nouvelles conditions économiques et politiques constituent des contingences auxquelles les universitaires font face de diverses façons, y compris l’établissement des relations avec les entreprises, comme le prescrivent les politiques du gouvernement fédéral élaborées sur la base des recommandations de l’OCDE. En vue de contribuer à la connaissance des relations université/entreprise développées au Mexique, nous avons réalisé notre étude de cas fondée sur une approche méthodologique qualitative à caractère exploratoire qui a recueilli des données provenant de sources documentaires et perceptuelles. Nous avons encadré notre recherche du point de vue de l’organisation par la théorie de la contingence, et pour l’analyse de la production de la connaissance sur la base des modèles de la Triple hélice et du Mode 2. Différents documents de sources diverses, y compris l’Internet, ont été consultés pour l’encadrement des rapports université/entreprise au Mexique et à l’UNAM. Les sources perceptuelles ont été 51 entrevues semi-structurées auprès de professeurs et de chercheurs à temps plein ayant établi des rapports avec des entreprises (dans les domaines de la biomédecine, la biotechnologie, la chimie et l’ingénierie) et de personnes ayant un rôle de gestion dans les rapports des entreprises avec l’institution. Les données recueillies ont montré que la politique de l’UNAM sur les rapports université/entreprise a été aussi flottante que la structure organisationnelle soutenant sa création et formalisation. Toutes sortes d’entreprises, publiques ou privées collaborent avec les chercheurs de l’UNAM, mais ce sont les entreprises parastatales et gouvernementales qui prédominent. À cause du manque d’infrastructure scientifique et technologique de la plupart des entreprises au Mexique, les principales demandes adressées à l’UNAM sont pour des services techniques ou professionnels qui aident les entreprises à résoudre des problèmes ponctuels. Le type de production de connaissance à l’UNAM continue d’être celui du Mode 1 ou traditionnel. Néanmoins, particulièrement dans le domaine de la biotechnologie, nous avons identifié certains cas de collaboration plus étroite qui pointaient vers l’innovation non linéaire proposée par le Mode 2 et la Triple hélice. Parmi les principaux avantages découlant des rapports avec les entreprises les interviewés ont cité l’obtention de ressources additionnelles pour la recherche, y compris de l’équipement et des fonds pour les bourses d’étudiants, mais souvent ils ont observé que l’un des plus gros avantages était la connaissance qu’ils obtenaient des contacts avec les firmes et le sens du réel qu’ils pouvaient intégrer dans la formation des étudiants. Les programmes gouvernementaux du CONACYT pour la science, la technologie et l’innovation ne semblent pas réussir à renforcer les rapports entre les institutions génératrices de la connaissance et le secteur de la production du Mexique.
Resumo:
La présente étude avait pour objectif de décrire comment est enseignée (si elle l’est effectivement) la distinction d’emploi entre le passé composé et l’imparfait, une distinction aspectuelle posant problème aux apprenants du français langue seconde, dans trois classes de 3e à 5e années en immersion française précoce aux Territoires du Nord-Ouest et de décrire l’utilisation que font les enseignantes de ces temps verbaux. À partir de dix-neuf heures d’observation en classe et d’entretiens menés avec deux enseignantes, nous avons élaboré une proposition didactique basée sur la réflexion guidée avec exemples positifs et négatifs de Nadeau et Fisher (2006) mettant en évidence le contraste d’emploi entre le passé composé et l’imparfait. Cette proposition didactique fournit aux enseignantes une façon de l’enseigner alors qu’elles ne le font pas à ces niveaux, et aux apprenants, un intrant où la fréquence des emplois atypiques est plus grande que dans le discours de leur enseignante.
Resumo:
Cette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal est de modéliser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant adéquatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à considérer les séries chronologiques d'écoulements d'eau comme des fonctions à modéliser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la modélisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général. Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de modélisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui définissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de modélisation, nous considérons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de modéliser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour modéliser simultanément la tendance centrale et la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de déterminer les distributions les plus adéquates pour un échantillon de courbes donné.
Resumo:
On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.
Resumo:
Le cancer occupe le premier rang parmi les causes de décès au Québec. Les taux de mortalité diffèrent cependant à travers les régions du Québec. En considérant les territoires des Centres de santé et de services sociaux (CSSS), ce mémoire propose dans un premier temps d’étudier la distribution des taux de mortalité pour les principaux sièges de cancer, d’identifier les régions où une différence significative du taux avec le reste du Québec est perceptible et d’approfondir des éléments impliqués dans la mortalité, soit l’incidence et la létalité. D’autre part, dans le but d’expliquer les variations des taux de mortalité, des variables socio-économiques liées aux territoires retenus serviront de variables explicatives au modèle de régression utilisé. Les résultats ont permis de constater que c’est pour le cancer du poumon que les écarts significatifs sont les plus nombreux. Quant au cancer colorectal, un seul territoire présentait un écart significatif. Pour ce qui est du cancer de la prostate et du sein, aucun écart n’est perceptible dans les taux de mortalité. Concernant la partie explicative de la mortalité, dans le cas du cancer du poumon, les taux d’incidence sont fortement corrélés aux taux de mortalité. On ne peut cependant faire le même constat pour les cancers colorectal, du sein et de la prostate. De plus, les variables socio-économiques considérées pour les territoires de CSSS ne permettaient pas d’arriver à un modèle explicatif convaincant. Ces résultats montrent la nécessité d’avoir des données longitudinales permettant de suivre les individus dès le moment où le diagnostic de cancer est établi afin d’être en mesure de mieux mesurer les liens entre l’incidence, la survie, le niveau socio-économique et la mortalité.
Resumo:
Carte du bailliage en fichier complémentaire.
Resumo:
Outre les facteurs métaboliques et hémodynamiques, l’inflammation est actuellement considérée comme un facteur pathogénique potentiel de la néphropathie diabétique (ND), pouvant contribuer à l’initiation et à la progression de la maladie. Les mécanismes menant au développement de l’inflammation rénale dans la ND sont encore peu connus, bien qu’une augmentation d’activité des systèmes rénine angiotensine (RAS) et de l’endothéline (ET) semble y contribuer. L’objectif général de cette étude mono-centre, à double aveugle, randomisée et incluant un groupe placebo était de démontrer que l’inhibition simultanée du RAS et du système de l’ET chez des patients avec ND induisait des effets rénoprotecteurs et anti-inflammatoires supérieurs à ceux observés par blocage du RAS seul. L’objectif spécifique de notre étude était d’évaluer la possibilité que l’administration d’un bloqueur des récepteurs de l’ET-1, le bosentan, à des patients atteints de ND et traités par bloqueurs des récepteurs de l’angiotensine II (BRA), réduisait, chez ces derniers, la protéinurie et les marqueurs inflammatoires systémiques et rénaux. Ce travail constitue un rapport d’un cas clinique et illustre les résultats obtenus suite à l’administration pendant 16 semaines du bosentan chez un patient diabétique de type 2 avec néphropathie clinique traité au long cours par BRA. Le protocole de recherche comprenait 6 visites médicales à 4 semaines d’intervalle, la première visite (V1) correspondant au recrutement du patient, la deuxième visite (V2) constituant le temps 0 de l’étude et la dernière visite (V6) représentant la fin de l’étude. Des échantillons de sang et d’urine étaient prélevés à 3 reprises soit à V2, V4 c’est-à-dire 8 semaines après le début du traitement et à V6 soit 16 semaines après le début du traitement pour mesure des taux sériques et urinaires de divers facteurs pro-inflammatoires incluant l’ET-1, le facteur de nécrose tumorale alpha (TNF-α), l’interleukine-6 (IL-6), le facteur chémoattractant des monocytes-1 (MCP-1), la molécule d’adhésion intracellulaire-1 (ICAM-1), la molécule d’adhésion vasculaire-1 (VCAM-1) et la protéine C-réactive (CRP). Un profil lipidique était aussi déterminé au début et à la fin de l’étude. La fonction rénale était mesurée aux visites V1, V2, V4 et V6 par détermination du taux de filtration glomérulaire (TFG) et de l’excrétion urinaire d’albumine (UAE). Des tests biochimiques de routine étaient aussi faits à chaque visite. La corrélation entre les paramètres inflammatoires et rénaux sous étude et la filtration glomérulaire était enfin déterminée. Nos résultats chez ce sujet ont démontré que le bosentan réduisait l’UAE de 32 % et 35% aux semaines 8 et 16, et ce, sans affecter la pression artérielle ou la filtration glomérulaire. L'effet anti-protéinurique du bosentan était associé à une réduction des concentrations urinaires de VCAM-1, ICAM-1, IL-6, TNF-α et d’ET-1 ainsi qu’à une diminution des concentrations sériques de TNF-α. Le changement dans la protéinurie était corrélé de manière positive avec les changements des niveaux urinaires de VCAM-1 (r=0.86), ICAM-1 (r=0.88), ET-1 (r=0.94), et du TNF-α (r=0.96) ainsi qu’avec les changements des niveaux sériques de TNF-α (r=0.98). Ces données suggèrent que l’inhibition du système de l’ET induit dans la ND des effets rénoprotecteurs additifs à ceux observés par blocage du RAS seul. Ils supportent le concept que l’activation du système de l’ET au niveau rénal, par ses effets inflammatoires, puisse jouer un rôle important dans la pathogenèse de la ND. L’effet anti-inflammatoire et anti-protéinurique du bosentan constitue une découverte intéressante susceptible d’engendrer dans le futur une alternative thérapeutique et préventive dans la prise en charge de la ND.
Resumo:
Objectifs: Observer l’évolution de la stomatite prothétique dans le temps quant à la fréquence et la sévérité ainsi que son association avec de potentiels facteurs de risque au cours d’un suivi longitudinal de 2 ans. Matériels et méthodes : Cent trente-cinq patients âgés complètement édentés et en bonne santé ont été sélectionnés pour participer à cette étude et ont été divisés de façon randomisée en deux groupes. Ils ont tous reçu une prothèse dentaire amovible totale conventionnelle au maxillaire supérieur. La moitié d’entre eux a reçu une prothèse totale mandibulaire implanto-portée retenue par deux attachements boule et l’autre moitié une prothèse conventionnelle. Ils ont été suivis sur une période de deux ans. Les données sociodémographiques, d’habitudes de vie, d’hygiène et de satisfaction des prothèses ont été amassées à l’aide de questionnaires. Les patients ont aussi subi un examen oral complet lors duquel une évaluation de la stomatite prothétique, basée sur la classification de Newton, a été effectuée ainsi qu’un prélèvement de la plaque prothétique. Les analyses microbiologiques pertinentes afin de détecter la présence de Candida ont ensuite été effectuées. Des tests Chi-carré de Pearson et McNemar ont été utilisés pour analyser la fréquence de la stomatite, son association avec de possibles facteurs de risque ainsi que son évolution dans le temps. Des rapports de cotes (odds ratio) et leurs intervalles de confiance (95%) ont été effectués afin de déterminer la force d’association entre les facteurs de risque et la stomatite prothétique. Résultats : La prévalence de la stomatite a augmenté entre la première (63,6%) et la deuxième année de suivi (88,7%) avec une incidence de 78,8%. Les patients souffrant d’une stomatite de type 2 ou 3 et qui brossent leur palais ont environ 6 fois plus de chance de voir la sévérité de leur stomatite diminuer [p = 0,04 OR 5,88 CI (1,1-32,2)]. Il n’y a pas d’association statistiquement significative entre la fréquence de la stomatite et les facteurs de risque investigués. La prévalence de la candidose est demeurée stable dans le temps (45,8% et 49,2% à la première et deuxième année de suivi respectivement, p > 0,05). Il n’y a pas d’association entre la présence d’une candidose orale, la stomatite prothétique et les facteurs de risque étudiés. Conclusion : Les résultats de cette étude suggèrent que la stomatite prothétique progresse dans le temps indépendamment de la présence d’une candidose. Le brossage du palais pourrait être une approche simple à conseiller aux patients souffrant d’une stomatite prothétique de type 2 ou 3.
Resumo:
Dans ce mémoire nous allons présenter une méthode de diffusion d’erreur originale qui peut reconstruire des images en demi-ton qui plaisent à l’œil. Cette méthode préserve des détails fins et des structures visuellement identifiables présentes dans l’image originale. Nous allons tout d’abord présenter et analyser quelques travaux précédents afin de montrer certains problèmes principaux du rendu en demi-ton, et nous allons expliquer pourquoi nous avons décidé d’utiliser un algorithme de diffusion d’erreur pour résoudre ces problèmes. Puis nous allons présenter la méthode proposée qui est conceptuellement simple et efficace. L’image originale est analysée, et son contenu fréquentiel est détecté. Les composantes principales du contenu fréquentiel (la fréquence, l’orientation et le contraste) sont utilisées comme des indices dans un tableau de recherche afin de modifier la méthode de diffusion d’erreur standard. Le tableau de recherche est établi dans un étape de pré-calcul et la modification est composée par la modulation de seuil et la variation des coefficients de diffusion. Ensuite le système en entier est calibré de façon à ce que ces images reconstruites soient visuellement proches d’images originales (des aplats d’intensité constante, des aplats contenant des ondes sinusoïdales avec des fréquences, des orientations et des constrastes différents). Finalement nous allons comparer et analyser des résultats obtenus par la méthode proposée et des travaux précédents, et démontrer que la méthode proposée est capable de reconstruire des images en demi-ton de haute qualité (qui préservent des structures) avec un traitement de temps très faible.
Resumo:
Ce mémoire en recherche création débute par un récit poétique rédigé par fragments et intitulé Ma mère est une porte. Ce texte met en abyme les ruines afin de démontrer leur lien de contiguïté avec l’absence, l’empreinte, la mémoire et la mort. D’ailleurs, leur aspect ruiniforme rappelle le fragment, ce qui permet d’appuyer l’esthétique formelle de l’œuvre. La deuxième partie intitulée Approche génétique : un monument à la mémoire des disparus emportés par le temps de l’écriture, propose une réflexion sur l’imaginaire des ruines en lien avec les archives littéraires et la mémoire. Divisé en trois sections, cet essai pose un regard inquiet sur l’avenir de l’objet d’étude de la critique génétique, soit le manuscrit moderne. Depuis l’avènement de l’informatique et du traitement de texte, que conserverons-nous de la mémoire scripturale et du processus d’écriture de l’écrivain de demain?
Resumo:
De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.
Resumo:
La progression d’un individu au travers d’un environnement diversifié dépend des informations visuelles qui lui permettent d’évaluer la taille, la forme ou même la distance et le temps de contact avec les obstacles dans son chemin. Il peut ainsi planifier en avance les modifications nécessaires de son patron locomoteur afin d’éviter ou enjamber ces entraves. Ce concept est aussi applicable lorsque le sujet doit atteindre une cible, comme un prédateur tentant d’attraper sa proie en pleine course. Les structures neurales impliquées dans la genèse des modifications volontaires de mouvements locomoteurs ont été largement étudiées, mais relativement peu d’information est présentement disponible sur les processus intégrant l’information visuelle afin de planifier ces mouvements. De nombreux travaux chez le primate suggèrent que le cortex pariétal postérieur (CPP) semble jouer un rôle important dans la préparation et l’exécution de mouvements d’atteinte visuellement guidés. Dans cette thèse, nous avons investigué la proposition que le CPP participe similairement dans la planification et le contrôle de la locomotion sous guidage visuel chez le chat. Dans notre première étude, nous avons examiné l’étendue des connexions cortico-corticales entre le CPP et les aires motrices plus frontales, particulièrement le cortex moteur, à l’aide d’injections de traceurs fluorescents rétrogrades. Nous avons cartographié la surface du cortex moteur de chats anesthésiés afin d’identifier les représentations somatotopiques distales et proximales du membre antérieur dans la partie rostrale du cortex moteur, la représentation du membre antérieur située dans la partie caudale de l’aire motrice, et enfin la représentation du membre postérieur. L’injection de différents traceurs rétrogrades dans deux régions motrices sélectionnées par chat nous a permis de visualiser la densité des projections divergentes et convergentes pariétales, dirigées vers ces sites moteurs. Notre analyse a révélé une organisation topographique distincte de connexions du CPP avec toutes les régions motrices identifiées. En particulier, nous avons noté que la représentation caudale du membre antérieur reçoit majoritairement des projections du côté rostral du sillon pariétal, tandis que la partie caudale du CPP projette fortement vers la représentation rostrale du membre antérieur. Cette dernière observation est particulièrement intéressante, parce que le côté caudal du sillon pariétal reçoit de nombreux inputs visuels et sa cible principale, la région motrice rostrale, est bien connue pour être impliquée dans les fonctions motrices volontaires. Ainsi, cette étude anatomique suggère que le CPP, au travers de connexions étendues avec les différentes régions somatotopiques du cortex moteur, pourrait participer à l’élaboration d’un substrat neural idéal pour des processus tels que la coordination inter-membre, intra-membre et aussi la modulation de mouvements volontaires sous guidage visuel. Notre deuxième étude a testé l’hypothèse que le CPP participe dans la modulation et la planification de la locomotion visuellement guidée chez le chat. En nous référant à la cartographie corticale obtenue dans nos travaux anatomiques, nous avons enregistré l’activité de neurones pariétaux, situés dans les portions des aires 5a et 5b qui ont de fortes connexions avec les régions motrices impliquées dans les mouvements de la patte antérieure. Ces enregistrements ont été effectués pendant une tâche de locomotion qui requiert l’enjambement d’obstacles de différentes tailles. En dissociant la vitesse des obstacles de celle du tapis sur lequel le chat marche, notre protocole expérimental nous a aussi permit de mettre plus d’emphase sur l’importance de l’information visuelle et de la séparer de l’influx proprioceptif généré pendant la locomotion. Nos enregistrements ont révélé deux groupes de cellules pariétales activées en relation avec l’enjambement de l’obstacle: une population, principalement située dans l’aire 5a, qui décharge seulement pendant le passage du membre au dessus del’entrave (cellules spécifiques au mouvement) et une autre, surtout localisée dans l’aire 5b, qui est activée au moins un cycle de marche avant l’enjambement (cellules anticipatrices). De plus, nous avons observé que l’activité de ces groupes neuronaux, particulièrement les cellules anticipatrices, était amplifiée lorsque la vitesse des obstacles était dissociée de celle du tapis roulant, démontrant l’importance grandissante de la vision lorsque la tâche devient plus difficile. Enfin, un grand nombre des cellules activées spécifiquement pendant l’enjambement démontraient une corrélation soutenue de leur activité avec le membre controlatéral, même s’il ne menait pas dans le mouvement (cellules unilatérales). Inversement, nous avons noté que la majorité des cellules anticipatrices avaient plutôt tendance à maintenir leur décharge en phase avec l’activité musculaire du premier membre à enjamber l’obstacle, indépendamment de sa position par rapport au site d’enregistrement (cellules bilatérales). Nous suggérons que cette disparité additionnelle démontre une fonction diversifiée de l’activité du CPP. Par exemple, les cellules unilatérales pourraient moduler le mouvement du membre controlatéral au-dessus de l’obstacle, qu’il mène ou suive dans l’ordre d’enjambement, tandis que les neurones bilatéraux sembleraient plutôt spécifier le type de mouvement volontaire requis pour éviter l’entrave. Ensembles, nos observations indiquent que le CPP a le potentiel de moduler l’activité des centres moteurs au travers de réseaux corticaux étendus et contribue à différents aspects de la locomotion sous guidage visuel, notamment l’initiation et l’ajustement de mouvements volontaires des membres antérieurs, mais aussi la planification de ces actions afin d’adapter la progression de l’individu au travers d’un environnement complexe.
Resumo:
L’agent régulateur des temps sociaux de la famille québécoise a été la religion catholique pendant des décennies. Les mouvements d’après-guerre et la Révolution tranquille, ont amené un changement de paradigme avec la laïcisation des institutions et la multiplication des programmes sociaux de l’État-providence. Pour cerner l’importance de ce changement, nous avons utilisé la clef analytique de Léon Gérin pour produire une analyse comparative entre deux familles à deux époques : en 1886 et en 2010. Or, au moment où l’État est de plus en plus présent dans toutes les sphères de la vie de la famille tout en leur laissant une autonomie et une liberté, la population se montre de plus en plus sceptique envers les institutions étatiques. Un fossé s’est créé entre la société officielle, celle du social, des institutions, et la société officieuse, celle de la culture populaire qui agit à partir de l’esprit de corps de son groupe, virtuel ou non. La crise de confiance des gens envers les institutions annonce un nouveau changement de paradigme. La rationalité qui a été le moteur de la modernité fait graduellement place à l’émotionnel et à la valeur du temps présent. Le travail, agent régulateur qui comblait les besoins matériels à la modernité, serait remplacé progressivement par des besoins immatériels devenant l’agent régulateur des temps sociaux de la famille.
Resumo:
Objectif: Définir l’effet des lipides et du traitement de la dyslipidémie sur les cancers de la prostate et de la vessie en utilisant différents devis d’étude et en tenant compte de la présence de plusieurs biais, particulièrement le biais du temps immortel. Devis: Le premier volet utilise un devis rétrospectif de type cas témoins. Un questionnaire semi-quantitatif de fréquence de consommation alimentaire validé a été utilisé. Le génotype COX2 de neuf polymorphisme nucléotidique unique (SNP) a été mesuré avec une plateforme Taqman. Des modèles de régression logistique non conditionnelle ont été utilisés pour comparer le risque de diagnostic d’un cancer de la prostate et l’interaction. Le deuxième volet utilise un devis rétrospectif de type cohorte basée sur les données administratives de la Régie de l’assurance-maladie du Québec (RAMQ). Des modèles de régression de Cox ont été employés pour mesurer l’association entre les statines et l’évolution du cancer de la vessie. Le troisième volet, porte un regard méthodologique sur le biais du temps immortel en examinant sa présence dans la littérature oncologique. Son importance est illustrée avec les données de la cohorte du deuxième volet, et les méthodes de correction possibles son appliquées. Résultats: L’étude du premier volet démontre qu’une diète riche en acides gras oméga-3 d’origine marine était fortement associée à un risque diminué de cancer de la prostate agressif (p<0.0001 pour la tendance). Le ratio de cote pour le cancer de la prostate du quartile supérieur d’oméga-3 était de 0.37 (IC 95% = 0.25 à 0.54). L’effet diététique était modifié par le génotype COX-2 SNP rs4648310 (p=0.002 pour l’interaction). En particulier, les hommes avec faible apport en oméga-3 et la variante rs4648310 avait un risque accru de cancer de la prostate (ratio de cote = 5.49, IC 95%=1.80 à 16.7), effet renversé par un apport en oméga-3 plus grand. L’étude du deuxième volet a observé que l’utilisation de statines est associée à une diminution du risque de progression du cancer de la vessie (risque relatif = 0.44, IC 95% = 0.20 à 0.96, p=0.039). Cette association était encore plus forte pour le décès de toute cause (HR = 0.57, 95% CI = 0.43 to 0.76, p=0.0001). L’effet des statines semble être dose-dépendant. L’étude du troisième volet démontre que le biais du temps immortel est fréquent et important dans les études épidémiologiques oncologiques. Il comporte plusieurs aspects dont certains sont mieux prévenus au stade du choix du devis d’étude et différentes méthodes statistiques permettent un contrôle de ce biais. Conclusion: 1) Une diète riche en oméga-3 aurait un effet protecteur pour le cancer de la prostate. 2) L’utilisation de statines aurait un effet protecteur sur la progression du cancer non invasif de la vessie. Les lipides semblent avoir un effet sur les cancers urologiques.
Resumo:
Des facteurs masculins sont identifiés dans près de la moitié des cas d’infertilité. À ce jour, les tests évaluant la fertilité masculine demeurent peu prédictifs de la survenue d’une grossesse. Dans le but de pallier cette lacune, nous avons mis au point deux nouveaux tests mesurant l’intégrité de l’ADN et le temps de survie des spermatozoïdes. Nous avons effectué une étude prospective portant sur 42 couples infertiles suivis en fécondation in vitro (FIV). Le spermogramme a été effectué selon les critères de l’Organisation Mondiale de la Santé (OMS) et le temps de survie des spermatozoïdes exposés à un détergent cationique a été mesuré en observant la mobilité sous microscope. L’intégrité de l’ADN des spermatozoïdes a été vérifiée par la nouvelle méthode de marquage radioenzymatique et par analyse de la structure de la chromatine (SCSA). Tous les tests ont été réalisés sur la partie des échantillons de sperme non utilisée par la clinique de fertilité. Le projet a été approuvé par le comité d’éthique du Centre Hospitalier Universitaire de Montréal (CHUM) et les patients ont préalablement signé un formulaire de consentement éclairé. L’analyse des paramètres du spermogramme et de l’intégrité de l’ADN n’a montré aucune différence statistiquement significative entre les données chez les couples avec ou sans grossesse. Cependant, le taux de grossesse biochimique était statistiquement plus élevé chez les couples dont le temps de survie des spermatozoïdes était long (>250 s) comparativement à ceux dont ce temps était court (≤250 s): 66% vs 27% respectivement (p<0,05). Les taux de grossesse clinique et d’implantation étaient aussi plus élevés, mais les différences n’atteignaient pas le seuil de signification statistique. Nos résultats confirment que le spermogramme et la mesure de la fragmentation de l’ADN des spermatozoïdes ne sont pas de bons facteurs prédictifs des résultats de la FIV. Par contre, le test de survie des spermatozoïdes serait un meilleur indicateur de la possibilité d’une grossesse en FIV. L’amélioration de sa spécificité et un plus grand nombre de sujets sont nécessaires avant de proposer son application en clinique de fertilité.