982 resultados para dynamique trash
Resumo:
La prolifération, la différenciation ainsi que les fonctions des cellules du système immunitaire sont contrôlées en partie par les cytokines. Lors de l’infection par le VIH-1, les défauts observés dans les fonctions, la maintenance, ainsi que la consistance des cellules du système immunitaire sont en large partie attribués à une production altérée des cytokines et à un manque d’efficacité au niveau de leurs effets biologiques. Durant ces études, nous nous sommes intéréssés à la régulation et aux fonctions de deux cytokines qui sont l’IL-18 et l’IL-21. Nous avons observé une corrélation inversée significative entre les concentrations sériques d’IL-18 et le nombre des cellules NK chez les patients infectés par le VIH-1. Nos expériences in vitro ont démontré que cette cytokine induit l’apoptose des cellules NK primaires et que cette mort peut être inhibée par des anticorps neutralisants spécifiques pour FasL et TNF-α. Cette mort cellulaire est due à l’expression de FasL sur les cellules NK et à la production de TNF-α par ces cellules. L’IL-18 augmente aussi la susceptibilité à la mort des cellules NK par un stimulus pro-apoptotique, en diminuant l’expression de la protéine anti-apoptotique Bcl-XL. Nous démontrons aussi que, contrairement à l’IL-18, les niveaux d’IL-18BP sont plus faibles dans les sérum de patients infectés. Ceci résulte sur une production non coordonnée de ces deux facteurs, aboutissant à des niveaux élevés d’IL-18 libre et biologiquement active chez les patients infectés. L’infection de macrophages in vitro induit la production d’IL-18 et réduit celle d’IL-18BP. De plus, l’IL-10 et le TGF-β, dont les concentrations sont élevées chez les patients infectés, réduisent la production d’IL-18BP par les macrophages in vitro. Finalement, nous démontrons que l’IL-18 augmente la réplication du VIH-1 dans les lymphocytes T CD4+ infectés. Les niveaux élevés d’IL-18 libres et biologiquement actives chez les patients infectés contribuent donc à l’immuno-pathogénèse induite par le VIH-1 en perturbant l’homéostasie des cellules NK ainsi qu’en augmentant la réplication du virus chez les patients. Ces études suggèrent donc la neutralisation des effets néfastes de l’IL-18 en utilisant son inhibiteur naturel soit de l’IL-18BP exogène. Ceci permettrait de moduler l’activité de l’IL-18 in vivo à des niveaux souhaitables. L’IL-21 joue un rôle clef dans le contrôle des infections virales chroniques. Lors de ces études, nous avons déterminé la dynamique de la production d’IL-21 lors de l’infection par le VIH-1 et sa conséquence sur la survie des cellules T CD4+ et la fréquence des cellules T CD8+ spécifiques au VIH-1. Nous avons démontré que sa production est compromise tôt au cours de l’infection et que les concentrations d’IL-21 corrèlent avec le compte de cellules T CD4+ chez les personnes infectées. Nos études ont démontré que le traitement antirétroviral restaure partiellement la production d’IL-21. De plus, l’infection par le VIH-1 de cellules T CD4+ humaines inhibe sa production en réduisant l’expression du facteur de transcription c-Maf. Nous avons aussi démontré que la fréquence des cellules T CD4+ spécifiques au VIH-1 qui produisent de l’IL-21 est réduite chez les patients virémiques. Selon nos résultats, l’IL-21 empêche l’apoptose spontanée des cellules T CD4+ de patients infectés et l’absence d’IL-21 réduit la fréquence des cellules T CD8+ spécifiques au VIH-1 chez ces patients. Nos résultats démontrent que l'IL-21R est exprimé de façon égale sur tous les sous-types de cellules NK chez les donneurs sains et chez les patients infectés. L’IL-21 active les protéines STAT-3, MAPK et Akt afin d'augmenter les fonctions effectrices des cellules NK. L'activation de STAT-3 joue un rôle clef dans ces fonctions avec ou sans un traitement avec de l'IL-21. L'IL-21 augmente l'expression des protéines anti-apoptotiques Bcl-2 et Bcl-XL, augmente la viabilité des cellules NK, mais ne possède aucun effet sur leur prolifération. Nous démontrons de plus que l'IL-21 augmente l'ADCC, les fonctions sécrétrices et cytotoxiques ainsi que la viabilité des cellules NK provenant de patients chroniquement infectés par le VIH-1. De plus, cette cytokine semble présenter ces effets sans augmenter en contrepartie la réplication du VIH-1. Elle permet donc d'inhiber la réplication virale lors de co-cultures autologues de cellules NK avec des cellules T CD4+ infectées d'une manière dépendante à l'expression de perforine et à l'utilisation de la protéine LFA-1. Les niveaux d’IL-21 pourraient donc servir de marqueurs biologiques pour accompagner les informations sur le taux de cellules T CD4+ circulantes en nous donnant des informations sur l’état de fonctionnalité de ce compartiment cellulaire. De plus, ces résultats suggèrent l’utilisation de cette cytokine en tant qu’agent immunothérapeutique pour restaurer les niveaux normaux d’IL-21 et augmenter la réponse antivirale chez les patients infectés par le VIH-1.
Resumo:
Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.
Resumo:
Placer une charge au niveau du membre inférieur est une approche sans fondement scientifique, utilisée par les cliniciens, pour renforcer certains muscles clés de la marche. Cette étude a déterminé les modifications du patron de marche lors de l’ajout d’une charge à la cheville parétique ou non parétique chez des personnes ayant une hémiparésie suite à un accident vasculaire cérébral et a comparé les résultats à ceux d’un groupe témoin. Il est supposé qu’une charge placée à la jambe parétique/non dominante (charge ipsilatérale) augmenterait les efforts (moments et puissance) à la hanche parétique/non dominante lors de l’oscillation et qu’une charge placée controlatéralement augmenterait les efforts lors de la phase d’appui principalement pour les abducteurs de hanche stabilisant le bassin dans le plan frontal. La marche avec et sans charge de cinq individus hémiparétiques chroniques et 5 personnes en santé a été analysée en laboratoire par l’enregistrement des forces de réaction du sol et des mouvements des membres inférieurs. Ces informations ont permis de calculer les paramètres temps-distance, les angles à la hanche parétique/non dominante et au tronc, les moments nets, les puissances et le travail mécanique à la hanche parétique/non dominante. Des tests statistiques non-paramétriques ont servi à déterminer l’effet de la condition, avec charge (ipsi- et controlatérale) ou sans charge et à comparer les résultats entre les deux groupes. L’ajout d’une charge n’a pas modifié la vitesse de marche des sujets. Les phases d’appui et d’oscillation étaient rendus plus symétriques par la charge, même si peu de différences apparaissaient dans le plan sagittal avec ou sans la charge. Dans le plan frontal, le moment abducteur de hanche des sujets hémiparétiques a diminué avec la charge controlatérale, tandis qu'il a augmenté chez les sujets en santé. L’utilisation d’une stratégie posturale ou dynamique au tronc pourrait expliquer la différence de l’effet de la charge sur le moment abducteur à la hanche. Au vu de ces résultats, il est nécessaire de poursuivre l’évaluation de cette approche de renforcement musculaire spécifique à la tâche avant d’en recommander son utilisation.
Resumo:
Les systèmes sensoriels encodent l’information sur notre environnement sous la forme d’impulsions électriques qui se propagent dans des réseaux de neurones. Élucider le code neuronal – les principes par lesquels l’information est représentée dans l’activité des neurones – est une question fondamentale des neurosciences. Cette thèse constituée de 3 études (E) s’intéresse à deux types de codes, la synchronisation et l’adaptation, dans les neurones du cortex visuel primaire (V1) du chat. Au niveau de V1, les neurones sont sélectifs pour des propriétés comme l’orientation des contours, la direction et la vitesse du mouvement. Chaque neurone ayant une combinaison de propriétés pour laquelle sa réponse est maximale, l’information se retrouve distribuée dans différents neurones situés dans diverses colonnes et aires corticales. Un mécanisme potentiel pour relier l’activité de neurones répondant à des items eux-mêmes reliés (e.g. deux contours appartenant au même objet) est la synchronisation de leur activité. Cependant, le type de relations potentiellement encodées par la synchronisation n’est pas entièrement clair (E1). Une autre stratégie de codage consiste en des changements transitoires des propriétés de réponse des neurones en fonction de l’environnement (adaptation). Cette plasticité est présente chez le chat adulte, les neurones de V1 changeant d’orientation préférée après exposition à une orientation non préférée. Cependant, on ignore si des neurones spatialement proches exhibent une plasticité comparable (E2). Finalement, nous avons étudié la dynamique de la relation entre synchronisation et plasticité des propriétés de réponse (E3). Résultats principaux — (E1) Nous avons montré que deux stimuli en mouvement soit convergent soit divergent élicitent plus de synchronisation entre les neurones de V1 que deux stimuli avec la même direction. La fréquence de décharge n’était en revanche pas différente en fonction du type de stimulus. Dans ce cas, la synchronisation semble coder pour la relation de cocircularité dont le mouvement convergent (centripète) et divergent (centrifuge) sont deux cas particuliers, et ainsi pourrait jouer un rôle dans l’intégration des contours. Cela indique que la synchronisation code pour une information qui n’est pas présente dans la fréquence de décharge des neurones. (E2) Après exposition à une orientation non préférée, les neurones changent d’orientation préférée dans la même direction que leurs voisins dans 75% des cas. Plusieurs propriétés de réponse des neurones de V1 dépendent de leur localisation dans la carte fonctionnelle corticale pour l’orientation. Les comportements plus diversifiés des 25% de neurones restants sont le fait de différences fonctionnelles que nous avons observé et qui suggèrent une localisation corticale particulière, les singularités, tandis que la majorité des neurones semblent situés dans les domaines d’iso-orientation. (E3) Après adaptation, les paires de neurones dont les propriétés de réponse deviennent plus similaires montrent une synchronisation accrue. Après récupération, la synchronisation retourne à son niveau initial. Par conséquent, la synchronisation semble refléter de façon dynamique la similarité des propriétés de réponse des neurones. Conclusions — Cette thèse contribue à notre connaissance des capacités d’adaptation de notre système visuel à un environnement changeant. Nous proposons également des données originales liées au rôle potentiel de la synchronisation. En particulier, la synchronisation semble capable de coder des relations entre objets similaires ou dissimilaires, suggérant l’existence d’assemblées neuronales superposées.
Resumo:
Nous présenterons le procédé de fabrication, la caractérisation, ainsi qu’un modèle numérique permettant l’optimisation d’un nouveau dispositif permettant d’effectuer des mesures de nanocalorimétrie sur un échantillon de silicium monocristallin. Ce dernier possède entre autre des propriétés thermiques nous permettant d’effectuer des mesures à des températures supérieures à 900 C, avec une résolution meilleure que 16 C. Ceci nous a permis d’étudier la dynamique des défauts induits par implantation ionique dans le silicium monocristallin. Deux comportements différents sont observés dans la germination de la phase amorphe induite par implantation à 10 et 80 keV. Ces résultats ont été confrontés à des simulations Monte-Carlo basées sur le modèle des paires lacunesinterstitiels. La comparaison entre les simulations et les mesures expérimentales ont montré que ce modèle est incomplet car il ne reproduit qualitativement que certaines caractéristiques observées expérimentalement. Des mesures réalisées à partir de -110 C dans le silicium monocristallin et amorphisé implanté avec des ions légers, ont mis en évidence des différences claires entre la relaxation dans le silicium amorphe et le recuit des défauts dans le silicium monocristallin. Deux processus à des énergies d’activation de 0.48 et 0.6 eV ont été observés pour les implantations réalisées dans le silicium monocristallin tandis qu’un relâchement de chaleur uniforme ne révélant qu’un spectre continu d’énergie d’activation a été observé dans le silicium amorphe.
Resumo:
Cette thèse porte sur les problèmes de tournées de véhicules avec fenêtres de temps où un gain est associé à chaque client et où l'objectif est de maximiser la somme des gains recueillis moins les coûts de transport. De plus, un même véhicule peut effectuer plusieurs tournées durant l'horizon de planification. Ce problème a été relativement peu étudié en dépit de son importance en pratique. Par exemple, dans le domaine de la livraison de denrées périssables, plusieurs tournées de courte durée doivent être combinées afin de former des journées complètes de travail. Nous croyons que ce type de problème aura une importance de plus en plus grande dans le futur avec l'avènement du commerce électronique, comme les épiceries électroniques, où les clients peuvent commander des produits par internet pour la livraison à domicile. Dans le premier chapitre de cette thèse, nous présentons d'abord une revue de la littérature consacrée aux problèmes de tournées de véhicules avec gains ainsi qu'aux problèmes permettant une réutilisation des véhicules. Nous présentons les méthodologies générales adoptées pour les résoudre, soit les méthodes exactes, les méthodes heuristiques et les méta-heuristiques. Nous discutons enfin des problèmes de tournées dynamiques où certaines données sur le problème ne sont pas connues à l'avance. Dans le second chapitre, nous décrivons un algorithme exact pour résoudre un problème de tournées avec fenêtres de temps et réutilisation de véhicules où l'objectif premier est de maximiser le nombre de clients desservis. Pour ce faire, le problème est modélisé comme un problème de tournées avec gains. L'algorithme exact est basé sur une méthode de génération de colonnes couplée avec un algorithme de plus court chemin élémentaire avec contraintes de ressources. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. Le troisième chapitre propose donc une méthode de recherche adaptative à grand voisinage qui exploite les différents niveaux hiérarchiques du problème (soit les journées complètes de travail des véhicules, les routes qui composent ces journées et les clients qui composent les routes). Dans le quatrième chapitre, qui traite du cas dynamique, une stratégie d'acceptation et de refus des nouvelles requêtes de service est proposée, basée sur une anticipation des requêtes à venir. L'approche repose sur la génération de scénarios pour différentes réalisations possibles des requêtes futures. Le coût d'opportunité de servir une nouvelle requête est basé sur une évaluation des scénarios avec et sans cette nouvelle requête. Enfin, le dernier chapitre résume les contributions de cette thèse et propose quelques avenues de recherche future.
Resumo:
L’objectif principal de cette thèse de doctorat est de déterminer, à l’aide d’une grille d’observation des comportements parentaux après la séparation , si des catégories de la grille permettent de distinguer entre eux les couples parentaux où le risque de Détérioration du Lien Parent-Enfant en contexte de séparation conflictuelle (DLPE) est très élevé des couples parentaux où le risque de DLPE est très faible. De plus, trois objectifs secondaires s’ajoutent à notre objectif principal. Premièrement, nous avons tenté de voir s’il était possible de prédire les cas où les risques de DLPE sont très élevés. Deuxièmement, nous avons exploré comment la DLPE s’inscrit dans les conséquences pouvant découler de la séparation parentale. Et enfin, troisièmement, nous avons brièvement exploré la question des allégations d’agression sexuelle envers l’enfant dans les contextes de DLPE. Cette thèse est composée de deux articles et d’une note de recherche brève. Le premier article s’intitule En quoi et pourquoi les hommes et les femmes sont-ils affectés différemment par la séparation conjugale? Cet article est une recension critique de la littérature traitant des conséquences du divorce chez les adultes ainsi que des conséquences différentielles du divorce pour les hommes et les femmes. Dans cet article, des hypothèses explicatives quant à l’origine de ces diverses conséquences sont discutées et nous proposons de les conceptualiser sous la forme d’un éventail rendant compte des impacts tant positifs que négatifs, notamment à une extrémité du continuum où se retrouvent les dynamiques DLPE. Ce continuum sur lequel s’inscrit la DLPE permet de conceptualiser et de discuter de l’adaptation ou de la mésadaptation des individus face à la séparation. Dans cet article, notre regard sur la DLPE fait ressortir les lacunes de la recherche actuelle sur ce phénomène. Il ressort un manque flagrant de connaissances du contexte d’apparition du phénomène, de connaissances empiriques sur la question des allégations d’abus sexuel se produisant dans le cadre de telles dynamiques ainsi que de connaissances des caractéristiques et des comportements des individus qui y sont impliqués. Conséquemment, notre article met l’emphase sur la nécessité qu’une tradition de recherche se développe dans le domaine de la DLPE afin de clarifier tous ces aspects. Enfin, cet article met en lumière différents facteurs de risque et différents facteurs de protection susceptibles d’expliquer que le divorce ait des conséquences différentes chez les hommes et les femmes. Le deuxième article s’intitule Étude exploratoire des caractéristiques et des comportements de couples parentaux séparés engagés dans une dynamique de Détérioration du Lien Parent-Enfant. Cet article cherchait à déterminer si les couples parentaux séparés hautement à risque d’être engagés dans une dynamique de DLPE se distinguent des couples parentaux séparés dont le risque de DLPE est faible sur certaines variables. Nous avons étudié cette question auprès de notre échantillon de 82 couples parentaux séparés pour lesquels le risque de DLPE est évalué comme étant soit très faible (groupe de comparaison) ou soit très élevé (en tenant compte du fait que la mère ou le père soit le parent dénigrant). À cette fin, nous avons utilisé un instrument de mesure, la Grille d’observation de la Détérioration du Lien Parent-Enfant après la séparation (GODLPE), adapté de celui développé par Johnston, Walters, & Olesen, (2005). Les résultats obtenus à l’aide de tests d’analyse de variance et de khi-deux démontrent que les ex-couples du groupe de comparaison se distinguent des ex-couples du groupe où le risque de DLPE est très élevé par un mariage significativement plus long et un niveau de conflit plus élevé. Également, les résultats démontrent que les parents du groupe de comparaison, les parents dénigrés et les parents dénigrants se distinguent entre eux quant à leurs comportements coparentaux aliénants, à leur relation coparentale supportante, à leur relation coparentale méfiante et à leurs comportements de renversement de rôle. Finalement, notre étude révèle que la durée du mariage et l’intensité des conflits permettent de prédire le risque de DLPE. La note de recherche brève s’intitule Étude exploratoire des allégations d’agression sexuelle envers l’enfant dans un contexte de Détérioration du Lien Parent-Enfant. Cet note de recherche s’intéresse à ce qui a longtemps été considéré comme l’une des caractéristiques déterminantes des dynamiques de DLPE, soit les allégations d’agression sexuelle envers l’enfant professées par un parent à l’endroit de l’autre parent ou d’un membre de son entourage proche. Nous avons étudié cette question chez 82 couples parentaux séparés pour lesquels le risque de DLPE était évalué comme étant très faible ou très élevé. Les résultats indiquent qu’il n’existe aucune différence significative entre les groupes relativement à cette caractéristique. Cependant, les mères auraient davantage tendance à alléguer de tels abus que les pères. Enfin, aucune des allégations professées n’a été jugée suffisamment crédible pour que la Directeur de la protection de la Jeunesse (DPJ) juge nécessaire d’intervenir. Plusieurs hypothèses sont soulevées pour expliquer ces résultats.
Resumo:
La thèse présente une analyse conceptuelle de l'évolution du concept d'espace topologique. En particulier, elle se concentre sur la transition des espaces topologiques hérités de Hausdorff aux topos de Grothendieck. Il en ressort que, par rapport aux espaces topologiques traditionnels, les topos transforment radicalement la conceptualisation topologique de l'espace. Alors qu'un espace topologique est un ensemble de points muni d'une structure induite par certains sous-ensembles appelés ouverts, un topos est plutôt une catégorie satisfaisant certaines propriétés d'exactitude. L'aspect le plus important de cette transformation tient à un renversement de la relation dialectique unissant un espace à ses points. Un espace topologique est entièrement déterminé par ses points, ceux-ci étant compris comme des unités indivisibles et sans structure. L'identité de l'espace est donc celle que lui insufflent ses points. À l'opposé, les points et les ouverts d'un topos sont déterminés par la structure de celui-ci. Qui plus est, la nature des points change: ils ne sont plus premiers et indivisibles. En effet, les points d'un topos disposent eux-mêmes d'une structure. L'analyse met également en évidence que le concept d'espace topologique évolua selon une dynamique de rupture et de continuité. Entre 1945 et 1957, la topologie algébrique et, dans une certaine mesure, la géométrie algébrique furent l'objet de changements fondamentaux. Les livres Foundations of Algebraic Topology de Eilenberg et Steenrod et Homological Algebra de Cartan et Eilenberg de même que la théorie des faisceaux modifièrent profondément l'étude des espaces topologiques. En contrepartie, ces ruptures ne furent pas assez profondes pour altérer la conceptualisation topologique de l'espace elle-même. Ces ruptures doivent donc être considérées comme des microfractures dans la perspective de l'évolution du concept d'espace topologique. La rupture définitive ne survint qu'au début des années 1960 avec l'avènement des topos dans le cadre de la vaste refonte de la géométrie algébrique entreprise par Grothendieck. La clé fut l'utilisation novatrice que fit Grothendieck de la théorie des catégories. Alors que ses prédécesseurs n'y voyaient qu'un langage utile pour exprimer certaines idées mathématiques, Grothendieck l'emploie comme un outil de clarification conceptuelle. Ce faisant, il se trouve à mettre de l'avant une approche axiomatico-catégorielle des mathématiques. Or, cette rupture était tributaire des innovations associées à Foundations of Algebraic Topology, Homological Algebra et la théorie des faisceaux. La théorie des catégories permit à Grothendieck d'exploiter le plein potentiel des idées introduites par ces ruptures partielles. D'un point de vue épistémologique, la transition des espaces topologiques aux topos doit alors être vue comme s'inscrivant dans un changement de position normative en mathématiques, soit celui des mathématiques modernes vers les mathématiques contemporaines.
Resumo:
L’approche d’apprentissage par problèmes (APP) a vu le jour, dans sa forme contemporaine, à la Faculté de médecine de l’Université MacMaster en Ontario (Canada) à la fin des années 1960. Très rapidement cette nouvelle approche pédagogique active, centrée sur l’étudiant et basée sur les problèmes biomédicaux, va être adoptée par de nombreuses facultés de médecine de par le monde et gagner d’autres disciplines. Cependant, malgré ce succès apparent, l’APP est aussi une approche controversée, notamment en éducation médicale, où elle a été accusée de favoriser un apprentissage superficiel. Par ailleurs, les étudiants formés par cette approche réussiraient moins bien que les autres aux tests évaluant l’acquisition des concepts scientifiques de base, et il n’a jamais été prouvé que les médecins formés par l’APP seraient meilleurs que les autres. Pour mieux comprendre ces résultats, la présente recherche a voulu explorer l’apprentissage de ces concepts scientifiques, en tant que processus de construction, chez des étudiants formés par l’APP, à la Faculté de médecine de l’Université de Montréal, en nous appuyant sur le cadre théorique socioconstructivisme de Vygotski. Pour cet auteur, la formation des concepts est un processus complexe de construction de sens, en plusieurs étapes, qui ne peut se concevoir que dans le cadre d’une résolution de problèmes. Nous avons réalisé une étude de cas, multicas, intrasite, les cas étant deux groupes de neuf étudiants en médecine avec leur tuteur, que nous avons suivi pendant une session complète de la mi-novembre à la mi-décembre 2007. Deux grands objectifs étaient poursuivis: premièrement, fournir des analyses détaillées et des matériaux réflectifs et théoriques susceptibles de rendre compte du phénomène de construction des concepts scientifiques de base par des étudiants en médecine dans le contexte de l’APP. Deuxièmement, explorer, les approches de travail personnel des étudiants, lors de la phase de travail individuel, afin de répondre à la question de recherche suivante : Comment la dynamique pédagogique de l’APP en médecine permet-elle de rendre compte de l’apprentissage des concepts scientifiques de base? Il s’agissait d’une étude qualitative et les données ont été recueillies par différents moyens : observation non participante et enregistrement vidéo des tutoriaux d’APP, interview semi-structuré des étudiants, discussion avec les tuteurs et consultation de leurs manuels, puis traitées par diverses opérations: transcription des enregistrements, regroupement, classification. L’analyse a porté sur des collections de verbatim issus des transcriptions, sur le suivi de la construction des concepts à travers le temps et les sessions, sur le role du tuteur pour aider au développement de ces concepts Les analyses suggèrent que l’approche d’APP est, en général, bien accueillie, et les débats sont soutenus, avec en moyenne entre trois et quatre échanges par minute. Par rapport au premier objectif, nous avons effectivement fourni des explications détaillées sur la dynamique de construction des concepts qui s'étend lors des trois phases de l'APP, à savoir la phase aller, la phase de recherche individuelle et la phase retour. Pour chaque cas étudié, nous avons mis en évidence les représentations conceptuelles initiales à la phase aller, co-constructions des étudiants, sous la guidance du tuteur et nous avons suivi la transformation de ces concepts spontanés naïfs, lors des discussions de la phase retour. Le choix du cadre théorique socio constructiviste de Vygotski nous a permis de réfléchir sur le rôle de médiation joué par les composantes du système interactif de l'APP, que nous avons considéré comme une zone proximale de développement (ZPD) au sens élargi, qui sont le problème, le tuteur, l'étudiant et ses pairs, les ressources, notamment l'artefact graphique carte conceptuelle utilisée de façon intensive lors des tutoriaux aller et retour, pour arriver à la construction des concepts scientifiques. Notre recherche a montré qu'en revenant de leurs recherches, les étudiants avaient trois genres de représentations conceptuelles: des concepts corrects, des concepts incomplets et des concepts erronés. Il faut donc que les concepts scientifiques théoriques soient à leur tour confrontés au problème concret, dans l'interaction sociale pour une validation des attributs qui les caractérisent. Dans cette interaction, le tuteur joue un rôle clé complexe de facilitateur, de médiateur, essentiellement par le langage. L'analyse thématique de ses interventions a permis d'en distinguer cinq types: la gestion du groupe, l'argumentation, les questions de différents types, le modelling et les conclusions. Nous avons montré le lien entre les questions du tuteur et le type de réponses des étudiants, pour recommander un meilleur équilibre entre les différents types de questions. Les étudiants, également par les échanges verbaux, mais aussi par la construction collective des cartes conceptuelles initiales et définitives, participent à une co-construction de ces concepts. L'analyse de leurs interactions nous a permis de relever différentes fonctions du langage, pour souligner l'intérêt des interactions argumentatives, marqueurs d'un travail collaboratif en profondeur pour la co-construction des concepts Nous avons aussi montré l'intérêt des cartes conceptuelles non seulement pour visualiser les concepts, mais aussi en tant qu'artefact, outil de médiation psychique à double fonction communicative et sémiotique. Concernant le second objectif, l’exploration du travail personnel des étudiants, on constate que les étudiants de première année font un travail plus approfondi de recherche, et utilisent plus souvent des stratégies de lecture plus efficaces que leurs collègues de deuxième année. Ceux-ci se contentent, en général, des ouvrages de référence, font de simples lectures et s’appuient beaucoup sur les résumés faits par leurs prédécesseurs. Le recours aux ouvrages de référence essentiellement comme source d'information apporte une certaine pauvreté au débat à la phase retour avec peu d'échanges de type argumentatif, témoins d'un travail profond. Ainsi donc, par tout ce soutien qu'elle permet d'apporter aux étudiants pour la construction de leurs connaissances, pour le type d'apprentissage qu'elle offre, l’APP reste une approche unique, digne d’intérêt. Cependant, elle nécessite d'être améliorée par des interventions au niveau du tuteur et des étudiants.
Resumo:
Ce mémoire présente une implantation de la création paresseuse de tâches desti- née à des systèmes multiprocesseurs à mémoire distribuée. Elle offre un sous-ensemble des fonctionnalités du Message-Passing Interface et permet de paralléliser certains problèmes qui se partitionnent difficilement de manière statique grâce à un système de partitionnement dynamique et de balancement de charge. Pour ce faire, il se base sur le langage Multilisp, un dialecte de Scheme orienté vers le traitement parallèle, et implante sur ce dernier une interface semblable à MPI permettant le calcul distribué multipro- cessus. Ce système offre un langage beaucoup plus riche et expressif que le C et réduit considérablement le travail nécessaire au programmeur pour pouvoir développer des programmes équivalents à ceux en MPI. Enfin, le partitionnement dynamique permet de concevoir des programmes qui seraient très complexes à réaliser sur MPI. Des tests ont été effectués sur un système local à 16 processeurs et une grappe à 16 processeurs et il offre de bonnes accélérations en comparaison à des programmes séquentiels équiva- lents ainsi que des performances acceptables par rapport à MPI. Ce mémoire démontre que l’usage des futures comme technique de partitionnement dynamique est faisable sur des multiprocesseurs à mémoire distribuée.
Resumo:
Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.
Resumo:
Les fructose-1,6-bisphosphate aldolases (FBPA) sont des enzymes glycolytiques (EC 4.1.2.13) qui catalysent la transformation réversible du fructose-1,6-bisphosphate (FBP) en deux trioses-phosphates, le glycéraldéhyde-3-phosphate (G3P) et le dihydroxyacétone phosphate (DHAP). Il existe deux classes de FBPA qui diffèrent au niveau de leur mécanisme catalytique. Les classes I passent par la formation d’un intermédiaire covalent de type iminium alors que les classes II, métallodépendantes, utilisent généralement un zinc catalytique. Contrairement au mécanisme des classes I qui a été très étudié, de nombreuses interrogations subsistent au sujet de celui des classes II. Nous avons donc entrepris une analyse détaillée de leur mécanisme réactionnel en nous basant principalement sur la résolution de structures cristallographiques. De nombreux complexes à haute résolution furent obtenus et ont permis de détailler le rôle de plusieurs résidus du site actif de l’enzyme. Nous avons ainsi corrigé l’identification du résidu responsable de l’abstraction du proton de l’O4 du FBP, une étape cruciale du mécanisme. Ce rôle, faussement attribué à l’Asp82 (chez Helicobacter pylori), est en fait rempli par l’His180, un des résidus coordonant le zinc. L’Asp82 n’en demeure pas moins essentiel car il oriente, active et stabilise les substrats. Enfin, notre étude met en évidence le caractère dynamique de notre enzyme dont la catalyse nécessite la relocalisation du zinc et de nombreux résidus. La dynamique de la protéine ne permet pas d’étudier tous les aspects du mécanisme uniquement par l’approche cristallographique. En particulier, le résidu effectuant le transfert stéréospécifique du proton pro(S) sur le carbone 3 (C3) du DHAP est situé sur une boucle qui n’est visible dans aucune de nos structures. Nous avons donc développé un protocole de dynamique moléculaire afin d’étudier sa dynamique. Validé par l’étude d’inhibiteurs de la classe I, l’application de notre protocole aux FBPA de classe II a confirmé l’identification du résidu responsable de cette abstraction chez Escherichia coli (Glu182) mais pointe vers un résidu diffèrent chez H. pylori (Glu149 au lieu de Glu142). Nos validations expérimentales confirment ces observations et seront consolidées dans le futur. Les FBPA de classe II sont absentes du protéome humain mais sont retrouvées chez de nombreux pathogènes, pouvant même s'y révéler essentielles. Elles apparaissent donc comme étant une cible idéale pour le développement de nouveaux agents anti-microbiens. L’obtention de nouveaux analogues des substrats pour ces enzymes a donc un double intérêt, obtenir de nouveaux outils d’étude du mécanisme mais aussi développer des molécules à visée pharmacologique. En collaboration avec un groupe de chimistes, nous avons optimisé le seul inhibiteur connu des FBPA de classe II. Les composés obtenus, à la fois plus spécifiques et plus puissants, permettent d’envisager une utilisation pharmacologique. En somme, c’est par l’utilisation de techniques complémentaires que de nouveaux détails moléculaires de la catalyse des FBPA de classe II ont pu être étudiés. Ces techniques permettront d’approfondir la compréhension fine du mécanisme catalytique de l’enzyme et offrent aussi de nouvelles perspectives thérapeutiques.
Resumo:
Dans la dernière décennie, plusieurs hectares de terre agricole ont été convertis à la culture intensive sur courtes rotations (CICR) de saules dans le sud du Québec (Canada). Peu d’études ont été réalisées afin de déterminer comment se comporte la dynamique du carbone organique (Corg) dans le sol suivant cette conversion. Nous avons donc comparé la quantité du Corg et de deux pools labiles de carbone (carbone extractible à l’eau chaude et les sucres aminés) entre des CICR en phase initiale d’établissement (1-2 ans) et des parcelles appariées représentant le système de culture qui prévalait avant la transformation en culture de saules (culture fourragère) et d’autres cultures d’intérêt. La même chose a été faite pour une CICR en exploitation (depuis 9 ans) à un autre site. La quantité de Corg du sol n’était pas différente entre les CICR et les parcelles sous culture fourragère. Une plus haute concentration de sucres aminés dans le Corg total des CICR en établissement, par rapport aux autres parcelles sur le même site, permet de soupçonner que les perturbations liées à l’établissement ne mènent pas à une minéralisation accrue du Corg à court terme. La proportion de sucres aminés fongiques, qui diminue théoriquement lors de perturbations, était aussi plus élevée sous la plus jeune culture. Sous la CICR de neuf ans, le Corg était redistribué dans le profil vertical et les pools labiles étaient de plus petite taille (à une profondeur de 20-40 cm) comparativement à une parcelle témoin. La conversion d’une culture fourragère en plantation de saules en CICR n’a pas mené à la formation d’un puits de carbone. L’étude laisse entrevoir qu’un tel puits pourrait être créé si la conversion se faisait à partir d’un aménagement impliquant la culture en rotation de plantes annuelles et des labours.
Resumo:
L’étude scientifique des réseaux criminels démontre, de plus en plus, que leur structure est flexible et dynamique et que la thèse du contrôle ou de la centralisation des marchés criminels est discutable. Pourtant, devant la présence d’une organisation criminelle dite «traditionnelle» dans un marché criminel, autant la population que les milieux médiatiques, politiques, policiers et judiciaires, peuvent percevoir le marché comme étant contrôlé par cette organisation. Le fait de surévaluer la menace réelle de certains groupes criminels et de considérer que la centralisation des marchés criminels existent au détriment de la collaboration entre différents individus et groupes d’un réseau, peut notamment influencer les stratégies policières. D’une part, les autorités policières peuvent orienter leurs stratégies en tenant pour acquis que la structure dont s’est doté une présumée organisation criminelle se transpose dans le marché criminel dans lequel ses membres opèrent. D’autre part, cette organisation devient la première cible des autorités et les autres participants du réseau se voient accorder une moins grande importance dans les activités du marché. La recherche qui suit présente les résultats d’une analyse de réseau effectuée à partir des transcriptions de surveillances électroniques et physiques issues d’une importante opération policière visant la lutte aux motards criminalisés : l’opération Printemps 2001. À l’aide de ces données, un réseau de 349 individus a été créé. Bien que la cible principale de l’opération policière ait été l’organisation des Hell’s Angels, plus précisément, le chapitre Nomads et son club-école, les Rockers, d’autres groupes et d’autres individus ont été interceptés par les surveillances policières. Il ressort des analyses de la position occupée par l’ensemble des groupes et des individus identifiés, que les principales cibles des autorités policières n’étaient pas celles qui occupaient les positions les plus stratégiques pour être influentes et durer dans la portion du marché ciblée par l’opération.
Resumo:
Dans la perspective de faire disparaître la dichotomie existant entre la santé et la maladie, le concept « santé-dans-la-maladie » (health-within-illness) est apparu dans les écrits infirmiers pour étudier la santé chez les personnes vivant avec une maladie chronique. Or, la recherche sur ce phénomène s’est surtout centrée sur l’expérience de santé (wellness) occultant celle de la maladie (illness). À l’heure actuelle, peu d’études ont été réalisées pour comprendre la coexistence de l’expérience de santé (wellness) et celle de maladie (illness) impliquée dans la réalité quotidienne des personnes vivant avec une maladie chronique. De plus, aucune d’entre elles ne s’est adressée à une clientèle vivant avec la sclérodermie systémique. Ainsi, cette étude avait pour but de décrire et de comprendre l’expérience de la sclérodermie systémique et celle de santé-dans-la-maladie dans le contexte d’adultes vivant avec cette maladie chronique. La perspective disciplinaire de la chercheure, en l’occurrence la philosophie du caring humain de Watson (1979, 1988, 1999, 2006, 2008), a soutenu le processus de recherche. En cohérence avec cette auteure, la méthode qualitative de type phénoménologique existentielle herméneutique élaborée par van Manen (1984, 1997, 2002) a été choisie pour encadrer ce processus. La collecte des données repose principalement sur l’expérience d’adultes québécois vivant avec la sclérodermie systémique, recueillie au moyen de 34 entretiens en profondeur réalisés auprès de 17 participants (14 femmes et trois hommes). Les résultats ont permis d’identifier quatre thèmes pour décrire d’une part, l’essence de l’expérience de la sclérodermie systémique, soit : (a) la souffrance interminable d’un corps malade; (b) la dysharmonie intérieure et relationnelle du soi; (c) le processus d’accommodation et (d) l’heuristique d’accommodation. D’autre part, les deux thèmes suivants ont émergé pour exposer l’essence de l’expérience de santé-dans-la-maladie: (a) la prise de pouvoir d’un nouveau soi et (b) l’harmonie avec l’existence. Un travail de mise en relation de ces deux essences a été effectué afin de développer une conceptualisation de l’expérience de santé-dans-la-maladie dans le contexte d’adultes québécois vivant avec la sclérodermie systémique. Ainsi, elle se conçoit comme « une dialectique dans laquelle le nouveau soi mobilise son pouvoir pour vivre en harmonie avec l’existence et pour s’accommoder à la souffrance interminable, où une dysharmonie intérieure et relationnelle est vécue dans le corps malade ». Les résultats de cette étude permettent de mieux comprendre la souffrance vécue par les personnes ayant la sclérodermie systémique de même que le processus et les stratégies d’accommodation à cette souffrance. Ils mettent également en évidence les moyens utilisés pour exercer un nouveau pouvoir sur leur vie et pour vivre en harmonie dans tous les aspects de leur existence. Enfin, la dialectique de santé-dans-la-maladie proposée dans cette étude souligne le caractère dynamique, continu et subjectif du processus d’intégration impliquant les expériences indissociables de la santé (wellness) et de la maladie (illness). Cette nouvelle conceptualisation de l’expérience de santé-dans-la-maladie, pouvant contribuer au renouvellement des pratiques de soins, suggère également une manière inédite d’exister lorsque la maladie chronique survient, soit celle d’ « être ni en santé, ni malade ».