485 resultados para Réseaux de neurones récurrents
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Les noyaux supraoptiques (NSO) et paraventriculaires (NPV) de l’hypothalamus montrent un phénomène réversible de plasticité structurale neurono-gliale dans diverses conditions physiologiques telles que la parturition, l’allaitement ou lors d’une surcharge en sel. En effet, les feuillets astrocytaires qui enveloppent normalement les somas et dendrites des neurones à ocytocine (OT) ou à vasopressine (AVP) se rétractent alors, autour des neurones à OT, laissant place à la formation de nouvelles synapses, surtout GABAergiques. Nous avons émis l’hypothèse voulant que ces mouvements cellulaires soient régulés par des molécules connues pour leurs rôles dans l’adhérence et la motilité cellulaires, notamment les récepteurs Eph et les éphrines (Efn). Nous avons étudié le rôle de l’un de ces récepteurs, EphA4, un récepteur à tyrosine kinase reconnaissant l’ensemble des Efn, A ou B, puis tenté d’identifier les Efn partenaires dans le NSO, à la suite d’une surcharge en sel. Pour démontrer la présence d’EphA4 dans le NSO et déterminer l’effet d’une surcharge en sel sur son expression et sa localisation, nous avons utilisé l’hybridation in situ et l’immunohistochimie en microscopie électronique, sur des coupes de cerveaux de souris ou rats traités ou non à l’eau salée pendant 1-7 j, avec des ribosondes ou des anticorps spécifiques pour EphA4. Ces travaux ont démontré une augmentation de l’expression d’EphA4 dans le NSO, notamment dans des dendrites, après le régime salé. La distribution de cette expression correspondait à celle des neurones OT et était absente de la glia limitans. Nous avons ensuite déterminé l’effet d’une absence d’EphA4 sur les mouvements astrocytaires et la synaptogènese autour des dendrites à OT et AVP, en utilisant des souris EphA4 knockouts et des souris de type sauvage des mêmes portées. Nous avons ainsi mesuré la couverture astrocytaire des dendrites OT ou AVP, identifiées par immunocytochimie anti-OT ou anti-AVP, en microscopie électronique. Ces mesures ont confirmé la rétraction des feuillets astrocytaires et la synaptogenèse autour des dendrites OT, mais pas autour des dendrites AVP, chez les souris de type sauvage, et démontré que la rétraction des feuillets astrocytaires et la synaptogenèse sur les dendrites OT ne se produisait pas chez les souris knockouts soumises à la surcharge en sel. L’ensemble de ces résultats démontre un rôle d’EphA4 dans cette plasticité structurale neurono-gliale. Afin d’identifier l’Efn partenaire d’EphA4 dans cette fonction, nous avons utilisé l’hybridation in situ et l’immunohistochimie pour les EfnB3 et -A3. L’hybridation in situ n’a pas démontré d’expression de l’EfnB3 dans le NSO, tandis que les résultats pour l’EfnA3 restent à quantifier. Cependant, l’immunohistochimie anti-EfnA3 montre un marquage d’astrocytes dans le NSO et la glia limitans, marquage qui semble augmenter après surcharge en sel, mais il reste à démontrer que l’anticorps anti-EfnA3 est bien spécifique et à quantifier les éventuels changements sur un plus grand nombre d’animaux. L’ensemble de ces observations démontre un rôle du récepteur EphA4 dans les mécanismes à la base des changements structuraux neurono-gliaux du NSO et pointe vers l’EfnA3 comme partenaire d’EphA4 dans ce modèle.
Resumo:
Cette thèse vise à mieux comprendre le rôle du facteur de transcription Nur77 au sein des fonctions physiologiques et pathologiques des voies de neurotransmission dopaminergiques des gaglions de la base. Nous basant sur une implication motrice de Nur77 au sein des dyskinésies induites à la L-DOPA (LIDs), nous avons voulu tester in vivo son implication éventuelle dans les phénomènes moteurs et de sensibilisation associés à l’amphétamine ainsi qu’une implication possible du récepteur nucléaire aux rétinoïdes RXR dont nous avons déjà démontré une implication dans les effets moteurs des antipsychotiques. Un deuxième volet de la recherche à consisté en l’étude de l’implication des extracellular signal-regulated kinase (ERK) et de la protéine kinase C (PKC) dans l’induction de l’ARNm des membres de la famille des Nurs suite à l’activation des cascades de signalisation des récepteurs dopamiergiques D1 et D2 in vivo pour une meilleure compréhension des mécanismes physiopatholoiques liés aux désordres dopaminergiques. Pour ce faire, nous avons, premièrement, soumis des souris sauvages et Nur77-/- à un paradigme de sensibilisation à l’amphétamine ainsi qu’a différents agonistes antagonistes RAR/RXR afin de tester l’implication de Nur77 et d’un éventuel complexe Nur77/RXR dans les effets de l’amphétamine. Deuxièmement, soumis des souris sauvages à une combinaison d’agonistes D1/D2 ou une injection d’antagoniste D2 avec ou sans inhibiteur (ERK1/2 ou PKC) afin de tester l’implication de ces kinases sur l’induction de l’ARNm des membres de la famille des Nurs par hybridation in situ. Nous avons ainsi pu démontrer 1- un rôle moteur de Nur77 dans les effets liés à l’amphétamine notamment avec une absence de stéréotypies et un allongement de la durée de la phase de locomotion chez les souris Nur77-/-; ainsi qu’un rôle éventuel du complexe potentiel Nur77/RXR dans les D1 à mieux définir. 2- un rôle des kinases ERKs et PKCs dans les cascades de signalisation des récepteurs dopaminergiques D1 et D2 menant à l’induction des ARNms de Nur77, Nor-1 et Nurr-1. En perspective, ces résultats nous ouvrent la voie vers une implication éventuelle de Nur77 dans les mécanismes d’apprentissage que sont le Long Terme Potentiation (LTP) et la Long Terme Depotentialisation (LTD) liés aux LIDs et à l’amphétamine.
Resumo:
Les réseaux sociaux accueillent chaque jour des millions d’utilisateurs. Les usagers de ces réseaux, qu’ils soient des particuliers ou des entreprises, sont directement affectés par leur fulgurante expansion. Certains ont même développé une certaine dépendance à l’usage des réseaux sociaux allant même jusqu’à transformer leurs habitudes de vie de tous les jours. Cependant, cet engouement pour les réseaux sociaux n’est pas sans danger. Il va de soi que leur expansion favorise et sert également l’expansion des attaques en ligne. Les réseaux sociaux constituent une opportunité idéale pour les délinquants et les fraudeurs de porter préjudice aux usagers. Ils ont accès à des millions de victimes potentielles. Les menaces qui proviennent des amis et auxquelles font face les utilisateurs de réseaux sociaux sont nombreuses. On peut citer, à titre d’exemple, la cyberintimidation, les fraudes, le harcèlement criminel, la menace, l’incitation au suicide, la diffusion de contenu compromettant, la promotion de la haine, l’atteinte morale et physique, etc. Il y a aussi un « ami très proche » qui peut être très menaçant sur les réseaux sociaux : soi-même. Lorsqu’un utilisateur divulgue trop d’informations sur lui-même, il contribue sans le vouloir à attirer vers lui les arnaqueurs qui sont à la recherche continue d’une proie. On présente dans cette thèse une nouvelle approche pour protéger les utilisateurs de Facebook. On a créé une plateforme basée sur deux systèmes : Protect_U et Protect_UFF. Le premier système permet de protéger les utilisateurs d’eux-mêmes en analysant le contenu de leurs profils et en leur proposant un ensemble de recommandations dans le but de leur faire réduire la publication d’informations privées. Le second système vise à protéger les utilisateurs de leurs « amis » dont les profils présentent des symptômes alarmants (psychopathes, fraudeurs, criminels, etc.) en tenant compte essentiellement de trois paramètres principaux : le narcissisme, le manque d’émotions et le comportement agressif.
Resumo:
Dans certaines circonstances, des actions de groupes sont plus performantes que des actions individuelles. Dans ces situations, il est préférable de former des coalitions. Ces coalitions peuvent être disjointes ou imbriquées. La littérature économique met un fort accent sur la modélisation des accords où les coalitions d’agents économiques sont des ensembles disjoints. Cependant on observe dans la vie de tous les jours que les coalitions politiques, environnementales, de libre-échange et d’assurance informelles sont la plupart du temps imbriquées. Aussi, devient-il impératif de comprendre le fonctionnement économique des coalitions imbriquées. Ma thèse développe un cadre d’analyse qui permet de comprendre la formation et la performance des coalitions même si elles sont imbriquées. Dans le premier chapitre je développe un jeu de négociation qui permet la formation de coalitions imbriquées. Je montre que ce jeu admet un équilibre et je développe un algorithme pour calculer les allocations d’équilibre pour les jeux symétriques. Je montre que toute structure de réseau peut se décomposer de manière unique en une structure de coalitions imbriquées. Sous certaines conditions, je montre que cette structure correspond à une structure d’équilibre d’un jeu sous-jacent. Dans le deuxième chapitre j’introduis une nouvelle notion de noyau dans le cas où les coalitions imbriquées sont permises. Je montre que cette notion de noyau est une généralisation naturelle de la notion de noyau de structure de coalitions. Je vais plus loin en introduisant des agents plus raffinés. J’obtiens alors le noyau de structure de coalitions imbriquées que je montre être un affinement de la première notion. Dans la suite de la thèse, j’applique les théories développées dans les deux premiers chapitres à des cas concrets. Le troisième chapitre est une application de la relation biunivoque établie dans le premier chapitre entre la formation des coalitions et la formation de réseaux. Je propose une modélisation réaliste et effective des assurances informelles. J’introduis ainsi dans la littérature économique sur les assurances informelles, quatre innovations majeures : une fusion entre l’approche par les groupes et l’approche par les réseaux sociaux, la possibilité d’avoir des organisations imbriquées d’assurance informelle, un schéma de punition endogène et enfin les externalités. Je caractérise les accords d’assurances informelles stables et j’isole les conditions qui poussent les agents à dévier. Il est admis dans la littérature que seuls les individus ayant un revenu élevé peuvent se permettre de violer les accords d’assurances informelles. Je donne ici les conditions dans lesquelles cette hypothèse tient. Cependant, je montre aussi qu’il est possible de violer cette hypothèse sous d’autres conditions réalistes. Finalement je dérive des résultats de statiques comparées sous deux normes de partage différents. Dans le quatrième et dernier chapitre, je propose un modèle d’assurance informelle où les groupes homogènes sont construits sur la base de relations de confiance préexistantes. Ces groupes sont imbriqués et représentent des ensembles de partage de risque. Cette approche est plus générale que les approches traditionnelles de groupe ou de réseau. Je caractérise les accords stables sans faire d’hypothèses sur le taux d’escompte. J’identifie les caractéristiques des réseaux stables qui correspondent aux taux d’escomptes les plus faibles. Bien que l’objectif des assurances informelles soit de lisser la consommation, je montre que des effets externes liés notamment à la valorisation des liens interpersonnels renforcent la stabilité. Je développe un algorithme à pas finis qui égalise la consommation pour tous les individus liés. Le fait que le nombre de pas soit fini (contrairement aux algorithmes à pas infinis existants) fait que mon algorithme peut inspirer de manière réaliste des politiques économiques. Enfin, je donne des résultats de statique comparée pour certaines valeurs exogènes du modèle.
Resumo:
David Katz a fait l’observation que le mouvement entre la peau et l’objet est aussi important pour le sens du toucher que la lumière l’est pour la vision. Un stimulus tactile déplacé sur la peau active toutes les afférences cutanées. Les signaux résultants sont très complexes, covariant avec différents facteurs dont la vitesse, mais aussi la texture, la forme et la force. Cette thèse explore la capacité des humains à estimer la vitesse et la rugosité de surfaces en mouvements. Les bases neuronales de la vitesse tactile sont aussi étudiées en effectuant des enregistrements unitaires dans le cortex somatosensoriel primaire (S1) du singe éveillé. Dans la première expérience, nous avons montré que les sujets peuvent estimer la vitesse tactile (gamme de vitesses, 30 à 105 mm/s) de surfaces déplacées sous le doigt, et ceci sans indice de durée. Mais la structure des surfaces était essentielle (difficulté à estimer la vitesse d’une surface lisse). Les caractéristiques physiques des surfaces avaient une influence sur l’intensité subjective de la vitesse. La surface plus rugueuse (8 mm d’espacement entre les points en relief) semblait se déplacer 15% plus lentement que les surfaces moins rugueuses (de 2 et 3 mm d’espacement), pour les surfaces périodiques et non périodiques (rangées de points vs disposition aléatoire). L’effet de la texture sur la vitesse peut être réduit en un continuum monotonique quand les estimés sont normalisés avec l’espacement et présentés en fonction de la fréquence temporelle (vitesse/espacement). L'absence de changement des estimés de vitesse entre les surfaces périodiques et non périodiques suggère que les estimés de rugosité devraient aussi être indépendants de la disposition des points. Dans la deuxième expérience, et tel que prévu, une équivalence perceptuelle entre les deux séries de surfaces est obtenue quand les estimés de la rugosité sont exprimés en fonction de l'espacement moyen entre les points en relief, dans le sens de l'exploration. La troisième expérience consistait à rechercher des neurones du S1 qui pourraient expliquer l’intensité subjective de la vitesse tactile. L’hypothèse est que les neurones impliqués devraient être sensibles à la vitesse tactile (40 à 105 mm/s) et à l’espacement des points (2 à 8 mm) mais être indépendants de leur disposition (périodique vs non périodique). De plus, il est attendu que la fonction neurométrique (fréquence de décharge/espacement en fonction de la fréquence temporelle) montre une augmentation monotonique. Une grande proportion des cellules était sensible à la vitesse (76/119), et 82% d’entres elles étaient aussi sensibles à la texture. La sensibilité à la vitesse a été observée dans les trois aires du S1 (3b, 1 et 2). La grande majorité de cellules sensibles à la vitesse, 94%, avait une relation monotonique entre leur décharge et la fréquence temporelle, tel qu’attendu, et ce surtout dans les aires 1 et 2. Ces neurones pourraient donc expliquer la capacité des sujets à estimer la vitesse tactile de surfaces texturées.
Resumo:
La présente recherche se propose de retracer la vie et l’œuvre du père jésuite Jean Pierron (1631-1701), qui, venu de Lorraine, a contribué à la réouverture des missions iroquoises en Nouvelle-France. Arrivé dans la colonie en juin 1667, Pierron, se fit introduire auprès des populations autochtones par Jean Talon, après quoi il eut en charge un territoire d'environ une demi-douzaine de villages agniers de la vallée de l'Hudson. Après avoir livré ses premières impressions, le jésuite mit au point son programme apostolique, faisant appel à une méthode « audio-visuelle » fondée sur le dessin didactique. Mais le jésuite fut aussi un formidable voyageur, qui se rendit non seulement en Iroquoisie, mais aussi en Nouvelle-Angleterre. Il semble bien que ce soit grâce à de précieux réseaux de connaissances en dehors de ceux de la Compagnie de Jésus qu'il put entreprendre un tel voyage. La biographie de ce missionnaire-polyglotte, diplomate et peintre, souligne entre autre choses, l’importance du contexte stratégique et politique plus vaste des missions françaises en Amérique au XVIIe siècle.
Resumo:
Ce mémoire cherche à concevoir en théorie la dialectique socialisa-tion/individualisation à l’œuvre dans la formation et la transmission des goûts et pratiques culturels chez les jeunes adultes. L'analyse de dix entretiens conduits auprès de jeunes Montréalais âgés de 18 à 24 ans révèle que la socialisation sous l’égide de la famille et de l’école reste active sans être coercitive du fait qu’elle s'avère propice à la capacité des jeunes à se concevoir sous leur propre gouverne et à développer leurs propres goûts en matière de pratiques culturelles. Les pairs jouent également un rôle à cet égard, rôle amplifié par les moyens numériques. Les relations entre pairs génèrent une espèce de tension entre conformité au groupe et volonté d’être soi-même et de pouvoir agir à sa guise. Les nouvelles technologies d’information et de communication, quant à elles, se révèlent de nos jours sources de socialisation et d’individualisation en donnant accès à des « réseaux » en vertu desquels s’infléchissent les goûts et les préférences qui façonnent la pratique de la culture tout en permettant aux jeunes d’avoir les coudées franches pour les développer par eux-mêmes.
Resumo:
Cette thèse traite de la supposée perte de culture politique et citoyenne que connaît le Chili de la période post-dictature. Bien qu’une telle perte soit généralement considérée comme une évidence, nous évaluons dans quelle mesure celle-ci est bien réelle en nous intéressant aux processus d’apprentissage du comportement civique de la plus jeune génération politique du pays qui a aujourd’hui atteint la vingtaine. Étant donné que les membres de cette génération étaient soit au stade de l’enfance, soit pas même nés au moment de la transition démocratique de 1990, ils ont habituellement pris connaissance des événements de répression étatique et de réconciliation démocratique par l’intermédiaire de leurs aînés. Ce phénomène est encore plus marqué dans les régions rurales du sud du pays où la majeure partie de ce que les jeunes générations savent du passé conflictuel de leur pays, incluant le colonialisme, le socialisme révolutionnaire et le fascisme, n’a pas été transmis par la communication verbale ou volontaire, mais indirectement via les habitudes et préférences culturelles qui ne manquent pas d’influencer les décisions politiques. À travers l’analyse des mécanismes de transmission inter-générationnelle de diverses perspectives d’un passé contesté, notre travail explore les processus par lesquels, à l’échelle micro, certains types de comportement politique sont diffusés au sein des familles et de petits réseaux communautaires. Ces derniers se situent souvent en tension avec les connaissances transmises dans les domaines publics, comme les écoles et certaines associations civiques. De telles tensions soulèvent d’importantes questions au sujet des inégalités de statut des membres de la communauté nationale, en particulier à une époque néolibérale où la réorganisation du fonctionnement des services sociaux et du contrôle des ressources naturelles a transformé les relations entre le monde rural pauvre et la société dominante provenant des centres urbains. Au sein de la jeune génération politique du Chili, dans quelle mesure ces perspectives situées concernant un passé pour le moins contesté, ainsi que leurs impacts sur la distribution actuelle du pouvoir dans le pays façonnent-ils des identités politiques en émergence ? Nous abordons cette question à l’aide d’une analyse ethnographique des moyens auxquels les jeunes recourent pour acquérir et exprimer des connaissances au sujet de l’histoire et de son influence latente dans la vie civique actuelle. Nos données proviennent de plus de deux années de terrain anthropologique réalisées dans trois localités du sud rural ayant été touchées par des interventions industrielles dans les rivières avoisinantes. L'une d'entre elles a été contaminée par une usine de pâte à papier tandis que les autres doivent composer avec des projets de barrage hydroélectrique qui détourneront plusieurs rivières. Ces activités industrielles composent la toile de fond pour non seulement évaluer les identités politiques, émergentes mais aussi pour identifier ce que l’apprentissage de comportement politique révèle à propos de la citoyenneté au Chili à l’heure actuelle.
Resumo:
Il est connu que le vieillissement de la population canadienne va augmenter la demande d’aide à domicile et qu’un soutien insuffisant du secteur public accroît l’implication des réseaux informels et privés. En s’appuyant sur les données de l’Enquête nationale sur la santé de la population (ENSP) et de l’Enquête sur la santé dans les collectivités canadiennes (ESCC), cette recherche analyse les tendances et déterminants de l’utilisation de l’aide à domicile subventionnée par le gouvernement au Canada et en Ontario entre 1996-1997 et 2009-2010. Il en ressort que la proportion de bénéficiaires âgés de 65 ans et plus est en diminution, passant de 9,9% à 9,2% au Canada (1996-1997 à 2005) et de 10,2% à 8,8% puis 9,6% en Ontario (1996-1997, 2005, 2009-2010). Les compressions sont particulièrement ressenties dans les services de maintien à domicile, dont l’aide pour les travaux ménagers (de 51% à 34% en Ontario). Les personnes âgées, les femmes, les gens vivant seuls ou qui ont besoin d’assistance pour accomplir certaines activités de la vie quotidienne (AVQ) ou activités instrumentales de la vie quotidienne (AIVQ) reçoivent de moins en moins d’aide publique à domicile. En conclusion, le présent système de santé, qui semble se concentrer sur les soins de santé plutôt que sur les services de maintien, ne répond pas aux besoins des personnes âgées. Par ailleurs, le cas ontarien évoque l’impact que peuvent avoir les décisions politiques sur l’utilisation de l’aide à domicile. Les résultats suggèrent qu’entre 1996-1997 et 2005, ce sont surtout les personnes âgées de 18 à 64 ans et ceux nécessitant des soins qui bénéficièrent des programmes publics. Durant la période suivante (2005 à 2009-2010), il semble y avoir un intérêt plus marqué pour les 65 ans et plus dont la proportion d’utilisateurs s’accroît plus rapidement.
Resumo:
La dopamine (DA) est un neurotransmetteur impliqué dans la modulation de fonctions essentielles du cerveau telles que le contrôle des mouvements volontaires, le système de récompense et certains aspects de la cognition. Depuis sa découverte, la DA a attiré énormément d'attention scientifique en partie à cause des pathologies majeures associées aux dysfonctions du système DAergique, comme la maladie de Parkinson, la schizophrénie et la toxicomanie. On retrouve la majorité des neurones qui synthétisent la DA au niveau du mésencéphale ventral, dans les noyaux de la substance noire compacte (SNc) et de l'aire tegmentaire ventrale (ATV). Ces neurones projettent leurs axones dans un très dense réseau de fibres qui s'organisent en trois voies DAergiques classiques: la voie nigrostriée, la voie mésolimbique et la voie mésocorticale. La transmission DAergique s'effectue par l'activation de récepteurs de la DA qui font partie de la grande famille des récepteurs couplés aux protéines G (RCPGs). Les récepteurs de la DA sont abondamment exprimés aussi bien par les neurones DAergiques que par les neurones des régions cibles, ce qui implique que la compréhension de la signalisation et des fonctions particulières des récepteurs de la DA pré- et postsynaptiques représente un enjeu crucial dans l'étude du système DAergique. Cette thèse de doctorat se sépare donc en deux volets distincts: le premier s'intéresse à la régulation du récepteur D2 présynaptique par la neurotensine (NT), un neuropeptide intimement lié à la modulation du système DAergique; le deuxième s'intéresse au côté postsynaptique du système DAergique, plus particulièrement à la ségrégation de l'expression des récepteurs de la DA dans le striatum et aux fonctions de ces récepteurs dans l'établissement des circuits neuronaux excitateurs prenant place dans cette région. Dans la première partie de cette thèse, nous démontrons que l'activation du récepteur à haute affinité de la NT, le NTR1, provoque une internalisation hétérologue du récepteur D2, avec une amplitude et une cinétique différente selon l'isoforme D2 observé. Cette internalisation hétérologue dépend de la protéine kinase C (PKC), et nous montrons que la surexpression d'un récepteur D2 muté sur des sites de phosphorylation par la PKC ii ainsi que l'inhibition de l'expression de β-arrestine1 par ARNs interférents dans des neurones DAergiques bloquent complètement l'interaction fonctionnelle entre le NTR1 et le D2. Dans la deuxième partie de cette thèse, nous démontrons d'abord que la ségrégation de l'expression des récepteurs D1 et D2 dans le striatum est déjà bien établie dès le 18e jour embryonnaire, bien qu'elle progresse encore significativement aux jours 0 et 14 postnataux. Nos résultats témoignent aussi d'un maintien complet de cette ségrégation lorsque les neurones striataux sont mis en culture aussi bien en présence ou en absence de neurones corticaux et/ou mésencéphaliques. Ensuite, nous montrons que la présence de neurones mésencéphaliques stimule la formation d’épines et de synapses excitatrices sur les neurones striataux épineux exprimant le récepteur D2 (MSN-D2). Le co-phénotype glutamatergique des neurones dopaminergiques semble nécessaire à une grande partie de cet effet. Par ailleurs, le nombre total de terminaisons excitatrices formées sur les MSN-D2 par les neurones corticaux et mésencéphaliques apparaît être régit par un équilibre dynamique. Finalement, nous démontrons que le blocage de la signalisation des récepteurs D1 et D2 de la DA n'est pas nécessaire pour la formation des synapses excitatrices des MSN-D2, alors que l'antagonisme des récepteurs glutamatergiques ionotropes diminue la densité d'épines dendritiques et contrôle de façon opposée le nombre de terminaisons excitatrices corticales et mésencéphaliques. Globalement, ce travail représente une contribution significative pour une meilleure compréhension du fonctionnement normal du système DAergique. Ces découvertes sont susceptibles d’être utiles pour mieux comprendre les dysfonctions de ce système dans le cadre de pathologies du cerveau comme la maladie de Parkinson.
Resumo:
La mobilité rurale-urbaine est sans contredit l’un des phénomènes les plus marquants que la Chine a connus depuis ses réformes des années 1980. D’une ampleur colossale, elle a constitué un fondement essentiel de sa transition et de son développement économiques. Or, si l’impact social de cette mobilité a été abondamment étudié dans les villes où séjournent les paysans, il demeure peu connu dans leur communauté d’origine, et encore moins en contexte de « nationalité minoritaire ». Reposant sur une enquête de terrain de plus d’une année, cette thèse en géographie sociale examine la (re)construction sociale dans une communauté rurale et minoritaire (c.àd. Hmong ou Miao) de Chine en lien avec le phénomène de la mobilité de travail. D’une intensité croissante, la pratique de la mobilité de travail par les membres de cette communauté est double. Les migrants sont soit des herboristes ambulants dans les villes de l’espace régional, soit des travailleurs salariés dans les villes orientales du pays. L’utilisation d’une approche du changement social intégrant les sphères du réel et de l’imagination et prenant en compte les dimensions territoriale et économique du phénomène migratoire est originale. De même, l’importance égale portée aux discours et aux actions des migrants et des non-migrants dans le processus de transformation sociale se veut novatrice. Dans ses résultats, cette thèse fait état, premièrement, d’une refonte des logiques territoriales et économiques de la communauté étudiée sous l’effet du phénomène migratoire. De toute évidence, les fondements géographiques de son territoire se sont récemment complexifiés et multipliés. Désormais, une variété de lieux, de frontières, de réseaux sociaux et d’échelles se dessine dans les configurations territoriales de ses membres. Les implications économiques sont tout aussi patentes. Outre la forte dominance des transferts d’argent des migrants dans les budgets familiaux, les questions du développement et des inégalités aux différentes échelles de la communauté renvoient aujourd’hui essentiellement au fait migratoire. Deuxièmement, cette thèse montre la forte empreinte laissée par la mobilité dans la sphère sociale. Nécessitant soutien aux extrémités de leur parcours, les migrants sollicitent de plus en plus l’aide de leurs réseaux lignagers, claniques, villageois et matrilinéaires. Et dans ce processus, il n’est pas rare qu’ils enfreignent consciemment les principes hiérarchiques traditionnels de leurs rapports familiaux. Aussi, au travers de la mobilité, des groupes longtemps marginalisés, tels les femmes et les jeunes adultes, ont acquis estime, autonomie et pouvoir décisionnel. Parallèlement, l’ordre social s’est bouleversé. Ce n’est plus le volume de la production agricole, mais le nombre de travailleurs migrants qui détermine aujourd’hui les différentes classes sociales de la communauté. Finalement, dans le contexte plus large des populations rurales et minoritaires de Chine et du Massif sud-est asiatique, cette thèse fait ressortir l’importance d’aborder la question de l’impact social de la mobilité au-delà des paradigmes de la modernisation et de l’intégration. Contrairement à la plupart des écrits touchant à cette question, il ne suffit pas de porter le regard sur l’influence que les urbains et leur mode de vie soi-disant moderne exercent sur les migrants. Il est également nécessaire de reconnaître les capacités d’initiative et d’innovation sociale des membres de ces populations, migrants et non-migrants. Mais aussi, cette recherche démontre que la question identitaire se doit d’être prise en compte. Les sentiments de marginalité et de subordination demeurent vivaces au travers du phénomène migratoire. Et de tels sentiments semblent se traduire, le plus souvent, par un renforcement des liens sociaux et intracommunautaires au sein même de ces populations minoritaires.
Resumo:
Il est devenu commun de dire que notre société se transforme inexorablement en une société dite de « l'information ». Cette transformation se caractérise entre autres par une utilisation accrue des technologies de l’information afin de communiquer, d’échanger ou de transiger. Les supports traditionnels de communication (tel que le papier) cèdent progressivement leur place à de nouveaux supports technologiques favorisant l’efficacité et la rapidité des échanges, et par la même occasion le développement du commerce électronique. Qu’on le souhaite ou non, un constat s’impose : la montée en puissance des réseaux virtuels a eu raison du monopole du papier. Sur le plan juridique, cette nouvelle réalité bouleverse aussi considérablement les règles de droit civil largement pensées et ancrées dans un contexte papier. L’avènement de la numérisation et du phénomène de la dématérialisation des supports ont effectivement soulevé plusieurs questions d’ordre juridique tout à fait nouvelles que nous pourrions résumer de la manière suivante : Quels sont les rapports entre l’écrit et son support autre que le papier? Quelles sont les caractéristiques de l’écrit faisant appel aux technologies de l’information? Ce type d’écrit peut-il être admis en tant que moyen de preuve? Si oui, quelle sera sa force probante? Ce type d’écrit doit-il être conservé? Le présent mémoire vise précisément à identifier certains éléments de réponses à ces diverses questions en étudiant spécifiquement les cadres juridiques français et québécois. Ce mémoire traite d’une part des enjeux liés à l’évolution et au rôle de l’écrit face à l’avènement des technologies de l’information et d’autre part du cadre juridique de la preuve et de la conservation de l’écrit dans la société de l’information.
Resumo:
Cet article met en lumière la perspective européenne sur un des plus importants défis que l’Internet et le Web 2.0 présente pour la vie privée et le droit à la protection des données. L’auteur y soulève des problématiques liées à la mémoire numérique et distingue à partir de plusieurs cas où les individus seraient intéressés de réclamer l'oubli tant dans les réseaux sociaux, les journaux officiels des gouvernements et dans les bibliothèques médiatiques numériques. Il trace l’histoire de l’identification du droit à l’oubli dont les fondements ont été définis par les agences françaises, italiennes et espagnoles de protection des données. En conclusion, il pose son regard sur un nouveau cadre européen de la protection des données comprenant le droit individuel à voir leurs données supprimées lorsqu’elles ne sont plus nécessaires à des fins légitimes.