984 resultados para Masses, Unaccompanied.
Resumo:
Le programme -Une école adaptée à tous ses élèves-, qui s'inscrit dans la réforme actuelle de l'éducation au Québec, nous a amenée à nous intéresser aux représentations dans les grandeurs en mesure en mathématiques des élèves en difficulté d'apprentissage. Nous nous sommes proposés de reconduire plusieurs paramètres de la recherche de Brousseau (1987, 1992) auprès de cette clientèle. La théorie des champs conceptuels (TCC) de Vergnaud (1991), appliquée aux structures additives, a été particulièrement utile pour l'analyse et l'interprétation de leurs représentations. Comme méthode de recherche, nous avons utilisé la théorie des situations didactiques en mathématiques (TSDM), réseau de concepts et de méthode de recherche appuyé sur l'ingénierie didactique qui permet une meilleure compréhension de l'articulation des contenus à enseigner. Grâce à la TSDM, nous avons observé les approches didactiques des enseignants avec leurs élèves. Notre recherche est de type exploratoire et qualitatif et les données recueillies auprès de 26 élèves de deux classes spéciales du deuxième cycle du primaire ont été traitées selon une méthode d'analyse de contenu. Deux conduites ont été adoptées par les élèves. La première, de type procédural a été utilisée par presque tous les élèves. Elle consiste à utiliser des systèmes de comptage plus ou moins sophistiqués, de la planification aux suites d'actions. La deuxième consiste à récupérer directement en mémoire à long terme le résultat associé à un couple donné et au contrôle de son exécution. L'observation des conduites révèle que les erreurs sont dues à une rupture du sens. Ainsi, les difficultés d'ordre conceptuel et de symbolisation nous sont apparues plus importantes lorsque l'activité d'échange demandait la compétence "utilisation" et renvoyait à la compréhension de la tâche, soit les tâches dans lesquelles ils doivent eux-mêmes découvrir les rapports entre les variables à travailler et à simuler les actions décrites dans les énoncés. En conséquence, les problèmes d'échanges se sont révélés difficiles à modéliser en actes et significativement plus ardus que les autres. L'étude des interactions enseignants et élèves a démontré que la parole a été presque uniquement le fait des enseignants qui ont utilisé l'approche du contrôle des actes ou du sens ou les deux stratégies pour aider des élèves en difficulté. Selon le type de situation à résoudre dans ces activités de mesurage de longueur et de masse, des mobilisations plurielles ont été mises en oeuvre par les élèves, telles que la manipulation d'un ou des étalon(s) par superposition, par reports successifs, par pliage ou par coupure lorsque l'étalon dépassait; par retrait ou ajout d'un peu de sable afin de stabiliser les plateaux. Nous avons également observé que bien que certains élèves aient utilisé leurs doigts pour se donner une perception globale extériorisée des quantités, plusieurs ont employé des procédures très diverses au cours de ces mêmes séances. Les résultats présentés étayent l'hypothèse selon laquelle les concepts de grandeur et de mesure prennent du sens à travers des situations problèmes liées à des situations vécues par les élèves, comme les comparaisons directes. Eles renforcent et relient les grandeurs, leurs propriétés et les connaissances numériques.
Resumo:
La situation économique, sociale et politique des nations autochtones au Canada et leur relation avec les nations non-autochtones présentent des similarités avec les anciennes colonies européennes. Peut-on qualifier cette relation de « coloniale » ? Cette interrogation est primordiale, vu les aspects immoraux et illégaux que prit la colonisation. Nous parcourrons la pensée d’auteurs reliés au libéralisme, au nationalisme autochtone et à l’interculturalisme et nous choisirons ce dernier comme angle d’approche. Nous élaborerons ensuite le concept de colonisation interne et nous le confronterons au cas des autochtones. Puis, nous présenterons les motivations à la décolonisation ainsi que la composition d’un hypothétique État postcolonial canadien et de nations et communautés autochtones décolonisées. Finalement, nous analyserons la démarche judiciaire, la négociation d’ententes d’autonomie gouvernementale, la mobilisation des masses et l’approche des word warriors, l’objectif étant d’évaluer jusqu’à quel point ces moyens s’inscrivent dans un éventuel processus de décolonisation des nations autochtones.
Resumo:
Formées lors de l’effondrement gravitationnel d’un nuage de gaz moléculaire, les étoiles naissantes auront différentes masses variant entre 0.08 et environ 100M . La majorité de la population stellaire de la Galaxie est constituée d’étoiles dont la masse est inférieure à environ 0.6 M . Le dernier évènement de formation stellaire dans le voisinage solaire s’est produit dans la bulle locale il y a au plus 100 millions d’années, vraisemblablement provoqué par le passage d’une onde de choc dans le bras local de la Galaxie. C’est ainsi que se formèrent de jeunes associations d’étoiles dont les membres se caractérisent en particulier par une vitesse spatiale et une position commune dans la Galaxie. Les associations jeunes étant peu densément peuplées et relativement proches du Soleil, leurs membres se font plutôt rares et dispersés sur toute la voûte céleste. Jusqu’à présent, surtout les étoiles les plus massives (brillantes) ont été répertoriées. Les étoiles jeunes de faible masse, constituant la majorité de la population, restent pour la plupart à être identifiées. Les étoiles jeunes de faible masse représentent une population clef pour contraindre les modèles évolutifs des étoiles M et des naines brunes. Elles sont également d’excellentes candidates pour chercher des exoplanètes via les techniques d’imagerie directe. Ce mémoire présente une nouvelle méthode utilisant un modèle cinématique enrichi d’une analyse statistique Bayesienne pour identifier des étoiles jeunes de faible masse dans les associations beta Pictoris, Tucana-Horologium et AB Doradus. À partir d’un échantillon de 1080 étoiles K et M, toutes comportant des indicateurs de jeunesse tels l’émission Halpha et une forte luminosité dans les rayons X, leurs propriétés cinématiques (mouvement propre) et photométriques sont analysées pour en extraire 98 candidates hautement probables membres d’une des trois associations. Une confirmation de leur statut comme membre nécessitera en particulier une mesure de leur vitesse radiale (prédit par notre analyse) et une mesure de la largeur équivalente du lithium à 6708 Å pour mieux contraindre leur âge.
Resumo:
Les naines brunes sont des astres incapables de déclencher et soutenir des réactions nucléaires dans leur cœur. En l’absence de cette source d’énergie, leur luminosité diminue avec le temps jusqu’à leur extinction complète. Leur flux aux longueurs d’onde de 0,8 à 2,35 μm est particulièrement altéré par l’humidité contenue dans l’atmosphère terrestre, ce qui complique l’étude de ces astres. Le but de la présente recherche est de vérifier si la division par un spectre d’étoile A0 est un moyen de corriger l’altération causée par l’atmosphère terrestre sur cette partie de leur spectre. Tout d’abord, des notions, pertinentes à la compréhension de ce travail, sont abordées. L’introduction présente quelques notions sur les naines brunes et sur l’atmosphère terrestre. Le deuxième chapitre concerne le traitement des données. Il traite de la calibration, de la mise en évidence du problème de non-répétabilité de la position de la fente du spectromètre SIMON ainsi que de ses causes. Il porte aussi sur l’uniformisation de la réponse des pixels et de la soustraction du ciel pour extraire les spectres. La méthode employée pour étudier l’effet de l’atmosphère terrestre sur les spectres de naines brunes y est présentée. Le troisième chapitre analyse les résultats obtenus par l’utilisation de l’étoile de référence de type A0 comme calibration pour corriger le spectre de naine brune, en assumant un même effet de l’atmosphère terrestre sur les deux types d’astres. Nous ne pouvons conclure, avec certitude, que l’absorption tellurique affecte de la même façon les deux spectres ni de quelle façon exactement ils sont affectés. Une recherche supplémentaire nécessitant de nouvelles prises de données à des masses d’air et à des taux d’humidité variés est requise.
Resumo:
Les polymères amphiphiles sont largement utilisés pour les applications biomédicales et pharmaceutiques. Afin d’améliorer les chances de biocompatibilité des nouveaux polymères que nous voulons développer, nous avons utilisé des composés naturels, les acides biliaires, comme produits de départ dans la synthèse de ces polymères. De nouveaux polymères anioniques amphiphiles dérivés de l’acide cholique ont été préparés par polymérisation radicalaire par transfert d’atomes. Par un contrôle rigoureux des conditions de polymérisation, des bras de poly(acide acrylique) de différentes longueurs ont été greffés sur le squelette de l’acide cholique. L’architecture moléculaire des polymères a été étudiée par spectroscopie 1H RMN et par spectrométrie de masse. Ces polymères en étoile formés par l’acide biliaire modifié sont capables de s’agréger dans l’eau même si les groupements hydroxyles ont été remplacés par des segments plus volumineux. Il a été observé que les liaisons ester entre le polymère et le cœur d’acide cholique sont sensibles à l’hydrolyse en solution aqueuse. Pour remédier au problème de stabilité en solution aqueuse et pour avoir, en même temps, des bras hydrophiles non ioniques et biocompatibles, de l’oxyde d’éthylène a été polymérisé sur l’acide cholique par polymérisation anionique. Les liaisons éther formées entre le polymère et les groupements hydroxyles de l’acide biliaire sont plus stables que les liaisons ester sur le polymère de poly(acide acrylique). Les conditions de réaction de la polymérisation anionique ont été optimisées et ont donné des polymères aux architectures et aux masses molaires contrôlées. Les nouveaux polymères forment des agrégats sphériques tel qu’observé par microscopie électronique à transmission avec des échantillons préparés par la méthode de fracture à froid. Leur morphologie est différente de celle des agrégats cylindriques formés par les acides biliaires. Avec la méthode optimisée pour la polymérisation anionique, l’éther d’allyle et glycidyle a été polymérisé sur un dérivé d’acide cholique, suivi par une thiolation des liaisons doubles pour introduire l’amine ou l’acide sur la chaîne polymère. Cette addition radicalaire est efficace à plus de 90%. Les polymères qui en résultent sont solubles dans l’eau et s’agrègent à une certaine concentration critique. Il est particulièrement intéressant d’observer la thermosensibilité des polymères ayant des groupements amine, laquelle peut être modulée en acétylant partiellement les amines, donnant des points nuages entre 15 et 48°C.
Resumo:
Les acides biliaires sont des composés naturels existants dans le corps humain. Leur biocompatibilité, leur caractère amphiphile et la rigidité de leur noyau stéroïdien, ainsi que l’excellent contrôle de leurs modifications chimiques, en font de remarquables candidats pour la préparation de matériaux biodégradables pour le relargage de médicaments et l'ingénierie tissulaire. Nous avons préparé une variété de polymères à base d’acides biliaires ayant de hautes masses molaires. Des monomères macrocycliques ont été synthétisés à partir de diènes composés de chaînes alkyles flexibles attachées à un noyau d'acide biliaire via des liens esters ou amides. Ces synthèses ont été réalisées par la fermeture de cycle par métathèse, utilisant le catalyseur de Grubbs de première génération. Les macrocycles obtenus ont ensuite été polymérisés par ouverture de cycle, entropiquement induite le catalyseur de Grubbs de seconde génération. Des copolymères ont également été préparés à partir de monolactones d'acide ricinoléique et de monomères cycliques de triester d’acide cholique via la même méthode. Les propriétés thermiques et mécaniques et la dégradabilité de ces polymères ont été étudiées. Elles peuvent être modulées en modifiant les différents groupes fonctionnels décorant l’acide biliaire et en ayant recours à la copolymérisation. La variation des caractéristiques physiques de ces polymères biocompatibles permet de moduler d’autres propriétés utiles, tel que l’effet de mémoire de forme qui est important pour des applications biomédicales.
Resumo:
Le présent projet vise à documenter la nécessité d’augmenter notre connaissance de la présence des contaminants organiques tels que les médicaments dans l’environnement et d’évaluer leur devenir environnemental. On a étudié la présence de composés pharmaceutiques dans différents échantillons d'eau. On a focalisé nos efforts spécialement sur les échantillons d'eau de l'usine d'épuration de la Ville de Montréal et ses effluents, les eaux de surface avoisinantes et l’eau du robinet dans la région de Montréal. Pour ce faire, on a tout d’abord développé deux méthodes analytiques automatisées basées sur la chromatographie liquide avec extraction en phase solide (SPE) couplée à la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). On a également étudié les performances des trois techniques d'ionisation à pression atmosphérique (API), pour ensuite les utiliser dans la méthode analytique développée. On a démontré que l'ionisation par électronébulisation (ESI) est une méthode d'ionisation plus efficace pour l'analyse des contaminants pharmaceutiques dans des échantillons de matrices très complexes comme les eaux usées. Une première méthode analytique SPE couplée à la LC-MS/MS a été développée et validée pour l'étude des échantillons complexes provenant de l'usine d'épuration de la Ville de Montréal et des eaux de surface près de l'usine. Cinq médicaments de prescription ont été étudiés: le bézafibrate (un régulateur de lipides), le cyclophosphamide et le méthotrexate (deux agents anticancéreux), l'orlistat (un agent anti-obésité) et l’énalapril (utilisé dans le traitement de l'hypertension). La plupart de ces drogues sont excrétées par le corps humain et rejetées dans les eaux usées domestiques en faisant par la suite leur chemin vers les usines municipales de traitement des eaux usées. On a pu démontrer qu'il y a un faible taux d’élimination à l'usine d'épuration pour le bézafibrate et l'énalapril. Ces deux composés ont aussi été détectés dans les eaux de surface sur un site à proximité immédiate de la décharge de l’effluent de la station d'épuration. i En observant la nécessité de l'amélioration des limites de détection de la première méthode analytique, une deuxième méthode a été développée. Pour la deuxième méthode, un total de 14 contaminants organiques, incluant trois agents anti-infectieux (clarithromycin, sulfaméthoxazole et triméthoprime), un anticonvulsant (carbamazépine) et son produit de dégradation (10,11-dihydrocarbamazépine), l'agent antihypertensif (enalapril), deux antinéoplastiques utilisés en chimiothérapie (cyclophosphamide et méthotrexate), des herbicides (atrazine, cyanazine, et simazine) et deux produits de transformation de l’atrazine (deséthylatrazine et déisopropylatrazine) ainsi qu’un agent antiseptique (triclocarban). Ces produits ont été quantifiés dans les eaux de surface ainsi que dans l’eau du robinet. L'amélioration des limites de détection pour cette méthode a été possible grâce à la charge d'un volume d'échantillon supérieur à celui utilisé dans la première méthode (10 mL vs 1 mL). D'autres techniques de confirmation, telles que les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle et la mesure des masses exactes par spectrométrie de masse à temps d’envol, ont été explorées. L'utilisation d'un analyseur de masse à temps d’envol a permis la confirmation de 6 des 14 analytes. Finalement, étant donné leur haute toxicité et pour évaluer leur persistance et leur transformation au niveau du traitement des eaux potables, la cinétique d'oxydation du cyclophosphamide et de méthotrexate avec l'ozone moléculaire et des radicaux OH a été étudiée. Les constantes de dégradation avec l'ozone moléculaire ont été calculées et la qualité de l'eau après traitement a pu être évaluée. Le rendement du processus d'ozonation a été amélioré pour la cyclophosphamide dans les eaux naturelles, en raison de la combinaison de réactions directes et indirectes. Cette étude a montré que l'ozone est très efficace pour oxyder le méthotrexate mais que le cyclophosphamide serait trop lent à s’oxyder pour un traitement efficace aux conditions usuelles de traitement de l’eau potable.
Resumo:
Une compréhension approfondie et un meilleur contrôle de l'auto-assemblage des copolymères diblocs (séquencés) et de leurs complexes à l'interface air/eau permettent la formation contrôlée de nanostructures dont les propriétés sont connues comme alternative à la nanolithographie. Dans cette thèse, des monocouches obtenues par les techniques de Langmuir et de Langmuir-Blodgett (LB) avec le copolymère dibloc polystyrène-poly(4-vinyl pyridine) (PS-PVP), seul ou complexé avec de petites molécules par liaison hydrogène [en particulier, le 3-n-pentadécylphénol (PDP)], ont été étudiées. Une partie importante de notre recherche a été consacrée à l'étude d'une monocouche assemblée atypique baptisée réseau de nanostries. Des monocouches LB composées de nanostries ont déjà été rapportées dans la littérature mais elles coexistent souvent avec d'autres morphologies, ce qui les rend inutilisables pour des applications potentielles. Nous avons déterminé les paramètres moléculaires et les conditions expérimentales qui contrôlent cette morphologie, la rendant très reproductible. Nous avons aussi proposé un mécanisme original pour la formation de cette morphologie. De plus, nous avons montré que l'utilisation de solvants à haut point d’ébullition, non couramment utilisés pour la préparation des films Langmuir, peut améliorer l'ordre des nanostries. En étudiant une large gamme de PS-PVP avec des rapports PS/PVP et des masses molaires différents, avec ou sans la présence de PDP, nous avons établi la dépendance des types principaux de morphologie (planaire, stries, nodules) en fonction de la composition et de la concentration des solutions. Ces observations ont mené à une discussion sur les mécanismes de formation des morphologies, incluant la cinétique, l’assemblage moléculaire et l’effet du démouillage. Nous avons aussi démontré pour la première fois que le plateau dans l'isotherme des PS-PVP/PDP avec morphologie de type nodules est relié à une transition ordre-ordre des nodules (héxagonal-tétragonal) qui se produit simultanément avec la réorientation du PDP, les deux aspects étant clairement observés par AFM. Ces études ouvrent aussi la voie à l'utilisation de films PS-PVP/PDP ultraminces comme masque. La capacité de produire des films nanostructurés bien contrôlés sur différents substrats a été démontrée et la stabilité des films a été vérifiée. Le retrait de la petite molécule des nanostructures a fait apparaître une structure interne à explorer lors d’études futures.
Resumo:
La recherche porte sur les patrons de distribution longitudinale (amont-aval) et transversale (rive nord - rive sud) des communautés de crustacés planctoniques qui ont été analysés le long du fleuve Saint-Laurent entre le lac Saint-François et la zone de transition estuarienne, à deux hydropériodes en mai (crue) et en août (étiage). Les données zooplanctoniques et environnementales ont été récoltées à 52 stations réparties sur 16 transects transversaux en 2006. Au chapitre 1, nous présentons les principaux modèles écosystémiques en rivière, une synthèse des facteurs influençant le zooplancton en rivières et les objectifs et hypothèses de recherche. Au chapitre 2, nous décrivons la structure des communautés de zooplancton dans trois zones biogéographiques du fleuve et 6 habitats longitudinaux, ainsi que les relations entre la structure du zooplancton et la distribution spatiale des masses d’eau et les variables environnementales. Au chapitre 3, nous réalisons une partition de la variation des variables spatiales AEM (basées sur la distribution des masses d’eau) et des variables environnementales pour évaluer quelle part de la variation du zooplancton est expliquée par les processus hydrologiques (variables AEM) et les conditions locales (facteurs environnementaux). Le gradient salinité-conductivité relié à la discontinuité fleuve-estuaire a déterminé la distribution à grande échelle du zooplancton. Dans les zones fluviales, la distribution du zooplancton est davantage influencée par la distribution des masses d’eau que par les facteurs environnementaux locaux. La distribution des masses d’eau explique une plus grande partie de la variation dans la distribution du zooplancton en août qu’en mai.
Resumo:
Cette thèse traite de l’impact de l’économie congolaise sur la pastorale du diocèse d’Idiofa, de la gestion de ce diocèse et de leurs répercussions sur le ministère des prêtres. Après plusieurs années de son érection, le diocèse d’Idiofa subit présentement les conséquences de la crise économique congolaise. Sa pastorale est malade, en panne et même bloquée. Partout, il n’y pas d’argent, les caisses sont vides, on ne peut ni manger ni célébrer l’Eucharistie. On assiste à la démotivation presque généralisée des prêtres : refus des obédiences ou contestation des affectations, séjours prolongés et études à l’étranger, absence, ignorance ou mystère des finances. Les gens et les prêtres sont de plus en plus pauvres. Cela contraste avec la croissance numérique des prêtres dans le diocèse d’Idiofa. À y regarder de près, cette croissance masque mal une énigme. Avec la pauvreté grandissante, on aurait dû s’attendre à une diminution du nombre des prêtres. Or, tel n’est pas le cas. On assiste à un phénomène inverse dans le diocèse d’Idiofa. À quoi est dû cet état de chose? Promotion sociale, recherche du bien être matériel? Hausse des vocations? Le problème paraît banal, mais c’est une question pratique qui nous conduit à une prise de conscience de notre agir et de notre identité ecclésiaux. Cette thèse aidera à saisir les enjeux en cause et leurs conséquences sur le ministère des prêtres et sur la population. Elle nous éclairera sur l’incapacité de notre Église locale à s’assumer et à réagir de façon réaliste dans notre contexte propre. L’écart est énorme entre sa théorie et sa pratique. Cette thèse vise une Église locale nouvelle qui se veut active, pratique et qui n’a pas le droit de méconnaître les problèmes des prêtres et des gens en situation difficile. S’il est vrai que le modèle ecclésial actuel est élaboré en fonction des défis et des aspirations des communautés diocésaines, comment expliquer que la même Église puisse reléguer aux oubliettes les problèmes économiques qui conditionnent la vie réelle des prêtres et des gens? La communauté diocésaine peut-elle se bâtir en négligeant l’aspect économique? Malgré la vitalité actuelle de l’Église du diocèse en termes numériques, liturgiques et sacramentaires, de graves insuffisances témoignent de sa paralysie actuelle et rendent l’avenir incertain : misère croissante des masses, mauvaise gestion, dépendance accrue, etc. Cette thèse veut que notre Église locale se sente interpellée dans son agir pastoral par ce problème économique. Une nouvelle orientation ou organisation pastorale s’avère donc nécessaire pour la subsistance et la croissance de notre Église et de son milieu. Notre thèse comprend sept chapitres. Le premier dresse un portrait économique de la République Démocratique du Congo avec ses immenses richesses et la crise qu’elle traverse tant au plan politique que économique. Le deuxième analyse l’écart entre les prises de position audacieuses de l’Église congolaise dans ce contexte et sa pratique cléricale et institutionnelle plus conservatrice. Le troisième décrit la situation pastorale du diocèse d’Idiofa, du ministère de brousse jusqu’à la gestion diocésaine en passant par ses diverses pastorales sectorielles. On y trouve l’exposé des faiblesses et des forces de ce diocèse. Le quatrième analyse la situation économique du diocèse tant en rapport avec la crise congolaise qu’avec les dynamiques internes du diocèse. On y voit émerger par exemple, la dépendance envers Rome, le favoritisme et le tribalisme financiers, la perte de moyens de production propres au diocèse, la pauvreté du clergé et, évidemment, des fidèles et des gens du diocèse. Le cinquième chapitre réévalue les progrès théologiques (adaptation, pierres d’attente, inculturation, reconstruction, libération et contextuelle) et des pratiques pastorales du diocèse en regard de sa réalité actuelle. Le sixième propose une interprétation théologique de la crise économique du diocèse d’Idiofa en fonction de l’Évangile, du salut considéré comme salut global concernant la transformation des structures historiques, de la mission de l’Église d’annoncer ce salut en paroles et en actes. Le septième et dernier chapitre propose une analyse des implications éthiques et ecclésiales. Il présente aussi quelques voies pastorales susceptibles de favoriser la prise en mains des communautés par elles-mêmes et l’assainissement des finances du diocèse : pastorales du grenier, des mains sales et du jardin partagé. La conclusion générale de la thèse rappelle les idées-forces et propose des pistes de solution.
Resumo:
La famille des gènes Hox code pour des facteurs de transcription connus pour leur contribution essentielle à l’élaboration de l’architecture du corps et ce, au sein de tout le règne animal. Au cours de l’évolution chez les vertébrés, les gènes Hox ont été redéfinis pour générer toute une variété de nouveaux tissus/organes. Souvent, cette diversification s’est effectuée via des changements quant au contrôle transcriptionnel des gènes Hox. Chez les mammifères, la fonction de Hoxa13 n’est pas restreinte qu’à l’embryon même, mais s’avère également essentielle pour le développement de la vascularisation fœtale au sein du labyrinthe placentaire, suggérant ainsi que sa fonction au sein de cette structure aurait accompagné l’émergence des espèces placentaires. Au chapitre 2, nous mettons en lumière le recrutement de deux autres gènes Hoxa, soient Hoxa10 et Hoxa11, au compartiment extra-embryonnaire. Nous démontrons que l’expression de Hoxa10, Hoxa11 et Hoxa13 est requise au sein de l’allantoïde, précurseur du cordon ombilical et du système vasculaire fœtal au sein du labyrinthe placentaire. De façon intéressante, nous avons découvert que l’expression des gènes Hoxa10-13 dans l’allantoïde n’est pas restreinte qu’aux mammifères placentaires, mais est également présente chez un vertébré non-placentaire, indiquant que le recrutement des ces gènes dans l’allantoïde précède fort probablement l’émergence des espèces placentaires. Nous avons généré des réarrangements génétiques et utilisé des essais transgéniques pour étudier les mécanismes régulant l’expression des gènes Hoxa dans l’allantoïde. Nous avons identifié un fragment intergénique de 50 kb capable d’induire l’expression d’un gène rapporteur dans l’allantoïde. Cependant, nous avons trouvé que le mécanisme de régulation contrôlant l’expression du gène Hoxa au sein du compartiment extra-embryonnaire est fort complexe et repose sur plus qu’un seul élément cis-régulateur. Au chapitre 3, nous avons utilisé la cartographie génétique du destin cellulaire pour évaluer la contribution globale des cellules exprimant Hoxa13 aux différentes structures embryonnaires. Plus particulièrement, nous avons examiné plus en détail l’analyse de la cartographie du destin cellulaire de Hoxa13 dans les pattes antérieures en développement. Nous avons pu déterminer que, dans le squelette du membre, tous les éléments squelettiques de l’autopode (main), à l’exception de quelques cellules dans les éléments carpiens les plus proximaux, proviennent des cellules exprimant Hoxa13. En contraste, nous avons découvert que, au sein du compartiment musculaire, les cellules exprimant Hoxa13 et leurs descendantes (Hoxa13lin+) s’étendent à des domaines plus proximaux du membre, où ils contribuent à générer la plupart des masses musculaires de l’avant-bras et, en partie, du triceps. De façon intéressante, nous avons découvert que les cellules exprimant Hoxa13 et leurs descendantes ne sont pas distribuées uniformément parmi les différents muscles. Au sein d’une même masse musculaire, les fibres avec une contribution Hoxa13lin+ différente peuvent être identifiées et les fibres avec une contribution semblable sont souvent regroupées ensemble. Ce résultat évoque la possibilité que Hoxa13 soit impliqué dans la mise en place de caractéristiques spécifiques des groupes musculaires, ou la mise en place de connections nerf-muscle. Prises dans leur ensemble, les données ici présentées permettent de mieux comprendre le rôle de Hoxa13 au sein des compartiments embryonnaires et extra-embryonnaires. Par ailleurs, nos résultats seront d’une importance primordiale pour soutenir les futures études visant à expliquer les mécanismes transcriptionnels soutenant la régulation des gènes Hoxa dans les tissus extra-embryonnaires.
Resumo:
Part of the research described in this thesis is conducted in collaboration with Centre d' étude et de Recherche sur les Macromolécules (CERM), Université de Liège, Sart-Tilman, Belgium
Resumo:
Les observations astronomiques et cosmologiques suggèrent fortement la présence d’une matière exotique, non-relativiste et non-baryonique qui représenterait 26% du contenu de masse-énergie de l’Univers actuel. Cette matière dite sombre et froide serait compo- sée de particules neutres, massives et interagissant faiblement avec la matière ordinaire (WIMP : Weakly Interactive Massive Particles). Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une des expériences installées dans le site souterrain de SNOLAB à Sudbury en Ontario, qui tente de détecter directement un des candidats de la matière sombre, proposé dans le cadre des extensions supersymétriques du modèle standard : le neutralino. Pour cela, PICASSO utilise des détecteurs à gouttelettes surchauffées de C4F10, basés sur le principe de la chambre à bulles. Les transitions de phase dans les liquides surchauffés peuvent être déclenchées par le recul du 19 F, causé par une collision élastique avec les neutralinos. La nucléation de la gouttelette génère une onde sonore enregistrée par des senseurs piézo-électriques. Cette thèse présentera les récents progrès de l’expérience PICASSO qui ont conduit à une augmentation substantielle de sa sensibilité dans la recherche du neutralino. En effet, de nouvelles procédures de fabrication et de purification ont permis de réduire à un facteur de 10, la contamination majeure des détecteurs, causée par les émetteurs alpha. L’étude de cette contamination dans les détecteurs a permis de localiser la source de ces émetteurs. Les efforts effectués dans le cadre de l’analyse des données, ont permis d’améliorer l’effet de discrimination entre des évènements engendrés par les particules alpha et par les reculs nucléaires. De nouveaux outils d’analyse ont également été implémentés dans le but de discriminer les évènements générés par des particules de ceux générés par des bruits de fond électroniques ou acoustiques. De plus, un mécanisme important de suppression de bruit de fond indésirable à haute température, a permis à l’expérience PICASSO d’être maintenant sensible aux WIMPs de faibles masses.
Resumo:
Les paramètres de l’exil, comme déplacement, se transforment aujourd’hui dans un contexte de mondialisation, interrogeant le rôle des nations alors que les sociétés impliquent de plus en plus de mobilité et de diversité culturelle. Cette condition d’exilé aux repères mouvants, inscrite dans une temporalité discontinue et dont l’expérience est toujours douloureuse, a donné lieu à une littérature prolifique dans le domaine des études littéraires au cours du 20e siècle. En quoi le 21e propose-t-il un regard différent sur cette condition ? Dans ce mémoire nous analyserons quatre œuvres contemporaines qui nous proposent différentes variations des transformations identitaires profondes qui caractérisent la condition d’exilé. Deux des grands axes autour desquels s’est articulée la condition d’exilé ont été développés par Edward Said, qui propose une posture critique et politique, et Julia Kristeva, qui présente l’exil comme une condition plutôt psychique. Suivant cette perspective analytique, l’autobiographie de Mourid Barghouti fait écho à la compréhension de l’exil telle que l’entend Said, en pleine autonomie instauratrice. Puis, le roman de Rawi Hage dans une expérience plus psychique de l’exil, plus traumatique et plus violente du vécu avant l’exil, suggère que le rapport avec le milieu environnant a un impact sur l’expérience de l’exil, alors que dans ce cas il reste dysfonctionnel, et qu’un rapport pathologique à l’existence peut ensuite se manifester. Ensuite, le roman d’Abla Farhoud expose la possibilité d’un dépassement de cette expérience pathologique de l’exil par la distance, celle de l’âge et de la prise de parole. Finalement, dans la pièce Incendies de Mouawad, l’expérience psychique de l’exil est dépassée à la fois par une traduction de l’indicible de la violence, par un retour sur les traumas précédant l’exil, et par un travail collectif – comme autres formes de distances. Cette dernière œuvre est donc porteuse d’une compréhension de l’exil impliquant une dimension psychique, tout en devenant critique et politique, telle que le révèlent les écrits de Jacques Rancière. À la lumière de ces analyses, la condition d’exilé réclame d’urgence un retour sur les traumas précédents, le trauma qu’est l’exil, afin qu’une autonomie, une créativité et un engagement s’en dégagent, dans une société, dans un monde plus grand que soi. Pour les trois derniers auteurs, c’est la société québécoise qui révèle à la fois une compréhension des problématiques majeures de la condition d’exilé et une ouverture face à celles-ci, en ce début de 21e siècle.
Resumo:
"Les juristes partout dans le monde peuvent maintenant, de leur poste informatique personnel, accéder aux données « publiques » (la part des règles juridiques y est majeure) que les États mettent à la disposition de chacun. En plus de modifier les méthodes de travail des praticiens du droit, l’usage des technologies de l’information influera sur l’évolution du droit et de la justice. D’une part, les États ne pourront renoncer à se doter des moyens technologiques requis pour diffuser l’information et, d’autre part, l’institution judiciaire devra répondre à cette nouvelle forme d’exigence de démocratisation. Les technologies de l’information feront surgir un nouveau rapport entre le citoyen et le droit. Dans le domaine judiciaire, il faudra consentir à une réflexion en profondeur sur la manière dont les juridictions sont saisies. Le « dialogue par formulaire » est un exercice de la pensée différent de ceux que les juristes pratiquent habituellement ; dans le domaine judiciaire ou parajudiciaire, la pratique des téléprocédures est, en France, balbutiante. L’utilisation des technologies de l’information et de la communication dans les procédures assurera une meilleure efficacité (effectivité et célérité) de la réponse judiciaire et fera apparaître de nouvelles exigences, en particulier quant à la communication des décisions de justice. Le droit évoluera : la communauté des juristes devient mondiale, les droits internes sont quotidiennement à l’épreuve des autres droits, toutes sortes de comparaisons sont possibles entre les différentes juridictions, entre les législations existantes et entre les solutions théoriquement possibles pour régler tel ou tel cas. On ne peut imaginer que le législateur, que les juridictions suprêmes, que les chercheurs et les théoriciens du droit, que l’ensemble des praticiens se désintéressent des pistes ouvertes par les technologies de l’information."