706 resultados para Champ intégral


Relevância:

10.00% 10.00%

Publicador:

Resumo:

À l’heure des migrations contemporaines liées au travail, la flexibilité spatiale des groupes tsiganes n’est plus considérée comme une « déviation » par rapport à la sédentarité, paradigme dominant pour penser l’espace. Le « nomadisme » tsigane dévoile aujourd’hui un visage nouveau : celui d’une mobilité de travail complexe qui produit, elle aussi, certaines formes d’ancrage spatial. Dans le champ des études tsiganes, ce sont surtout les diverses trajectoires et pratiques de déplacement des groupes « nomades » qui ont retenu l’attention des spécialistes. Dans cette thèse, nous préférons nous appuyer sur la phénoménologie des formes tsiganes d’ancrage spatial. À partir d’une approche ethnologique directe des 15 communautés roumaines-bayashes de la région des Carpates du Nord, dans l’Ukraine occidentale et au Sud-Est de la Slovaquie, nous interrogeons plus particulièrement le rapport qui existe entre le tabor — terme émique pour désigner les camps tsiganes est-européens — et le concept de territoire. Notre analyse porte notamment sur le tabor en tant que forme de localisation temporaire, de découpage social et culturel de l’espace et ce, dans une perspective qui tient compte des changements que les processus de sédentarisation communiste et postcommuniste lui ont fait subir. De nouvelles logiques spatiales sont mises en oeuvre, c’est pourquoi certains concepts opératoires — plus adaptés aux réalités contemporaines du tabor — sont discutés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les théories poétiques de l’inscape et du sprung rhythm établies par le poète britannique Gerard Manley Hopkins (1844-1889) ont dérouté les critiques des années durant. La plupart d’entre eux se sont appuyés sur les poèmes publiés en quête d’indices quant à la signification de ses théories. Cette thèse approfondit l’analyse mise de l’avant en révélant que la genèse de la théorie de l’inscape provient des notes de Hopkins — alors étudiant de premier cycle — sur le philosophe présocratique Parménide, et est influencée par les commentaires sur l’oeuvre De la nature du philosophe. Un examen des lettres de Hopkins à ses collègues poètes Robert Bridges et Richard Watson Dixon révèle que le sprung rhythm découle de l’inscape, sa théorie de base. La technique du sprung rhythm consiste donc en l’application de l’inscape au schéma métrique de la poésie. Cette étude établit d’abord une définition opérationnelle de chacune de ces théories pour ensuite les appliquer aux manuscrits afin de déterminer dans quelle mesure Hopkins y adhérait et les exploitait lors de la rédaction de deux de ses poèmes canoniques, God’s Grandeur et The Windhover. L’étude s’inscrit ainsi dans le champ de la critique génétique, une approche mise au point en France, particulièrement à l’Institut des textes et manuscrits modernes (ITEM). Ce sont donc sur des oeuvres littéraires françaises ou sur des textes en prose qu’ont porté la majorité des analyses à ce sujet. Suppressions, ajouts, substitutions et constantes entre différentes versions témoignent de ce qu’étaient les priorités de Hopkins dans sa quête pour atteindre l’effet désiré. Par conséquent, cette thèse s’efforce de dévoiler la signification des théories poétiques de Hopkins en établissant leur genèse et leur application respectives dans deux de ses poèmes selon une perspective de critique génétique. Elle contribue également à enrichir la critique génétique en l’appliquant à des oeuvres littéraires écrites en anglais et sous forme de poésie plutôt que de prose. Enfin, son objectif ultime est de raviver l’intérêt pour le poète Hopkins en tant que sujet viable d’étude, et de favoriser l’appréciation de ses prouesses tant comme théoricien poétique que comme poète.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire examine les fondements de la montée ainsi que du déclin de l’organisation non gouvernementale Federal Union, Inc. aux États-Unis entre 1939 et 1945. Ce regroupement, mis sur pied par Clarence K. Streit dans l’optique de faire la promotion de son projet internationaliste décrit dans son livre intitulé Union Now: A Proposal for a Federal Union of the Democracies of the North Atlantic, connut durant la Seconde Guerre mondiale un élan de popularité remarquable qui l’amena à l’avant-scène des débats sur la gestion des relations interétatiques, avant de s’essouffler rapidement, malgré l’intérêt qu’il suscita au cours de ses premières années d’existence. Dans les faits, ce phénomène, s’avéra étroitement lié au contexte historique, à l’idéologie défendue par le mouvement, de même qu’à l’organisation et à la gestion des activités de Federal Union, Inc. Ainsi, par l’étude d’un cas particulier, ce mémoire ouvre une nouvelle fenêtre sur l’internationalisme américain durant la Seconde Guerre mondiale, un champ d’études négligé par les chercheurs. Avec pour principal objectif d’offrir une réflexion articulée sur le fédéralisme mondial, une idéologie toujours très peu étudiée à ce jour par les historiens, cette étude mettra en lumière les rouages expliquant les hauts et les bas de cette ligne de pensée politique à l’époque. Ce faisant, le lecteur sera amené à repenser le mouvement internationaliste américain, traditionnellement perçu comme triomphant au cours de la guerre de 1939 à 1945. Il permettra de surcroît de réfléchir aux facteurs favorisant la transformation de la pensée politique au sein d’une société, tels que l’opinion publique et le rôle des organisations non gouvernementales ainsi que des groupes d’intérêt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

C’est en réponse aux plus récentes crises financières que plusieurs processus réglementaires – dont certains constituent les objets d’étude de cette thèse – ont été déployés pour concevoir et implanter diverses réformes « d’amélioration » au sein de la pratique professionnelle des auditeurs financiers. Tant la crise du début des années 2000 que celle de 2007-2008 auraient attiré de vives critiques à l’égard du travail des auditeurs et de leur contribution (prétendument défaillante) au sein du fonctionnement des marchés des capitaux. Considérant leur fonction de « chien de garde » qui est censée assurer, avant tout, la protection du public au sein de ces marchés, il semblait inévitable que leur travail soit, dans une certaine mesure, remis en doute à travers les processus de révision réglementaire mis en place. C’est ainsi que chacun des trois articles qui composent cette thèse offre une analyse de différents aspects – tels que la mise en place, le déroulement, la nature et la substance des discours et des résultats – liés à ces processus de révision réglementaire qui entourent la pratique professionnelle des auditeurs au lendemain des crises financières. En somme, en plus d’indiquer comment ces processus ne sont point à l’abri de controverses, les conclusions de cette thèse inciteront à ce qu’une attention sérieuse soit portée à leur égard afin de préserver le bienfondé de la profession des comptables et des auditeurs. Alors que, dans le premier article, il sera question d’illustrer l’infiltration (critiquable) d’un discours néolibéral au sein des débats qui entourent les processus de révision réglementaire dont il est question, dans le deuxième article, il sera question d’exposer, au sein de ces processus, un mécanisme de production de mythes prônant un certain statu quo. Par ailleurs, dans le dernier article, en plus de mettre en évidence le fait que les approches de gouvernance déployées à travers ces processus de révision réglementaire ne sont pas suffisamment englobantes, on pourra aussi prendre conscience de l’inféodation de l’expertise de l’audit face à son environnement (et plus précisément, face aux expertises de la normalisation comptable et de la financiarisation de l’économie). Sous un regard critique, et à travers des analyses qualitatives, chacun des articles de cette thèse permettra de remettre en question certaines facettes des processus réglementaires et institutionnels qui entourent le champ de la comptabilité et de l’audit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Une proportion importante des individus ayant recours à des services de réadaptation physique vit avec de la douleur et des incapacités locomotrices. Plusieurs interventions proposées par les professionnels de la réadaptation afin de cibler leurs difficultés locomotrices nécessitent des apprentissages moteurs. Toutefois, très peu d’études ont évalué l’influence de la douleur sur l’apprentissage moteur et aucune n’a ciblé l’apprentissage d’une nouvelle tâche locomotrice. L’objectif de la thèse était d’évaluer l’influence de stimulations nociceptives cutanée et musculaire sur l’acquisition et la rétention d’une adaptation locomotrice. Méthodologie : Des individus en santé ont participé à des séances de laboratoire lors de deux journées consécutives. Lors de chaque séance, les participants devaient apprendre à marcher le plus normalement possible en présence d’un champ de force perturbant les mouvements de leur cheville, produit par une orthèse robotisée. La première journée permettait d’évaluer le comportement des participants lors de la phase d’acquisition de l’apprentissage. La seconde journée permettait d’évaluer leur rétention. Selon le groupe expérimental, l’apprentissage se faisait en présence d’une stimulation nociceptive cutanée, musculaire ou d’aucune stimulation (groupe contrôle). Initialement, l’application du champ de force provoquait d’importantes déviations des mouvements de la cheville (i.e. erreurs de mouvement), que les participants apprenaient graduellement à réduire en compensant activement la perturbation. L’erreur de mouvement moyenne durant la phase d’oscillation (en valeur absolue) a été quantifiée comme indicateur de performance. Une analyse plus approfondie des erreurs de mouvement et de l’activité musculaire a permis d’évaluer les stratégies motrices employées par les participants. Résultats : Les stimulations nociceptives n’ont pas affecté la performance lors de la phase d’acquisition de l’apprentissage moteur. Cependant, en présence de douleur, les erreurs de mouvement résiduelles se trouvaient plus tard dans la phase d’oscillation, suggérant l’utilisation d’une stratégie motrice moins anticipatoire que pour le groupe contrôle. Pour le groupe douleur musculaire, cette stratégie était associée à une activation précoce du muscle tibial antérieur réduite. La présence de douleur cutanée au Jour 1 interférait avec la performance des participants au Jour 2, lorsque le test de rétention était effectué en absence de douleur. Cet effet n’était pas observé lorsque la stimulation nociceptive cutanée était appliquée les deux jours, ou lorsque la douleur au Jour 1 était d’origine musculaire. Conclusion : Les résultats de cette thèse démontrent que dans certaines circonstances la douleur peut influencer de façon importante la performance lors d’un test de rétention d’une adaptation locomotrice, malgré une performance normale lors de la phase d’acquisition. Cet effet, observé uniquement avec la douleur cutanée, semble cependant plus lié au changement de contexte entre l’acquisition des habiletés motrices et le test de rétention (avec vs. sans douleur) qu’à une interférence directe avec la consolidation des habiletés motrices. Par ailleurs, malgré l’absence d’influence de la douleur sur la performance des participants lors de la phase d’acquisition de l’apprentissage, les stratégies motrices utilisées par ceux-ci étaient différentes de celles employées par le groupe contrôle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'immigration demeure un phénomène fortement répandu dans les communautés rurales francophones qui veulent contrecarrer les conséquences démographiques, économiques, sociales et politiques de la dépopulation progressive. Les collectivités se voient ainsi de plus en plus touchées par ce phénomène qui apporte certes plusieurs avantages, mais aussi une quantité innombrable de défis à relever. L'intégration des immigrants au sein de ces collectivités rurales, dont les collectivités du nord-ouest du Nouveau-Brunswick, comporte des difficultés. L'insertion professionnelle et sociale dépend de divers facteurs que ce soit la connaissance et la maitrise de la langue, la capacité à établir et maintenir des liens sociaux, la capacité de s'approprier un ensemble de valeurs ; de normes et de rôles, etc. Parmi les facteurs qui sont susceptibles de nuire ou de faciliter le processus d'intégration, les représentations que se font les citoyens du phénomène de l'immigration pourraient occuper une place substantielle. Dans cette recherche exploratoire, on rend compte des représentations sociales dans un lieu géographiquement déterminé. La conceptualisation des représentations s'inspire en partie des travaux de Serge Moscovici et de certains auteurs plus contemporains, tels que Jodelet, qui s'inscrivent dans son prolongement. Plus précisément, nous étudions les représentations de l'immigration chez les citoyens de la municipalité de Saint-Léonard, au Nouveau-Brunswick. Ce terrain semblait particulièrement riche pour étudier ce concept étant donnée sa récente histoire et expérience avec le phénomène de l'immigration. À cet égard, ont été identifiées et décrites : les valeurs, les sentiments, les émotions, les idéologies, les concepts, les opinions, les orientations de comportements, etc. de treize personnes rencontrées dans le cadre d'entrevues semi-dirigées individuelles. Les entretiens ont permis de colliger les éléments de définition ou des caractéristiques de l'immigration dans la région du nord-ouest du Nouveau-Brunswick. Les travaux de Milton Bennett qui portent sur les stades de développement de l'ouverture interculturelle ont servi d'inspiration et ont permis d'analyser les discours des citoyens. Cette théorie a permis de mettre en relief le positionnement des citoyens face à l'immigration et à la présence de personnes immigrantes dans leur communauté. De l'analyse des données recueillies (transcription des verbatims, puis identification et regroupement des segments pertinents), il ressort que les acteurs locaux se représentent l'immigration et les immigrants avec une certaine crainte et méfiance. Cette thèse se veut une première étape permettant une compréhension de la perception des locaux face aux immigrants. Toutefois, d'un point de vue pratique et dans le but de mieux cibler les actions pertinentes à mener au sein de la communauté, le modèle du champ de forces de Kurt Lewin a permis de représenter la situation actuelle et souhaitée de façon à ce que l'immigration et l'intégration des immigrants soient vécues positivement de part et d'autre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans la profession d’éducatrice et d’éducateur, le savoir-être revêt une importance particulière. Pour plusieurs, cet apprentissage se fait sans heurt, mais pour d’autres, il arrive que cet apprentissage soit problématique. Dès mon entrée dans la profession d’enseignante au collégial, j’ai rapidement été confrontée à la gestion des attitudes parmi la clientèle étudiante. Les discussions entre collègues renforçaient cette impression que certaines et certains étudiants éprouvaient de sérieuses difficultés à développer les savoir-être essentiels à la profession d’éducatrice et d’éducateur spécialisé. Au fil des trimestres, l’idée s’est imposée d’elle-même : sensibiliser la clientèle étudiante à la gestion des attitudes. Ce champ d’études étant très large, il a fallu circonscrire mon objet de recherche. Cet essai se limite à identifier les savoir-être signifiants à la profession d’éducatrice et d’éducateur spécialisé, afin d’améliorer le développement des compétences professionnelles des étudiantes et des étudiants. Le cadre conceptuel s’articule autour des différents concepts utilisés dans le domaine. Certains auteurs parlent d’attitudes, d’autres exploitent le thème des savoir-être et certains autres encore, utilisent le thème des habiletés socioprofessionnelles. Cette analyse a permis de dégager ma position de chercheuse. Je retiens trois principes de base : - Le savoir-être permet à la personne de réaliser une tâche professionnelle de la meilleure façon qu’il soit. (Boudreault, 2004) - Le savoir-être est un indicateur de performance élevé. (Scallon, 2004) - Le savoir-être est une compétence qui est source de réussite professionnelle. (Bellier, 2004). Les écrits de Bellier (2004), de Boudreault (2004) et de Scallon (2004) cités ci-hauts, font bien comprendre la valeur ajoutée de ce concept en lien avec une profession. Le savoir-être, en contexte de travail, permet à la personne de développer sa compétence professionnelle. Dans cette optique, la première étape pour découvrir les savoir-être signifiants à la profession a été de faire le parallèle entre trois grilles identifiant différents savoir-être. Ces modèles sont inspirés de Boudreault (2004), de Grisé et Trottier (1997) et de l’équipe enseignante en Techniques d’éducation spécialisée du cégep de Granby – Haute-Yamaska. Cette démarche a permis de regrouper les savoir-être similaires ou équivalents. À partir de ces regroupements, un groupe d’enseignantes et d’enseignants du Département des Techniques d’éducation spécialisée du cégep de Granby – Haute-Yamaska s’est prononcé, par l’entremise d’entrevues individuelles, sur les savoir-être les plus pertinents à utiliser pour bâtir un sondage électronique. Par la suite, ce sondage a été réalisé avec la collaboration des différents partenaires de stage de la région de la Montérégie ainsi qu’avec la participation de l’équipe enseignante afin de sélectionner les savoir-être signifiants à la profession. Cet exercice a permis d’identifier quatre savoir-être. L’identification de ces savoir-être aidera certainement l’équipe enseignante et les différents milieux de stage, dans leurs interventions pédagogiques. Il reste à souhaiter que la clientèle étudiante profite des résultats de cette recherche en étant mieux outillée pour développer ses compétences professionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-delà de 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : La phase haploïde de la spermatogenèse (spermiogenèse) est caractérisée par une modification importante de la structure de la chromatine et un changement de la topologie de l’ADN du spermatide. Les mécanismes par lesquels ce changement se produit ainsi que les protéines impliquées ne sont pas encore complètement élucidés. Mes travaux ont permis d’établir la présence de cassures bicaténaires transitoires pendant ce remodelage par l’essai des comètes et l’électrophorèse en champ pulsé. En procédant à des immunofluorescences sur coupes de tissus et en utilisant un extrait nucléaire hautement actif, la présence de topoisomérases ainsi que de marqueurs de systèmes de réparation a été confirmée. Les protéines de réparation identifiées font partie de systèmes sujets à l’erreur, donc cette refonte structurale de la chromatine pourrait être génétiquement instable et expliquer le biais paternel observé pour les mutations de novo dans de récentes études impliquant des criblages à haut débit. Une technique permettant l’immunocapture spécifique des cassures bicaténaires a été développée et appliquée sur des spermatides murins représentant différentes étapes de différenciation. Les résultats de séquençage à haut débit ont montré que les cassures bicaténaires (hotspots) de la spermiogenèse se produisent en majorité dans l’ADN intergénique, notamment dans les séquences LINE1, l’ADN satellite et les répétions simples. Les hotspots contiennent aussi des motifs de liaisons des protéines des familles FOX et PRDM, dont les fonctions sont entre autres de lier et remodeler localement la chromatine condensée. Aussi, le motif de liaison de la protéine BRCA1 se trouve enrichi dans les hotspots de cassures bicaténaires. Celle-ci agit entre autres dans la réparation de l’ADN par jonction terminale non-homologue (NHEJ) et dans la réparation des adduits ADN-topoisomérase. De façon remarquable, le motif de reconnaissance de la protéine SPO11, impliquée dans la formation des cassures méiotiques, a été enrichi dans les hotspots, ce qui suggère que la machinerie méiotique serait aussi utilisée pendant la spermiogenèse pour la formation des cassures. Enfin, bien que les hotspots se localisent plutôt dans les séquences intergéniques, les gènes ciblés sont impliqués dans le développement du cerveau et des neurones. Ces résultats sont en accord avec l’origine majoritairement paternelle observée des mutations de novo associées aux troubles du spectre de l’autisme et de la schizophrénie et leur augmentation avec l’âge du père. Puisque les processus du remodelage de la chromatine des spermatides sont conservés dans l’évolution, ces résultats suggèrent que le remodelage de la chromatine de la spermiogenèse représente un mécanisme additionnel contribuant à la formation de mutations de novo, expliquant le biais paternel observé pour certains types de mutations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il y a présentement de la demande dans plusieurs milieux cherchant à utiliser des robots afin d'accomplir des tâches complexes, par exemple l'industrie de la construction désire des travailleurs pouvant travailler 24/7 ou encore effectuer des operation de sauvetage dans des zones compromises et dangereuses pour l'humain. Dans ces situations, il devient très important de pouvoir transporter des charges dans des environnements encombrés. Bien que ces dernières années il y a eu quelques études destinées à la navigation de robots dans ce type d'environnements, seulement quelques-unes d'entre elles ont abordé le problème de robots pouvant naviguer en déplaçant un objet volumineux ou lourd. Ceci est particulièrement utile pour transporter des charges ayant de poids et de formes variables, sans avoir à modifier physiquement le robot. Un robot humanoïde est une des plateformes disponibles afin d'effectuer efficacement ce type de transport. Celui-ci a, entre autres, l'avantage d'avoir des bras et ils peuvent donc les utiliser afin de manipuler précisément les objets à transporter. Dans ce mémoire de maîtrise, deux différentes techniques sont présentées. Dans la première partie, nous présentons un système inspiré par l'utilisation répandue de chariots de fortune par les humains. Celle-ci répond au problème d'un robot humanoïde naviguant dans un environnement encombré tout en déplaçant une charge lourde qui se trouve sur un chariot de fortune. Nous présentons un système de navigation complet, de la construction incrémentale d'une carte de l'environnement et du calcul des trajectoires sans collision à la commande pour exécuter ces trajectoires. Les principaux points présentés sont : 1) le contrôle de tout le corps permettant au robot humanoïde d'utiliser ses mains et ses bras pour contrôler les mouvements du système à chariot (par exemple, lors de virages serrés) ; 2) une approche sans capteur pour automatiquement sélectionner le jeu approprié de primitives en fonction du poids de la charge ; 3) un algorithme de planification de mouvement qui génère une trajectoire sans collisions en utilisant le jeu de primitive approprié et la carte construite de l'environnement ; 4) une technique de filtrage efficace permettant d'ignorer le chariot et le poids situés dans le champ de vue du robot tout en améliorant les performances générales des algorithmes de SLAM (Simultaneous Localization and Mapping) défini ; et 5) un processus continu et cohérent d'odométrie formés en fusionnant les informations visuelles et celles de l'odométrie du robot. Finalement, nous présentons des expériences menées sur un robot Nao, équipé d'un capteur RGB-D monté sur sa tête, poussant un chariot avec différentes masses. Nos expériences montrent que la charge utile peut être significativement augmentée sans changer physiquement le robot, et donc qu'il est possible d'augmenter la capacité du robot humanoïde dans des situations réelles. Dans la seconde partie, nous abordons le problème de faire naviguer deux robots humanoïdes dans un environnement encombré tout en transportant un très grand objet qui ne peut tout simplement pas être déplacé par un seul robot. Dans cette partie, plusieurs algorithmes et concepts présentés dans la partie précédente sont réutilisés et modifiés afin de convenir à un système comportant deux robot humanoides. Entre autres, nous avons un algorithme de planification de mouvement multi-robots utilisant un espace d'états à faible dimension afin de trouver une trajectoire sans obstacle en utilisant la carte construite de l'environnement, ainsi qu'un contrôle en temps réel efficace de tout le corps pour contrôler les mouvements du système robot-objet-robot en boucle fermée. Aussi, plusieurs systèmes ont été ajoutés, tels que la synchronisation utilisant le décalage relatif des robots, la projection des robots sur la base de leur position des mains ainsi que l'erreur de rétroaction visuelle calculée à partir de la caméra frontale du robot. Encore une fois, nous présentons des expériences faites sur des robots Nao équipés de capteurs RGB-D montés sur leurs têtes, se déplaçant avec un objet tout en contournant d'obstacles. Nos expériences montrent qu'un objet de taille non négligeable peut être transporté sans changer physiquement le robot.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s’intéresse à la représentation des lieux ainsi qu’à leur implication en tant que vecteurs d’idéologie dans le roman Neuf jours de haine, de Jean-Jules Richard. L’intérêt de ce sujet réside principalement dans le fait que Neuf jours de haine a été très peu étudié par la critique universitaire. L’objectif est de montrer que le roman de Jean-Jules Richard diffère des romans de guerre québécois de l’époque non seulement par son sujet original (la Deuxième Guerre mondiale telle que vécue sur le front de l’Europe de l’Ouest), mais également dans la dialectique existant entre les espaces civil et militaire. Le mémoire se divise en trois chapitres. Le premier est consacré au rappel des concepts théoriques nécessaires à l’analyse du roman. Dans celui-ci seront évoqués, entre autres, les notions d’espace, de lieu, de figure spatiale et de configuration spatiale. Les deux chapitres suivants seront consacrés à l’analyse de la représentation des lieux dans Neuf jours de haine. Le chapitre deux se penche sur les lieux diégétiques du roman, lesquels comprennent, entre autres, la tranchée, le champ, le jardin, la ferme, la forêt, la ville, la prison ainsi que l’eau et ses dérivés. Le troisième et dernier chapitre, quant à lui, aborde plutôt les lieux mémoriels de l’œuvre de Richard. Ceux-ci comprennent la prairie, la ferme, la ville, le village, la prison et le cimetière. Dans chacun de ces chapitres, non seulement les lieux sont analysés selon leur fonction diégétique et leur description par les personnages, mais ils sont aussi départagés selon leur degré de sécurité. Cette analyse permet, dans un premier temps, de montrer que la guerre vue par un soldat au front occasionne un renversement des notions traditionnelles de sécurité et d’hostilité. Dans un deuxième temps, celle-ci permet également de cerner l’importance des lieux dans la construction de la diégèse du récit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La catalyse est à la base de la fabrication de médicaments, de produits textiles, d‘engrais, des pots d’échappement, et une multitude d’autres applications de notre quotidien. En effet, dans les pays industrialisés jusqu’à 80% des produits manufacturés utilisés au quotidien ont nécessité au moins une étape de catalyse lors de leur fabrication. Outre être actif, il est primordial pour un catalyseur performant d’être résistant à la désactivation qui se traduit par la perte d’activité ou de sélectivité d’un catalyseur au cours du temps. La synthèse d’un matériau multifonctionnel permet de répondre à ces différents critères. L’objectif d’un design intelligent de matériaux est de mener à des effets synergiques de chacune des composantes. Pour un catalyseur, en plus d’être actif et sélectif pour le produit désiré, il faut en plus qu’il soit durable, stable dans le temps, et permette d’être réutilisable. L’objectif de ce projet est de faire une synthèse originale, simple et reproductible d’un catalyseur actif et résistant à la désactivation. De base, un catalyseur se compose d’un support et d’un matériau actif. La nature, la morphologie et l’agencement de ces derniers dictent le comportement chimique du catalyseur final. Comme matériau actif, les nanoparticules d’or sont très prisées en raison de leur potentiel de catalyse élevée pour de nombreuses réactions. Cependant, aux températures de fonctionnement de la catalyse, les nanoparticules d’or ont tendance à se désactiver par coalescence. Pour remédier à cela, il est possible de déposer une couche de silice mésoporeuse afin de protéger les NPs d’or des rudes conditions de réaction tout en étant perméables aux espèces réactives. Plusieurs types de matériaux peuvent servir de support aux nanoparticules d’or. À ce titre, les particules d’oxydes de fer magnétiques telles que la magnétite (Fe[indice inférieur 3]O[indice inférieur 4]) sont intéressantes pour leur potentiel hyperthermique, phénomène par lequel des nanoparticules (NPs) magnétiques transforment de l’énergie électromagnétique provenant d’un champ externe haute fréquence en chaleur, créant ainsi des nano-fours. Une première couche de silice est utilisée comme matrice de greffage afin de fixer les nanoparticules d’or sur la magnétite. La structure visée est illustrée à la Figure ci-dessous. Figure 1 Structure du catalyseur de Fe2O4@SiO2-Au-SiO2m (Ge, Zhang, Zhang, & Yin, 2008) Plusieurs avenues d’assemblage et de synthèse sont explorées pour chacune des composantes de la structure visée. Les avantages et inconvénients ainsi que des mécanismes sont proposés pour chaque voie de synthèse. Le matériau est utilisé comme catalyseur pour la réaction de réduction du 4-Nitrophénol par du NaBH4. Pour ce qui est de la synthèse de magnétite par voie solvothermique, il a été démontré qu’il était important d’être dans un milieu sous pression puisque l’étape limitante de la réaction est la solubilité des particules de magnétites dans le milieu. Cela est en accord avec le principe de mûrissement d’Ostwald selon lequel les petites particules ont tendance à se dissoudre dans le milieu et précipiter à la surface des plus grosses particules de façon à diminuer l’énergie interfaciale. Cette synthèse a été reproduite avec succès et a mené à la production de nanoparticules de Fe[indice inférieur 3]O[indice inférieur 4] sphériques creuses d’une taille de 150 [plus ou moins] 30nm. Ces sphères creuses ont été recouvertes d’une couche de silice dense par une méthode de Stöber modifiée. Le recouvrement forme des amas de particules et est non uniforme en raison de la présence de poly(éthlyène glycol) à la sur face de la magnétite, un adjuvant présent lors de sa synthèse afin d’améliorer la dispersion de la magnétite. La synthèse et le greffage d’AuNPs sont bien maîtrisés : les AuNPs ont une taille de 17 [plus ou moins] 6nm et la quantité d’or greffé est assez élevée. Ultimement, une méthode de greffage alternative tel que le greffage par croissance in situ de nanoparticules d’or pourrait être emprunté afin d’obtenir des particules plus petites. Pour ce qui est de la formation d’une couche de silice mésoporeuse, la méthode par calcination est une meilleure option que par gravure chimique en raison de sa sélectivité envers la couche externe de silice plus élevée ainsi que la formation apparente de pores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les turbomachines, le bruit du volume tournant est considéré comme une source majeure d’inconfort. La connaissance et l’identification des sources de bruit du rotor sont primordiales pour la conception d’une machine silencieuse et énergétiquement plus efficace. Ce document examine la capacité à la fois de la décomposition orthogonale aux valeurs (POD) et la décomposition aux valeurs singulières (SVD) à identifier les zones sur la surface d’une source (pale de ventilateur) fixe ou en mouvement subsonique qui contribuent le plus à la puissance acoustique rayonnée. La méthode de calcul de la dynamique des fluides (CFD) du code source OpenFoam est utilisée comme une première étape pour évaluer le champ de pression à la surface de la pale en mouvement subsonique. Les fluctuations de ce champ de pression permettent d’estimer à la fois le bruit de charge et la puissance sonore qui est rayonnée par la pale basée sur l’analogie acoustique de Ffowcs Williams et Hawkings (FW&H). Dans une deuxième étape, le bruit de charge estimé est également utilisé tant pour les approches POD et SVD. On remarque que la puissance sonore reconstruite par les deux dernières approches en se fondant uniquement sur les modes acoustiques les plus importants est similaire à celle prédite par l’analogie de FW&H. De plus, les modes les plus rayonnants estimés par la méthode SVD sont projetés sur la surface de la pale, mettant ainsi en évidence leurs emplacements. Il est alors prévu que cette identification soit utilisée comme guide pour l’ingénieur dans la conception d’une roue moins bruyante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le smog photochimique est un phénomène qui prend de l'ampleur dans les grandes villes industrialisées. Il est la cause de plusieurs maladies respiratoires. Son apparition provient majoritairement des polluants émis par les véhicules automobiles, soit les hydrocarbures et les oxydes d'azote. Le rayonnement du soleil interagit avec ces espèces chimiques et le dioxygène présent dans l'atmosphère pour mener à une production d'ozone troposphérique importante. L'ozone en basse altitude endommage les écosystèmes et est nocif pour la santé humaine. Le sujet de recherche est d'abord axé sur la réaction limitante du processus qui crée le smog photochimique : la photolyse du dioxyde d'azote. Quoique cette réaction est assez bien connue dans la littérature en phase gazeuse, les données expérimentales en phase condensée sont manquantes. Les travaux ont été effectués dans le but de combler le manque d'information à ce sujet. En premier lieu, les conditions optimales pour l'isolation du NO[indice inférieur 2] par matrice de gaz rare ont été déterminées. Par la suite, l'irradiation des échantillons du mélange NO[indice inférieur 2] et gaz rare a été effectuée. Par spectroscopie infrarouge à angle rasant, il a été possible de suivre l'évolution de la destruction des molécules de NO[indice inférieur 2] en fonction du temps. Différentes hypothèses sont émises afin d'interpréter les données de cinétique obtenues. Ces hypothèses sont alors testées à partir d'expériences sous-jacentes ou expliquées selon des principes théoriques. Finalement, un modèle exprimant le profil du champ électrique à l'intérieur de films minces a été construit. Ce modèle s'inspire des effets d'interférences observés par spectroscopie d'absorption-réflexion. En guise de conclusion, une proposition d'expérience pour supporter le modèle du champ électrique est décrite. La portée du modèle s'étend à tous les processus impliquant un rayonnement lumineux sur une surface réfléchissante. Bien qu'il serve principalement à expliquer le taux de photolyse observé dans le cadre du projet de maîtrise, le modèle est applicable à plusieurs spectroscopies en réflexion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de recherche a permis d'étudier l'émission d'un rayonnement térahertz (THz) par des antennes photoconductrices (PC) émettrices de type micro-ruban coplanaire. Ces antennes sont fabriquées sur substrats d'arséniure de gallium semi-isolant (GaAs-SI) ou sur ce même substrat ayant subit un traitement d'implantation ionique aux protons suivi d'un recuit thermique (GaAs:H). L'influence de ce procédé de fabrication sur les propriétés du matériau photoconducteur et sur les caractéristiques de l'antenne émettrice a été étudiée. Des mesures de photoconductivité résolue en temps effectuées sur les deux types de substrat montrent que le procédé d'implantation/recuit a eu pour effet de diminuer le temps de vie des photoporteurs de 630 ps à environ 4 ps, tandis que la mobilité n'est réduite que d'un facteur maximum de 1,6. Cette valeur de la mobilité des photoporteurs a par ailleurs été estimée à environ 100 cm$^2$/(V.s) pour le substrat GaAs:H. Les mesures électriques effectuées sur les antennes fabriquées sur les deux types de substrat montrent que le procédé d'implantation/recuit permet d'augmenter la résistivité de la couche active du dispositif d'un facteur 10 (elle passerait de 10$^{8}$ $\Omega$.cm pour le GaAs-SI à 10$^9$ $\Omega$.cm pour le GaAs:H). Les courbes courant-tension, en obscurité et sous illumination, de ces antennes suggèrent également que la densité de pièges profonds est fortement augmentée suite au traitement d'implantation/recuit. L'étude des caractéristiques des diverses antennes a permis de montrer l'intérêt de ce procédé de fabrication. Pour les antennes fabriquées sur GaAs:H, la largeur de bande est améliorée (elle atteint environ 3 THz) et l'amplitude du champ THz émis est augmentée par un facteur 1,4 (dans les mêmes conditions expérimentales). Le rapport signal/bruit des traces THz mesurées sur les antennes les plus performantes est $>$ 200. Une plus grande résistivité et une densité de pièges profonds plus élevée, permet d'appliquer de plus fortes tensions de polarisation sur ces antennes GaAs:H. Finalement, nos résultats ont montré que les améliorations des caractéristiques d'émission de ces antennes THz sont corrélées à la présence d'un champ électrique local plus élevé du coté de l'anode du dispositif.