999 resultados para Qualité cytogénétique
Resumo:
Contrairement à d’autres groupes animaux, chez les primates, la hiérarchie de dominance ne détermine pas systématiquement le succès reproductif des mâles. Afin de comprendre pourquoi, j’ai étudié les stratégies de reproduction des mâles et des femelles dans un groupe de macaques rhésus de la population semi-libre de Cayo Santiago (Porto Rico), collectant des données comportementales, hormonales et génétiques pendant deux saisons de reproduction. Les résultats se résument en cinq points. 1. Les nouveaux mâles qui ont immigré dans le groupe d’étude occupaient tous les rangs les plus subordonnés de la hiérarchie de dominance et ont monté en rang suite au départ de mâles plus dominants. Ainsi, l’acquisition d’un rang supérieur s’est faite passivement, en absence de conflits. Par conséquent, les mâles dominants étaient généralement d’âge mature et avaient résidé plus longtemps dans le groupe que les mâles subordonnés. 2. L’accès des mâles aux femelles est en accord avec le « modèle de la priorité d’accès » selon lequel le nombre de femelles simultanément en œstrus détermine le rang de dominance du mâle le plus subordonné qui peut avoir accès à une femelle (p. ex. le mâle de rang 4 s’il y a quatre femelles en œstrus). Bien que les mâles dominants aient eu plus de partenaires et aient monopolisé les femelles de qualité supérieure (dominance, parité, âge) pendant leur période ovulatoire (identifiée grâce au profil hormonal de la progestérone), le rang de dominance n’a pas déterminé le succès reproductif, les mâles intermédiaires ayant engendré significativement plus de rejetons que prédit. Il est possible que ces jeunes adultes aient produit un éjaculat de meilleure qualité que les mâles dominants d’âge mature, leur donnant un avantage au niveau de la compétition spermatique. 3. Les mâles dominants préféraient les femelles dominantes, mais cette préférence n’était pas réciproque, ces femelles coopérant plutôt avec les mâles intermédiaires, plus jeunes et moins familiers (c.-à-d. courte durée de résidence). Au contraire, les femelles subordonnées ont coopéré avec les mâles dominants. La préférence des femelles pour les mâles non familiers pourrait être liée à l’attrait pour un nouveau bagage génétique. 4. L’intensité de la couleur de la peau du visage des femelles pendant le cycle ovarien était corrélée au moment de la phase ovulatoire, une information susceptible d’être utilisée par les mâles pour maximiser leur probabilité de fécondation. 5. Les femelles retiraient des bénéfices directs de leurs liaisons sexuelles. En effet, les femelles en liaison sexuelle bénéficiaient d’un niveau de tolérance plus élevé de la part de leur partenaire mâle lorsqu’elles étaient à proximité d’une source de nourriture défendable, comparativement aux autres femelles. En somme, bien que les mâles dominants aient bénéficié d’une priorité d’accès aux femelles fertiles, cela s’est avéré insuffisant pour leur garantir la fécondation de ces femelles parce que celles-ci avaient plusieurs partenaires sexuels. Il semble que l’âge et la durée de résidence des mâles, corrélats de leur mode d’acquisition du rang, aient confondu l’effet du rang de dominance.
Resumo:
Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.
Resumo:
La présente thèse porte sur des mobilisations citoyennes qui ont court depuis quelques années à Saint-Pétersbourg, en Russie, contre la densification urbaine. La transformation de l’espace urbain en commodité a entraîné une augmentation fulgurante des constructions et ce, tant dans les périphéries qu’au centre-ville. La redéfinition de l’espace urbain, conséquence de la chute du régime communiste, a provoqué l’érosion d’espaces considérés comme publics et de nombreux espaces verts. De nombreuses voix se sont élevées pour dénoncer ce qui est souvent qualifié de catastrophe pouvant mener à la « disparition » de Saint-Pétersbourg. Je me suis intéressée à trois aspects de la mobilisation citoyenne contre la densification urbaine : 1) l’opposition de résidents à des projets de constructions qui menacent directement leur environnement immédiat; 2) les efforts de certaines organisations citoyennes pour sauver des espaces verts menacés et; 3) la mobilisation provoquée par la démolition du patrimoine historique. J’ai tenté de comprendre pourquoi la lutte contre la densification urbaine constitue la principale cause de mobilisation à Saint-Pétersbourg en ce début de 21e siècle. Je me suis questionnée sur le sens de cette mobilisation et sur les raisons qui poussent des citoyens à se transformer momentanément en activistes. J’ai examiné l’histoire singulière de cette ville et son passé de résistance qui ont contribué à donner naissance à une identité particulière qui a perduré au fil des siècles, malgré les guerres et les bouleversements politiques. L’analyse des récits et des actions des résidents a révélé que la densification urbaine met en lumière plusieurs enjeux qui touchent la société russe contemporaine, comme le fossé grandissant entre les riches et les pauvres et la perte de confiance aux autorités. La densification urbaine représente, pour ses opposants, une perte de qualité de vie. Mais les Pétersbourgeois qui s’unissent pour préserver leur ville craignent aussi que la densification urbaine mène à la disparition de la mémoire et de la culture incarnées par tous ces lieux menacés. En exprimant leur désaccord contre les divers projets qui envahissent la ville, les résidents souhaitent aussi faire entendre leur voix et participer de manière active à l’élaboration d’une vision qui prendrait en compte les intérêts non seulement de la classe dirigeante, mais de l’ensemble de la population. En ce sens, les mobilisations contre la densification urbaine constituent une tentative de (ré)appropriation de la ville, tant sur le plan matériel que symbolique.
Resumo:
Dans cette thèse, nous présentons les problèmes d’échange de documents d'affaires et proposons une méthode pour y remédier. Nous proposons une méthodologie pour adapter les standards d’affaires basés sur XML aux technologies du Web sémantique en utilisant la transformation des documents définis en DTD ou XML Schema vers une représentation ontologique en OWL 2. Ensuite, nous proposons une approche basée sur l'analyse formelle de concept pour regrouper les classes de l'ontologie partageant une certaine sémantique dans le but d'améliorer la qualité, la lisibilité et la représentation de l'ontologie. Enfin, nous proposons l’alignement d'ontologies pour déterminer les liens sémantiques entre les ontologies d'affaires hétérogènes générés par le processus de transformation pour aider les entreprises à communiquer fructueusement.
Resumo:
Afin d'effectuer les classements et les analyses portant sur la mortalité selon la cause médicale de décès, il est d'usage d'utiliser uniquement la cause initiale de décès, qui représente la maladie ou le traumatisme ayant initié la séquence d'événements menant au décès. Cette méthode comporte plusieurs limites. L'analyse de causes multiples, qui a la qualité d'utiliser toutes les causes citées sur le certificat de décès, serait particulièrement indiquée pour mieux expliquer la mortalité puisque les décès sont souvent attribuables à plusieurs processus morbides concurrents. L'analyse des causes multiples de décès chez les personnes âgées au Québec pour les années 2000-2004 permet d'identifier plusieurs conditions ayant contribué au décès, mais n'ayant toutefois pas été sélectionnées comme cause ayant initié le processus morbide. C'est particulièrement le cas de l'hypertension, de l'athérosclérose, de la septicémie, de la grippe et pneumonie, du diabète sucré et de la néphrite, syndrome néphrotique et néphropathie. Cette recherche démontre donc l'importance de la prise en compte des causes multiples afin de dresser un portrait plus juste de la mortalité québécoise aux âges où se concentrent principalement les décès que le permet l'analyse de la cause initiale seule.
Resumo:
Les tendances de la participation à la formation des adultes au Canada n’ont pas évolué depuis des décennies, malgré les nouvelles influences économiques qui ont stimulé l’augmentation et la diversification permanente de la formation des employés et malgré les initiatives plus nombreuses en faveur de l’apprentissage des employés en milieu de travail. Il est donc nécessaire de ne plus se contenter d’étudier les prédicteurs de la formation déjà connus dans les profils des employés et des employeurs. Il est, en revanche, indispensable d’étudier les antécédents de la participation des employés à la formation, y compris les aspects et les étapes du processus qui la précède. Cette étude porte sur les antécédents de la participation des employés aux formations dans un important collège communautaire urbain en Ontario. Afin de préparer le recueil des données, un cadre théorique a été élaboré à partir du concept d’expression de la demande. Ce cadre implique l’existence d’un processus qui comporte plusieurs étapes, au cours desquelles plusieurs intervenants interagissent et dont la formation est susceptible d’être le résultat. Les résultats de l’enquête sur le profil d’apprentissage ont permis de conclure que le comportement des employés et de l’employeur est conforme aux modèles de prédicteurs existants et que les taux et les types de participation étaient similaires aux tendances nationales et internationales. L’analyse des entrevues d’un groupe d’employés atypiques, de leurs superviseurs, ainsi que de représentants du collège et du syndicat, a révélé d’importants thèmes clés : l’expression de la demande n’est pas structurée et elle est communiquée par plusieurs canaux, en excluant parfois les superviseurs. De plus, la place de l’auto évaluation est importante, ainsi que la phase de prise de décision. Ces thèmes ont souligné l’interaction de plusieurs intervenants dans le processus d’expression de la demande d’apprentissage et pendant la prise de décision. L’examen des attentes de chacun de ces intervenants au cours de ce processus nous a permis de découvrir un désir tacite chez les superviseurs et les employés, à savoir que la conversation soit à l’initiative de « l’autre ». Ces thèmes clés ont été ensuite abordés dans une discussion qui a révélé une discordance entre le profil de l’employeur et les profils des employés. Celle-ci se prête à la correction par l’employeur de son profil institutionnel pour l’harmoniser avec le profil dispositionnel des employés et optimiser ainsi vraisemblablement son offre de formation. Ils doivent, pour cela, appliquer un processus plus systématique et plus structuré, doté de meilleurs outils. La discussion a porté finalement sur les effets des motivations économiques sur la participation des employés et a permis de conclure que, bien que les employés ne semblent pas se méfier de l’offre de formation de l’employeur et que celle ci ne semble pas non plus les décourager, des questions de pouvoir sont bel et bien en jeu. Elles se sont principalement manifestées pendant le processus de prise de décision et, à cet égard, les superviseurs comme les employés reconnaissent qu’un processus plus structuré serait bénéfique, puisqu’il atténuerait les problèmes d’asymétrie et d’ambiguïté. Les constatations de cette étude sont pertinentes pour le secteur de la formation des adultes et de la formation en milieu de travail et, plus particulièrement, pour la méthodologie de recherche. Nous avons constaté l’avantage d’une méthodologie à deux volets, à l’écoute de l’employeur et des employés, afin de mieux comprendre la relation entre l’offre de formation et la participation à la formation. La définition des antécédents de la participation sous la forme d’un processus dans lequel plusieurs intervenants remplissent plusieurs rôles a permis de créer un modèle plus détaillé qui servira à la recherche future. Ce dernier a démontré qu’il est indispensable de reconnaître que la prise de décision constitue une étape à part entière, située entre l’expression de la demande et la participation à la formation. Ces constatations ont également révélé qu’il est véritablement indispensable que le secteur de la formation des adultes continue à traiter les questions reliées à la reconnaissance de la formation informelle. Ces conclusions et la discussion sur les constatations clés nous ont inspiré des recommandations à appliquer pour modifier les retombées du processus précédant la participation des employés à la formation. La majorité de ces recommandations ont trait à l’infrastructure de ce processus et ciblent donc principalement l’employeur. Certaines recommandations sont cependant destinées aux syndicats, aux superviseurs et aux employés qui peuvent aider l’employeur à remplir son rôle et favoriser la participation efficace de tous à ce processus. Les recommandations qui précédent impliquent que ce sont les antécédents de la formation qui gagneraient à être plus structurés et non la formation elle même. La structuration de l’infrastructure de l’apprentissage présente cependant des risques à elle seule. En liaison avec ce phénomène, une étude spécifique des effets de la nature, de la qualité et de l’asymétrie de la relation superviseur employé sur la participation des employés à la formation serait bénéfique. Mots clés : formation en entreprise, formation professionnelle continue, antécédents à la participation, employés de soutien
Resumo:
L’objectif général de cette recherche doctorale est l’étude des déterminants de l’intégration pédagogique des technologies de l’information et de la communication (TIC) par les professeurs à l’Université de Ouagadougou (UO). Cela nous a conduit à étudier respectivement les compétences technologiques des professeurs, les facteurs de résistance contraignant l’intégration pédagogique des TIC par ces professeurs, l’acceptation et les usages spécifiques des TIC par les professeurs. Ce travail s’est bâti autour des concepts théoriques sur les usages éducatifs des TIC, les compétences technopédagogiques, les facteurs de résistance, l’acceptation des TIC et l’intégration pédagogique des TIC. Ces concepts se sont inscrits dans les cadres d’analyses des modèles d’intégration des TIC par les professeurs et des modèles d’acceptation et d’utilisation d’une nouvelle technologie. La stratégie d’analyse des données s’est construite autour des approches descriptives et analytiques notamment au moyen de l’utilisation de la psychométrie et/ou de l’économétrie des modèles à variables dépendantes limitées. Utilisant la recherche quantitative, le recrutement de 82 professeurs par avis de consentement à participer, a permis de collecter les données sur la base de questionnaires dont la majeure partie est bâtie autour de questions à échelle de Likert. L’étude des compétences technologiques des professeurs a permis d’une part, de dresser un portrait des usages des TIC par les professeurs. En effet, les usages les plus répandus des TIC dans cette université sont les logiciels de bureautique, les logiciels de messagerie électronique et de navigation dans Internet. Elle a aussi permis de faire un portrait des compétences technologiques des professeurs. Ceux-ci utilisent à la fois plusieurs logiciels et reconnaissent l’importance des TIC pour leurs tâches pédagogiques et de recherche même si leur degré de maîtrise perçue sur certaines des applications télématiques reste à des niveaux très bas. Par rapport à certaines compétences comme celles destinées à exploiter les TIC dans des situations de communication et de collaboration et celles destinée à rechercher et à traiter des informations à l’aide des TIC, les niveaux de maîtrise par les professeurs de ces compétences ont été très élevés. Les professeurs ont eu des niveaux de maîtrise très faibles sur les compétences destinées à créer des situations d’apprentissage à l’aide des TIC et sur celles destinées à développer et à diffuser des ressources d’apprentissage à l’aide des TIC malgré la grande importance que ceux-ci ont accordée à ces compétences avancées essentielles pour une intégration efficace et efficiente des TIC à leurs pratiques pédagogiques. L’étude des facteurs de résistance a permis d’ériger une typologie de ces facteurs. Ces facteurs vont des contraintes matérielles et infrastructurelles à celles liées aux compétences informatiques et à des contraintes liées à la motivation et à l’engagement personnel des professeurs, facteurs pouvant susciter des comportements de refus de la technologie. Ces facteurs sont entre autres, la compatibilité des TIC d’avec les tâches pédagogiques et de recherche des professeurs, l’utilité perçue des TIC pour les activités pédagogiques et de recherche, les facilités d’utilisation des TIC et la motivation ou l’engagement personnel des professeurs aux usages des TIC. Il y a aussi les coûts engendrés par l’accès aux TIC et le manque de soutien et d’assistance technique au plan institutionnel qui se sont révelés enfreindre le développement de ces usages parmi les professeurs. Les estimations des déterminants de l’acceptation et des usages éducatifs des TIC par les professeurs ont montré que c’est surtout « l’intention comportementale » d’aller aux TIC des professeurs, « l’expérience d’Internet » qui affectent positivement les usages éducatifs des TIC. Les « conditions de facilitation » qui représentent non seulement la qualité de l’infrastructure technologique, mais aussi l’existence d’un soutien institutionnel aux usages des TIC, ont affecté négativement ces usages. Des éléments de recommandation issus de ce travail s’orientent vers la formation des professeurs sur des compétences précises identifiées, l’amélioration de la qualité de l’infrastructure technologique existante, la création d’un logithèque, la mise en œuvre d’incitations institutionnelles adéquates telles que l’assistance technique régulière aux professeurs, l’allègement des volumes horaires statutaires des professeurs novateurs, la reconnaissance des efforts déjà réalisés par ces novateurs en matière d’usages éducatifs des TIC dans leur institution.
Resumo:
Le présent projet vise à documenter la nécessité d’augmenter notre connaissance de la présence des contaminants organiques tels que les médicaments dans l’environnement et d’évaluer leur devenir environnemental. On a étudié la présence de composés pharmaceutiques dans différents échantillons d'eau. On a focalisé nos efforts spécialement sur les échantillons d'eau de l'usine d'épuration de la Ville de Montréal et ses effluents, les eaux de surface avoisinantes et l’eau du robinet dans la région de Montréal. Pour ce faire, on a tout d’abord développé deux méthodes analytiques automatisées basées sur la chromatographie liquide avec extraction en phase solide (SPE) couplée à la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). On a également étudié les performances des trois techniques d'ionisation à pression atmosphérique (API), pour ensuite les utiliser dans la méthode analytique développée. On a démontré que l'ionisation par électronébulisation (ESI) est une méthode d'ionisation plus efficace pour l'analyse des contaminants pharmaceutiques dans des échantillons de matrices très complexes comme les eaux usées. Une première méthode analytique SPE couplée à la LC-MS/MS a été développée et validée pour l'étude des échantillons complexes provenant de l'usine d'épuration de la Ville de Montréal et des eaux de surface près de l'usine. Cinq médicaments de prescription ont été étudiés: le bézafibrate (un régulateur de lipides), le cyclophosphamide et le méthotrexate (deux agents anticancéreux), l'orlistat (un agent anti-obésité) et l’énalapril (utilisé dans le traitement de l'hypertension). La plupart de ces drogues sont excrétées par le corps humain et rejetées dans les eaux usées domestiques en faisant par la suite leur chemin vers les usines municipales de traitement des eaux usées. On a pu démontrer qu'il y a un faible taux d’élimination à l'usine d'épuration pour le bézafibrate et l'énalapril. Ces deux composés ont aussi été détectés dans les eaux de surface sur un site à proximité immédiate de la décharge de l’effluent de la station d'épuration. i En observant la nécessité de l'amélioration des limites de détection de la première méthode analytique, une deuxième méthode a été développée. Pour la deuxième méthode, un total de 14 contaminants organiques, incluant trois agents anti-infectieux (clarithromycin, sulfaméthoxazole et triméthoprime), un anticonvulsant (carbamazépine) et son produit de dégradation (10,11-dihydrocarbamazépine), l'agent antihypertensif (enalapril), deux antinéoplastiques utilisés en chimiothérapie (cyclophosphamide et méthotrexate), des herbicides (atrazine, cyanazine, et simazine) et deux produits de transformation de l’atrazine (deséthylatrazine et déisopropylatrazine) ainsi qu’un agent antiseptique (triclocarban). Ces produits ont été quantifiés dans les eaux de surface ainsi que dans l’eau du robinet. L'amélioration des limites de détection pour cette méthode a été possible grâce à la charge d'un volume d'échantillon supérieur à celui utilisé dans la première méthode (10 mL vs 1 mL). D'autres techniques de confirmation, telles que les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle et la mesure des masses exactes par spectrométrie de masse à temps d’envol, ont été explorées. L'utilisation d'un analyseur de masse à temps d’envol a permis la confirmation de 6 des 14 analytes. Finalement, étant donné leur haute toxicité et pour évaluer leur persistance et leur transformation au niveau du traitement des eaux potables, la cinétique d'oxydation du cyclophosphamide et de méthotrexate avec l'ozone moléculaire et des radicaux OH a été étudiée. Les constantes de dégradation avec l'ozone moléculaire ont été calculées et la qualité de l'eau après traitement a pu être évaluée. Le rendement du processus d'ozonation a été amélioré pour la cyclophosphamide dans les eaux naturelles, en raison de la combinaison de réactions directes et indirectes. Cette étude a montré que l'ozone est très efficace pour oxyder le méthotrexate mais que le cyclophosphamide serait trop lent à s’oxyder pour un traitement efficace aux conditions usuelles de traitement de l’eau potable.
Resumo:
Les méthodes de vaccination actuelles contre l’influenza, axées sur la réponse à anticorps dirigée contre des antigènes hautement variables, nécessitent la production d’un vaccin pour chaque nouvelle souche. Le défi est maintenant de stimuler simultanément une réponse cellulaire pan-spécifique ciblant des antigènes conservés du virus, tel que la protéine de la matrice (M1) ou la nucléoprotéine (NP). Or, la présentation antigénique de ces protéines est peu définie chez l’humain. Nous avons analysé la présentation endogène par les complexes majeurs d’histocompatibilité de classes (CMH)-I et -II de M1 et de NP. Ainsi, les protéines M1 et NP ont été exprimées dans des cellules présentatrices d’antigènes (CPAs). Notamment, des épitopes de M1 et de NP endogènes peuvent être présentées par CMH-I et -II, ce qui résulte en une activation respectivement de lymphocytes T CD8+ et CD4+ précédemment isolés. Étant donné l’importance des lymphocytes T CD4+ dans la réponse cellulaire, nous avons cloné M1 ou NP en fusion avec des séquences de la protéine gp100 permettant la mobilisation vers les compartiments du CMH-II sans affecter la présentation par CMH-I. Des CPAs exprimant de façon endogène ces constructions modifiées ou sauvages ont ensuite été utilisées pour stimuler in vitro des lymphocytes T humains dont la qualité a été évaluée selon la production de cytokines et la présence de molécules de surface (ELISA ou marquage de cytokines intracellulaire). Nous avons observé une expansion de lymphocytes T CD8+ et CD4+ effecteurs spécifiques sécrétant diverses cytokines pro-inflammatoires (IFN-γ, TNF, MIP-1β) dans des proportions comparables avec une présentation par CMH-II basale ou améliorée. Cette qualité indépendante du niveau de présentation endogène par CMH-II de M1 et de NP des lymphocytes T CD4+ et CD8+ suggère que cette présentation est suffisante à court terme. En outre, la présentation endogène de M1 et NP a permis de stimuler des lymphocytes T spécifiques à des épitopes conservés du virus, tel qu’identifié à l’aide une méthode d’identification originale basée sur des segments d’ARNm, « mRNA PCR-based epitope chase (mPEC) ». Ensemble, ces nouvelles connaissances sur la présentation antigénique de M1 et de NP pourraient servir à établir de nouvelles stratégies vaccinales pan-spécifiques contre l’influenza.
Resumo:
La transformation de modèles consiste à transformer un modèle source en un modèle cible conformément à des méta-modèles source et cible. Nous distinguons deux types de transformations. La première est exogène où les méta-modèles source et cible représentent des formalismes différents et où tous les éléments du modèle source sont transformés. Quand elle concerne un même formalisme, la transformation est endogène. Ce type de transformation nécessite généralement deux étapes : l’identification des éléments du modèle source à transformer, puis la transformation de ces éléments. Dans le cadre de cette thèse, nous proposons trois principales contributions liées à ces problèmes de transformation. La première contribution est l’automatisation des transformations des modèles. Nous proposons de considérer le problème de transformation comme un problème d'optimisation combinatoire où un modèle cible peut être automatiquement généré à partir d'un nombre réduit d'exemples de transformations. Cette première contribution peut être appliquée aux transformations exogènes ou endogènes (après la détection des éléments à transformer). La deuxième contribution est liée à la transformation endogène où les éléments à transformer du modèle source doivent être détectés. Nous proposons une approche pour la détection des défauts de conception comme étape préalable au refactoring. Cette approche est inspirée du principe de la détection des virus par le système immunitaire humain, appelée sélection négative. L’idée consiste à utiliser de bonnes pratiques d’implémentation pour détecter les parties du code à risque. La troisième contribution vise à tester un mécanisme de transformation en utilisant une fonction oracle pour détecter les erreurs. Nous avons adapté le mécanisme de sélection négative qui consiste à considérer comme une erreur toute déviation entre les traces de transformation à évaluer et une base d’exemples contenant des traces de transformation de bonne qualité. La fonction oracle calcule cette dissimilarité et les erreurs sont ordonnées selon ce score. Les différentes contributions ont été évaluées sur d’importants projets et les résultats obtenus montrent leurs efficacités.
Resumo:
Plusieurs auteurs (Nadon, 2007; Tauveron, 2005; Routman, 2010) ont mis de l’avant des propositions didactiques pour enseigner l’écriture de façon optimale à partir de la littérature de jeunesse, notamment en amenant les élèves à s’inspirer du style d’un auteur. Puisque la littérature de jeunesse est encore peu employée pour induire des situations d’écriture au primaire (Montésinos-Gelet et Morin, 2007), cette recherche présente un dispositif novateur, soit l’écriture à la manière d’un auteur qui consiste à placer l’élève dans une situation d’appropriation-observation d’une oeuvre littéraire dans le but d’en ressortir ses caractéristiques et de l’imiter (Geist, 2005 et Tauveron, 2002). Selon Olness (2007), l’exposition à une littérature de jeunesse de qualité est essentielle pour permettre aux élèves d’apprendre une variété de styles et d’éléments littéraires. Cette recherche a pour but de décrire dix séquences d’écriture à la manière d’un auteur conçues par l’enseignante-chercheuse et d’identifier les impacts de celles-ci, auprès des élèves, sur leurs habiletés en production écrite, de compréhension en lecture et sur leur motivation à l’écriture. Cette recherche a été réalisée pendant une période de 5 mois auprès de 18 élèves d’une classe de 2e année du primaire. Il ressort de cette recherche que les élèves ont grandement développé leur capacité à analyser et imiter les caractéristiques d’un texte source et qu’ils ont transféré ces apprentissages au-delà du contexte de notre recherche. Par la pratique fréquente et le modelage, ils ont assimilés les six traits de l’écriture et ont manifesté un intérêt grandissant envers la littérature de jeunesse.
Resumo:
Depuis quelques décennies, l'intérêt pour l’étude de la fonction d’évaluation s’est diversifié pour approfondir les principes théoriques (Jenkinson, 1922; Schellenberg, 1956; Samuels, 1992; Cook, 1992b; Eastwood, 1992b; Duranti, 1994; Couture, 1999), les stratégies (Booms, 1972; Samuels, 1986; Cook, 1992b; Eastwood, 1992b; Couture, 1999) et les dispositifs de leur processus d’application (Ham, 1984; Boles & Young, 1991; Cook, 2001a, 2001b). Mais, toutes ces contributions n'ont pas encore étudié la nature des résultats de l'évaluation que sont les archives définitives. Du point de vue patrimonial, l’absence d’études sur la définition et la mesure des qualités des archives définitives ne permet pas de vérifier si ces archives constituent un patrimoine documentaire significatif. Sur le plan administratif, l’état actuel de la pratique de l'évaluation n'a pas encore investi dans l'examen méticuleux de la nature de ses résultats. Au plan économique, le manque de méthodes et d'outils pour la mesure des qualités des archives ne permet pas de juger si ces archives valent l’investissement matériel, technique, financier et humain que leur conservation implique. Du point de vue professionnel, l’absence de méthodes et d’instruments d’évaluation des qualités des archives ne permet pas aux professionnels d’appuyer leur décision en matière d’évaluation des archives. Afin de remédier à cette situation, notre recherche vise à définir et à mesurer les qualités des archives définitives issues de l’évaluation. Pour ce faire, nous privilégions une méthodologie quantitative de nature descriptive, appropriée lorsqu’il s’agit d’étudier un sujet peu abordé (Fortin, 2006) tel que l'opérationnalisation des qualités des archives définitives. La stratégie de la recherche a comporté deux phases. La phase conceptuelle a permis d’identifier et de définir quatre qualités soit l’« Unicité », la « Preuve crédible », l’« Exploitabilité » et la « Représentativité ». La phase empirique consistait à vérifier la mesurabilité, à titre d’exemple, des variables découlant de deux des quatre dimensions de qualité dans le contexte des archives définitives, soit la « Preuve crédible » et l’« Exploitabilité ». Le mode de collecte des données réside dans l’application d’une grille de mesure conçue spécialement aux fins de cette étude. La réalisation de la collecte de données qui s’est déroulée à Bibliothèque et Archives nationales du Québec a permis l’opérationnalisation de 10 indicateurs spécifiques sur 13 appartenant à deux dimensions de qualité : la « Preuve crédible » et l’« Exploitabilité » des archives définitives. Ainsi, trois indicateurs spécifiques sur l’ensemble de 13 sont restés sans mesures à cause d’une certaine faiblesse liée à leur mesure que nous avons pu identifier et vérifier lors des pré-tests de la recherche. Ces trois indicateurs spécifiques sont le « Créateur » dans le cadre de la dimension de la « Preuve crédible », ainsi que la « Compréhensibilité » et la « Repérabilité » dans le cadre de la dimension de l’« Exploitabilité ». Les mesures obtenues pour les 10 indicateurs ont mené à l’identification des avantages et des points à améliorer concernant différentes variables liées au créateur, au service de conservation ou encore à l’état et à la nature du support. Cibler l’amélioration d’un produit ou d’un service représente, comme démontré dans la revue de la littérature, le but ultime d’une étude sur les dimensions de qualité. Trois types de contributions découlent de cette recherche. Au plan théorique, cette recherche offre un cadre conceptuel qui permet de définir le concept de qualité des archives définitives dans une perspective d’évaluation archivistique. Au plan méthodologique, elle propose une méthode de mesure des qualités applicables aux archives définitives ainsi que les instruments et le guide qui expliquent sa réalisation. Au plan professionnel, d'une part, elle permet d’évaluer les résultats de l’exercice de l’évaluation archivistique; d'autre part, elle offre aux professionnels non seulement une grille de mesure des qualités des archives définitives déjà testée, mais aussi le guide de son application.
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en Sciences infirmières option expertise-conseil en soins infirmiers
Resumo:
Les analyses spatiales et statistiques ont été réalisées avec les logiciels ArcView et SPSS
Resumo:
David Hull et Philip Kitcher présentent tous deux une description des sciences qui tient compte autant de l'articulation logique des théories que de leur dynamique sociale. Hull (1988a, 2001) tente de rendre compte du progrès scientifique par le biais d'une analyse sélectionniste, en s'appuyant sur les contingences sociales et les biais individuels en tant que pressions de sélections. Pour lui, un processus de sélection darwinien filtre les théories supérieures des théories inadéquates. Kitcher (1993) présente plutôt le progrès scientifique comme un changement de consensus résultant de processus sociaux et psychologiques qui mènent de manière fiable à la vérité. Les théories sont ainsi filtrées par une dynamique sociale qui sélectionne les théories selon la qualité de leur articulation logique. Kitcher (1988) exprime un doute à l'idée qu'un processus de sélection darwinien du type suggéré par Hull puisse ajouter quoi que ce soit à une explication du processus d'avancement des sciences. Ce mémoire tentera d'établir si cette critique de Kitcher est fondée. Dans cette optique, une analyse détaillée de l’approche de Hull sera nécessaire afin d’examiner comment il justifie le lien qu’il établit entre la pratique scientifique et un processus de sélection. Un contraste sera ensuite fait avec l’approche de Kitcher pour tester la force et la nécessité de ce lien et pour expliquer le désaccord de Kitcher. Cette analyse comparative permettra de préciser les avantages et les désavantages uniques à chacune des approches pour déterminer si une analyse sélectionniste est plus prometteuse qu’une analyse non-sélectionniste pour rendre compte du progrès scientifique.