609 resultados para Collicule supérieur


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’annotation en rôles sémantiques est une tâche qui permet d’attribuer des étiquettes de rôles telles que Agent, Patient, Instrument, Lieu, Destination etc. aux différents participants actants ou circonstants (arguments ou adjoints) d’une lexie prédicative. Cette tâche nécessite des ressources lexicales riches ou des corpus importants contenant des phrases annotées manuellement par des linguistes sur lesquels peuvent s’appuyer certaines approches d’automatisation (statistiques ou apprentissage machine). Les travaux antérieurs dans ce domaine ont porté essentiellement sur la langue anglaise qui dispose de ressources riches, telles que PropBank, VerbNet et FrameNet, qui ont servi à alimenter les systèmes d’annotation automatisés. L’annotation dans d’autres langues, pour lesquelles on ne dispose pas d’un corpus annoté manuellement, repose souvent sur le FrameNet anglais. Une ressource telle que FrameNet de l’anglais est plus que nécessaire pour les systèmes d’annotation automatisé et l’annotation manuelle de milliers de phrases par des linguistes est une tâche fastidieuse et exigeante en temps. Nous avons proposé dans cette thèse un système automatique pour aider les linguistes dans cette tâche qui pourraient alors se limiter à la validation des annotations proposées par le système. Dans notre travail, nous ne considérons que les verbes qui sont plus susceptibles que les noms d’être accompagnés par des actants réalisés dans les phrases. Ces verbes concernent les termes de spécialité d’informatique et d’Internet (ex. accéder, configurer, naviguer, télécharger) dont la structure actancielle est enrichie manuellement par des rôles sémantiques. La structure actancielle des lexies verbales est décrite selon les principes de la Lexicologie Explicative et Combinatoire, LEC de Mel’čuk et fait appel partiellement (en ce qui concerne les rôles sémantiques) à la notion de Frame Element tel que décrit dans la théorie Frame Semantics (FS) de Fillmore. Ces deux théories ont ceci de commun qu’elles mènent toutes les deux à la construction de dictionnaires différents de ceux issus des approches traditionnelles. Les lexies verbales d’informatique et d’Internet qui ont été annotées manuellement dans plusieurs contextes constituent notre corpus spécialisé. Notre système qui attribue automatiquement des rôles sémantiques aux actants est basé sur des règles ou classificateurs entraînés sur plus de 2300 contextes. Nous sommes limités à une liste de rôles restreinte car certains rôles dans notre corpus n’ont pas assez d’exemples annotés manuellement. Dans notre système, nous n’avons traité que les rôles Patient, Agent et Destination dont le nombre d’exemple est supérieur à 300. Nous avons crée une classe que nous avons nommé Autre où nous avons rassemblé les autres rôles dont le nombre d’exemples annotés est inférieur à 100. Nous avons subdivisé la tâche d’annotation en sous-tâches : identifier les participants actants et circonstants et attribuer des rôles sémantiques uniquement aux actants qui contribuent au sens de la lexie verbale. Nous avons soumis les phrases de notre corpus à l’analyseur syntaxique Syntex afin d’extraire les informations syntaxiques qui décrivent les différents participants d’une lexie verbale dans une phrase. Ces informations ont servi de traits (features) dans notre modèle d’apprentissage. Nous avons proposé deux techniques pour l’identification des participants : une technique à base de règles où nous avons extrait une trentaine de règles et une autre technique basée sur l’apprentissage machine. Ces mêmes techniques ont été utilisées pour la tâche de distinguer les actants des circonstants. Nous avons proposé pour la tâche d’attribuer des rôles sémantiques aux actants, une méthode de partitionnement (clustering) semi supervisé des instances que nous avons comparée à la méthode de classification de rôles sémantiques. Nous avons utilisé CHAMÉLÉON, un algorithme hiérarchique ascendant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nouveaux dispositifs de formation à distance représentent de nouvelles modalités de formation dans l’enseignement supérieur. Ces dispositifs impliquent l’utilisation d’environnements pédagogiques adaptés qui favorisent les situations de travail collaboratif. La collaboration au sein de ces outils résulte non seulement des interactions entre les étudiants, mais aussi des modalités de travail et d’accompagnement mises en place au préalable par les enseignants, notamment pour que les interactions fassent sens pour les étudiants. Ainsi, la question qui guide cette étude de cas est la suivante. Comment se caractérise le travail collaboratif des étudiants dans les blogs dans le cadre du cours ETA 6538? Plus précisément, nous cherchons à comprendre comment les étudiants collaborent à l'intérieur des blogs et quels sont les indicateurs propices à cette collaboration. À l’issue de notre étude, nous proposons une liste de recommandations pour favoriser la mise en place et le déroulement du travail collaboratif au sein des blogs, ainsi que des indicateurs pouvant servir à l’évaluation de la collaboration. Les concepts exploités dans ce mémoire sont relatifs au processus d'acquisition de savoir à partir de la collaboration émanant des interactions au sein des TIC, des dispositifs d’apprentissage en ligne et plus particulièrement des blogues. Nous avons utilisé une méthode de type à la fois quantitative et qualitative. Les blogs de huit étudiants ont été analysés. Les résultats de ces analyses montrent que les étudiants ont collaboré au sein des blogs et qu’ensemble, ils ont fait émergé de nouveaux savoirs et connaissances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La perception est décrite comme l’ensemble des processus permettant au cerveau de recueillir et de traiter l’information sensorielle. Un traitement perceptif atypique se retrouve souvent associé au phénotype autistique habituellement décrit en termes de déficits des habilités sociales et de communication ainsi que par des comportements stéréotypés et intérêts restreints. Les particularités perceptives des autistes se manifestent à différents niveaux de traitement de l’information; les autistes obtiennent des performances supérieures à celles des non autistes pour discriminer des stimuli simples, comme des sons purs, ou encore pour des tâches de plus haut niveau comme la détection de formes enchevêtrées dans une figure complexe. Spécifiquement pour le traitement perceptif de bas niveau, on rapporte une dissociation de performance en vision. En effet, les autistes obtiennent des performances supérieures pour discriminer les stimuli définis par la luminance et inférieures pour les stimuli définis par la texture en comparaison à des non autistes. Ce pattern dichotomique a mené à l’élaboration d’une hypothèse suggérant que l’étendue (ou complexité) du réseau de régions corticales impliquées dans le traitement des stimuli pourrait sous-tendre ces différences comportementales. En effet, les autistes obtiennent des performances supérieures pour traiter les stimuli visuels entièrement décodés au niveau d’une seule région corticale (simples) et inférieures pour les stimuli dont l’analyse requiert l’implication de plusieurs régions corticales (complexes). Un traitement perceptif atypique représente une caractéristique générale associée au phénotype autistique, avec de particularités rapportées tant dans la modalité visuelle qu’auditive. Étant donné les parallèles entre ces deux modalités sensorielles, cette thèse vise à vérifier si l’hypothèse proposée pour expliquer certaines particularités du traitement de l’information visuelle peut possiblement aussi caractériser le traitement de l’information auditive dans l’autisme. Le premier article (Chapitre 2) expose le niveau de performance des autistes, parfois supérieur, parfois inférieur à celui des non autistes lors du traitement de l’information auditive et suggère que la complexité du matériel auditif à traiter pourrait être en lien avec certaines des différences observées. Le deuxième article (Chapitre 3) présente une méta-analyse quantitative investiguant la représentation au niveau cortical de la complexité acoustique chez les non autistes. Ce travail confirme l’organisation fonctionnelle hiérarchique du cortex auditif et permet d’identifier, comme en vision, des stimuli auditifs pouvant être définis comme simples et complexes selon l’étendue du réseau de régions corticales requises pour les traiter. Le troisième article (Chapitre 4) vérifie l’extension des prédictions de l’hypothèse proposée en vision au traitement de l’information auditive. Spécifiquement, ce projet compare les activations cérébrales sous-tendant le traitement des sons simples et complexes chez des autistes et des non autistes. Tel qu’attendu, les autistes montrent un patron d’activité atypique en réponse aux stimuli complexes, c’est-à-dire ceux dont le traitement nécessitent l’implication de plusieurs régions corticales. En bref, l’ensemble des résultats suggèrent que les prédictions de l’hypothèse formulée en vision peuvent aussi s’appliquer en audition et possiblement expliquer certaines particularités du traitement de l’information auditive dans l’autisme. Ce travail met en lumière des différences fondamentales du traitement perceptif contribuant à une meilleure compréhension des mécanismes d’acquisition de l’information dans cette population.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Observer l’évolution de la stomatite prothétique dans le temps quant à la fréquence et la sévérité ainsi que son association avec de potentiels facteurs de risque au cours d’un suivi longitudinal de 2 ans. Matériels et méthodes : Cent trente-cinq patients âgés complètement édentés et en bonne santé ont été sélectionnés pour participer à cette étude et ont été divisés de façon randomisée en deux groupes. Ils ont tous reçu une prothèse dentaire amovible totale conventionnelle au maxillaire supérieur. La moitié d’entre eux a reçu une prothèse totale mandibulaire implanto-portée retenue par deux attachements boule et l’autre moitié une prothèse conventionnelle. Ils ont été suivis sur une période de deux ans. Les données sociodémographiques, d’habitudes de vie, d’hygiène et de satisfaction des prothèses ont été amassées à l’aide de questionnaires. Les patients ont aussi subi un examen oral complet lors duquel une évaluation de la stomatite prothétique, basée sur la classification de Newton, a été effectuée ainsi qu’un prélèvement de la plaque prothétique. Les analyses microbiologiques pertinentes afin de détecter la présence de Candida ont ensuite été effectuées. Des tests Chi-carré de Pearson et McNemar ont été utilisés pour analyser la fréquence de la stomatite, son association avec de possibles facteurs de risque ainsi que son évolution dans le temps. Des rapports de cotes (odds ratio) et leurs intervalles de confiance (95%) ont été effectués afin de déterminer la force d’association entre les facteurs de risque et la stomatite prothétique. Résultats : La prévalence de la stomatite a augmenté entre la première (63,6%) et la deuxième année de suivi (88,7%) avec une incidence de 78,8%. Les patients souffrant d’une stomatite de type 2 ou 3 et qui brossent leur palais ont environ 6 fois plus de chance de voir la sévérité de leur stomatite diminuer [p = 0,04 OR 5,88 CI (1,1-32,2)]. Il n’y a pas d’association statistiquement significative entre la fréquence de la stomatite et les facteurs de risque investigués. La prévalence de la candidose est demeurée stable dans le temps (45,8% et 49,2% à la première et deuxième année de suivi respectivement, p > 0,05). Il n’y a pas d’association entre la présence d’une candidose orale, la stomatite prothétique et les facteurs de risque étudiés. Conclusion : Les résultats de cette étude suggèrent que la stomatite prothétique progresse dans le temps indépendamment de la présence d’une candidose. Le brossage du palais pourrait être une approche simple à conseiller aux patients souffrant d’une stomatite prothétique de type 2 ou 3.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude a comme objectif d’analyser l’intégration linguistique des immigrants au marché du travail au Québec et les facteurs qui y sont associés. Nous le réalisons en examinant la place du français dans les pratiques linguistiques de la main-d’œuvre immigrée au travail. Nous constatons qu’au Québec, en 2007, environ la moitié des immigrants travaillent uniquement ou généralement en français, un quart a régulièrement recours à cette langue dans le cadre de son travail, alors que l’autre quart l’utilise occasionnellement ou ne l’utilise jamais au travail. Nos analyses permettent également d’estimer les effets bruts et nets des nombreux facteurs de l’usage du français au travail par les immigrants. Nous montrons que ce sont les facteurs linguistiques de l’entreprise, de l’entourage et du répondant lui-même qui se manifestent comme des déterminants importants de la langue de travail de celui-ci. Parmi les caractéristiques de l’entreprise, c’est la langue de sa haute direction qui, à travers des politiques d’embauche et des politiques internes, détermine en partie les pratiques linguistiques des travailleurs. La composition linguistique de l’entourage de l’immigrant au travail qui comprend son supérieur immédiat et ses collègues a, elle aussi, un impact important sur la langue employée au travail par celui-ci. Plus cet entourage est composé des personnes de langue maternelle française, plus le travailleur immigré utilisera cette langue au travail. Parmi les caractéristiques individuelles du répondant, sa langue d’études et ses compétences linguistiques ressortent. Les immigrants ayant une bonne connaissance du français l’emploient plus au travail que ceux en ayant une faible connaissance. En revanche, la connaissance de l’anglais a un impact négatif sur l’usage du français au travail. Selon nos analyses, parmi les facteurs non linguistiques qui sont associés significativement à la langue de travail des immigrants, il y a la localisation géographique de l’entreprise, l’origine des travailleurs immigrés, leur profession et l’âge à leur arrivée au Québec.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Israël est l’un des pays développés les plus féconds dans le monde et maintient un taux de fécondité stable depuis 1995. Il a échappé à la chute spectaculaire de la fécondité qui a été observée dans la plupart des pays occidentaux. Le taux de fécondité était de 2,96 enfants par femme en 2009 (Statistical Abstract of Israel, 2010, tableau 3.14). Le maintien d’une si forte fécondité pourrait être dû à l’immigration et à la “guerre démographique” qui sévit entre les différentes communautés vivant dans le pays (Sardon, 2006). Toutefois, on observe une différence significative entre les niveaux de fécondité des juifs d’Israël et de Cisjordanie depuis plusieurs années. Les études qui portent sur la fécondité en Israël sont faites au niveau national, ce qui ne fournit aucune explication sur cette différence. Pour ces raisons, l’étude de la fécondité en Israël mérite une attention particulière. Ce projet vise à identifier les différents facteurs qui ont une incidence sur la fécondité des femmes juives vivant en Israël et en Cisjordanie. Il contribuera à une meilleure compréhension des comportements liés à la fécondité de la population juive de la Cisjordanie et peut fournir des indices sur les mécanismes complexes qui régissent les relations entre Juifs et Arabes dans les territoires occupés. Grâce aux données recueillies dans l’Enquête sociale générale de 2004 d’Israël,des analyses descriptives et explicatives ont été produites. Dans un premier temps, les facteurs qui ont un impact sur la fécondité dans chaque région ont été déterminés et par la suite, une analyse de l’importance de ces facteur sur la fécondité a été produite. Le nombre d’enfants nés de femmes âgées de 20 à 55 ans constitue la variable d’intérêt et les variables explicatives retenues sont les suivantes: religiosité, éducation, revenu familial mensuel, statut d’emploi, pays d’origine, âge et état matrimonial. Cette étude a montré que les femmes juives qui résident en Cisjordanie ont un nombre prévu d’enfants de 13% supérieur à celui des femmes juives qui résident en Israël lorsque l’on contrôle toutes les variables. Il est notamment montré que la religion joue un rôle important dans l’explication de la forte fécondité des femmes juives dans les deux régions, mais son impact est plus important en Israël. L’éducation joue également un rôle important dans la réduction du nombre prévu d’enfants, en particulier en Cisjordanie. Tous ces facteurs contribuent à expliquer les différents niveaux de fécondité dans les deux régions, mais l’étude montre que ces facteurs ne permettent pas une explication exhaustive de la forte fécondité en Israël et en Cisjordanie. D’autres forces qui ne sont pas mesurables doivent avoir une incidence sur la fécondité telles que le nationalisme ou la laïcisation, par exemple.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La relation élève-enseignant (REE) est reconnue comme étant optimale lorsqu’elle est fortement chaleureuse et faiblement conflictuelle. Sur le plan empirique, plusieurs évidences montrent que la qualité de la REE est liée significativement à divers indicateurs de la réussite scolaire. De façon générale, celles-ci affirment que plus un élève entretient une relation optimale avec son enseignant, plus ses résultats scolaires sont élevés, plus il adopte des comportements prosociaux, et plus il présente des affects et des comportements positifs envers l’école. Des études précisent également que l’influence de la qualité de la REE est particulièrement importante chez les élèves à risque. Si les effets positifs d’une REE optimale sont bien connus, les facteurs favorisant son émergence sont quant à eux moins bien compris. En fait, bien que certains attributs personnels de l’élève ou de l’enseignant aient été identifiés comme participant significativement à la qualité de la REE, peu d’études ont investigué l’importance des facteurs psychologiques et contextuels dans l’explication de ce phénomène. Souhaitant pallier cette lacune, la présente étude poursuit trois objectifs qui sont: 1) d’examiner les liens entre les stresseurs, le soutien social, la santé psychologique au travail (SPT) et la qualité de la REE; 2) de vérifier l’effet médiateur de la SPT dans la relation entre les stresseurs, le soutien social et la qualité de la REE, et; 3) d’examiner les différences quant aux liens répertoriés auprès d’élèves réguliers et à risque. Afin d’atteindre ces objectifs, 231 enseignants québécois de niveau préscolaire et primaire ont été investigués. Les résultats des analyses montrent que les comportements perturbateurs des élèves en classe prédisent positivement le conflit entre l’enseignant et les élèves à risque. Ils montrent également que le soutien des parents et le soutien du supérieur prédisent respectivement la présence de REE chaleureuses chez les élèves réguliers et à risque. La SPT de l’enseignant prédit quant à elle positivement la présence de REE chaleureuses et négativement la présence de REE conflictuelles. Les résultats de cette recherche montrent aussi que le soutien social affecte indirectement la présence de REE chaleureuses par le biais de la SPT de l’enseignant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous cherchions à explorer les compétences que les intervenants du service des urgences (SU), des médecins et des infirmières travaillant en équipe dans des rôles complémentaires, ont développées dans la divulgation d‘un décès, pour éclairer l‘apprentissage de cette compétence de « Communicateur ». Nous avons utilisé des entrevues semi-dirigées et un échantillonnage non probabiliste de 8 intervenants. Nous avons analysé les entrevues à l‘aide de méthodes qualitatives reconnues. Le nombre total de présences de nos intervenants à une divulgation est estimé supérieur à 2000. Notre analyse a démontré qu‘ils utilisent une structure de divulgation uniforme. Néanmoins, ils repoussaient l‘utilisation d‘un protocole, parce que jugé trop rigide. La flexibilité et l‘empathie se sont révélées des qualités essentielles pour les intervenants. Nous représentons la visite de la famille comme un épisode de désorganisation/dysfonction qui se résorbe partiellement durant le séjour au SU. Nous proposons un modèle pédagogique qui est basé sur nos résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La littérature montre que plusieurs aspects du travail d’universitaire sont influencés tant par la discipline et l’organisation, que par les caractéristiques individuelles des professeurs. Cette recherche vise à explorer l’impact de ces deux premiers facteurs sur l’utilisation des technologies de l’information et des communications (TIC) par les professeurs d’une université de recherche. Les données, recueillies par sondage, ont été analysées à l’aide d’un modèle hiérarchique comprenant deux niveaux, dans lequel 350 professeurs sont nichés dans 42 départements. Le statut professoral, le profil d’adoption des innovations technologiques et la perception de la compétence technologique ont été placés au niveau 1 (individus), alors que le secteur disciplinaire et quatre facteurs organisationnels liés à l’enseignement et à la recherche, ont été placés au niveau 2 (départements). Les résultats montrent que ces variables indépendantes n’influencent pas de la même façon l’utilisation des différentes technologies. Une plus grande partie des différences d’utilisation se situe entre les départements lorsqu’on considère l’utilisation du projecteur en salle de classe. L’utilisation d’équipements en salle de classe relève davantage de facteurs organisationnels que celle des environnements numériques d’apprentissage (ENA). Les résultats montrent par ailleurs que la perception de la compétence technologique et le profil d’adoption des innovations technologiques mesurent des choses différentes. Alors que le profil d’adoption influence dans une plus ou moins grande mesure toutes les utilisations, la perception de la compétence n’a d’impact que sur l’utilisation plus poussée des ressources, soit l’utilisation d’une page web personnelle ou d’une plateforme autre que WebCT. Un clivage entre disciplines molles pures et disciplines dures pures existe, mais seulement lorsqu’on considère l’utilisation des ENA et de la page web personnelle. La plateforme WebCT est associée au secteur des sciences humaines alors que l’utilisation de la page web ou d’ENA autre que WebCT est liée au secteur des sciences pures. Dans les deux cas, l’utilisation des ENA est liée à l’enseignement de premier cycle, c’est à dire à un enseignement de masse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les biocapteurs sont utilisés quotidiennement pour déterminer la présence de molécules biologiques dans une matrice complexe, comme l’urine pour les tests de grossesses ou le sang pour les glucomètres. Les techniques courantes pour la détection des autres maladies nécessitent fréquemment le marquage de l’analyte avec une autre molécule, ce qui est à éviter pour fin de simplicité d’analyse. Ces travaux ont pour but la maximisation de la sensibilité d’une surface d’or ou d’argent nanotrouée, afin de permettre la détection de la liaison de molécules biologiques par résonance des plasmons de surface localisés (LSPR), en utilisant la spectroscopie de transmission. Un biocapteur portable, rapide et sans marquage pour quantifier des analytes d’intérêt médical ou environnemental pourrait être construit à partir de ces travaux. Dans l’objectif d’étudier de nombreuses configurations pour maximiser la sensibilité, le temps et le coût des méthodes de fabrication de nanostructures habituelles auraient limité le nombre de surfaces nanotrouées pouvant être étudiées. Un autre objectif du projet consiste donc au développement d’une technique de fabrication rapide de réseaux de nanotrous, et à moindres coûts, basée sur la lithographie de nanosphères (NSL) et sur la gravure au plasma à l’oxygène (RIE). La sensibilité à la variation d’indice de réfraction associée aux liaisons de molécules sur la surface du métal noble et la longueur d’onde d’excitation du plasmon de surface sont influencées par les caractéristiques des réseaux de nanotrous. Dans les travaux rapportés ici, la nature du métal utilisé, le diamètre ainsi que la périodicité des trous sont variés pour étudier leur influence sur les bandes LSPR du spectre en transmission pour maximiser cette sensibilité, visant la fabrication d’un biocapteur. Les surfaces d’argent, ayant un diamètre de nanotrous inférieur à 200 nm pour une périodicité de 450 nm et les nanotrous d’une périodicité de 650 nm démontre un potentiel de sensibilité supérieur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de recherche a comme objectif général de déterminer l’identité culturelle des occupants amérindiens qui se sont établis sur le site Rioux (DaEi-19), île Verte, au cours du Sylvicole supérieur tardif. Plusieurs groupes culturels sont reconnus pour avoir transité dans la région de l’estuaire du Saint-Laurent pendant cette période, dont les Iroquoiens du Saint-Laurent, les Malécites, les Mi’kmaq et les Innus (Montagnais). Il est depuis longtemps accepté que les Stadaconiens se rendaient régulièrement dans l’estuaire et le golfe pour y exploiter les ressources marines et y faire la guerre. L’influence de ce groupe sur les Algonquiens de la région, et vice versa, fait encore l’objet de débats. L’identité culturelle des Amérindiens qui ont occupé les sites à caractère iroquoïde dans l’estuaire est toujours une question délicate, puisque les nombreux échanges ont pu, de part et d’autre, transformer la culture matérielle des différents groupes. La méthodologie préconisée pour répondre à la question de l’identité culturelle est une approche holistique dans laquelle nous avons mis à contribution une foule d’informations provenant de diverses sources archéologiques et ethnohistoriques. Ce projet nous a permis de proposer que de petits groupes iroquoiens du Saint-Laurent se soient arrêtés au site Rioux pour y exploiter intensivement les ressources de la mer au cours du Sylvicole supérieur tardif. Bien que la recherche n’ait pas permis d’établir la présence d’un groupe algonquien sur place, l’influence algonquienne se fait toutefois sentir dans les matières premières utilisées sur le site. Ceci laisse croire que les Iroquoiens du site Rioux, et de la Côte-Sud en général, n’étaient pas intrusifs à la région et qu’ils participaient à un important réseau d’échange avec les Algonquiens des provinces maritimes. Notre projet de recherche nous a aussi permis de constater les limites de notre méthodologie et de critiquer l’approche archéologique classique basée essentiellement sur l’identification stylistique, la typologie et l’identification macroscopique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude est de vérifier s’il existe un lien entre les conditions de défavorisation extrême associées à la pauvreté familiale telles que vécues par l’enfant en maternelle et son engagement en classe en 3e année du primaire. Pour ce faire, nous avons analysé des données portant sur un groupe de 341 enfants provenant des régions les plus défavorisées de Montréal à partir des observations rapportées par leur enseignant. Plusieurs régressions multiples ont permis de mettre en évidence des indicateurs sur l’engagement en classe, soit la concentration, la persistance et l’autonomie des participants avec quatre indicateurs liés à la défavorisation extrême soit la faim, les retards à l’école, l’habillement inadéquat et les signes de fatigue. Les résultats de cette étude ont montré que chacun de ces indicateurs pouvait indépendamment contribuer à l’engagement en classe, mais, que deux indicateurs ont un pouvoir prédictif supérieur et fiable, soit le retard en classe et les signes de fatigue. D’autres recherches plus poussées étaient les résultats de la présente étude et suggèrent comment une intervention précoce des enseignants, au début du primaire, pourrait encourager l’engagement en classe d’enfant provenant d’une population défavorisée urbaine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le système cardiovasculaire est composé d'un cœur qui pompe régulièrement le sang à travers des artères afin d'alimenter tous les tissus corporels en oxygène et nutriments qui leur sont nécessaires. Une caractéristique particulière de ce système est son aspect fermé, où le sang fait un cycle constant commençant par le ventricule gauche, allant vers tous les tissus corporels, revenant vers le cœur et le ventricule droit, étant propulsé vers la circulation pulmonaire en retournant au ventricule gauche. L'insuffisance cardiaque est alors une incapacité du cœur à effectuer sa tâche de pomper le sang efficacement. Une série d'ajustements sont alors enclenchés pour rétablir un débit sanguin adéquat; cette réponse systémique est principalement menée par le système rénine-angiotensine-aldostérone ainsi que par le système adrénergique. À court terme, le flot sanguin est rétabli et le métabolisme corporel continue comme si rien n'était, de telle sorte que, souvent ce stade passe inaperçu et les individus qui en sont affectés sont asymptomatiques. Cependant, le cœur doit alors fournir un effort constant supérieur et si la cause n'est pas résolue, la condition cardiaque se dégradera encore plus. Si tel est le cas, pour s'ajuster à cette nouvelle réalité, le cœur, comme tout muscle, deviendra plus massif et changera de conformation afin de répondre à sa nouvelle charge de travail. Cette transformation cardiaque est communément connue sous le terme de remodelage. Par contre, le remodelage cardiaque est délétère à long terme et entrave encore plus le cœur à bien effectuer sa tâche. Au fur et à mesure que la fonction cardiaque décline, les systèmes compensatoires persistent et s'intensifient; il y a alors établissement d'un cercle vicieux destructeur qui ne peut être renversé que par une transplantation cardiaque. Entre temps, des thérapies inhibant le système rénine-angiotensine-aldostérone et le système adrénergique se sont avérés très efficaces pour prolonger la survie, diminuer la mortalité, réduire les hospitalisations ainsi que soulager la symptomatologie associée à l'insuffisance cardiaque. Par contre, ces régimes thérapeutiques ne semblent pas induire une réponse positive chez tous les patients, de sorte que certains n'en retirent pas de bénéfices tangibles, tandis que d'autres éprouvent plusieurs difficultés à les tolérer. Suite à des analyses rétrospectives, surtout en comparant la réponse thérapeutique entre des populations de diverses ethnies, les variations génétiques, particulièrement les polymorphismes ayant le potentiel de moduler le mécanisme d'action de la pharmacothérapie, furent proposés comme responsables de cette variabilité dans la réponse aux médicaments. Certains ont aussi proposé que certains polymorphismes pourraient être considérés comme des facteurs de risque prédisposant à l'insuffisance cardiaque ou coupables de moduler sa progression en tant que facteurs aggravants ou atténuants. Avec de telles hypothèses proposées, plusieurs associations génétiques furent étudiées en commençant par des gènes directement impliqués dans la pathogénèse de cette maladie. Dans le cadre de cette thèse, nous allons revoir les diverses données disponibles dans la littérature au sujet de l'influence que peuvent avoir les divers polymorphismes impliqués dans la prédisposition, la progression et la pharmacogénétique de l'insuffisance cardiaque.