988 resultados para nested scalar convolutions
Resumo:
Contexte: la survenue d’IRA chez les patients ayant subi un traumatisme est une problématique qui a été peu étudiée jusqu’à ce jour. La présence de cette atteinte rénale a été démontrée comme étant associée à un risque accru de morbidités et de mortalité chez les sujets atteints. Objectifs: identifier les facteurs prédictifs d’insuffisance rénale ou plus récemment appelée atteinte rénale dans cette population particulière et tenter de trouver des facteurs qui peuvent être mesurés dans les premières heures de la prise en charge du patient. Aussi, nous avons cherché à savoir si l’injection de produit de contraste est associée à un risque accru d’insuffisance rénale aiguë dans cette population. Méthodes et résultats: la recherche a eu lieu à l’Hôpital du Sacré-Coeur de Montréal, un centre de traumatologie tertiaire en milieu urbain. Nous avons utilisé le registre des patients hospitalisés en traumatologie dans notre centre hospitalier entre 2002 et mars 2007 de même que les banques de données de laboratoire et de radiologie pour obtenir les données sur la créatinine et les examens avec produits de contraste. Finalement, une revue de dossiers structurée fut conduite pour recueillir le reste de l’information requise. L’incidence d’IRA dans la population étudiée est estimée à environ 5 %. Une analyse cas témoins fut conduite pour identifier les facteurs prédictifs d’IRA. Quarante-neuf cas d’IRA diagnostiqués par le médecin traitant et 101 témoins sélectionnés au hasard ont été analysés. Les facteurs prédictifs suivants ont été identifiés à l’analyse univariée : la première valeur de créatinine obtenue (p<0,001), l’instabilité hémodynamique (p<0,001), les antécédents d’insuffisance rénale chronique tels que notés dans le dossier par le médecin traitant (p=0,009), une maladie cardiaque (p=0,007), une chirurgie dans les 48 premières heures suivant le traumatisme (p=0,053), le niveau de gravité du traumatisme (Injury Severity Score) (p=0,046) et l’injection de produit de contraste au cours des 48 heures suivant le trauma (p=0,077). Parmi ces facteurs, deux ont été identifiés comme prédicteurs indépendants d’IRA à l’analyse multivariée. Une des valeurs était la première valeur de créatinine obtenue RC = 6,17 (p<0,001, IC95 % 2,81 – 13,53) pour chaque augmentation de 0.5mg/dL de créatinine. L’autre facteur était la présence d’instabilité hémodynamique RC 11,61 (p<0,001, IC95 % 3,71 – 36,29). Conclusion: des informations obtenues tôt dans la prise en charge du patient permettent de prédire le risque d’IRA chez ces patients. L’administration de contraste (intraveineuse ou intra-artérielle) ne s’est pas avérée un facteur indépendant de prédiction d’insuffisance rénale aiguë dans cette population dans le modèle multivarié.
Resumo:
Cryptosporidium spp. est un protozoaire parasite du système gastro-intestinal largement répandu chez les vertébrés et causant la cryptosporidiose, une zoonose occasionnant des troubles digestifs sévères pouvant entrainer la mort chez les individus immunodéficients. Au Canada, la déclaration de cette maladie est obligatoire depuis l’an 2000. Ainsi, il est pertinent de mieux comprendre l’infection chez les animaux de compagnie, puisqu’ils sont potentiellement un réservoir du parasite. Durant l’année 2008, des échantillons fécaux provenant de 1 202 chats (n = 371) et chiens (n = 831) de la province du Québec ont été analysés par comptage des ookystes de Cryptosporidium spp. au moyen de la technique de centrifugation en solution de sulfate de zinc. Dans cette étude,la prévalence de Cryptosporidium spp. chez les chats (28/371 : 7,55 %) et chez les chiens(88/831 : 10,59 %) de compagnie confirme leur potentiel en tant que réservoir du parasite. Au Québec, de par leur nombre, les chats sont potentiellement un réservoir zoonotique du parasite plus important que celui des chiens, bien qu’il n’existe pas de différence significative entre la prévalence du parasite chez le chat et le chien pour l’année 2008. L’âge (p = 0,0001) et l’infection concomitante par Giardia spp. (p = 0,0001) se sont avérés être des facteurs associés avec la présence de Cryptosporidium spp. chez le chien. Parmi l’ensemble des variables testées chez le chat (l’âge, le sexe, la saison et l’infection concomitante par Giardia spp.), aucune n’a été associée de manière significative à la présence du parasite chez le chat. Ceci peut être dû au nombre limité d’individus testés pour cette espèce. Un suivi de l’excrétion des ookystes de Cryptosporidium spp. chez deux chats suggère que l’excrétion des ookystes peut se faire sur une période de sept mois et que le taux d’excrétion varie dans le temps. Le diagnostic moléculaire des espèces et génotypes de Cryptosporidium spp. isolés à partir des échantillons de matières fécales devait être réalisé par la technique de PCR emboîtée des fragments des gènes ARNr 18S et HSP70 et du séquençage des produits de PCR. Aucun résultat positif n’a toutefois été obtenu. Afin d’augmenter la puissance statistique des analyses épidémiologiques sur la prévalence de Cryptosporidium spp., il serait nécessaire à l’avenir de travailler sur un nombre d’animaux beaucoup plus important.
Resumo:
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.
Resumo:
La littérature montre que plusieurs aspects du travail d’universitaire sont influencés tant par la discipline et l’organisation, que par les caractéristiques individuelles des professeurs. Cette recherche vise à explorer l’impact de ces deux premiers facteurs sur l’utilisation des technologies de l’information et des communications (TIC) par les professeurs d’une université de recherche. Les données, recueillies par sondage, ont été analysées à l’aide d’un modèle hiérarchique comprenant deux niveaux, dans lequel 350 professeurs sont nichés dans 42 départements. Le statut professoral, le profil d’adoption des innovations technologiques et la perception de la compétence technologique ont été placés au niveau 1 (individus), alors que le secteur disciplinaire et quatre facteurs organisationnels liés à l’enseignement et à la recherche, ont été placés au niveau 2 (départements). Les résultats montrent que ces variables indépendantes n’influencent pas de la même façon l’utilisation des différentes technologies. Une plus grande partie des différences d’utilisation se situe entre les départements lorsqu’on considère l’utilisation du projecteur en salle de classe. L’utilisation d’équipements en salle de classe relève davantage de facteurs organisationnels que celle des environnements numériques d’apprentissage (ENA). Les résultats montrent par ailleurs que la perception de la compétence technologique et le profil d’adoption des innovations technologiques mesurent des choses différentes. Alors que le profil d’adoption influence dans une plus ou moins grande mesure toutes les utilisations, la perception de la compétence n’a d’impact que sur l’utilisation plus poussée des ressources, soit l’utilisation d’une page web personnelle ou d’une plateforme autre que WebCT. Un clivage entre disciplines molles pures et disciplines dures pures existe, mais seulement lorsqu’on considère l’utilisation des ENA et de la page web personnelle. La plateforme WebCT est associée au secteur des sciences humaines alors que l’utilisation de la page web ou d’ENA autre que WebCT est liée au secteur des sciences pures. Dans les deux cas, l’utilisation des ENA est liée à l’enseignement de premier cycle, c’est à dire à un enseignement de masse.
Resumo:
Le biais de confusion est un défi majeur des études observationnelles, surtout s'ils sont induits par des caractéristiques difficiles, voire impossibles, à mesurer dans les banques de données administratives de soins de santé. Un des biais de confusion souvent présents dans les études pharmacoépidémiologiques est la prescription sélective (en anglais « prescription channeling »), qui se manifeste lorsque le choix du traitement dépend de l'état de santé du patient et/ou de son expérience antérieure avec diverses options thérapeutiques. Parmi les méthodes de contrôle de ce biais, on retrouve le score de comorbidité, qui caractérise l'état de santé d'un patient à partir de médicaments délivrés ou de diagnostics médicaux rapportés dans les données de facturations des médecins. La performance des scores de comorbidité fait cependant l'objet de controverses car elle semble varier de façon importante selon la population d'intérêt. Les objectifs de cette thèse étaient de développer, valider, et comparer les performances de deux scores de comorbidité (un qui prédit le décès et l’autre qui prédit l’institutionnalisation), développés à partir des banques de services pharmaceutiques de la Régie de l'assurance-maladie du Québec (RAMQ) pour leur utilisation dans la population âgée. Cette thèse vise également à déterminer si l'inclusion de caractéristiques non rapportées ou peu valides dans les banques de données administratives (caractéristiques socio-démographiques, troubles mentaux ou du sommeil), améliore la performance des scores de comorbidité dans la population âgée. Une étude cas-témoins intra-cohorte fut réalisée. La cohorte source consistait en un échantillon aléatoire de 87 389 personnes âgées vivant à domicile, répartie en une cohorte de développement (n=61 172; 70%) et une cohorte de validation (n=26 217; 30%). Les données ont été obtenues à partir des banques de données de la RAMQ. Pour être inclus dans l’étude, les sujets devaient être âgés de 66 ans et plus, et être membres du régime public d'assurance-médicaments du Québec entre le 1er janvier 2000 et le 31 décembre 2009. Les scores ont été développés à partir de la méthode du Framingham Heart Study, et leur performance évaluée par la c-statistique et l’aire sous les courbes « Receiver Operating Curves ». Pour le dernier objectif qui est de documenter l’impact de l’ajout de variables non-mesurées ou peu valides dans les banques de données au score de comorbidité développé, une étude de cohorte prospective (2005-2008) a été réalisée. La population à l'étude, de même que les données, sont issues de l'Étude sur la Santé des Aînés (n=1 494). Les variables d'intérêt incluaient statut marital, soutien social, présence de troubles de santé mentale ainsi que troubles du sommeil. Tel que décrit dans l'article 1, le Geriatric Comorbidity Score (GCS) basé sur le décès, a été développé et a présenté une bonne performance (c-statistique=0.75; IC95% 0.73-0.78). Cette performance s'est avérée supérieure à celle du Chronic Disease Score (CDS) lorsqu'appliqué dans la population à l'étude (c-statistique du CDS : 0.47; IC 95%: 0.45-0.49). Une revue de littérature exhaustive a montré que les facteurs associés au décès étaient très différents de ceux associés à l’institutionnalisation, justifiant ainsi le développement d'un score spécifique pour prédire le risque d'institutionnalisation. La performance de ce dernier s'est avérée non statistiquement différente de celle du score de décès (c-statistique institutionnalisation : 0.79 IC95% 0.77-0.81). L'inclusion de variables non rapportées dans les banques de données administratives n'a amélioré que de 11% la performance du score de décès; le statut marital et le soutien social ayant le plus contribué à l'amélioration observée. En conclusion, de cette thèse, sont issues trois contributions majeures. D'une part, il a été démontré que la performance des scores de comorbidité basés sur le décès dépend de la population cible, d'où l'intérêt du Geriatric Comorbidity Score, qui fut développé pour la population âgée vivant à domicile. D'autre part, les médicaments associés au risque d'institutionnalisation diffèrent de ceux associés au risque de décès dans la population âgé, justifiant ainsi le développement de deux scores distincts. Cependant, les performances des deux scores sont semblables. Enfin, les résultats indiquent que, dans la population âgée, l'absence de certaines caractéristiques ne compromet pas de façon importante la performance des scores de comorbidité déterminés à partir de banques de données d'ordonnances. Par conséquent, les scores de comorbidité demeurent un outil de recherche important pour les études observationnelles.
Resumo:
Au Québec, des ressources considérables sont investies pour assurer la réussite scolaire des élèves handicapés et en difficulté, tant au plan des apprentissages, de la socialisation que de la qualification. Pour des raisons évoquées d’équité et d’accès à la formation générale, les politiques éducatives privilégient l’intégration de ces élèves en classe ordinaire (Ministère de l'Éducation, 2008; Ministère de l'Éducation du Québec, 1999, 2004a). Ces politiques appellent de profonds changements dans l’organisation scolaire et conduisent inévitablement les enseignants à adopter des pratiques d’individualisation de leur enseignement. En dépit de l’importance de l’individualisation de l’enseignement pour favoriser la réussite des élèves intégrés, les pratiques pédagogiques mises en œuvre par les enseignants québécois demeurent méconnues. Cette étude vise à obtenir un portrait de ces pratiques. Plus spécifiquement, cette étude vise à obtenir des données sur la fréquence d’utilisation de certaines pratiques, à étudier leur compréhension conceptuelle et appliquée par les enseignants, ainsi qu’à identifier des facteurs personnels et organisationnels pouvant expliquer les différences entre les enseignants. Sur la base de la littérature disponible, une typologie des pratiques d’individualisation a été produite, regroupant quatre pratiques : la différenciation pédagogique, l’enseignement de stratégies, l’accommodation et la modification. Puis, un questionnaire élaboré aux fins de cette étude, permettant d’évaluer empiriquement la prégnance de ces quatre pratiques, a été rempli par 138 enseignants provenant de 35 commissions scolaires du Québec. Parmi ces enseignants, treize ont été sélectionnés et interviewés sur la base des exemples de leurs pratiques mentionnées dans les questions ouvertes du sondage. Fondée sur un devis mixte de type concourant et imbriqué (Creswell, 2003), cette recherche combine une stratégie d’analyse quantitative des données issues du questionnaire à des analyses de contenu des entrevues, de nature qualitative. Les résultats convergent vers trois niveaux de prise en charge de l’hétérogénéité en classe: nuancée, mécanique et réactive. Seuls les enseignants qui ont une prise en charge nuancée démontrent une compréhension et une utilisation des pratiques conformes au cadre conceptuel. Suivant cette hypothèse formulée à partir des données d’entrevue, les résultats d’une ANOVA ont permis de conclure que le tiers des répondants au sondage (n=41) utilisant le plus fréquemment la différenciation pédagogique fait une utilisation significativement peu fréquente de la pratique de la modification. Enfin, des analyses de régression ont révélé que parmi les autres facteurs prédisant l’utilisation des pratiques se trouvent la participation à des activités de formation continue, le niveau d’enseignement, le nombre d’élèves dans le groupe et le nombre d’élèves en difficulté avec des plans d’intervention. Les résultats de cette recherche indiquent un niveau de connaissance inégal des pratiques étudiées chez les enseignants, ainsi qu’une mise en œuvre déficiente des ressources nécessaires à l’intégration scolaire des élèves handicapés ou en difficulté.
Resumo:
Objectif : Étudier le risque d’hémorragies intracrâniennes et d’infarctus du myocarde chez les patients vivant avec le VIH. Méthode : J’ai réalisé deux études de cohorte au sein de la banque de données de la Régie de l’assurance maladie du Québec. J’ai défini la cohorte des patients VIH-positifs, y ai étudié l’incidence d’hémorragies intracrâniennes et d’infarctus du myocarde, et l’ai comparée à une cohorte VIH-négative de même âge et de même sexe. J’ai étudié l’association entre ces évènements et l’exposition aux antirétroviraux au moyen d’études cas-témoin nichées dans la cohorte des patients VIH-positifs. Résultats : Le VIH est associé à un risque plus élevé d’hémorragies intracrâniennes, particulièrement au stade SIDA. Les patients VIH-positif sont également plus à risque de subir un infarctus du myocarde, et certains antirétroviraux sont associés à un risque plus grand. Conclusion : Les banques de données médico-administratives représentent un moyen valable d’étudier les comorbidités non-infectieuses chez les patients atteints du VIH.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
OBJECTIF: Évaluer le rôle de l’endostatine, un nouveau marqueur anti-angiogénique, pour prédire le risque de prééclampsie (PE). METHODES: Il s’agit d’une étude cas témoins nichée dans deux cohortes prospectives. Les échantillons sanguins étaient collectés entre 11 et 17 semaines puis entre 18 et 26 semaines d’aménorrhée. L’hypertension gestationnelle était définie par une tension artérielle supérieure ou égale à 140/90mmHg à 2 reprises. Les cas de prééclampsie étaient définis par une hypertension gestationnelle associée à une protéinurie supérieure ou égale à 0.3 g /24h après 20 semaines de grossesse. La concentration d’endostatine était mesurée par une technique d’ELISA. Les résultats étaient exprimés en multiples de la médiane (MoM) et ajustés pour l’âge maternel, l’âge gestationnel, l’ethnie, et la cohorte d’origine. Une régression logistique était utilisée pour calculer des odds ratios (OR) ajustés et prédire le risque de PE. RESULTATS: Au total nous avons étudié 77 PE et 150 témoins chez des grossesses uniques. Parmi les PE 21 étaient de survenue précoce, avec un diagnostic avant 34 semaines et 41 étaient des PE sévères. Les cas avaient un IMC plus élevé que les témoins et étaient plus souvent Africaines. Les taux médians d’endostatine étaient significativement plus élevés chez les PE que chez les témoins au 1er trimestre (94.2 versus 90.7 ng/ml, p=0.004) et 2ème trimestre (105.8 versus 99.3 ng/ml p=0.002). Le taux d’endostatine entre 18 et 26 semaines était même plus élevé chez les patientes qui développaient une PE précoce. Lorsque l’endostatine était supérieure au 75èmepercentile (exprimée en MoM), le OR ajusté était de 1.33 95IC [0.68-2.58] à 11-17 semaines et 1.77 [0.94-3.34] à 18-26 semaines. L’OR ajusté pour les PE précoces était 3.51 [1.18-10.43] entre 11-17 semaines et 2.17 [0.67-7.06] entre 18-26 semaines. CONCLUSIONS: Un taux élevé d’endostatine dès le 1er trimestre est associé à une augmentation du risque de PE et surtout d’un risque de prééclampsie précoce. Toutefois l’endostatine seule a une trop faible valeur prédictive pour avoir une utilité clinique.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Les copulas archimédiennes hiérarchiques ont récemment gagné en intérêt puisqu’elles généralisent la famille de copules archimédiennes, car elles introduisent une asymétrie partielle. Des algorithmes d’échantillonnages et des méthodes ont largement été développés pour de telles copules. Néanmoins, concernant l’estimation par maximum de vraisemblance et les tests d’adéquations, il est important d’avoir à disposition la densité de ces variables aléatoires. Ce travail remplie ce manque. Après une courte introduction aux copules et aux copules archimédiennes hiérarchiques, une équation générale sur les dérivées des noeuds et générateurs internes apparaissant dans la densité des copules archimédiennes hiérarchique. sera dérivée. Il en suit une formule tractable pour la densité des copules archimédiennes hiérarchiques. Des exemples incluant les familles archimédiennes usuelles ainsi que leur transformations sont présentés. De plus, une méthode numérique efficiente pour évaluer le logarithme des densités est présentée.
Resumo:
L’intérêt principal de cette recherche porte sur la validation d’une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement : – aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d’ajustement pour le temps passé depuis l’exposition ; – aux résultats obtenus en utilisant l’exposition cumulative pondérée par le passé récent ; – aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l’approche classique ainsi qu’en utilisant l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles. La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps, dans l’approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d’hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l’exposition
Resumo:
Les deux fonctions principales de la main sont la manipulation d’objet et l’exploration tactile. La détection du glissement, rapportée par les mécanorécepteurs de la peau glabre, est essentielle pour l’exécution de ces deux fonctions. Durant la manipulation d’objet, la détection rapide du micro-glissement (incipient slip) amène la main à augmenter la force de pince pour éviter que l’objet ne tombe. À l’opposé, le glissement est un aspect essentiel à l’exploration tactile puisqu’il favorise une plus grande acuité tactile. Pour ces deux actions, les forces normale et tangentielle exercées sur la peau permettent de décrire le glissement mais également ce qui arrive juste avant qu’il y ait glissement. Toutefois, on ignore comment ces forces contrôlées par le sujet pourraient être encodées au niveau cortical. C’est pourquoi nous avons enregistré l’activité unitaire des neurones du cortex somatosensoriel primaire (S1) durant l’exécution de deux tâches haptiques chez les primates. Dans la première tâche, deux singes devaient saisir une pastille de métal fixe et y exercer des forces de cisaillement sans glissement dans une de quatre directions orthogonales. Des 144 neurones enregistrés, 111 (77%) étaient modulés à la direction de la force de cisaillement. L’ensemble de ces vecteurs préférés s’étendait dans toutes les directions avec un arc variant de 50° à 170°. Plus de 21 de ces neurones (19%) étaient également modulés à l’intensité de la force de cisaillement. Bien que 66 neurones (59%) montraient clairement une réponse à adaptation lente et 45 autres (41%) une réponse à adaptation rapide, cette classification ne semblait pas expliquer la modulation à l’intensité et à la direction de la force de cisaillement. Ces résultats montrent que les neurones de S1 encodent simultanément la direction et l’intensité des forces même en l’absence de glissement. Dans la seconde tâche, deux singes ont parcouru différentes surfaces avec le bout des doigts à la recherche d’une cible tactile, sans feedback visuel. Durant l’exploration, les singes, comme les humains, contrôlaient les forces et la vitesse de leurs doigts dans une plage de valeurs réduite. Les surfaces à haut coefficient de friction offraient une plus grande résistance tangentielle à la peau et amenaient les singes à alléger la force de contact, normale à la peau. Par conséquent, la somme scalaire des composantes normale et tangentielle demeurait constante entre les surfaces. Ces observations démontrent que les singes contrôlent les forces normale et tangentielle qu’ils appliquent durant l’exploration tactile. Celles-ci sont également ajustées selon les propriétés de surfaces telles que la texture et la friction. Des 230 neurones enregistrés durant la tâche d’exploration tactile, 96 (42%) ont montré une fréquence de décharge instantanée reliée aux forces exercées par les doigts sur la surface. De ces neurones, 52 (54%) étaient modulés avec la force normale ou la force tangentielle bien que l’autre composante orthogonale avait peu ou pas d’influence sur la fréquence de décharge. Une autre sous-population de 44 (46%) neurones répondait au ratio entre la force normale et la force tangentielle indépendamment de l’intensité. Plus précisément, 29 (30%) neurones augmentaient et 15 (16%) autres diminuaient leur fréquence de décharge en relation avec ce ratio. Par ailleurs, environ la moitié de tous les neurones (112) étaient significativement modulés à la direction de la force tangentielle. De ces neurones, 59 (53%) répondaient à la fois à la direction et à l’intensité des forces. L’exploration de trois ou quatre différentes surfaces a permis d’évaluer l’impact du coefficient de friction sur la modulation de 102 neurones de S1. En fait, 17 (17%) neurones ont montré une augmentation de leur fréquence de décharge avec l’augmentation du coefficient de friction alors que 8 (8%) autres ont montré le comportement inverse. Par contre, 37 (36%) neurones présentaient une décharge maximale sur une surface en particulier, sans relation linéaire avec le coefficient de friction des surfaces. La classification d’adaptation rapide ou lente des neurones de S1 n’a pu être mise en relation avec la modulation aux forces et à la friction. Ces résultats montrent que la fréquence de décharge des neurones de S1 encode l’intensité des forces normale et tangentielle, le ratio entre les deux composantes et la direction du mouvement. Ces résultats montrent que le comportement d’une importante sous-population des neurones de S1 est déterminé par les forces normale et tangentielle sur la peau. La modulation aux forces présentée ici fait le pont entre les travaux évaluant les propriétés de surfaces telles que la rugosité et les études touchant à la manipulation d’objets. Ce système de référence s’applique en présence ou en absence de glissement entre la peau et la surface. Nos résultats quant à la modulation des neurones à adaptation rapide ou lente nous amènent à suggérer que cette classification découle de la manière que la peau est stimulée. Nous discuterons aussi de la possibilité que l’activité des neurones de S1 puisse inclure une composante motrice durant ces tâches sensorimotrices. Finalement, un nouveau cadre de référence tridimensionnel sera proposé pour décrire et rassembler, dans un même continuum, les différentes modulations aux forces normale et tangentielle observées dans S1 durant l’exploration tactile.
Resumo:
L’inférence de génomes ancestraux est une étape essentielle pour l’étude de l’évolution des génomes. Connaissant les génomes d’espèces éteintes, on peut proposer des mécanismes biologiques expliquant les divergences entre les génomes des espèces modernes. Diverses méthodes visant à résoudre ce problème existent, se classant parmis deux grandes catégories : les méthodes de distance et les méthodes de synténie. L’état de l’art des distances génomiques ne permettant qu’un certain répertoire de réarrangements pour le moment, les méthodes de synténie sont donc plus appropriées en pratique. Nous proposons une méthode de synténie pour la reconstruction de génomes ancestraux basée sur une définition relaxée d’adjacences de gènes, permettant un contenu en gène inégal dans les génomes modernes causé par des pertes de gènes de même que des duplications de génomes entiers (DGE). Des simulations sont effectuées, démontrant une capacité de former une solution assemblée en un nombre réduit de régions ancestrales contigües par rapport à d’autres méthodes tout en gardant une bonne fiabilité. Des applications sur des données de levures et de plantes céréalières montrent des résultats en accord avec d’autres publications, notamment la présence de fusion imbriquée de chromosomes pendant l’évolution des céréales.