988 resultados para nested scalar convolutions


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: la survenue dâIRA chez les patients ayant subi un traumatisme est une problématique qui a été peu étudiée jusquâà ce jour. La présence de cette atteinte rénale a été démontrée comme étant associée à un risque accru de morbidités et de mortalité chez les sujets atteints. Objectifs: identifier les facteurs prédictifs dâinsuffisance rénale ou plus récemment appelée atteinte rénale dans cette population particulière et tenter de trouver des facteurs qui peuvent être mesurés dans les premières heures de la prise en charge du patient. Aussi, nous avons cherché à savoir si lâinjection de produit de contraste est associée à un risque accru dâinsuffisance rénale aiguë dans cette population. Méthodes et résultats: la recherche a eu lieu à lâHôpital du Sacré-Coeur de Montréal, un centre de traumatologie tertiaire en milieu urbain. Nous avons utilisé le registre des patients hospitalisés en traumatologie dans notre centre hospitalier entre 2002 et mars 2007 de même que les banques de données de laboratoire et de radiologie pour obtenir les données sur la créatinine et les examens avec produits de contraste. Finalement, une revue de dossiers structurée fut conduite pour recueillir le reste de lâinformation requise. Lâincidence dâIRA dans la population étudiée est estimée à environ 5 %. Une analyse cas témoins fut conduite pour identifier les facteurs prédictifs dâIRA. Quarante-neuf cas dâIRA diagnostiqués par le médecin traitant et 101 témoins sélectionnés au hasard ont été analysés. Les facteurs prédictifs suivants ont été identifiés à lâanalyse univariée : la première valeur de créatinine obtenue (p<0,001), lâinstabilité hémodynamique (p<0,001), les antécédents dâinsuffisance rénale chronique tels que notés dans le dossier par le médecin traitant (p=0,009), une maladie cardiaque (p=0,007), une chirurgie dans les 48 premières heures suivant le traumatisme (p=0,053), le niveau de gravité du traumatisme (Injury Severity Score) (p=0,046) et lâinjection de produit de contraste au cours des 48 heures suivant le trauma (p=0,077). Parmi ces facteurs, deux ont été identifiés comme prédicteurs indépendants dâIRA à lâanalyse multivariée. Une des valeurs était la première valeur de créatinine obtenue RC = 6,17 (p<0,001, IC95 % 2,81 â 13,53) pour chaque augmentation de 0.5mg/dL de créatinine. Lâautre facteur était la présence dâinstabilité hémodynamique RC 11,61 (p<0,001, IC95 % 3,71 â 36,29). Conclusion: des informations obtenues tôt dans la prise en charge du patient permettent de prédire le risque dâIRA chez ces patients. Lâadministration de contraste (intraveineuse ou intra-artérielle) ne sâest pas avérée un facteur indépendant de prédiction dâinsuffisance rénale aiguë dans cette population dans le modèle multivarié.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cryptosporidium spp. est un protozoaire parasite du système gastro-intestinal largement répandu chez les vertébrés et causant la cryptosporidiose, une zoonose occasionnant des troubles digestifs sévères pouvant entrainer la mort chez les individus immunodéficients. Au Canada, la déclaration de cette maladie est obligatoire depuis lâan 2000. Ainsi, il est pertinent de mieux comprendre lâinfection chez les animaux de compagnie, puisquâils sont potentiellement un réservoir du parasite. Durant lâannée 2008, des échantillons fécaux provenant de 1 202 chats (n = 371) et chiens (n = 831) de la province du Québec ont été analysés par comptage des ookystes de Cryptosporidium spp. au moyen de la technique de centrifugation en solution de sulfate de zinc. Dans cette étude,la prévalence de Cryptosporidium spp. chez les chats (28/371 : 7,55 %) et chez les chiens(88/831 : 10,59 %) de compagnie confirme leur potentiel en tant que réservoir du parasite. Au Québec, de par leur nombre, les chats sont potentiellement un réservoir zoonotique du parasite plus important que celui des chiens, bien quâil nâexiste pas de différence significative entre la prévalence du parasite chez le chat et le chien pour lâannée 2008. Lââge (p = 0,0001) et lâinfection concomitante par Giardia spp. (p = 0,0001) se sont avérés être des facteurs associés avec la présence de Cryptosporidium spp. chez le chien. Parmi lâensemble des variables testées chez le chat (lââge, le sexe, la saison et lâinfection concomitante par Giardia spp.), aucune nâa été associée de manière significative à la présence du parasite chez le chat. Ceci peut être dû au nombre limité dâindividus testés pour cette espèce. Un suivi de lâexcrétion des ookystes de Cryptosporidium spp. chez deux chats suggère que lâexcrétion des ookystes peut se faire sur une période de sept mois et que le taux dâexcrétion varie dans le temps. Le diagnostic moléculaire des espèces et génotypes de Cryptosporidium spp. isolés à partir des échantillons de matières fécales devait être réalisé par la technique de PCR emboîtée des fragments des gènes ARNr 18S et HSP70 et du séquençage des produits de PCR. Aucun résultat positif nâa toutefois été obtenu. Afin dâaugmenter la puissance statistique des analyses épidémiologiques sur la prévalence de Cryptosporidium spp., il serait nécessaire à lâavenir de travailler sur un nombre dâanimaux beaucoup plus important.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En écologie, dans le cadre par exemple dâétudes des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit lâun soit lâautre de ces types de modélisation ; le bon choix sâimpose afin de pouvoir faire du modèle un usage conforme aux objectifs de lâétude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de lâarbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant lâélagage du modèle final, qui est un arbre, afin dâobtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet lâobtention de groupes homogènes dâobjets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons quâafin de calculer le pouvoir explicatif de lâARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à lâaide dâun algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque lâARM sous-tend des prémisses de discontinuité alors que lâanalyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre lâACR et lâARM a été motivée par lâutilisation extensive de lâACR afin dâétudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée lâarbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à lâétude. Cette nouvelle procédure permet dâentreprendre lâétude de lâeffet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. Lâinterprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui nâétaient pas mises en évidence par lâanalyse ARM usuelle. Dâautre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces dâarbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures dâerreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif dâun modèle faisant usage de la structure dâerreur gamma est supérieur. Cette étude sâinsère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations dâarbres tropicaux. Nos conclusions pourraient faire partie intégrante dâun programme de réduction des émissions de carbone par les changements dâutilisation des terres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La littérature montre que plusieurs aspects du travail dâuniversitaire sont influencés tant par la discipline et lâorganisation, que par les caractéristiques individuelles des professeurs. Cette recherche vise à explorer lâimpact de ces deux premiers facteurs sur lâutilisation des technologies de lâinformation et des communications (TIC) par les professeurs dâune université de recherche. Les données, recueillies par sondage, ont été analysées à lâaide dâun modèle hiérarchique comprenant deux niveaux, dans lequel 350 professeurs sont nichés dans 42 départements. Le statut professoral, le profil dâadoption des innovations technologiques et la perception de la compétence technologique ont été placés au niveau 1 (individus), alors que le secteur disciplinaire et quatre facteurs organisationnels liés à lâenseignement et à la recherche, ont été placés au niveau 2 (départements). Les résultats montrent que ces variables indépendantes nâinfluencent pas de la même façon lâutilisation des différentes technologies. Une plus grande partie des différences dâutilisation se situe entre les départements lorsquâon considère lâutilisation du projecteur en salle de classe. Lâutilisation dâéquipements en salle de classe relève davantage de facteurs organisationnels que celle des environnements numériques dâapprentissage (ENA). Les résultats montrent par ailleurs que la perception de la compétence technologique et le profil dâadoption des innovations technologiques mesurent des choses différentes. Alors que le profil dâadoption influence dans une plus ou moins grande mesure toutes les utilisations, la perception de la compétence nâa dâimpact que sur lâutilisation plus poussée des ressources, soit lâutilisation dâune page web personnelle ou dâune plateforme autre que WebCT. Un clivage entre disciplines molles pures et disciplines dures pures existe, mais seulement lorsquâon considère lâutilisation des ENA et de la page web personnelle. La plateforme WebCT est associée au secteur des sciences humaines alors que lâutilisation de la page web ou dâENA autre que WebCT est liée au secteur des sciences pures. Dans les deux cas, lâutilisation des ENA est liée à lâenseignement de premier cycle, câest à dire à un enseignement de masse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le biais de confusion est un défi majeur des études observationnelles, surtout s'ils sont induits par des caractéristiques difficiles, voire impossibles, à mesurer dans les banques de données administratives de soins de santé. Un des biais de confusion souvent présents dans les études pharmacoépidémiologiques est la prescription sélective (en anglais « prescription channeling »), qui se manifeste lorsque le choix du traitement dépend de l'état de santé du patient et/ou de son expérience antérieure avec diverses options thérapeutiques. Parmi les méthodes de contrôle de ce biais, on retrouve le score de comorbidité, qui caractérise l'état de santé d'un patient à partir de médicaments délivrés ou de diagnostics médicaux rapportés dans les données de facturations des médecins. La performance des scores de comorbidité fait cependant l'objet de controverses car elle semble varier de façon importante selon la population d'intérêt. Les objectifs de cette thèse étaient de développer, valider, et comparer les performances de deux scores de comorbidité (un qui prédit le décès et lâautre qui prédit lâinstitutionnalisation), développés à partir des banques de services pharmaceutiques de la Régie de l'assurance-maladie du Québec (RAMQ) pour leur utilisation dans la population âgée. Cette thèse vise également à déterminer si l'inclusion de caractéristiques non rapportées ou peu valides dans les banques de données administratives (caractéristiques socio-démographiques, troubles mentaux ou du sommeil), améliore la performance des scores de comorbidité dans la population âgée. Une étude cas-témoins intra-cohorte fut réalisée. La cohorte source consistait en un échantillon aléatoire de 87 389 personnes âgées vivant à domicile, répartie en une cohorte de développement (n=61 172; 70%) et une cohorte de validation (n=26 217; 30%). Les données ont été obtenues à partir des banques de données de la RAMQ. Pour être inclus dans lâétude, les sujets devaient être âgés de 66 ans et plus, et être membres du régime public d'assurance-médicaments du Québec entre le 1er janvier 2000 et le 31 décembre 2009. Les scores ont été développés à partir de la méthode du Framingham Heart Study, et leur performance évaluée par la c-statistique et lâaire sous les courbes « Receiver Operating Curves ». Pour le dernier objectif qui est de documenter lâimpact de lâajout de variables non-mesurées ou peu valides dans les banques de données au score de comorbidité développé, une étude de cohorte prospective (2005-2008) a été réalisée. La population à l'étude, de même que les données, sont issues de l'Ãtude sur la Santé des Aînés (n=1 494). Les variables d'intérêt incluaient statut marital, soutien social, présence de troubles de santé mentale ainsi que troubles du sommeil. Tel que décrit dans l'article 1, le Geriatric Comorbidity Score (GCS) basé sur le décès, a été développé et a présenté une bonne performance (c-statistique=0.75; IC95% 0.73-0.78). Cette performance s'est avérée supérieure à celle du Chronic Disease Score (CDS) lorsqu'appliqué dans la population à l'étude (c-statistique du CDS : 0.47; IC 95%: 0.45-0.49). Une revue de littérature exhaustive a montré que les facteurs associés au décès étaient très différents de ceux associés à lâinstitutionnalisation, justifiant ainsi le développement d'un score spécifique pour prédire le risque d'institutionnalisation. La performance de ce dernier s'est avérée non statistiquement différente de celle du score de décès (c-statistique institutionnalisation : 0.79 IC95% 0.77-0.81). L'inclusion de variables non rapportées dans les banques de données administratives n'a amélioré que de 11% la performance du score de décès; le statut marital et le soutien social ayant le plus contribué à l'amélioration observée. En conclusion, de cette thèse, sont issues trois contributions majeures. D'une part, il a été démontré que la performance des scores de comorbidité basés sur le décès dépend de la population cible, d'où l'intérêt du Geriatric Comorbidity Score, qui fut développé pour la population âgée vivant à domicile. D'autre part, les médicaments associés au risque d'institutionnalisation diffèrent de ceux associés au risque de décès dans la population âgé, justifiant ainsi le développement de deux scores distincts. Cependant, les performances des deux scores sont semblables. Enfin, les résultats indiquent que, dans la population âgée, l'absence de certaines caractéristiques ne compromet pas de façon importante la performance des scores de comorbidité déterminés à partir de banques de données d'ordonnances. Par conséquent, les scores de comorbidité demeurent un outil de recherche important pour les études observationnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, des ressources considérables sont investies pour assurer la réussite scolaire des élèves handicapés et en difficulté, tant au plan des apprentissages, de la socialisation que de la qualification. Pour des raisons évoquées dâéquité et dâaccès à la formation générale, les politiques éducatives privilégient lâintégration de ces élèves en classe ordinaire (Ministère de l'Ãducation, 2008; Ministère de l'Ãducation du Québec, 1999, 2004a). Ces politiques appellent de profonds changements dans lâorganisation scolaire et conduisent inévitablement les enseignants à adopter des pratiques dâindividualisation de leur enseignement. En dépit de lâimportance de lâindividualisation de lâenseignement pour favoriser la réussite des élèves intégrés, les pratiques pédagogiques mises en Åuvre par les enseignants québécois demeurent méconnues. Cette étude vise à obtenir un portrait de ces pratiques. Plus spécifiquement, cette étude vise à obtenir des données sur la fréquence dâutilisation de certaines pratiques, à étudier leur compréhension conceptuelle et appliquée par les enseignants, ainsi quâà identifier des facteurs personnels et organisationnels pouvant expliquer les différences entre les enseignants. Sur la base de la littérature disponible, une typologie des pratiques dâindividualisation a été produite, regroupant quatre pratiques : la différenciation pédagogique, lâenseignement de stratégies, lâaccommodation et la modification. Puis, un questionnaire élaboré aux fins de cette étude, permettant dâévaluer empiriquement la prégnance de ces quatre pratiques, a été rempli par 138 enseignants provenant de 35 commissions scolaires du Québec. Parmi ces enseignants, treize ont été sélectionnés et interviewés sur la base des exemples de leurs pratiques mentionnées dans les questions ouvertes du sondage. Fondée sur un devis mixte de type concourant et imbriqué (Creswell, 2003), cette recherche combine une stratégie dâanalyse quantitative des données issues du questionnaire à des analyses de contenu des entrevues, de nature qualitative. Les résultats convergent vers trois niveaux de prise en charge de lâhétérogénéité en classe: nuancée, mécanique et réactive. Seuls les enseignants qui ont une prise en charge nuancée démontrent une compréhension et une utilisation des pratiques conformes au cadre conceptuel. Suivant cette hypothèse formulée à partir des données dâentrevue, les résultats dâune ANOVA ont permis de conclure que le tiers des répondants au sondage (n=41) utilisant le plus fréquemment la différenciation pédagogique fait une utilisation significativement peu fréquente de la pratique de la modification. Enfin, des analyses de régression ont révélé que parmi les autres facteurs prédisant lâutilisation des pratiques se trouvent la participation à des activités de formation continue, le niveau dâenseignement, le nombre dâélèves dans le groupe et le nombre dâélèves en difficulté avec des plans dâintervention. Les résultats de cette recherche indiquent un niveau de connaissance inégal des pratiques étudiées chez les enseignants, ainsi quâune mise en Åuvre déficiente des ressources nécessaires à lâintégration scolaire des élèves handicapés ou en difficulté.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif : Ãtudier le risque dâhémorragies intracrâniennes et dâinfarctus du myocarde chez les patients vivant avec le VIH. Méthode : Jâai réalisé deux études de cohorte au sein de la banque de données de la Régie de lâassurance maladie du Québec. Jâai défini la cohorte des patients VIH-positifs, y ai étudié lâincidence dâhémorragies intracrâniennes et dâinfarctus du myocarde, et lâai comparée à une cohorte VIH-négative de même âge et de même sexe. Jâai étudié lâassociation entre ces évènements et lâexposition aux antirétroviraux au moyen dâétudes cas-témoin nichées dans la cohorte des patients VIH-positifs. Résultats : Le VIH est associé à un risque plus élevé dâhémorragies intracrâniennes, particulièrement au stade SIDA. Les patients VIH-positif sont également plus à risque de subir un infarctus du myocarde, et certains antirétroviraux sont associés à un risque plus grand. Conclusion : Les banques de données médico-administratives représentent un moyen valable dâétudier les comorbidités non-infectieuses chez les patients atteints du VIH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIF: Ãvaluer le rôle de lâendostatine, un nouveau marqueur anti-angiogénique, pour prédire le risque de prééclampsie (PE). METHODES: Il sâagit dâune étude cas témoins nichée dans deux cohortes prospectives. Les échantillons sanguins étaient collectés entre 11 et 17 semaines puis entre 18 et 26 semaines dâaménorrhée. Lâhypertension gestationnelle était définie par une tension artérielle supérieure ou égale à 140/90mmHg à 2 reprises. Les cas de prééclampsie étaient définis par une hypertension gestationnelle associée à une protéinurie supérieure ou égale à 0.3 g /24h après 20 semaines de grossesse. La concentration dâendostatine était mesurée par une technique dâELISA. Les résultats étaient exprimés en multiples de la médiane (MoM) et ajustés pour lââge maternel, lââge gestationnel, lâethnie, et la cohorte dâorigine. Une régression logistique était utilisée pour calculer des odds ratios (OR) ajustés et prédire le risque de PE. RESULTATS: Au total nous avons étudié 77 PE et 150 témoins chez des grossesses uniques. Parmi les PE 21 étaient de survenue précoce, avec un diagnostic avant 34 semaines et 41 étaient des PE sévères. Les cas avaient un IMC plus élevé que les témoins et étaient plus souvent Africaines. Les taux médians dâendostatine étaient significativement plus élevés chez les PE que chez les témoins au 1er trimestre (94.2 versus 90.7 ng/ml, p=0.004) et 2ème trimestre (105.8 versus 99.3 ng/ml p=0.002). Le taux dâendostatine entre 18 et 26 semaines était même plus élevé chez les patientes qui développaient une PE précoce. Lorsque lâendostatine était supérieure au 75èmepercentile (exprimée en MoM), le OR ajusté était de 1.33 95IC [0.68-2.58] à 11-17 semaines et 1.77 [0.94-3.34] à 18-26 semaines. LâOR ajusté pour les PE précoces était 3.51 [1.18-10.43] entre 11-17 semaines et 2.17 [0.67-7.06] entre 18-26 semaines. CONCLUSIONS: Un taux élevé dâendostatine dès le 1er trimestre est associé à une augmentation du risque de PE et surtout dâun risque de prééclampsie précoce. Toutefois lâendostatine seule a une trop faible valeur prédictive pour avoir une utilité clinique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les copulas archimédiennes hiérarchiques ont récemment gagné en intérêt puisquâelles généralisent la famille de copules archimédiennes, car elles introduisent une asymétrie partielle. Des algorithmes dâéchantillonnages et des méthodes ont largement été développés pour de telles copules. Néanmoins, concernant lâestimation par maximum de vraisemblance et les tests dâadéquations, il est important dâavoir à disposition la densité de ces variables aléatoires. Ce travail remplie ce manque. Après une courte introduction aux copules et aux copules archimédiennes hiérarchiques, une équation générale sur les dérivées des noeuds et générateurs internes apparaissant dans la densité des copules archimédiennes hiérarchique. sera dérivée. Il en suit une formule tractable pour la densité des copules archimédiennes hiérarchiques. Des exemples incluant les familles archimédiennes usuelles ainsi que leur transformations sont présentés. De plus, une méthode numérique efficiente pour évaluer le logarithme des densités est présentée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lâintérêt principal de cette recherche porte sur la validation dâune méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats dâune étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de lâexposition moyenne au traitement : â aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire dâajustement pour le temps passé depuis lâexposition ; â aux résultats obtenus en utilisant lâexposition cumulative pondérée par le passé récent ; â aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par lâapproche classique ainsi quâen utilisant lâapproche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser lâincertitude face au choix des modèles. La technique utilisée dans lâapproche bayésienne a été proposée en 1997 mais selon notre connaissance elle nâa pas été utilisée avec une variable dépendante du temps. Afin de modéliser lâeffet cumulatif de lâexposition variant dans le temps, dans lâapproche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique dâhypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment lâexposition

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les deux fonctions principales de la main sont la manipulation dâobjet et lâexploration tactile. La détection du glissement, rapportée par les mécanorécepteurs de la peau glabre, est essentielle pour lâexécution de ces deux fonctions. Durant la manipulation dâobjet, la détection rapide du micro-glissement (incipient slip) amène la main à augmenter la force de pince pour éviter que lâobjet ne tombe. à lâopposé, le glissement est un aspect essentiel à lâexploration tactile puisquâil favorise une plus grande acuité tactile. Pour ces deux actions, les forces normale et tangentielle exercées sur la peau permettent de décrire le glissement mais également ce qui arrive juste avant quâil y ait glissement. Toutefois, on ignore comment ces forces contrôlées par le sujet pourraient être encodées au niveau cortical. Câest pourquoi nous avons enregistré lâactivité unitaire des neurones du cortex somatosensoriel primaire (S1) durant lâexécution de deux tâches haptiques chez les primates. Dans la première tâche, deux singes devaient saisir une pastille de métal fixe et y exercer des forces de cisaillement sans glissement dans une de quatre directions orthogonales. Des 144 neurones enregistrés, 111 (77%) étaient modulés à la direction de la force de cisaillement. Lâensemble de ces vecteurs préférés sâétendait dans toutes les directions avec un arc variant de 50° à 170°. Plus de 21 de ces neurones (19%) étaient également modulés à lâintensité de la force de cisaillement. Bien que 66 neurones (59%) montraient clairement une réponse à adaptation lente et 45 autres (41%) une réponse à adaptation rapide, cette classification ne semblait pas expliquer la modulation à lâintensité et à la direction de la force de cisaillement. Ces résultats montrent que les neurones de S1 encodent simultanément la direction et lâintensité des forces même en lâabsence de glissement. Dans la seconde tâche, deux singes ont parcouru différentes surfaces avec le bout des doigts à la recherche dâune cible tactile, sans feedback visuel. Durant lâexploration, les singes, comme les humains, contrôlaient les forces et la vitesse de leurs doigts dans une plage de valeurs réduite. Les surfaces à haut coefficient de friction offraient une plus grande résistance tangentielle à la peau et amenaient les singes à alléger la force de contact, normale à la peau. Par conséquent, la somme scalaire des composantes normale et tangentielle demeurait constante entre les surfaces. Ces observations démontrent que les singes contrôlent les forces normale et tangentielle quâils appliquent durant lâexploration tactile. Celles-ci sont également ajustées selon les propriétés de surfaces telles que la texture et la friction. Des 230 neurones enregistrés durant la tâche dâexploration tactile, 96 (42%) ont montré une fréquence de décharge instantanée reliée aux forces exercées par les doigts sur la surface. De ces neurones, 52 (54%) étaient modulés avec la force normale ou la force tangentielle bien que lâautre composante orthogonale avait peu ou pas dâinfluence sur la fréquence de décharge. Une autre sous-population de 44 (46%) neurones répondait au ratio entre la force normale et la force tangentielle indépendamment de lâintensité. Plus précisément, 29 (30%) neurones augmentaient et 15 (16%) autres diminuaient leur fréquence de décharge en relation avec ce ratio. Par ailleurs, environ la moitié de tous les neurones (112) étaient significativement modulés à la direction de la force tangentielle. De ces neurones, 59 (53%) répondaient à la fois à la direction et à lâintensité des forces. Lâexploration de trois ou quatre différentes surfaces a permis dâévaluer lâimpact du coefficient de friction sur la modulation de 102 neurones de S1. En fait, 17 (17%) neurones ont montré une augmentation de leur fréquence de décharge avec lâaugmentation du coefficient de friction alors que 8 (8%) autres ont montré le comportement inverse. Par contre, 37 (36%) neurones présentaient une décharge maximale sur une surface en particulier, sans relation linéaire avec le coefficient de friction des surfaces. La classification dâadaptation rapide ou lente des neurones de S1 nâa pu être mise en relation avec la modulation aux forces et à la friction. Ces résultats montrent que la fréquence de décharge des neurones de S1 encode lâintensité des forces normale et tangentielle, le ratio entre les deux composantes et la direction du mouvement. Ces résultats montrent que le comportement dâune importante sous-population des neurones de S1 est déterminé par les forces normale et tangentielle sur la peau. La modulation aux forces présentée ici fait le pont entre les travaux évaluant les propriétés de surfaces telles que la rugosité et les études touchant à la manipulation dâobjets. Ce système de référence sâapplique en présence ou en absence de glissement entre la peau et la surface. Nos résultats quant à la modulation des neurones à adaptation rapide ou lente nous amènent à suggérer que cette classification découle de la manière que la peau est stimulée. Nous discuterons aussi de la possibilité que lâactivité des neurones de S1 puisse inclure une composante motrice durant ces tâches sensorimotrices. Finalement, un nouveau cadre de référence tridimensionnel sera proposé pour décrire et rassembler, dans un même continuum, les différentes modulations aux forces normale et tangentielle observées dans S1 durant lâexploration tactile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lâinférence de génomes ancestraux est une étape essentielle pour lâétude de lâévolution des génomes. Connaissant les génomes dâespèces éteintes, on peut proposer des mécanismes biologiques expliquant les divergences entre les génomes des espèces modernes. Diverses méthodes visant à résoudre ce problème existent, se classant parmis deux grandes catégories : les méthodes de distance et les méthodes de synténie. Lâétat de lâart des distances génomiques ne permettant quâun certain répertoire de réarrangements pour le moment, les méthodes de synténie sont donc plus appropriées en pratique. Nous proposons une méthode de synténie pour la reconstruction de génomes ancestraux basée sur une définition relaxée dâadjacences de gènes, permettant un contenu en gène inégal dans les génomes modernes causé par des pertes de gènes de même que des duplications de génomes entiers (DGE). Des simulations sont effectuées, démontrant une capacité de former une solution assemblée en un nombre réduit de régions ancestrales contigües par rapport à dâautres méthodes tout en gardant une bonne fiabilité. Des applications sur des données de levures et de plantes céréalières montrent des résultats en accord avec dâautres publications, notamment la présence de fusion imbriquée de chromosomes pendant lâévolution des céréales.