994 resultados para Propriétés fréquentielles


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L‟utilité de la théorie de la dissuasion est régulièrement remise en question pour expliquer la relation entre les peines et la criminalité puisque les propriétés objectives de la peine ne semblent pas affecter les taux de criminalité, les perceptions que s‟en font les individus et la récidive des délinquants. Trois limites conceptuelles des auteurs qui remettent en question la dissuasion sont soulevées. Premièrement, les unités spatiales utilisées sont des territoires sur lesquels plusieurs corps policiers sont en fonction. Il y a donc peu de chances que tous les citoyens présents soient exposés au même message pénal. Deuxièmement, les chercheurs ont mesuré le risque objectif d‟être arrêté à l‟aide d‟un ratio entre le nombre d‟arrestations et le nombre de crimes rapportés. Cette conceptualisation est problématique puisque les résultats d‟autres études suggèrent que les citoyens ont peu de connaissances des propriétés objectives et qu‟il serait, ainsi, intéressant de se référer aux stimuli dissuasifs pour conceptualiser la notion de risques. Troisièmement, pour plusieurs chercheurs, la délinquance est considérée comme une activité pour laquelle les délits impunis découlent du hasard. Pourtant, les délinquants utilisent fréquemment des stratégies pour éviter les autorités policières. Ils sont donc proactifs dans leur impunité. De ces limites découlent quatre propositions : 1) afin de détecter les réels effets des propriétés de la peine sur la criminalité, les territoires utilisés dans les études doivent représenter des juridictions sur lesquelles un seul corps policier opère; 2) afin de détecter les réels effets des propriétés de la peine sur la criminalité, les études doivent être effectuées avec des données provenant d‟une juridiction dans laquelle les activités de répression sont augmentées significativement par rapport à leur seuil antérieur et maintenue sur une période de temps suffisamment longue; 3) les stimuli dissuasifs observés doivent être considérés comme des expériences vicariantes ; 4) l‟impunité doit être définie comme étant une expérience recherchée par les délinquants. Deux études ont été réalisées dans le cadre de cette thèse. D‟abord, une étude a été réalisée à l‟aide de données issues des rapports policiers de collisions et des constats d‟infraction rendus. Les résultats montrent que l‟augmentation de la répression policière ii sur le territoire du Service de Police de la Ville de Montréal a fait diminuer le nombre de collisions. Au même moment, les collisions sont demeurées stables sur le territoire desservis par le Service de police de la Ville de Québec. Dans un deuxième temps, une étude perceptuelle a été réalisée avec un échantillon d‟étudiants universitaires. Les résultats démontrent des effets mitigés des stimuli dissuasifs sur les perceptions que se font les individus de leurs risques d‟être arrêté et sur leurs comportements délinquants. Chez les moins délinquants, les stimuli dissuasifs font augmenter la perception que les délinquants se font de leurs risques. Par contre, les plus motivés à commettre des délits de la route développent des stratégies en réaction aux opérations policières plutôt que d‟en craindre les représailles. Ces tactiques d‟évitement n‟assurent pas une impunité totale, ni une perception moins élevée des risques de recevoir une contravention, mais elles retardent le moment où le délinquant sera confronté à la punition.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif général de cette thèse est de développer une plateforme d’immobilisation d’enzymes efficace pour application en biopile. Grâce à la microencapsulation ainsi qu’au choix judicieux des matériaux polymériques pour la fabrication de la plateforme d’immobilisation, l’efficacité du transfert électronique entre l’enzyme encapsulée et l’électrode serait amélioré. Du même coup, les biopiles employant cette plateforme d’immobilisation d’enzymes pourrait voir leur puissance délivrée être grandement augmentée et atteindre les niveaux nécessaires à l’alimentation d’implants artificiels pouvant remplacer des organes telque le pancréas, les reins, le sphincter urinaire et le coeur. Dans un premier temps, le p-phénylènediamine a été employé comme substrat pour la caractérisation de la laccase encapsulée dans des microcapsules de poly(éthylèneimine). La diffusion de ce substrat à travers les microcapsules a été étudiée sous diverses conditions par l’entremise de son oxidation électrochimique et enzymatique afin d’en évaluer sa réversibilité et sa stabilité. La voltampérométrie cyclique, l’électrode à disque tournante (rotating disk electrode - RDE) et l’électrode à O2 ont été les techniques employées pour cette étude. Par la suite, la famille des poly(aminocarbazoles) et leurs dérivés a été identifée pour remplacer le poly(éthylèneimine) dans la conception de microcapsules. Ces polymères possèdent sur leurs unités de répétition (mono- ou diamino) des amines primaires qui seraient disponibles lors de la polymérisation interfaciale avec un agent réticulant tel qu’un chlorure de diacide. De plus, le 1,8-diaminocarbazole (unité de répétition) possède, une fois polymérisé, les propriétés électrochimiques recherchées pour un transfert d’électrons efficace entre l’enzyme et l’électrode. Il a toutefois été nécessaire de développer une route de synthèse afin d’obtenir le 1,8-diaminocarbazole puisque le protocole de synthèse disponible dans la littérature a été jugé non viable pour être utilisé à grande échelle. De plus, aucun protocole de synthèse pour obtenir du poly(1,8-diaminocarbazole) directement n’a été trouvé. Ainsi, deux isomères de structure (1,6 et 1,8-diaminocarbazole) ont pu être synthétisés en deux étapes. La première étape consistait en une substitution électrophile du 3,6-dibromocarbazole en positions 1,8 et/ou 1,6 par des groupements nitro. Par la suite, une réaction de déhalogénation réductive à été réalisée en utilisant le Et3N et 10% Pd/C comme catalyseur dans le méthanol sous atmosphère d’hydrogène. De plus, lors de la première étape de synthèse, le composé 3,6-dibromo-1-nitro-carbazole a été obtenu; un monomère clé pour la synthèse du copolymère conducteur employé. Finalement, la fabrication de microcapsules conductrices a été réalisée en incorporant le copolymère poly[(9H-octylcarbazol-3,6-diyl)-alt-co-(2-amino-9H-carbazol-3,6-diyl)] au PEI. Ce copolymère a pu être synthétisé en grande quantité pour en permettre son utilisation lors de la fabrication de microcapsules. Son comportement électrochimique s’apparentait à celui du poly(1,8-diaminocarbazole). Ces microcapsules, avec laccase encapsulée, sont suffisamment perméables au PPD pour permettre une activité enzymatique détectable par électrode à O2. Par la suite, la modification de la surface d’une électrode de platine a pu être réalisée en utilisant ces microcapsules pour l’obtention d’une bioélectrode. Ainsi, la validité de cette plateforme d’immobilisation d’enzymes développée, au cours de cette thèse, a été démontrée par le biais de l’augmentation de l’efficacité du transfert électronique entre l’enzyme encapsulée et l’électrode.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La leucémie lymphoïde représente environ 30% des cas de cancer chez l’enfant. Elle est souvent causée par des réarrangements chromosomiques impliquant des gènes encodant des facteurs de transcription, qui contrôlent des programmes génétiques complexes. Par exemple, LMO2 (LIM-only 2) est un facteur de transcription oncogénique fréquemment exprimé de façon aberrante dans les leucémies lymphoblastiques aigues des cellules T (T-ALL). Dans l’hématopoïèse normale, LMO2 est essentiel à la génération des cellules souches hématopoïétiques à l’origine de toutes les cellules sanguines. D’ailleurs, certaines cellules leucémiques possèdent des propriétés normalement réservées aux cellules souches hématopoïétiques. Ainsi, l’étude de la fonction de LMO2 dans les cellules souches hématopoïétiques peut être pertinente autant dans le contexte hématopoïétique normal que leucémique. Afin de mettre en évidence de nouvelles fonctions moléculaires pour LMO2, j’ai choisi d’identifier les protéines qui s’y associent. En plus de ses partenaires connus, j’ai identifié plusieurs protéines de transcription/remodelage de la chromatine, en accord avec son rôle transcriptionnel. Plusieurs nouvelles fonctions potentielles ont été révélées, indiquant que cette protéine adaptatrice pourrait faire partie de complexes non transcriptionnels, régulant d’autres processus cellulaires. Les oncogènes comme LMO2 pourraient être des régulateurs à large spectre. Particulièrement, j’ai identifié des interactions entre LMO2 et des protéines de réplication de l’ADN. J’ai montré que LMO2 contrôle la réplication de l’ADN dans les cellules hématopoïétiques, et possiblement durant la leucémogenèse, indépendamment de son rôle transcriptionnel. Ensemble, ces études ont donc permis de révéler de nouvelles fonctions pour LMO2, et pourraient servir de paradigme pour d’autres facteurs de transcription oncogéniques, particulièrement aux autres protéines de la famille LMO, qui sont aussi des oncogènes puissants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La grande disponibilité et les propriétés psychostimulantes de la caféine en font l’un des psychostimulants les plus consommés mondialement. Sa capacité à augmenter la vigilance serait reliée à son action antagoniste des récepteurs adénosinergiques. Le vieillissement s'accompagne de changements dans les mécanismes de régulation de la vigilance, y compris le système adénosinergique, qui pourraient moduler les effets de la caféine. Alors que plusieurs études ont investigué les impacts de la caféine sur la vigilance chez une population jeune, peu ont identifié les effets chez une population plus âgée. Deux protocoles expérimentaux pouvant distinguer les effets différentiels de la caféine selon l’âge ont été élaborés. La première étude a évalué les effets de 200 mg de caféine sur la vigilance, comparée à un placebo, chez une population jeune et d’âge moyen lors d’une privation de sommeil de 25 heures. L’augmentation de la vigilance subjective et de la performance psychomotrice suite à l’administration de caféine est comparable dans les deux groupes d’âge. Or, des modifications de la puissance spectrale de certaines bandes de fréquences de l’EEG d’éveil suite à l’administration de la caféine sont spécifiques au groupe d’âge moyen. Une deuxième étude a évalué les effets de 200 mg de caféine sur la vigilance, comparée à un placebo, chez des sujets jeunes et d’âge moyen consommateurs légers de caféine. La caféine n’a pas augmenté la vigilance subjective des consommateurs légers. Par ailleurs, la caféine a augmenté la performance psychomotrice de façon similaire dans les deux groupes d’âge. De plus, on remarque que la caféine induit des modifications de la puissance spectrale sur certaines bandes de fréquences à l’EEG chez le groupe d’âge moyen uniquement. Ces travaux suggèrent tout d’abord que la caféine tend à augmenter la vigilance, peu importe le niveau basal d’alerte. De plus, malgré l’absence d’effet subjectif de la caféine sur la vigilance, les consommateurs légers de caféine montrent des effets sur les mesures objectives de la vigilance. Bien que la caféine augmente la vigilance chez les deux groupes d’âge, la spécificité de certaines modifications relevées à l’EEG suggère une augmentation de la sensibilité à la caféine selon l’âge. Il est possible qu’il existe des changements du système adénosinergique au cours du vieillissement qui sous-tendent les effets différentiels de la caféine au cours du vieillissement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cotutelle entre l’Université de Montréal et l’Université de Paris I Panthéon-Sorbonne

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les problèmes de satisfaction de contraintes, qui consistent à attribuer des valeurs à des variables en respectant un ensemble de contraintes, constituent une large classe de problèmes naturels. Pour étudier la complexité de ces problèmes, il est commode de les voir comme des problèmes d'homomorphismes vers des structures relationnelles. Un axe de recherche actuel est la caractérisation des classes de complexité auxquelles appartient le problème d'homomorphisme, ceci dans la perspective de confirmer des conjectures reliant les propriétés algébriques des structures relationelles à la complexité du problème d'homomorphisme. Cette thèse propose dans un premier temps la caractérisation des digraphes pour lesquels le problème d'homomorphisme avec listes appartient à FO. On montre également que dans le cas du problèmes d'homomorphisme avec listes sur les digraphes télescopiques, les conjectures reliant algèbre et complexité sont confirmées. Dans un deuxième temps, on caractérise les graphes pour lesquels le problème d'homomorphisme avec listes est résoluble par cohérence d'arc. On introduit la notion de polymorphisme monochromatique et on propose un algorithme simple qui résoud le problème d'homomorphisme avec listes si le graphe cible admet un polymorphisme monochromatique TSI d'arité k pour tout k ≥ 2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une nouvelle méthode d'extraction en phase solide (SPE) couplée à une technique d'analyse ultrarapide a été développée pour la détermination simultanée de neuf contaminants émergents (l'atrazine, le déséthylatrazine, le 17(béta)-estradiol, l'éthynylestradiol, la noréthindrone, la caféine, la carbamazépine, le diclofénac et le sulfaméthoxazole) provenant de différentes classes thérapeutiques et présents dans les eaux usées. La pré-concentration et la purification des échantillons a été réalisée avec une cartouche SPE en mode mixte (Strata ABW) ayant à la fois des propriétés échangeuses de cations et d'anions suivie d'une analyse par une désorption thermique par diode laser/ionisation chimique à pression atmosphérique couplée à la spectrométrie de masse en tandem (LDTD-APCI-MS/MS). La LDTD est une nouvelle méthode d'introduction d'échantillon qui réduit le temps total d'analyse à moins de 15 secondes par rapport à plusieurs minutes avec la chromatographie liquide couplée à la spectrométrie de masse en tandem traditionnelle (LC-MS/MS). Plusieurs paramètres SPE ont été évalués dans le but d'optimiser l'efficacité de récupération lors de l'extraction des analytes provenant des eaux usées, tels que la nature de la phase stationnaire, le débit de chargement, le pH d'extraction, le volume et la composition de la solution de lavage et le volume de l'échantillon initial. Cette nouvelle méthode a été appliquée avec succès à de vrais échantillons d'eaux usées provenant d'un réservoir de décantation primaire. Le recouvrement des composés ciblés provenant des eaux usées a été de 78 à 106%, la limite de détection a été de 30 à 122 ng L-1, alors que la limite de quantification a été de 88 à 370 ng L-1. Les courbes d'étalonnage dans les matrices d'eaux usées ont montré une bonne linéarité (R2 > 0,991) pour les analytes cibles ainsi qu’une précision avec un coefficient de variance inférieure à 15%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les dommages au nerf optique (neuropathie optique) peuvent entraîner la perte permanente de la vision ou la cécité causée par la mort des cellules ganglionnaires de la rétine (CGR). Nous avons identifié qu’une surproduction de l'anion superoxyde constitue un événement moléculaire critique précédant la mort cellulaire induite par des lésions. Récemment, Suarez-Moreira et al (JACS 131:15078, 2009) ont démontré que la vitamine B12 peut capter l’anion superoxyde aussi efficacement que l’enzyme superoxyde dismutase. La carence en vitamine B12 peut conduire à une neuropathie optique causée par des mécanismes inconnus. Nous avons étudié la relation entre la captation de superoxyde par la cyanocobalamine (forme de vitamine B12 la plus abondante) et ses propriétés neuroprotectrices dans les cellules neuronales. La cyanocobalamine aux concentrations de 10 μM et 100 μM a réduit le taux de production de superoxyde respectivement par 34% et 79% dans les essais sans-cellule. Dans les cellules RGC-5 traités avec la ménadione, les concentrations de cyanocobalamine supérieures à 10 nM ont diminué l’anion superoxyde à des valeurs similaires à celles traitées par PEG-SOD. La cyanocobalamine aux concentrations de 100 μM et 1 μM a réduit la mort des cellules RGC-5 exposées à la ménadione par 20% et 32%, respectivement. Chez les rats avec section du nerf optique unilatérale, une dose intravitréenne de 667 μM de cyanocobalamine a réduit le nombre de CGRs exposées au superoxyde. Cette dose a également augmenté le taux de survie des CGRs comparativement aux rats injectés avec la solution témoin. Ces données suggèrent que la vitamine B12 peut être un neuroprotecteur important, et sa carence nutritionnelle pourrait causer la mort de CGRs. La vitamine B12 pourrait aussi potentiellement être utilisée comme une thérapie pour ralentir la progression de la mort CGR chez les patients avec les neuropathies optiques caractérisés par une surproduction de superoxyde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les deux fonctions principales de la main sont la manipulation d’objet et l’exploration tactile. La détection du glissement, rapportée par les mécanorécepteurs de la peau glabre, est essentielle pour l’exécution de ces deux fonctions. Durant la manipulation d’objet, la détection rapide du micro-glissement (incipient slip) amène la main à augmenter la force de pince pour éviter que l’objet ne tombe. À l’opposé, le glissement est un aspect essentiel à l’exploration tactile puisqu’il favorise une plus grande acuité tactile. Pour ces deux actions, les forces normale et tangentielle exercées sur la peau permettent de décrire le glissement mais également ce qui arrive juste avant qu’il y ait glissement. Toutefois, on ignore comment ces forces contrôlées par le sujet pourraient être encodées au niveau cortical. C’est pourquoi nous avons enregistré l’activité unitaire des neurones du cortex somatosensoriel primaire (S1) durant l’exécution de deux tâches haptiques chez les primates. Dans la première tâche, deux singes devaient saisir une pastille de métal fixe et y exercer des forces de cisaillement sans glissement dans une de quatre directions orthogonales. Des 144 neurones enregistrés, 111 (77%) étaient modulés à la direction de la force de cisaillement. L’ensemble de ces vecteurs préférés s’étendait dans toutes les directions avec un arc variant de 50° à 170°. Plus de 21 de ces neurones (19%) étaient également modulés à l’intensité de la force de cisaillement. Bien que 66 neurones (59%) montraient clairement une réponse à adaptation lente et 45 autres (41%) une réponse à adaptation rapide, cette classification ne semblait pas expliquer la modulation à l’intensité et à la direction de la force de cisaillement. Ces résultats montrent que les neurones de S1 encodent simultanément la direction et l’intensité des forces même en l’absence de glissement. Dans la seconde tâche, deux singes ont parcouru différentes surfaces avec le bout des doigts à la recherche d’une cible tactile, sans feedback visuel. Durant l’exploration, les singes, comme les humains, contrôlaient les forces et la vitesse de leurs doigts dans une plage de valeurs réduite. Les surfaces à haut coefficient de friction offraient une plus grande résistance tangentielle à la peau et amenaient les singes à alléger la force de contact, normale à la peau. Par conséquent, la somme scalaire des composantes normale et tangentielle demeurait constante entre les surfaces. Ces observations démontrent que les singes contrôlent les forces normale et tangentielle qu’ils appliquent durant l’exploration tactile. Celles-ci sont également ajustées selon les propriétés de surfaces telles que la texture et la friction. Des 230 neurones enregistrés durant la tâche d’exploration tactile, 96 (42%) ont montré une fréquence de décharge instantanée reliée aux forces exercées par les doigts sur la surface. De ces neurones, 52 (54%) étaient modulés avec la force normale ou la force tangentielle bien que l’autre composante orthogonale avait peu ou pas d’influence sur la fréquence de décharge. Une autre sous-population de 44 (46%) neurones répondait au ratio entre la force normale et la force tangentielle indépendamment de l’intensité. Plus précisément, 29 (30%) neurones augmentaient et 15 (16%) autres diminuaient leur fréquence de décharge en relation avec ce ratio. Par ailleurs, environ la moitié de tous les neurones (112) étaient significativement modulés à la direction de la force tangentielle. De ces neurones, 59 (53%) répondaient à la fois à la direction et à l’intensité des forces. L’exploration de trois ou quatre différentes surfaces a permis d’évaluer l’impact du coefficient de friction sur la modulation de 102 neurones de S1. En fait, 17 (17%) neurones ont montré une augmentation de leur fréquence de décharge avec l’augmentation du coefficient de friction alors que 8 (8%) autres ont montré le comportement inverse. Par contre, 37 (36%) neurones présentaient une décharge maximale sur une surface en particulier, sans relation linéaire avec le coefficient de friction des surfaces. La classification d’adaptation rapide ou lente des neurones de S1 n’a pu être mise en relation avec la modulation aux forces et à la friction. Ces résultats montrent que la fréquence de décharge des neurones de S1 encode l’intensité des forces normale et tangentielle, le ratio entre les deux composantes et la direction du mouvement. Ces résultats montrent que le comportement d’une importante sous-population des neurones de S1 est déterminé par les forces normale et tangentielle sur la peau. La modulation aux forces présentée ici fait le pont entre les travaux évaluant les propriétés de surfaces telles que la rugosité et les études touchant à la manipulation d’objets. Ce système de référence s’applique en présence ou en absence de glissement entre la peau et la surface. Nos résultats quant à la modulation des neurones à adaptation rapide ou lente nous amènent à suggérer que cette classification découle de la manière que la peau est stimulée. Nous discuterons aussi de la possibilité que l’activité des neurones de S1 puisse inclure une composante motrice durant ces tâches sensorimotrices. Finalement, un nouveau cadre de référence tridimensionnel sera proposé pour décrire et rassembler, dans un même continuum, les différentes modulations aux forces normale et tangentielle observées dans S1 durant l’exploration tactile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur l’interface entre la sémantique lexicale et la syntaxe, et elle s’inscrit dans le cadre du projet de base lexicale DiCo (acronyme pour Dictionnaire de combinatoire) à l’Observatoire de Linguistique Sens-Texte [OLST] de l’Université de Montréal. Le projet découle d'une volonté d'inscrire de façon concise et complète, à même le dictionnaire, le comportement syntaxique typique à chaque unité lexicale. Dans cette optique, nous encodons la cooccurrence des lexies nominales du DiCo avec leurs actants à l'intérieur d'un tableau de régime lexical (aussi connu sous le nom de schéma valenciel, structure argumentale, cadre de sous-catégorisation, structure prédicats-arguments, etc.), en notant entre autres les dépendances syntaxiques de surface impliquées. Dans ce mémoire, nous présentons les propriétés syntaxiques d'une dépendance nominale du français, celle que nous avons nommée attributive adnominale, de façon à exposer une méthodologie d'identification et de caractérisation des dépendances syntaxiques de surface. Nous donnons également la liste des dépendances nominales régies identifiées au cours de ce travail. Par la suite, nous exposons la création d'une base de données de régimes généralisés du français nommée CARNAVAL. Finalement, nous discutons des applications possibles de notre travail, particulièrement en ce qui a trait à la création d'une typologie des régimes lexicaux du français.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail porte sur la construction d’un corpus étalon pour l’évaluation automatisée des extracteurs de termes. Ces programmes informatiques, conçus pour extraire automatiquement les termes contenus dans un corpus, sont utilisés dans différentes applications, telles que la terminographie, la traduction, la recherche d’information, l’indexation, etc. Ainsi, leur évaluation doit être faite en fonction d’une application précise. Une façon d’évaluer les extracteurs consiste à annoter toutes les occurrences des termes dans un corpus, ce qui nécessite un protocole de repérage et de découpage des unités terminologiques. À notre connaissance, il n’existe pas de corpus annoté bien documenté pour l’évaluation des extracteurs. Ce travail vise à construire un tel corpus et à décrire les problèmes qui doivent être abordés pour y parvenir. Le corpus étalon que nous proposons est un corpus entièrement annoté, construit en fonction d’une application précise, à savoir la compilation d’un dictionnaire spécialisé de la mécanique automobile. Ce corpus rend compte de la variété des réalisations des termes en contexte. Les termes sont sélectionnés en fonction de critères précis liés à l’application, ainsi qu’à certaines propriétés formelles, linguistiques et conceptuelles des termes et des variantes terminologiques. Pour évaluer un extracteur au moyen de ce corpus, il suffit d’extraire toutes les unités terminologiques du corpus et de comparer, au moyen de métriques, cette liste à la sortie de l’extracteur. On peut aussi créer une liste de référence sur mesure en extrayant des sous-ensembles de termes en fonction de différents critères. Ce travail permet une évaluation automatique des extracteurs qui tient compte du rôle de l’application. Cette évaluation étant reproductible, elle peut servir non seulement à mesurer la qualité d’un extracteur, mais à comparer différents extracteurs et à améliorer les techniques d’extraction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’arthrite septique chez les bovins est une affection le plus souvent d’origine bactérienne qui est une cause de boiterie fréquente associée à des pertes économiques importantes. Le traitement, qui doit être initié le plus rapidement possible, s’appuie sur l’utilisation combinée d’anti-inflammatoires non stéroïdiens, d’un ou de plusieurs lavages articulaires ainsi que d’antibiotiques administrés de façon systémique pour un minimum de 3 semaines. Cette durée d’administration constitue une difficulté pour les élevages dits biologiques pour lesquels un cahier des charges strict limite un recours prolongé aux antibiotiques. Ainsi le traitement efficace de diverses conditions infectieuses et celui de l’arthrite septique en particulier dans ces élevages peut être compromis. L’objectif de ce travail est de s’appuyer sur les propriétés antimicrobiennes des solutions de saline hypertonique (SSH) pour limiter l’utilisation des antibiotiques dans les cas d’arthrite septique chez les veaux en intégrant ces solutions pour le lavage des articulations infectées. Notre première étude a consisté à déterminer la sécurité d’emploi de deux concentrations de SSH (une commerciale à 7.2% et une maison à 15%) dans des articulations supposées saines chez le veau. Une synovite sévère associée à des signes cliniques caractéristiques d’atteintes articulaires a été observé lors de l’utilisation de SSH 15%. Son utilisation clinique comme solution de lavage articulaire est par conséquent déconseillée. Concernant la SSH 7.2%, malgré une synovite d’intensité variable, nous n’avons pas noté des signes cliniques caractéristiques d’atteintes articulaires. Son utilisation dans un contexte expérimental d’infection articulaire nous a paru réaliste. Notre seconde étude a permis d’évaluer les effets du lavage articulaire avec de la SSH 7.2% dans un modèle expérimental d’infection à Escherichia coli. Trois groupes de traitement ont été constitués. Dans le premier groupe (traitement standard), un lavage était effectué avec du lactate de Ringer (LRS) et les veaux recevaient une administration biquotidienne de ceftiofur par voie intraveineuse pour 21 jours. Dans le deuxième groupe (LRS), un lavage était effectué avec du LRS et aucun antibiotique n’était administré. Enfin dans le troisième groupe (SSH), un lavage était effectué avec de la SSH 7.2% sans qu’aucun antibiotique ne soit administré. Tous les veaux ont reçu du kétoprofen quotidiennement pendant 3 jours. L’inoculation s’est fait au jour 1 et les traitements ont débuté au jour 2. L’efficacité des traitements a été établie sur des critères cliniques, bactériologiques et cytologiques. Dans le modèle que nous avons utilisé, les trois groupes de traitements ont conduits à une guérison clinique et bactériologique satisfaisante (absence de boiterie, de douleur et de croissance bactérienne dans le liquide articulaire en fin d’étude). La guérison cytologique n’a quant à elle pas été jugée satisfaisante avec des moyennes de comptage et de pourcentage en neutrophiles tout groupe confondu bien supérieures aux valeurs normales (11.39x109/l de neutrophiles représentant 74.73% des leucocytes en fin d’étude). Le traitement avec la SSH 7.2% s’est révélé être significativement plus traumatique et pas plus efficace dans l’élimination de l’infection comparativement au traitement LRS. D’autre part, le lavage articulaire au LRS s’est révélé être aussi efficace et sécuritaire que le traitement standard de l’arthrite septique qui incluait 21 jours de ceftiofur administré par voie intraveineuse. Ainsi, bien que le lavage avec de la SSH 7.2% n’est pas démontré de résultats satisfaisants qui permettrait de limiter le recours aux antibiotiques dans les filières biologiques, l’association d’un lavage au LRS avec le ketoprofen s’est révélée être une alternative possible. De nouvelles études sont requises pour confirmer ses résultats et pour déterminer le rôle respectif du lavage articulaire et du ketoprofen dans la guérison lors d’arthrite septique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’inflammation: Une réponse adaptative du système immunitaire face à une insulte est aujourd’hui reconnue comme une composante essentielle à presque toutes les maladies infectieuses ou autres stimuli néfastes, tels les dommages tissulaires incluant l’infarctus du myocarde et l’insuffisance cardiaque. Dans le contexte des maladies cardiovasculaires, l’inflammation se caractérise principalement par une activation à long terme du système immunitaire, menant à une faible, mais chronique sécrétion de peptides modulateurs, appelés cytokines pro-inflammatoires. En effet, la littérature a montré à plusieurs reprises que les patients souffrant d’arythmies et de défaillance cardiaque présentent des taux élevés de cytokines pro-inflammatoires tels le facteur de nécrose tissulaire alpha (TNFα), l’interleukine 1β (IL-1β) et l’interleukine 6. De plus, ces patients souffrent souvent d’une baisse de la capacité contractile du myocarde. Le but de notre étude était donc de déterminer si un lien de cause à effet existe entre ces phénomènes et plus spécifiquement si le TNFα, l’IL-1β et l’IL-6 peuvent affecter les propriétés électriques et contractiles du cœur en modulant le courant Ca2+ de type L (ICaL) un courant ionique qui joue un rôle primordial au niveau de la phase plateau du potentiel d’action ainsi qu’au niveau du couplage excitation-contraction. Les possibles méchansimes par lesquels ces cytokines exercent leurs effets seront aussi explorés. Pour ce faire, des cardiomyocytes ventriculaires de souris nouveau-nées ont été mis en culture et traités 24 heures avec des concentrations pathophysiologiques (30 pg/mL) de TNFα, IL-1β ou IL-6. Des enregistrements de ICaL réalisés par la technique du patch-clamp en configuration cellule entière ont été obtenus par la suite et les résultats montrent que le TNFα n’affecte pas ICaL, même à des concentrations plus élevées (1 ng/mL). En revanche, l’IL-1β réduisait de près de 40% la densité d’ICaL. Afin d’examiner si le TNFα et l’IL-1β pouvaient avoir un effet synergique, les cardiomyocytes ont été traité avec un combinaison des deux cytokines. Toutefois aucun effet synergique sur ICaL n’a été constaté. En outre, l’IL-6 réduisait ICaL significativement, cependant la réduction de 20% était moindre que celle induite par IL-1β. Afin d’élucider les mécanismes sous-jacents à la réduction de ICaL après un traitement avec IL-1β, l’expression d’ARNm de CaV1.2, sous-unité α codante pour ICaL, a été mesurée par qPCR et les résultats obtenus montrent aucun changement du niveau d’expression. Plusieurs études ont montré que l’inflammation et le stress oxydatif vont de pair. En effet, l’imagerie confocale nous a permis de constater une augmentation accrue du stress oxydatif induit par IL-1β et malgré un traitement aux antioxydants, la diminution de ICaL n’a pas été prévenue. Cette étude montre qu’IL-1β et IL-6 réduisent ICaL de façon importante et ce indépendamment d’une régulation transcriptionelle ou du stress oxydatif. De nouvelles données préliminaires suggèrent que ICaL serait réduit suite à l’activation des protéines kinase C mais des études additionelles seront nécessaires afin d’étudier cette avenue. Nos résultats pourraient contribuer à expliquer les troubles du rythme et de contractilité observés chez les patients souffrant de défaillance cardiaque.