985 resultados para Circulant Matrices


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans une perspective strictement structurale, cherchant à étendre et généraliser le calque linguistique à la majorité des champs épistémologiques, une nouvelle science –la sémiologie– est née. Considérant les conventions et systèmes langagiers circulant dans la vie sociale des signes, ladite science n’a pas hésité à comparer les systèmes sémiotiques-forme architecturale et paysage de la ville à des structures discursives ou encore des « textes ». L’intégration du système de signes-forme architecturale dans le paysage de la ville se définit conséquemment comme une « dialogie » entre lesdits systèmes sémiotiques, une « intertextualité » s’effectuant sur la base de codes variés, enchevêtrés. En se basant sur les fondements peirciens du signe, nous proposons (selon une méthodologie décompositive desdits systèmes de signes) d’élucider le sens de cette dialogie dans les stratégies contemporaines du « Branding urbain » où ladite « intertextualité » se transforme en « interimagibilité » (ou « intericonicité ») prenant la ville de Toronto et l’extension du musée royal de l’Ontario (ROM) un corpus remarquable manifestant ladite métamorphose.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre recherche analyse des discours théologiques qui épousent les traits caractéristiques de l’afro-descendance dans des ouvrages de l’Atabaque et de la Conférence Haïtienne des Religieux et Religieuses (CHR). Ces publications permettent de nommer la réflexion théologique afro-brésilienne et haïtienne comme l’expression d’un engagement au sein d’un Brésil multiculturel et métissé et d’une Haïti noire. Elles se réfèrent à la lutte des Afro-descendants et à leur résistance contre ce qu’ils considèrent comme les conséquences de la période de l’esclavage commencée au XVIe siècle qui oppriment encore des Noirs au XXIe siècle et empêchent leur pleine émancipation. Elles font partie d’une démarche postcolonialiste de changement qui inclut l’inculturation et la reconnaissance des forces des religions de matrices africaines dans leur quête d’une pleine libération des Noirs. Notre démarche, basée sur l’étude comparative des contenus de ces théologies développées au Brésil et en Haïti, met en relief des éléments essentiels de deux courants distincts de production théologique de 1986 à 2004. Cette délimitation correspond à la période de publication du résultat de trois consultations sur les théologies noires au Brésil en 1986, en 1995 et en 2004. Les ouvrages de la CHR datent de 1991 à 1999. Notre étude permet de suivre la pratique de la foi chrétienne qui s’y dégage, l’élaboration et le parcours d’évolution de cette pensée. Teologia Negra et théologie haïtienne représentent deux manières distinctes de faire de la théologie noire. Une comparaison entre les deux contextes n’a jamais été faite jusqu’à présent. Cette recherche a conduit au constat selon lequel trois paradigmes peuvent englober les principaux aspects des courants théologiques afro-brésiliens et haïtiens. Nous relevons des convergences et des divergences des paradigmes de l’inculturation libératrice, du postcolonialisme et du pluralisme religieux. La réflexion théologique afro-brésilienne est vue comme une démarche sociopolitique, ancrée surtout dans la promotion des actions positives qui consistent à favoriser l’insertion des Noirs en situation relativement minoritaire dans une société multiculturelle. En Haïti, où les Noirs sont en situation majoritaire, cette réflexion théologique va dans la direction de la sauvegarde des racines historiques en vue de motiver des changements dans une société de Noirs. Cette optique de la question des Noirs, interprétée sous un nouvel angle, offre de nouvelles pistes de réflexion théologique en même temps qu’elle renforce les revendications culturelles des Afro-Brésiliens et des Afro-Haïtiens dans le but d’élaborer un nouveau discours théologique. Notre thèse contribue à mettre en évidence deux institutions qui se dévouent à la cause des Afro-Brésiliens et des Afro-Haïtiens. L’œuvre de l’Atabaque et de la CHR témoigne du fait que celles-ci ont été susceptibles d’agir collectivement en contribuant à la diversité de la réflexion théologique des Afro-descendants, en soutenant un processus de solidarité entre les victimes permanentes du racisme explicite et implicite. Notre étude suscite l’ouverture vers le développement d’une théologie de la rencontre au sein des théologies noires tout en érigeant le défi de construire un réseau Brésil-Haïti à partir des Afro-descendants. Finalement, la spécificité de ces théologies contribue à inspirer le christianisme latino-américain et des Caraïbes et cette réflexion ne se limite pas seulement à ces deux pays, mais s’étend à d’autres contextes latino-américains ou africains.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin d'étudier la diffusion et la libération de molécules de tailles inférieures dans un gel polymère, les coefficients d'auto-diffusion d'une série de polymères en étoile avec un noyau d'acide cholique et quatre branches de poly(éthylène glycol) (PEG) ont été déterminés par spectroscopie RMN à gradient de champ pulsé dans des solutions aqueuses et des gels de poly(alcool vinylique). Les coefficients de diffusion obtenus ont été comparés avec ceux des PEGs linéaires et dendritiques pour étudier l'effet de l'architecture des polymères. Les polymères en étoile amphiphiles ont des profils de diffusion en fonction de la concentration similaires à leurs homologues linéaires dans le régime dilué. Ils diffusent plus lentement dans le régime semi-dilué en raison de leur noyau hydrophobe. Leurs conformations en solution ont été étudiées par des mesures de temps de relaxation spin-réseau T1 du noyau et des branches. L'imagerie RMN a été utilisée pour étudier le gonflement des comprimés polymères et la diffusion dans la matrice polymère. Les comprimés étaient constitués d'amidon à haute teneur en amylose et chargés avec de l'acétaminophène (de 10 à 40% en poids). Le gonflement des comprimés, ainsi que l'absorption et la diffusion de l'eau, augmentent avec la teneur en médicament, tandis que le pourcentage de libération du médicament est similaire pour tous les comprimés. Le gonflement in vitro des comprimés d'un complexe polyélectrolyte à base d'amidon carboxyméthylé et de chitosane a également été étudié par imagerie RMN. Ces comprimés sont sensibles au pH : ils gonflent beaucoup plus dans les milieux acides que dans les milieux neutres en raison de la dissociation des deux composants et de la protonation des chaînes du chitosane. La comparaison des résultats avec ceux d'amidon à haute teneur en amylose indique que les deux matrices ont des gonflements et des profils de libération du médicament semblables dans les milieux neutres, alors que les comprimés complexes gonflent plus dans les milieux acides en raison de la dissociation du chitosane et de l'amidon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent projet vise à documenter la nécessité d’augmenter notre connaissance de la présence des contaminants organiques tels que les médicaments dans l’environnement et d’évaluer leur devenir environnemental. On a étudié la présence de composés pharmaceutiques dans différents échantillons d'eau. On a focalisé nos efforts spécialement sur les échantillons d'eau de l'usine d'épuration de la Ville de Montréal et ses effluents, les eaux de surface avoisinantes et l’eau du robinet dans la région de Montréal. Pour ce faire, on a tout d’abord développé deux méthodes analytiques automatisées basées sur la chromatographie liquide avec extraction en phase solide (SPE) couplée à la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). On a également étudié les performances des trois techniques d'ionisation à pression atmosphérique (API), pour ensuite les utiliser dans la méthode analytique développée. On a démontré que l'ionisation par électronébulisation (ESI) est une méthode d'ionisation plus efficace pour l'analyse des contaminants pharmaceutiques dans des échantillons de matrices très complexes comme les eaux usées. Une première méthode analytique SPE couplée à la LC-MS/MS a été développée et validée pour l'étude des échantillons complexes provenant de l'usine d'épuration de la Ville de Montréal et des eaux de surface près de l'usine. Cinq médicaments de prescription ont été étudiés: le bézafibrate (un régulateur de lipides), le cyclophosphamide et le méthotrexate (deux agents anticancéreux), l'orlistat (un agent anti-obésité) et l’énalapril (utilisé dans le traitement de l'hypertension). La plupart de ces drogues sont excrétées par le corps humain et rejetées dans les eaux usées domestiques en faisant par la suite leur chemin vers les usines municipales de traitement des eaux usées. On a pu démontrer qu'il y a un faible taux d’élimination à l'usine d'épuration pour le bézafibrate et l'énalapril. Ces deux composés ont aussi été détectés dans les eaux de surface sur un site à proximité immédiate de la décharge de l’effluent de la station d'épuration. i En observant la nécessité de l'amélioration des limites de détection de la première méthode analytique, une deuxième méthode a été développée. Pour la deuxième méthode, un total de 14 contaminants organiques, incluant trois agents anti-infectieux (clarithromycin, sulfaméthoxazole et triméthoprime), un anticonvulsant (carbamazépine) et son produit de dégradation (10,11-dihydrocarbamazépine), l'agent antihypertensif (enalapril), deux antinéoplastiques utilisés en chimiothérapie (cyclophosphamide et méthotrexate), des herbicides (atrazine, cyanazine, et simazine) et deux produits de transformation de l’atrazine (deséthylatrazine et déisopropylatrazine) ainsi qu’un agent antiseptique (triclocarban). Ces produits ont été quantifiés dans les eaux de surface ainsi que dans l’eau du robinet. L'amélioration des limites de détection pour cette méthode a été possible grâce à la charge d'un volume d'échantillon supérieur à celui utilisé dans la première méthode (10 mL vs 1 mL). D'autres techniques de confirmation, telles que les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle et la mesure des masses exactes par spectrométrie de masse à temps d’envol, ont été explorées. L'utilisation d'un analyseur de masse à temps d’envol a permis la confirmation de 6 des 14 analytes. Finalement, étant donné leur haute toxicité et pour évaluer leur persistance et leur transformation au niveau du traitement des eaux potables, la cinétique d'oxydation du cyclophosphamide et de méthotrexate avec l'ozone moléculaire et des radicaux OH a été étudiée. Les constantes de dégradation avec l'ozone moléculaire ont été calculées et la qualité de l'eau après traitement a pu être évaluée. Le rendement du processus d'ozonation a été amélioré pour la cyclophosphamide dans les eaux naturelles, en raison de la combinaison de réactions directes et indirectes. Cette étude a montré que l'ozone est très efficace pour oxyder le méthotrexate mais que le cyclophosphamide serait trop lent à s’oxyder pour un traitement efficace aux conditions usuelles de traitement de l’eau potable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles de séries chronologiques avec variances conditionnellement hétéroscédastiques sont devenus quasi incontournables afin de modéliser les séries chronologiques dans le contexte des données financières. Dans beaucoup d'applications, vérifier l'existence d'une relation entre deux séries chronologiques représente un enjeu important. Dans ce mémoire, nous généralisons dans plusieurs directions et dans un cadre multivarié, la procédure dévéloppée par Cheung et Ng (1996) conçue pour examiner la causalité en variance dans le cas de deux séries univariées. Reposant sur le travail de El Himdi et Roy (1997) et Duchesne (2004), nous proposons un test basé sur les matrices de corrélation croisée des résidus standardisés carrés et des produits croisés de ces résidus. Sous l'hypothèse nulle de l'absence de causalité en variance, nous établissons que les statistiques de test convergent en distribution vers des variables aléatoires khi-carrées. Dans une deuxième approche, nous définissons comme dans Ling et Li (1997) une transformation des résidus pour chaque série résiduelle vectorielle. Les statistiques de test sont construites à partir des corrélations croisées de ces résidus transformés. Dans les deux approches, des statistiques de test pour les délais individuels sont proposées ainsi que des tests de type portemanteau. Cette méthodologie est également utilisée pour déterminer la direction de la causalité en variance. Les résultats de simulation montrent que les tests proposés offrent des propriétés empiriques satisfaisantes. Une application avec des données réelles est également présentée afin d'illustrer les méthodes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreux travailleurs utilisent le captan et le folpet comme fongicides en agriculture, mais leur exposition n’est pas toujours mesurée de manière spécifique et précise. La surveillance biologique est un excellent outil à cet effet puisqu’elle permet de quantifier l’exposition réelle. Toutefois, la majorité des connaissances toxicologiques pour ces fongicides proviennent d’études sur les animaux, et les données chez l’humain sont limitées. Le but du présent projet est donc de développer des outils de surveillance biologique pour évaluer l’exposition de travailleurs au captan et au folpet. Dans cette perspective, le projet a été subdivisé en trois parties complémentaires, soit i) de développer des méthodes analytiques spécifiques pour quantifier les biomarqueurs d’intérêt du captan, à savoir le tétrahydrophtalimide (THPI), et du folpet, à savoir le phtalimide (PI) et l’acide phtalique, dans le plasma et l’urine; ii) de déterminer la toxicocinétique des deux fongicides en exposant des volontaires de façon aigüe à de faibles doses de captan ou de folpet par voie orale et cutanée dans des conditions semi-contrôlées et en quantifiant les biomarqueurs dans chacune des deux matrices, excepté l’acide phtalique qui a été mesuré seulement dans l’urine; iii) de valider les biomarqueurs d’exposition sélectionnés et d’évaluer l’exposition réelle des travailleurs et les voies prédominantes d’exposition au captan et au folpet en collectant des données biologiques chez des travailleurs en arboriculture et en viticulture lors d’activités de traitement et d’effeuillage pendant sept jours consécutifs. Selon ces travaux, le THPI et le PI sont deux biomarqueurs valides et spécifiques pour quantifier l’exposition au captan et au folpet, respectivement, chez l’humain. En effet, les méthodes développées pour ces deux métabolites sont robustes avec des limites de détection plus sensibles que celles rapportées dans la littérature, un taux de recouvrement de 90% pour le THPI et de 75% pour le PI, une très bonne linéarité (R2>0,99) et une bonne stabilité avec des variations intra- et inter-journalières faibles (RSD<15%). Elles ont permis de déterminer les profils cinétiques des deux métabolites chez les volontaires et chez les travailleurs. Ces derniers indiquent d’ailleurs une élimination rapide, avec une demi-vie d’élimination dans l’urine de 11,7 h et 18,7 h pour le THPI et de 27,3 h et 28,8 h pour le PI, respectivement après une absorption par voie orale et cutanée, ainsi qu’une faible absorption cutanée lorsque les valeurs sont comparées pour les deux voies d’exposition. Des profils parallèles sont aussi observés entre le PI et l’acide phtalique pour les volontaires et les agriculteurs, mais le folpet se retrouve davantage métabolisé sous forme d’acide phtalique que de PI. Quant à l’étude des agriculteurs, elle montre que la voie principale d’exposition de ces travailleurs est la voie cutanée. Il est aussi souligné qu’il est important 1) de favoriser les collectes d’urines complètes sur 24 h au urines ponctuelles, 2) de mesurer plusieurs métabolites, et 3) d’associer les données de surveillance biologique à la toxicocinétique. Ainsi, les connaissances acquises par cette étude peuvent s’appliquer à d’autres fongicides, voire d’autres substances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ischémie aigüe (restriction de la perfusion suite à l’infarctus du myocarde) induit des changements majeurs des propriétés électrophysiologique du tissu ventriculaire. Dans la zone ischémique, on observe une augmentation du potassium extracellulaire qui provoque l’élévation du potentiel membranaire et induit un "courant de lésion" circulant entre la zone affectée et saine. Le manque d’oxygène modifie le métabolisme des cellules et diminue la production d’ATP, ce qui entraîne l’ouverture de canaux potassique ATP-dépendant. La tachycardie, la fibrillation ventriculaire et la mort subite sont des conséquences possibles de l’ischémie. Cependant les mécanismes responsables de ces complications ne sont pas clairement établis. La création de foyer ectopique (automaticité), constitue une hypothèse intéressante expliquant la création de ses arythmies. Nous étudions l’effet de l’ischémie sur l’automaticité à l’aide d’un modèle mathématique de la cellule ventriculaire humaine (Ten Tusscher, 2006) et d’une analyse exhaustive des bifurcations en fonction de trois paramètres : la concentration de potassium extracellulaire, le "courant de lésion" et l’ouverture de canaux potassiques ATP-dépendant. Dans ce modèle, nous trouvons que seule la présence du courant de lésion peut entrainer une activité automatique. Les changements de potassium extracellulaire et du courant potassique ATP-dépendant altèrent toutefois la structure de bifurcation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée dans le cadre d'une cotutelle entre l'Université de Montréal et l'Université d'Auvergne en France

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les maladies cardiovasculaires (MCV) demeurent au tournant de ce siècle la principale cause de mortalité dans le monde. Parmi les facteurs de risque, l’hypercholestérolémie et l’obésité abdominale sont directement liées au développement précoce de l’athérosclérose. L’hypercholestérolémie familiale, communément associée à une déficience des récepteurs des lipoprotéines de basse densité (LDLR), est connue comme cause de maladie précoce d’athérosclérose et de calcification aortique chez l’humain. La subtilisine convertase proprotéine/kexine du type 9 (PCSK9), membre de la famille des proprotéines convertases, est trouvée indirectement associée aux MCV par son implication dans la dégradation du LDLR. Chez l'humain, des mutations du gène PCSK9 conduisent soit à une hypercholestérolémie familiale, soit à une hypocholestérolémie, selon que la mutation entraîne un gain ou une perte de fonction, respectivement. Il demeure incertain si les individus porteurs de mutations causant un gain de fonction de la PCSK9 développeront une calcification aortique ou si des mutations entraînant une perte de fonction provoqueront une obésité abdominale. Dans cette étude, nous avons examiné : 1) l’effet d’une surexpression de PCSK9 dans le foie de souris sur la calcification aortique ; 2) les conséquences d’une déficience en PCSK9 (Pcsk9 KO), mimant une inhibition pharmacologique, sur le tissu graisseux. Nous avons utilisé un modèle de souris transgénique (Tg) surexprimant le cDNA de PCSK9 de souris dans les hépatocytes de souris et démontrons par tomographie calculée qu’une calcification survient de façon moins étendue chez les souris PCSK9 Tg que chez les souris déficientes en LDLR. Alors que le PCSK9 Tg et la déficience en LDLR causaient tous deux une hypercholestérolémie familiale, les niveaux seuls de cholestérol circulant ne parvenaient pas à prédire le degré de calcification aortique. Dans une seconde étude, nous utilisions des souris génétiquement manipulées dépourvues de PSCK9 et démontrons que l’accumulation de graisses viscérales (adipogenèse) apparaît régulée par la PCSK9 circulante. Ainsi, en l’absence de PCSK9, l’adipogenèse viscérale augmente vraisemblablement par régulation post-traductionnelle des récepteurs à lipoprotéines de très basse densité (VLDLR) dans le tissu adipeux. Ces deux modèles mettent en évidence un équilibre dynamique de la PCSK9 dans des voies métaboliques différentes, réalisant un élément clé dans la santé cardiovasculaire. Par conséquent, les essais d’investigations et d’altérations biologiques de la PCSK9 devraient être pris en compte dans un modèle animal valide utilisant une méthode sensible et en portant une attention prudente aux effets secondaires de toute intervention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous avons utilisé le logiciel R pour la programmation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’effet d’encombrement, qui nous empêche d’identifier correctement un stimulus visuel lorsqu’il est entouré de flanqueurs, est omniprésent à travers une grande variété de classes de stimuli. L’excentricité du stimulus cible ainsi que la distance cible-flanqueur constituent des facteurs fondamentaux qui modulent l’effet d’encombrement. La similarité cible-flanqueur semble également contribuer à l’ampleur de l’effet d’encombrement, selon des données obtenues avec des stimuli non-linguistiques. La présente étude a examiné ces trois facteurs en conjonction avec le contenu en fréquences spatiales des stimuli, dans une tâche d’identification de lettres. Nous avons présenté des images filtrées de lettres à des sujets non-dyslexiques exempts de troubles neurologiques, tout en manipulant l’excentricité de la cible ainsi que la similarité cible-flanqueurs (selon des matrices de confusion pré-établies). Quatre types de filtrage de fréquences spatiales ont été utilisés : passe-bas, passe-haut, à large bande et mixte (i.e. élimination des fréquences moyennes, connues comme étant optimales pour l’identification de lettres). Ces conditions étaient appariées en termes d’énergie de contraste. Les sujets devaient identifier la lettre cible le plus rapidement possible en évitant de commettre une erreur. Les résultats démontrent que la similarité cible-flanqueur amplifie l’effet d’encombrement, i.e. l’effet conjoint de distance et d’excentricité. Ceci étend les connaissances sur l’impact de la similarité sur l’encombrement à l’identification visuelle de stimuli linguistiques. De plus, la magnitude de l’effet d’encombrement est plus grande avec le filtre passe-bas, suivit du filtre mixte, du filtre passe-haut et du filtre à large bande, avec différences significatives entre les conditions consécutives. Nous concluons que : 1- les fréquences spatiales moyennes offrent une protection optimale contre l’encombrement en identification de lettres; 2- lorsque les fréquences spatiales moyennes sont absentes du stimulus, les hautes fréquences protègent contre l’encombrement alors que les basses fréquences l’amplifient, probablement par l’entremise de leur impact opposé quant la disponibilité de l’information sur les caractéristiques distinctives des stimul.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Canada, nous remarquons une prédominance du diabète de type 2 au sein des communautés autochtones. Une approche ethnobotanique est utilisée en collaboration avec la Nation Crie de Eeyou Istchee afin de déterminer quels traitements à base de plantes peuvent être utilisés pour contrer les différentes conditions qui, collectivement, forment le diabète. Les pharmacopées de deux communautés cries, soit celles de Waskaganish et de Nemaska, ont été établies puis comparées à celles de étudiées antérieurement : communautés Whapmagoostui et Mistissini. Malgré les différences géographiques de ces groupes, leurs utilisations sont majoritairement semblables, avec pour seule exception le contraste entre les communautés de Nemaska et de Whapmagoostui. De plus, nous avons complété l’évaluation du taux cytoprotecteur des aiguilles, de l’écorce et des cônes de l’épinette noire (Picea mariana). Les extraits provenant de tous les organes des plantes démontrent une protection qui dépend de la concentration. La réponse spécifique d’organes peut varier selon l’habitat; ainsi, les plantes poussant dans les tourbières ou dans les forêts, sur le littoral ou à des terres l’intérieur démontrent des différences quant à leur efficacité. Bref, l’écorce démontre une relation dose-effet plus forte dans la forêt littorale, tandis que les aiguilles n’indiquent pas de changements significatifs selon leur environnement de croissance. La bioactivité observée démontre une corrélation avec le contenu phénolique et non avec l’activité de l’agent antioxydant. Ces résultats contribuent à péciser les activités antidiabétiques des plantes de la forêt boréale canadienne, telles qu’identifiées au niveau cellulaire par les guérisseurs Cries.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces travaux visent à étendre les applications de la résonance de plasmons de surface (SPR) L’objectif est d’offrir des outils diagnostics plus rapides, efficaces et simple d’utilisation pour diagnostiquer ou effectuer le suivi de conditions cliniques. Pour se faire, un nouveau type d’instrumentation SPR basé sur l’utilisation d’un prisme d’inversion (dove) a permis d’atteindre une limite de détection (LOD) de 10-6 unité d’indice de réfraction (RIU), une valeur comparable aux instruments commerciaux complexes tout en demeurant peu dispendieux, robuste et simple d’utilisation. Les travaux présentés dans cet ouvrage visent, dans un second temps, à réduire les interactions nonspécifiques (NSB) entre la surface des biocapteurs SPR et les composants de la matrice biologique complexe telles que: l’urine, le lysat cellulaire, le sérum et le sang. Ces dernières induisent des réponses empêchant l’utilisation de biocapteurs SPR en milieux complexes. Les acides aminés (AA) offrent une grande variété de propriétés physico-chimiques permettant la mise au point de monocouches auto-assemblées (SAM) aux propriétés diverses. Initialement, 19 des 20 acides aminés naturels ont été attachés à l’acide 3-mercaptopropionique (3-MPA) formant des SAMs peptidomimétiques. La quantité d’interactions nonspécifiques engendrées par ces différentes surfaces a été mesurée en exposant ces surfaces au sérum sanguin bovin complet variant de 400 ng/cm² jusqu’à 800 ng/cm². La détection à l’aide de ces surfaces de la β-lactamase (une enzyme responsable de la résistance aux antibiotiques au niveau μM) a démontré la possibilité d’employer ces surfaces pour bâtir des biocapteurs SPR. Des peptides de longueur allant de 2 à 5 résidus attachés à 3-MPA ont été synthétisés sur support solide. Cette étude a démontré que l’augmentation de la longueur des peptides formés d’AA résistants aux NBS accroit leur résistance jusqu’à 5 résidus. Le composé le plus performant de ce type (3-MPA-(Ser)5-OH) a permis d’atteindre 180 ng/cm². Cette valeur est similaire à celle des meilleures surfaces disponibles commercialement, notamment les surfaces de polyethylène glycol (PEG) à 100 ng/cm². Des surfaces de 3-MPA-(Ser)5-OH ont permis l’étalonnage de la β-lactamase et sa quantification directe dans un lysat cellulaire. La LOD pour ces biocapteurs est de 10 nM. Une troisième génération de surfaces peptidiques binaires a permis la réduction de la NSB jusqu’à un niveau de 23±10 ng/cm² une valeur comparable aux meilleures surfaces disponibles. Ces surfaces ont permis l’étalonnage d’un indicateur potentiel du cancer la metalloprotéinase-3 de matrice (MMP-3). Les surfaces formées de peptides binaires (3-MPA-H3D2-OH) ont permis la quantification directe de la MMP-3 dans le sérum sanguin complet. Une quatrième génération de surfaces peptidiques a permis de réduire davantage le niveau de NSB jusqu’à une valeur de 12 ± 11 ng/cm². Ces surfaces ont été modifiées en y attachant une terminaison de type acide nitriloacétique (NTA) afin d’y attacher des biomolécules marquées par six résidus histidines terminaux. Ces surfaces ont permis le développement d’une méthode rapide de balayage des ligands ciblant le « cluster of differenciation-36 » (CD36). L’étude d’électroformation des monocouches de peptide a permis de déterminer les conditions de formation optimales d’une couche de 3-MPA-HHHDD-OH permettant ainsi la formation de monocouches résistantes au NSB en moins de 6 minutes en appliquant un potentiel de formation de 200mV vs Ag/AgCl.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif principal de cette recherche est de contribuer au développement de biocapteurs commerciaux utilisant des surfaces de papier comme matrices d’immobilisation, capables de produire un signal colorimétrique perceptible dans les limites sensorielles humaines. Ce type de biocapteur, appelé papier bioactif, pourrait servir par exemple à la détection de substances toxiques ou d’organismes pathogènes. Pour atteindre l’objectif énoncé, ce travail propose l’utilisation de systèmes enzymatiques microencapsulés couchés sur papier. Les enzymes sont des catalyseurs biologiques dotés d’une haute sélectivité, et capables d'accélérer la vitesse de certaines réactions chimiques spécifiques jusqu’à des millions des fois. Les enzymes sont toutefois des substances très sensibles qui perdent facilement leur fonctionnalité, raison pour laquelle il faut les protéger des conditions qui peuvent les endommager. La microencapsulation est une technique qui permet de protéger les enzymes sans les isoler totalement de leur environnement. Elle consiste à emprisonner les enzymes dans une sphère poreuse de taille micrométrique, faite de polymère, qui empêche l’enzyme de s’echapper, mais qui permet la diffusion de substrats à l'intérieur. La microencapsulation utilisée est réalisée à partir d’une émulsion contenant un polymère dissous dans une phase aqueuse avec l’enzyme désirée. Un agent réticulant est ensuite ajouté pour provoquer la formation d'un réseau polymérique à la paroi des gouttelettes d'eau dans l'émulsion. Le polymère ainsi réticulé se solidifie en enfermant l’enzyme à l'intérieur de la capsule. Par la suite, les capsules enzymatiques sont utilisées pour donner au papier les propriétés de biocapteur. Afin d'immobiliser les capsules et l'enzyme sur le papier, une méthode courante dans l’industrie du papier connu sous le nom de couchage à lame est utilisée. Pour ce faire, les microcapsules sont mélangées avec une sauce de couchage qui sera appliquée sur des feuilles de papier. Les paramètres de viscosité i de la sauce et ceux du couchage ont été optimisés afin d'obtenir un couchage uniforme répondant aux normes de l'industrie. Les papiers bioactifs obtenus seront d'abord étudiés pour évaluer si les enzymes sont toujours actives après les traitements appliqués; en effet, tel que mentionné ci-dessus, les enzymes sont des substances très sensibles. Une enzyme très étudiée et qui permet une évaluation facile de son activité, connue sous le nom de laccase, a été utilisée. L'activité enzymatique de la laccase a été évaluée à l’aide des techniques analytiques existantes ou en proposant de nouvelles techniques d’analyse développées dans le laboratoire du groupe Rochefort. Les résultats obtenus démontrent la possibilité d’inclure des systèmes enzymatiques microencapsulés sur papier par couchage à lame, et ce, en utilisant des paramètres à grande échelle, c’est à dire des surfaces de papier de 0.75 x 3 m2 modifiées à des vitesses qui vont jusqu’à 800 m/min. Les biocapteurs ont retenu leur activité malgré un séchage par évaporation de l’eau à l’aide d’une lampe IR de 36 kW. La microencapsulation s’avère une technique efficace pour accroître la stabilité d’entreposage du biocapteur et sa résistance à l’exposition au NaN3, qui est un inhibiteur connu de ce biocapteur. Ce projet de recherche fait partie d'un effort national visant à développer et à mettre sur le marché des papiers bioactifs; il est soutenu par Sentinel, un réseau de recherche du CRSNG.