629 resultados para Détection de noyaux de recul


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: Alors que de nouvelles organisations de services de première ligne, les groupes dedecine de famille (GMF) ont été implantés au Québec au début des années 2000 afin d’améliorer l’accessibilité et l’intégration des soins, nous avons que peu de recul sur la façon dont les acteurs impliqués dans le changement ont exercé leur leadership pour influencer l’implantation des GMF. Objectifs: La présente étude a pour but de mettre en évidence les rôles et actions des acteurs clés impliqués dans l’implantation des GMF et ceci pour l’ensemble du processus de transformation (de l’idée de création jusqu’à l’implantation opérationnelle des nouvelles activités), tant en les reliant aux capacités des acteurs ainsi qu’aux facteurs (organisationnels, règlementaires et culturels) aidant ou entravant le leadership dans le contexte de changement. Méthodologie: Il s’agit d’une étude de cas multiples, reposant sur trois cas (GMF) qui disposent de caractéristiques organisationnelles différentes (taille, statut, situation géographique). Des entrevues semi-dirigées ont été réalisées avec les professionnels de chaque GMF (médecins, infirmières et gestionnaires). En outre, de la documentation sur le fonctionnement et l’organisation des GMF a été consultée afin de diversifier les sources de données. Résultats: On remarque une évolution du leadership tout au long du processus de changement. Le rôle du médecin responsable a été crucial lorsqu’il s’agit de communiquer le besoin de changer de pratique et la nouvelle vision de la pratique, ou encore afin de définir le rôle et les responsabilités de chacun des membres des GMF au moment de la création de ceux-ci. Un leadership plus collectif et partagé s’est manifesté au moment de l’opérationnalisation de l’implantation, par des interactions d’influence de l’ensemble des acteurs internes mais aussi externes aux GMF (CSSS, ASSS, DRMG). Conclusion: Le cadre conceptuel proposé a permis d’identifier l’évolution du leadership tout au long du processus de changement organisationnel. Il a également permis de relier les rôles et actions des acteurs aux capacités et aux facteurs aidant ce leadership.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La quantité de données générée dans le cadre d'étude à grande échelle du réseau d'interaction protéine-protéine dépasse notre capacité à les analyser et à comprendre leur sens; d'une part, par leur complexité et leur volume, et d'un autre part, par la qualité du jeu de donnée produit qui semble bondé de faux positifs et de faux négatifs. Cette dissertation décrit une nouvelle méthode de criblage des interactions physique entre protéines à haut débit chez Saccharomyces cerevisiae, la complémentation de fragments protéiques (PCA). Cette approche est accomplie dans des cellules intactes dans les conditions natives des protéines; sous leur promoteur endogène et dans le respect des contextes de modifications post-traductionnelles et de localisations subcellulaires. Une application biologique de cette méthode a permis de démontrer la capacité de ce système rapporteur à répondre aux questions d'adaptation cellulaire à des stress, comme la famine en nutriments et un traitement à une drogue. Dans le premier chapitre de cette dissertation, nous avons présenté un criblage des paires d'interactions entre les protéines résultant des quelques 6000 cadres de lecture de Saccharomyces cerevisiae. Nous avons identifié 2770 interactions entre 1124 protéines. Nous avons estimé la qualité de notre criblage en le comparant à d'autres banques d'interaction. Nous avons réalisé que la majorité de nos interactions sont nouvelles, alors que le chevauchement avec les données des autres méthodes est large. Nous avons pris cette opportunité pour caractériser les facteurs déterminants dans la détection d'une interaction par PCA. Nous avons remarqué que notre approche est sous une contrainte stérique provenant de la nécessité des fragments rapporteurs à pouvoir se rejoindre dans l'espace cellulaire afin de récupérer l'activité observable de la sonde d'interaction. L'intégration de nos résultats aux connaissances des dynamiques de régulations génétiques et des modifications protéiques nous dirigera vers une meilleure compréhension des processus cellulaires complexes orchestrés aux niveaux moléculaires et structuraux dans les cellules vivantes. Nous avons appliqué notre méthode aux réarrangements dynamiques opérant durant l'adaptation de la cellule à des stress, comme la famine en nutriments et le traitement à une drogue. Cette investigation fait le détail de notre second chapitre. Nous avons déterminé de cette manière que l'équilibre entre les formes phosphorylées et déphosphorylées de l'arginine méthyltransférase de Saccharomyces cerevisiae, Hmt1, régulait du même coup sont assemblage en hexamère et son activité enzymatique. L'activité d'Hmt1 a directement un impact dans la progression du cycle cellulaire durant un stress, stabilisant les transcrits de CLB2 et permettant la synthèse de Cln3p. Nous avons utilisé notre criblage afin de déterminer les régulateurs de la phosphorylation d'Hmt1 dans un contexte de traitement à la rapamycin, un inhibiteur de la kinase cible de la rapamycin (TOR). Nous avons identifié la sous-unité catalytique de la phosphatase PP2a, Pph22, activé par l'inhibition de la kinase TOR et la kinase Dbf2, activé durant l'entrée en mitose de la cellule, comme la phosphatase et la kinase responsable de la modification d'Hmt1 et de ses fonctions de régulations dans le cycle cellulaire. Cette approche peut être généralisée afin d'identifier et de lier mécanistiquement les gènes, incluant ceux n'ayant aucune fonction connue, à tout processus cellulaire, comme les mécanismes régulant l'ARNm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche met en parallèle les cultures germanophone et francophone par l’entremise de l’histoire de la contrebasse. La problématique consiste à expliquer l’absence de littérature en français sur l’école viennoise de contrebasse, qui s’est développée dans la seconde moitié du XVIIIe siècle et qui a eu une certaine incidence sur le développement de cet instrument. La première section propose une biographie des principaux représentants de cette école, tous contrebassistes virtuoses actifs à Vienne autour de 1750. Suivent un tour d’horizon des œuvres pour contrebasse concertante du classicisme viennois, puis un rappel historique sur le déclin de cette école. Dans la deuxième section, un parallèle est tracé entre l’avancée du violoncelle et le recul de la contrebasse au XIXe siècle. Suivent une présentation des instruments les plus appréciés de cette époque, à savoir le piano, le cor français et le violoncelle, puis une comparaison entre l’évolution de la contrebasse en France et dans les pays germanophones au XIXe siècle. Finalement, la troisième section est consacrée à la renaissance de l’école viennoise de contrebasse, amorcée au milieu du XXe siècle. Pour observer le déploiement de cette évolution dans les cultures française, germanophone et anglo-saxonne, cette section comporte un examen des œuvres publiées par les maisons d’édition spécialisées en musique ainsi que de celles enregistrées par les contrebassistes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

VERSION ANGLAISE DISPONIBLE AU DÉPARTEMENT; THÈSE RÉALISÉE CONJOINTEMENT AVEC L'ÉCOLE DES SCIENCES DE LA COMMUNICATION DE L'UNIVERSITÉ MCGILL (DRS. K. STEINHAUER ET J.E. DRURY).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanomatériaux sont de plus en plus présents dans les produits consommables du quotidien. L’argent est le métal le plus utilisé en nanotechnologie pour ses propriétés antimicrobiennes. Par différentes voies d’entrée, les nanoparticules d’argent (nAg) se retrouvent dans l’environnement en quantité significative, notamment dans les sols suite à la valorisation agricole des biosolides municipaux. Il est prévu qu’une interaction négative sur la communauté microbienne terrestre ait des répercussions sur la fertilité du sol et les processus biogéochimiques. Les mesures de l’activité enzymatique ont déjà montré leur efficacité et leur sensibilité dans la détection d’une perturbation physique et chimique du sol. Les effets potentiels des nAg sur l’écosystème terrestre ont été évalués en mesurant l’activité des enzymes β-D-glucosidase (EC 3.2.1.21), leucine-aminopeptidase (EC 3.4.11.1), phosphomonoesterase (EC 3.1.3) et arylsulfatase (EC 3.1.6.1) intervenant dans les cycles des éléments essentiels C, N, P et S, respectivement. L’activité enzymatique est mesurée à l’aide d’une technique basée sur la fluorescence qui requière des substrats synthétiques liés à un fluorophore. Un sol de type sableux a été échantillonné au Campus Macdonald de l’Université McGill (Sainte-Anne-de-Bellevue, Qc) puis exposé aux nAg (taille ~20 nm) ou à la forme ionique Ag+ (Ag-acetate) à des concentrations nominales de 1,25 × 10-3, 1,25 × 10-2, 0,125, 1,25, 6,25 et 31,25 mg Ag kg-1 sol. De plus, le rôle de la matière organique (MO) a été évalué en effectuant un amendement du sol avec un compost de feuilles. Pour mieux comprendre les effets observés, des analyses de spéciation de l’Ag ont été réalisées. Les concentrations en Ag dissous ont été déterminées après filtration à travers des membranes de 0,45 µm ou de 3 kDa (~1 nm, ultrafiltration) pour séparer la phase particulaire des ions dissous. De façon générale, une inhibition de l’activité enzymatique a été observée pour les 4 enzymes en fonction de l’augmentation de la concentration en Ag (totale et dissoute) mais elle est significativement moins importante avec l’ajout de la MO. Les résultats suggèrent que l’inhibition de l’activité des enzymes aux faibles expositions aux nAg est due aux nanoparticules puisqu’une très faible fraction des nAg est réellement dissoute et aucun effet significatif n’a été observé pour les sols traités à des concentrations similaires en Ag+. Par contre, les effets mesurés aux concentrations plus élevées en nAg sont semblables aux expositions à l’Ag+ et suggèrent un rôle de l’Ag colloïdale dans l’inhibition du processus enzymatique des sols.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chez les angiospermes, la reproduction passe par la double fécondation. Le tube pollinique délivre deux cellules spermatiques au sein du gamétophyte femelle. Une cellule féconde la cellule œuf pour produire un zygote; l’autre féconde la cellule centrale pour produire l’endosperme. Pour assurer un succès reproductif, le développement du gamétophyte femelle au sein de l’ovule doit établir un patron cellulaire qui favorise les interactions avec le tube pollinique et les cellules spermatiques. Pour ce faire, un dialogue doit s’établir entre les différentes cellules de l’ovule lors de son développement, de même que lors de la fécondation. D’ailleurs, plusieurs types de communications intercellulaires sont supposées suite à la caractérisation de plusieurs mutants développementaux. De même, ces communications semblent persister au sein du zygote et de l’endosperme pour permettre la formation d’un embryon viable au sein de la graine. Malgré les développements récents qui ont permis de trouver des molécules de signalisation supportant les modèles d’interactions cellulaires avancés par la communauté scientifique, les voies de signalisation sont de loin très incomplètes. Dans le but de caractériser des gènes encodant des protéines de signalisation potentiellement impliqués dans la reproduction chez Solanum chacoense, l’analyse d’expression des gènes de type RALF présents dans une banque d’ESTs (Expressed Sequence Tags) spécifiques à l’ovule après fécondation a été entreprise. RALF, Rapid Alcalinization Factor, est un peptide de 5 kDa qui fait partie de la superfamille des «protéines riches en cystéines (CRPs)», dont les rôles physiologiques au sein de la plante sont multiples. Cette analyse d’expression a conduit à une analyse approfondie de ScRALF3, dont l’expression au sein de la plante se limite essentiellement à l’ovule. L’analyse de plantes transgéniques d’interférence pour le gène ScRALF3 a révélé un rôle particulier lors de la mégagamétogénèse. Les plantes transgéniques présentent des divisions mitotiques anormales qui empêchent le développement complet du sac embryonnaire. Le positionnement des noyaux, de même que la synchronisation des divisions au sein du syncytium, semblent responsables de cette perte de progression lors de la mégagamétogénèse. L’isolement du promoteur de même que l’analyse plus précise d’expression au sein de l’ovule révèle une localisation sporophytique du transcrit. La voie de signalisation de l’auxine régule également la transcription de ScRALF3. De surcroît, ScRALF3 est un peptide empruntant la voie de sécrétion médiée par le réticulum endoplasmique et l’appareil de Golgi. En somme, ScRALF3 est un important facteur facilitant la communication entre le sporophyte et le gamétophyte pour amener à maturité le sac embryonnaire. L’identification d’un orthologue potentiel chez Arabidopsis thaliana a conduit à la caractérisation de AtRALF34. L’absence de phénotype lors du développement du sac embryonnaire suggère, cependant, de la redondance génétique au sein de la grande famille des gènes de type RALF. Néanmoins, les peptides RALFs apparaissent comme d’importants régulateurs lors de la reproduction chez Solanum chacoense et Arabidopsis thaliana.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dopamine (DA) est un neurotransmetteur impliqué dans la modulation de fonctions essentielles du cerveau telles que le contrôle des mouvements volontaires, le système de récompense et certains aspects de la cognition. Depuis sa découverte, la DA a attiré énormément d'attention scientifique en partie à cause des pathologies majeures associées aux dysfonctions du système DAergique, comme la maladie de Parkinson, la schizophrénie et la toxicomanie. On retrouve la majorité des neurones qui synthétisent la DA au niveau du mésencéphale ventral, dans les noyaux de la substance noire compacte (SNc) et de l'aire tegmentaire ventrale (ATV). Ces neurones projettent leurs axones dans un très dense réseau de fibres qui s'organisent en trois voies DAergiques classiques: la voie nigrostriée, la voie mésolimbique et la voie mésocorticale. La transmission DAergique s'effectue par l'activation de récepteurs de la DA qui font partie de la grande famille des récepteurs couplés aux protéines G (RCPGs). Les récepteurs de la DA sont abondamment exprimés aussi bien par les neurones DAergiques que par les neurones des régions cibles, ce qui implique que la compréhension de la signalisation et des fonctions particulières des récepteurs de la DA pré- et postsynaptiques représente un enjeu crucial dans l'étude du système DAergique. Cette thèse de doctorat se sépare donc en deux volets distincts: le premier s'intéresse à la régulation du récepteur D2 présynaptique par la neurotensine (NT), un neuropeptide intimement lié à la modulation du système DAergique; le deuxième s'intéresse au côté postsynaptique du système DAergique, plus particulièrement à la ségrégation de l'expression des récepteurs de la DA dans le striatum et aux fonctions de ces récepteurs dans l'établissement des circuits neuronaux excitateurs prenant place dans cette région. Dans la première partie de cette thèse, nous démontrons que l'activation du récepteur à haute affinité de la NT, le NTR1, provoque une internalisation hétérologue du récepteur D2, avec une amplitude et une cinétique différente selon l'isoforme D2 observé. Cette internalisation hétérologue dépend de la protéine kinase C (PKC), et nous montrons que la surexpression d'un récepteur D2 muté sur des sites de phosphorylation par la PKC ii ainsi que l'inhibition de l'expression de β-arrestine1 par ARNs interférents dans des neurones DAergiques bloquent complètement l'interaction fonctionnelle entre le NTR1 et le D2. Dans la deuxième partie de cette thèse, nous démontrons d'abord que la ségrégation de l'expression des récepteurs D1 et D2 dans le striatum est déjà bien établie dès le 18e jour embryonnaire, bien qu'elle progresse encore significativement aux jours 0 et 14 postnataux. Nos résultats témoignent aussi d'un maintien complet de cette ségrégation lorsque les neurones striataux sont mis en culture aussi bien en présence ou en absence de neurones corticaux et/ou mésencéphaliques. Ensuite, nous montrons que la présence de neurones mésencéphaliques stimule la formation d’épines et de synapses excitatrices sur les neurones striataux épineux exprimant le récepteur D2 (MSN-D2). Le co-phénotype glutamatergique des neurones dopaminergiques semble nécessaire à une grande partie de cet effet. Par ailleurs, le nombre total de terminaisons excitatrices formées sur les MSN-D2 par les neurones corticaux et mésencéphaliques apparaît être régit par un équilibre dynamique. Finalement, nous démontrons que le blocage de la signalisation des récepteurs D1 et D2 de la DA n'est pas nécessaire pour la formation des synapses excitatrices des MSN-D2, alors que l'antagonisme des récepteurs glutamatergiques ionotropes diminue la densité d'épines dendritiques et contrôle de façon opposée le nombre de terminaisons excitatrices corticales et mésencéphaliques. Globalement, ce travail représente une contribution significative pour une meilleure compréhension du fonctionnement normal du système DAergique. Ces découvertes sont susceptibles d’être utiles pour mieux comprendre les dysfonctions de ce système dans le cadre de pathologies du cerveau comme la maladie de Parkinson.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en majeure partie sous la tutelle de feu le Professeur Paul Arminjon. Après sa disparition, le Docteur Aziz Madrane a pris la relève de la direction de mes travaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les dernières décennies ont été marquées par une augmentation du nombre des cas de cancers, ce qui a subséquemment conduit à une augmentation dans la consommation des agents de chimiothérapie. La toxicité et le caractère cancérogène de ces molécules justifient l’intérêt crucial porté à leur égard. Quelques études ont fait l’objet de détection et de quantification des agents de chimiothérapie dans des matrices environnementales. Dans ce projet, une méthode utilisant la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS) précédée d’une extraction sur phase solide (SPE) automatisée ou en ligne a été développée pour la détection et la quantification d’un groupe de six agents de chimiothérapie. Parmi ceux-ci figurent les plus utilisés au Québec (gemcitabine, méthotrexate, cyclophosphamide, ifosfamide, irinotécan, épirubicine) et présentant des propriétés physico-chimiques et des structures chimiques différentes. La méthode développée a été validée dans une matrice réelle représentant l’affluent d’une station d’épuration dans la région de Montréal. Deux des six composés cytotoxiques étudiés en l’occurrence (cyclophosphamide et méthotrexate) ont été détectés dans huit échantillons sur les neuf qui ont été recensés, essentiellement au niveau de l’affluent et l’effluent de quelques stations d’épuration de la région de Montréal. Les résultats des analyses effectuées sur les échantillons réels ont montré qu’il n’y avait pas de différence significative dans la concentration entre l’affluent et l’effluent, et donc que les systèmes d’épuration semblent inefficaces pour la dégradation de ces molécules.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Conseil de l'Europe a publié le 27 avril 2000 un Projet de convention sur la cybercriminalité dans le cadre d’un appel public à contribution de ses pays membres. Le texte doit être finalisé par un groupe d’experts avant décembre 2000 pour être adopté et ouvert à la signature par le comité des ministres du Conseil de l’Europe à l’automne 2001. Ce projet constitue le futur traité international contre la criminalité dans le cyberespace dans l’espace européen. Le Projet de convention sur la cybercriminalité poursuit deux objectifs. Premièrement, il vise la prévention des actes portant atteinte à la confidentialité, à l’intégrité et à la disponibilité des systèmes informatiques, des réseaux et des données. En second lieu, il prône l’adoption de pouvoirs suffisants pour permettre une lutte efficace contre les infractions pénales de haute technologie. Le cadre de mise en œuvre est possible, d'une part, en facilitant la détection, la recherche et la poursuite, tant au plan du droit de la procédure interne, qu’au niveau international. D'autre part, en prévoyant la création de dispositions matérielles appropriées en vue d’une coopération internationale alliant rapidité et efficacité. Finalement, en garantissant un équilibre adéquat entre les nécessités d’une répression démocratique et le respect des droits fondamentaux. L’objet de cet article est d’examiner le Projet de convention en ses dispositions organisant l’exercice des poursuites à un niveau interne, afin de pouvoir en percevoir autant les avantages que les faiblesses éventuelles au plan de la protection des droits et libertés de la personne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Dans cet article, l’auteur, qui est docteur en droit et doctorant en sociologie, tente de refaire le long cheminement historique qui conduit à la reconnaissance de la vie privée, telle que nous la connaissons aujourd’hui dans les sociétés du capitalisme libéral. Texte synthèse d’une première étape d’une recherche plus vaste sur les conséquences de l’introduction des NTIC à l’égard du respect de la vie privée dans nos sociétés contemporaines, ce texte met en lumière un certain nombre de phénomènes à l’égard du concept de vie privée. D’abord, l’auteur constate le décalage fondamental qui existe entre la protection de la vie privée des individus en fonction de la classe sociale à laquelle ils sont associés et ce, à travers l’ensemble des modes de production de la richesse sociale ayant existé historiquement. Ensuite, l’auteur montre que les sociétés où l’espace public fut le plus étroit sont également celles où la vie privée fut, dans les faits, le moins bien protégé. Les sociétés ayant poussé le plus loin le concept de privatisation sont, du point de vue des valeurs sociales associées au progrès, les plus arriérés et les moins intéressantes. En conséquence, de l’opinion de l’auteur, les tentatives des courants néolibéraux d’aller vers une plus large privatisation de la société constitueraient un nouveau recul pour la protection de la vie privée elle-même. Plus fondamentalement, l’auteur conclut que la vie privée « n’est que l’expression matérielle et symbolique des rapports de pouvoir dans la société; ce n’est que le nom que nous donnons aux privilèges des uns à l’égard des droits des autres ». Finalement, l’auteur s’interroge sur les conséquences, à l’égard de la protection de la vie privée, de l’introduction des NTIC. À son opinion, et contrairement aux points de vue généralement entendus sur cette question, les NTIC ne constituent pas, malgré les apparences, un changement qualitatif ou d’échelle justifiant la mise en place des nouvelles normes juridiques qui auraient pour conséquence de réduire l’espace public et celui de la liberté d’expression dans le cyberespace, et qui constitueraient, dans les faits, une nouvelle forme de censure."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

BACKGROUND & AIMS: Manganese (Mn) deposition could be responsible for the T(1)-weighted magnetic resonance signal hyperintensities observed in cirrhotic patients. These experiments were designed to assess the regional specificity of the Mn increases as well as their relationship to portal-systemic shunting or hepatobiliary dysfunction. METHODS: Mn concentrations were measured in (1) brain samples from basal ganglia structures (pallidum, putamen, caudate nucleus) and cerebral cortical structures (frontal, occipital cortex) obtained at autopsy from 12 cirrhotic patients who died in hepatic coma and from 12 matched controls; and from (2) brain samples (caudate/putamen, globus pallidus, frontal cortex) from groups (n = 8) of rats either with end-to-side portacaval anastomosis, with biliary cirrhosis, or with fulminant hepatic failure as well as from sham-operated and normal rats. RESULTS: Mn content was significantly increased in frontal cortex (by 38\%), occipital cortex (by 55\%), pallidum (by 186\%), putamen (by 66\%), and caudate (by 54\%) of cirrhotic patients compared with controls. Brain Mn content did not correlate with patient age, etiology of cirrhosis, or history of chronic hepatic encephalopathy. In cirrhotic and portacaval-shunted rats, Mn content was increased in pallidum (by 27\% and 57\%, respectively) and in caudate/putamen (by 57\% and 67\%, respectively) compared with control groups. Mn concentration in pallidum was significantly higher in portacaval-shunted rats than in cirrhotic rats. No significant changes in brain Mn concentrations were observed in rats with acute liver failure. CONCLUSIONS: These findings suggest that brain Mn deposition results both from portal-systemic shunting and from liver dysfunction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un papier bioactif est obtenu par la modification d’un papier en y immobilisant une ou plusieurs biomolécules. La recherche et le développement de papiers bioactifs est en plein essor car le papier est un substrat peu dispendieux qui est déjà d’usage très répandu à travers le monde. Bien que les papiers bioactifs n’aient pas connus de succès commercial depuis la mise en marche de bandelettes mesurant le taux de glucose dans les années cinquante, de nombreux groupes de recherche travaillent à immobiliser des biomolécules sur le papier pour obtenir un papier bioactif qui est abordable et possède une bonne durée de vie. Contrairement à la glucose oxidase, l’enzyme utilisée sur ces bandelettes, la majorité des biomolécules sont très fragiles et perdent leur activité très rapidement lorsqu’immobilisées sur des papiers. Le développement de nouveaux papiers bioactifs pouvant détecter des substances d’intérêt ou même désactiver des pathogènes dépend donc de découverte de nouvelles techniques d’immobilisation des biomolécules permettant de maintenir leur activité tout en étant applicable dans la chaîne de production actuelle des papiers fins. Le but de cette thèse est de développer une technique d’immobilisation efficace et versatile, permettant de protéger l’activité de biomolécules incorporées sur des papiers. La microencapsulation a été choisie comme technique d’immobilisation car elle permet d’enfermer de grandes quantités de biomolécules à l’intérieur d’une sphère poreuse permettant leur protection. Pour cette étude, le polymère poly(éthylènediimine) a été choisi afin de générer la paroi des microcapsules. Les enzymes laccase et glucose oxidase, dont les propriétés sont bien établies, seront utilisées comme biomolécules test. Dans un premier temps, deux procédures d’encapsulation ont été développées puis étudiées. La méthode par émulsion produit des microcapsules de plus petits diamètres que la méthode par encapsulation utilisant un encapsulateur, bien que cette dernière offre une meilleure efficacité d’encapsulation. Par la suite, l’effet de la procédure d’encapsulation sur l’activité enzymatique et la stabilité thermique des enzymes a été étudié à cause de l’importance du maintien de l’activité sur le développement d’une plateforme d’immobilisation. L’effet de la nature du polymère utilisé pour la fabrication des capsules sur la conformation de l’enzyme a été étudié pour la première fois. Finalement, l’applicabilité des microcapsules de poly(éthylèneimine) dans la confection de papiers bioactifs a été démontré par le biais de trois prototypes. Un papier réagissant au glucose a été obtenu en immobilisant des microcapsules contenant l’enzyme glucose oxidase. Un papier sensible à l’enzyme neuraminidase pour la détection de la vaginose bactérienne avec une plus grande stabilité durant l’entreposage a été fait en encapsulant les réactifs colorimétriques dans des capsules de poly(éthylèneimine). L’utilisation de microcapsules pour l’immobilisation d’anticorps a également été étudiée. Les avancées au niveau de la plateforme d’immobilisation de biomolécules par microencapsulation qui ont été réalisées lors de cette thèse permettront de mieux comprendre l’effet des réactifs impliqués dans la procédure de microencapsulation sur la stabilité, l’activité et la conformation des biomolécules. Les résultats obtenus démontrent que la plateforme d’immobilisation développée peut être appliquée pour la confection de nouveaux papiers bioactifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.