981 resultados para SLA-Technologie
Resumo:
L’amélioration de la qualité de l’utilisation des médicaments dans les soins primaires est devenue un enjeu crucial. Les pharmaciens communautaires se présentent comme des acteurs centraux dans l’atteinte de cet objectif, en réclamant une extension de leur rôle. L’objectif principal de cette thèse est de mieux comprendre comment les technologies de prescription informatisée (eRx) influencent la transformation du rôle des pharmaciens communautaires. Le premier article présente les résultats d’une étude de cas qui aborde la transformation du rôle des pharmaciens communautaires à partir du concept de professionnalisation. Elle propose un modèle logique des influences d’une technologie de eRx sur cette professionnalisation, élaboré à partir de la typologie de Davenport. Ce modèle logique a été validé en interviewant douze pharmaciens communautaires participant à un projet pilote typique de technologie de eRx. A partir des perceptions des pharmaciens communautaires, nous avons établi que la technologie était susceptible de soutenir la professionnalisation des pharmaciens en passant par cinq mécanismes : la capacité analytique, l’élimination des intermédiaires, l’intégration, l’automatisation et la diffusion des connaissances. Le deuxième article analyse les perturbations induites par les différentes fonctions des technologies de eRx sur la stabilité de la juridiction des pharmaciens communautaires, en se basant sur un cadre de référence adapté d’Abbott. À partir de trente-trois entrevues, avec des praticiens (médecins et pharmaciens) et des élites, cette étude de cas a permis de décrire en détail les influences des différentes fonctions sur les modalités d’action des professionnels, ainsi que les enjeux soulevés par ces possibilités. La perturbation principale est liée aux changements dans la distribution des informations, ce qui influence les activités de diagnostic et d’inférence des professionnels. La technologie peut redistribuer les informations relatives à la gestion des médicaments autant au bénéfice des médecins qu’au bénéfice des pharmaciens, ce qui suscite des tensions entre les médecins et les pharmaciens, mais aussi parmi les pharmaciens. Le troisième article présente une revue systématique visant à faire une synthèse des études ayant évalué les effets des technologies de eRx de deuxième génération sur la gestion des médicaments dans les soins primaires. Cette revue regroupe dix-neuf études menées avec des méthodes observationnelles. Les résultats rapportés révèlent que les technologies sont très hétérogènes, le plus souvent immatures, et que les effets ont été peu étudiés au-delà des perceptions des utilisateurs, qui sont mitigées. Le seul effet positif démontré est une amélioration de la qualité du profil pharmacologique accessible aux professionnels, alors que des effets négatifs ont été démontrés au niveau de l’exécution des prescriptions, tels que l’augmentation du nombre d’appels de clarification du pharmacien au prescripteur. Il semble donc que l’on en connaisse peu sur les effets des technologies de eRx de deuxième génération. Ces trois études permettent de constater que les nouvelles technologies de eRx peuvent effectivement influencer la transformation du rôle du pharmacien communautaire en perturbant les caractéristiques des prescriptions, et surtout, l’information et sa distribution. Ces perturbations génèrent des possibilités pour une extension du rôle des pharmaciens communautaires, tout en soulignant les défis intra et interprofessionnels associés à l’actualisation de ces possibilités. Dans l’ensemble, nos résultats soulignent que les perturbations associées aux technologies de eRx dépassent les éléments techniques du travail des utilisateurs, pour englober de multiples perturbations quant à la nature même du travail et du rôle des professionnels. Les décideurs et acteurs impliqués dans le déploiement des technologies de eRx auraient avantage à prendre en compte l’ensemble de ces considérations pour rapprocher les effets observés des bénéfices promis de ces technologies.
Resumo:
Le domaine des énergies est au cœur des préoccupations technologiques, politiques et économiques de notre société moderne. Ce domaine nécessite une compréhension minimale du concept scientifique de l’énergie. Elle est selon nous essentielle à toute formation citoyenne. Nous avons dans un premier temps, à partir de considérations théoriques et pratiques, examiné pourquoi ce domaine si important dans notre société technologique est si peu abordé dans le cursus scolaire québécois? Pourquoi se contente-t-on d’un enseignement théorique et discursif de ce concept? Pourquoi, au contraire de tout enseignement scientifique, n’a-t-on pas envisagé de situations d’apprentissages en laboratoire pour l’étude des énergies? Dans un deuxième temps, nous avons proposé une idée de solution concrète et réaliste pour répondre à l’ensemble de ces questions. Une solution qui invite les élèves à s’investir de manière constructive dans des activités de laboratoire afin de s’approprier ces concepts. Pour ce faire, nous avons conçu des variables globales énergies qui ont permis aux élèves de les mesurer et d’expérimenter facilement des transformations énergétiques. Cette recherche de développement technologique en éducation consiste donc à profiter des nouveaux développements technologiques de l’informatique et de la micro-électronique pour concevoir, réaliser et mettre à l’essai un environnement informatisé d’apprentissage en laboratoire pour les sciences et la technologie. Par ce que l’énergie est au confluent de trois domaines, cet environnement a été conçu pour supporter dans une même activité l’apprentissage des mathématiques, des sciences et de la technologie. Cette intégration recommandée par les nouveaux programmes est, selon nous, essentielle à la compréhension des concepts liés à l’énergie et à ses transformations. Par cette activité d’apprentissage multidisciplinaire, nous voulons, via une approche empirique et concrète, aborder ces problèmes de transformations énergétiques afin de donner aux élèves la capacité de perfectionner les prototypes qu’ils construisent en technologie de manière à améliorer leurs performances. Nous avons montré que cette démarche technoscientifique, assimilable à la conception d’un schème expérimental en sciences, favorise la compréhension des concepts liés aux énergies et à leurs transformations. Ce développement, ouvert à l’investigation scientifique, apporte un bénéfice didactique, non seulement, pour des enseignants en exercices et des étudiants-maîtres, mais aussi pour des élèves de 5ème année du niveau secondaire, ce que nous avons démontré dans une mise à l’essai empirique.
Resumo:
Thèse réalisée en cotutelle avec l'Université d'Avignon.
Resumo:
Les logiciels de correction grammaticale commettent parfois des détections illégitimes (fausses alertes), que nous appelons ici surdétections. La présente étude décrit les expériences de mise au point d’un système créé pour identifier et mettre en sourdine les surdétections produites par le correcteur du français conçu par la société Druide informatique. Plusieurs classificateurs ont été entraînés de manière supervisée sur 14 types de détections faites par le correcteur, en employant des traits couvrant di-verses informations linguistiques (dépendances et catégories syntaxiques, exploration du contexte des mots, etc.) extraites de phrases avec et sans surdétections. Huit des 14 classificateurs développés sont maintenant intégrés à la nouvelle version d’un correcteur commercial très populaire. Nos expériences ont aussi montré que les modèles de langue probabilistes, les SVM et la désambiguïsation sémantique améliorent la qualité de ces classificateurs. Ce travail est un exemple réussi de déploiement d’une approche d’apprentissage machine au service d’une application langagière grand public robuste.
Resumo:
Les gènes TDP-43 (TAR DNA Binding Protein 43) et FUS/TLS (Fused in Sarcoma/Translocated in Liposarcoma) sont actuellement à l’étude quant à leurs rôles biologiques dans le développement de diverses neuropathies telles que la Sclérose Latérale Amyotrophique (SLA). Étant donné que TDP-43 et FUS sont conservés au cours de l’évolution, nous avons utilisé l’organisme modèle C. elegans afin d’étudier leurs fonctions biologiques. Dans ce mémoire, nous démontrons que TDP-1 fonctionne dans la voie de signalisation Insuline/IGF pour réguler la longévité et la réponse au stress oxydatif. Nous avons développé des lignées C. elegans transgéniques mutantes TDP-43 et FUS qui présentent certains aspects de la SLA tels que la dégénérescence des motoneurones et la paralysie adulte. La protéotoxicité causée par ces mutations de TDP- 43 et FUS associées à la SLA, induit l’expression de TDP-1. À l’inverse, la délétion de tdp-1 endogène protège contre la protéotoxicité des mutants TDP-43 et FUS chez C. elegans. Ces résultats suggèrent qu’une induction chronique de TDP-1/TDP-43 sauvage propagerait la protéotoxicité liée à la protéine mutante. Nous avons aussi entrepris un criblage moléculaire pilote afin d’isoler des suppresseurs de toxicité neuronale des modèles transgéniques mutants TDP-43 et FUS. Nous avons ainsi identifié le bleu de méthylène et le salubrinal comme suppresseurs potentiels de toxicité liée à TDP-43 et FUS via réduction de la réponse au stress du réticulum endoplasmique (RE). Nos résultats indiquent que l’homéostasie de repliement des protéines dans le RE représente une cible pour le développement de thérapies pour les maladies neurodégénératives.
Resumo:
Les gènes sont les parties du génome qui codent pour les protéines. Les gènes d’une ou plusieurs espèces peuvent être regroupés en "familles", en fonction de leur similarité de séquence. Cependant, pour connaître les relations fonctionnelles entre ces copies de gènes, la similarité de séquence ne suffit pas. Pour cela, il est important d’étudier l’évolution d’une famille par duplications et pertes afin de pouvoir distinguer entre gènes orthologues, des copies ayant évolué par spéciation et susceptibles d’avoir conservé une fonction commune, et gènes paralogues, des copies ayant évolué par duplication qui ont probablement développé des nouvelles fonctions. Étant donnée une famille de gènes présents dans n espèces différentes, un arbre de gènes (obtenu par une méthode phylogénétique classique), et un arbre phylogénétique pour les n espèces, la "réconciliation" est l’approche la plus courante permettant d’inférer une histoire d’évolution de cette famille par duplications, spéciations et pertes. Le degré de confiance accordé à l’histoire inférée est directement relié au degré de confiance accordé à l’arbre de gènes lui-même. Il est donc important de disposer d’une méthode préliminaire de correction d’arbres de gènes. Ce travail introduit une méthodologie permettant de "corriger" un arbre de gènes : supprimer le minimum de feuilles "mal placées" afin d’obtenir un arbre dont les sommets de duplications (inférés par la réconciliation) sont tous des sommets de "duplications apparentes" et obtenir ainsi un arbre de gènes en "accord" avec la phylogénie des espèces. J’introduis un algorithme exact pour des arbres d’une certaine classe, et une heuristique pour le cas général.
Resumo:
La formation à distance (FAD) est de plus en plus utilisée dans le cadre de la formation des enseignants aux technologies de l’information et de la communication (TIC). Dans les pays en voie de développement, elle permet non seulement de réduire les coûts par rapport à une formation traditionnelle, mais aussi de modéliser des pratiques pédagogiques exemplaires qui permettent de maximiser le recours aux TIC. En ce sens, la formation continue des enseignants aux TIC par des cours à distance qui intègrent des forums de discussion offre plusieurs avantages pour ces pays. L’évaluation des apprentissages réalisés dans les forums reste cependant un problème complexe. Différents modèles et différentes procédures d’évaluation ont été proposés par la littérature, mais aucun n’a encore abordé spécifiquement la culture e-learning des participants telle qu’elle est définie par le modèle IntersTICES (Viens, 2007 ; Viens et Peraya, 2005). L’objectif de notre recherche est l’élaboration d’une grille opérationnelle pour l’analyse de la culture e-learning à partir des contenus de différents forums de discussion utilisés comme activité de formation dans un cours à distance. Pour développer cette grille, nous utiliserons une combinaison de modèles recensés dans la revue de littérature afin de circonscrire les principaux concepts et indicateurs à prendre en compte pour ensuite suivre les procédures relatives à l’analyse de la valeur, une méthodologie qui appelle la production d’un cahier des charges fonctionnel, la production de l’outil, puis sa mise à l’essai auprès d’experts. Cette procédure nous a permis de mettre sur pied une grille optimale, opérationnelle et appuyée par une base théorique et méthodologique solide.
Resumo:
Ce mémoire propose une analyse critique du discours de l’enregistrement sonore à domicile (home recording). Dans la foulée des propos mettant de l’avant l’ «accessibilité» et la «démocratisation» de l’enregistrement sonore, ce mémoire analyse les relations de savoir/pouvoir produites et légitimées par le discours, ce qu’elles permettent et contraignent, autorisent et excluent. Le corpus à l’étude est issu de la presse musicale ainsi que de forums de discussion en ligne relevant de sites spécialisés. Les méthodes utilisées sont inspirées de l’approche du discours développées par Michel Foucault et de ce que Johnson et. al. (2004) appellent l’interprétation critique. L’analyse met en évidence les deux principaux sujets du discours de l’enregistrement sonore à la maison : les professionnels de l’enregistrement et les «pros» de l’enregistrement à domicile, deux groupes constitués d’hommes financièrement aisés. Les règles qui régissent l’enregistrement à domicile semblent reprendre, en les adaptant, celles régissant les studios professionnels. Ce mémoire suggère que la «démocratisation» telle qu'énoncée dans ce discours articule l'«accessibilité contemporaine» à certains savoirs et certaines technologies à des exclusions singulières – comme des femmes et des personnes de moyens limités – qui rendent ce discours possible. Être dans le vrai, dans ce discours, c’est échanger, argumenter, discuter et prescrire des façons de faire et de dire qui font des studios professionnels l’espace des normes et des légitimités. Mots clés: enregistrement, musique, maison, domicile, studio, démocratisation, technologie, l'analyse du discours, relations de pouvoir/savoir, Michel Foucault.
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
L’objet de la présente étude est le développement, l’application et la diffusion de la technologie associée à divers types d’alliages de cuivre, en particulier l’alliage du plomb-bronze, en Grèce ancienne, dans ses colonies, ainsi qu’en Étrurie. Le plomb-bronze est un mélange de diverses proportions d’étain, de cuivre et de plomb. Le consensus général chez les archéométallurgistes est que le plomb-bronze n’était pas communément utilisé en Grèce avant la période hellénistique; par conséquent, cet alliage a reçu très peu d’attention dans les documents d’archéologie. Cependant, les analyses métallographiques ont prouvé que les objets composés de plomb ajouté au bronze ont connu une distribution étendue. Ces analyses ont aussi permis de différencier la composition des alliages utilisés dans la fabrication de divers types de bronzes, une preuve tangible que les métallurgistes faisaient la distinction entre les propriétés du bronze d’étain et celles du plomb-bronze. La connaissance de leurs différentes caractéristiques de travail permettait aux travailleurs du bronze de choisir, dans bien des cas, l’alliage approprié pour une utilisation particulière. L’influence des pratiques métallurgiques du Proche-Orient a produit des variations tant dans les formes artistiques que dans les compositions des alliages de bronze grecs durant les périodes géométrique tardive et orientalisante. L’utilisation du plomb-bronze dans des types particuliers d’objets coulés montre une tendance à la hausse à partir de la période orientalisante, culminant dans la période hellénistique tardive, lorsque le bronze à teneur élevée en plomb est devenu un alliage commun. La présente étude analyse les données métallographiques de la catégorie des objets coulés en bronze et en plomb-bronze. Elle démontre que, bien que l’utilisation du plomb-bronze n’était pas aussi commune que celle du bronze d’étain, il s’agissait néanmoins d’un mélange important d’anciennes pratiques métallurgiques. Les ères couvertes sont comprises entre les périodes géométrique et hellénistique.
Resumo:
L’intérêt principal de l’analyse du cadre des investissements miniers et pétroliers chinois en Afrique est la détermination du chantier juridique résultant de la cohabitation de deux cultures juridiques en vue de l’émergence d’une lex mercatoria dans les investissements sino-africains. Elle comprend deux parties principales. D’abord, l’étude se penche sur l’origine des fonds chinois investis sur le continent africain qui sont les fonds souverains. La problématique des fonds souverains est celle de savoir s’il s’agit d’instruments politiques ou financiers. Néanmoins, cette inquiétude ne freine pas la force opérationnelle grandissante des fonds souverains chinois sur le continent africain. Rentrant dans l’encadrement et le contenu du contrat proprement dit, l’analyse des figures contractuelles usitées dans l’industrie pétrolière et minière sino-africaine séparément dans les contextes chinois et africains révèle l’inadéquation des contrats et de la législation africaine aux besoins économiques et technologiques du continent. En outre, l’examen particulier des clauses de choix de la loi applicable et de règlement des différends dans les contextes chinois et africain permet de soulever quelques options possibles pour le contexte sino-africain. Ensuite, l’analyse se penche sur les mécanismes mis en place pour favoriser les investissements chinois miniers et pétroliers sur le continent africain avant de relever les conséquences dans les domaines sociaux et environnementaux desdits investissements. Il ressort donc que des avantages fiscaux et douaniers sont mis en place en faveur des investissements chinois en Afrique ainsi que des traités bilatéraux signés entre la Chine et de nombreux pays africains. Cependant, sur le plan social, l’on s’interroge sur la place accordée à la lutte contre la corruption et la promotion de la transparence dans l’industrie extractive africaine avec ses relations avec la Chine. L’on constate également que l’absence de transfert de technologie influe négativement sur le développement économique et technologique, la concurrence et l’emploi local du pays hôte. De même, la protection de l’environnement dans le contexte sino-africain semble être reléguée au dernier plan. L’environnement africain court donc le risque de connaître une crise comme celle de la chine causée par l’industrialisation du pays. La société civile nous apparaît donc au regard de ces effets peu glorieux des investissements chinois en Afrique dans les domaines miniers et pétroliers comme une troisième partie de cette relation qui devra être la médiatrice ou régulatrice entre les deux autres.
Resumo:
Avec la complexité croissante des systèmes sur puce, de nouveaux défis ne cessent d’émerger dans la conception de ces systèmes en matière de vérification formelle et de synthèse de haut niveau. Plusieurs travaux autour de SystemC, considéré comme la norme pour la conception au niveau système, sont en cours afin de relever ces nouveaux défis. Cependant, à cause du modèle de concurrence complexe de SystemC, relever ces défis reste toujours une tâche difficile. Ainsi, nous pensons qu’il est primordial de partir sur de meilleures bases en utilisant un modèle de concurrence plus efficace. Par conséquent, dans cette thèse, nous étudions une méthodologie de conception qui offre une meilleure abstraction pour modéliser des composants parallèles en se basant sur le concept de transaction. Nous montrons comment, grâce au raisonnement simple que procure le concept de transaction, il devient plus facile d’appliquer la vérification formelle, le raffinement incrémental et la synthèse de haut niveau. Dans le but d’évaluer l’efficacité de cette méthodologie, nous avons fixé l’objectif d’optimiser la vitesse de simulation d’un modèle transactionnel en profitant d’une machine multicoeur. Nous présentons ainsi l’environnement de modélisation et de simulation parallèle que nous avons développé. Nous étudions différentes stratégies d’ordonnancement en matière de parallélisme et de surcoût de synchronisation. Une expérimentation faite sur un modèle du transmetteur Wi-Fi 802.11a a permis d’atteindre une accélération d’environ 1.8 en utilisant deux threads. Avec 8 threads, bien que la charge de travail des différentes transactions n’était pas importante, nous avons pu atteindre une accélération d’environ 4.6, ce qui est un résultat très prometteur.
Resumo:
L'insuffisance cardiaque est une maladie à grande incidence dont le traitement définitif est difficile. Les pompes d'assistance ventriculaire ont été proposées comme thérapie alternative à long terme, mais la technologie est relativement jeune et selon son design, axial ou centrifuge, le dispositif favorise soit l'hémolyse, soit la stagnation de l'écoulement sanguin. Les pompes à écoulement mixte, combinant certaines propriétés des deux types, ont été proposées comme solution intermédiaire. Pour évaluer leurs performances, nous avons effectué des comparaisons numériques entre huit pompes, deux axiales, deux centrifuges, et quatre mixtes, en employant un modèle Windkessel du système cardiovasculaire avec paramètres optimisés pour l'insuffisance cardiaque résolu avec une méthode Radau IIA3, une méthode de résolution de système d'équations différentielles ordinaires L-stable appartenant à la famille des méthodes Runge-Kutta implicites. Nos résultats semblent suggérer que les pompes d'assistance mixtes ne démontrent qu'un léger avantage comparativement aux autres types en terme de performance optimale dans le cas de l'insuffisance cardiaque, mais il faudrait effectuer plus d'essais numériques avec un modèle plus complet, entre autres avec contrôles nerveux implémentés.
Resumo:
La sclérose latérale amyotrophique (SLA) est une maladie neurodégénérative due à une dégénérescence des motoneurones. Plus de 40 mutations du gène TARDBP ont été identifiées chez des patients SLA. Les défauts biochimiques de ces mutations étant encore inconnus, les modèles animaux sont présentement la seule mesure possible d’un phénotype. Pour étudier les conséquences physiopathologiques d’une de ces mutations, nous avons développé deux lignées transgéniques de poisson zébré, exprimant le gène humain TARDBP soit de type sauvage, soit avec la mutation G348C liée à la SLA, sous le contrôle d’un promoteur de choc thermique. Ces lignées ont été étudiées sur trois générations, après avoir établi un protocole de choc thermique induisant une expression ubiquitaire du transgène. Les embryons transgéniques de la génération F2 de la lignée exprimant la mutation développent un phénotype moteur suite à un choc thermique de 38.5°C pendant 30 minutes lorsque les embryons sont à 18 heures post-fertilisation. 60% des embryons ont une réponse anormale au toucher. De plus, une réduction de 28% de la longueur de pré-branchement des axones des motoneurones est observée. Ces résultats indiquent que notre lignée exprimant la protéine mutante TDP-43 est un modèle génétique de la SLA prometteur, qui ouvre des perspectives pour la compréhension de la physiopathologie de la maladie et la découverte de molécules thérapeutiques.
Resumo:
Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.