971 resultados para Technologie de prescription informatisée


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La formation des sociétés fondées sur la connaissance, le progrès de la technologie de communications et un meilleur échange d'informations au niveau mondial permet une meilleure utilisation des connaissances produites lors des décisions prises dans le système de santé. Dans des pays en voie de développement, quelques études sont menées sur des obstacles qui empêchent la prise des décisions fondées sur des preuves (PDFDP) alors que des études similaires dans le monde développé sont vraiment rares. L'Iran est le pays qui a connu la plus forte croissance dans les publications scientifiques au cours de ces dernières années, mais la question qui se pose est la suivante : quels sont les obstacles qui empêchent l'utilisation de ces connaissances de même que celle des données mondiales? Cette étude embrasse trois articles consécutifs. Le but du premier article a été de trouver un modèle pour évaluer l'état de l'utilisation des connaissances dans ces circonstances en Iran à l’aide d'un examen vaste et systématique des sources suivie par une étude qualitative basée sur la méthode de la Grounded Theory. Ensuite au cours du deuxième et troisième article, les obstacles aux décisions fondées sur des preuves en Iran, sont étudiés en interrogeant les directeurs, les décideurs du secteur de la santé et les chercheurs qui travaillent à produire des preuves scientifiques pour la PDFDP en Iran. Après avoir examiné les modèles disponibles existants et la réalisation d'une étude qualitative, le premier article est sorti sous le titre de «Conception d'un modèle d'application des connaissances». Ce premier article sert de cadre pour les deux autres articles qui évaluent les obstacles à «pull» et «push» pour des PDFDP dans le pays. En Iran, en tant que pays en développement, les problèmes se situent dans toutes les étapes du processus de production, de partage et d’utilisation de la preuve dans la prise de décision du système de santé. Les obstacles qui existent à la prise de décision fondée sur des preuves sont divers et cela aux différents niveaux; les solutions multi-dimensionnelles sont nécessaires pour renforcer l'impact de preuves scientifiques sur les prises de décision. Ces solutions devraient entraîner des changements dans la culture et le milieu de la prise de décision afin de valoriser la prise de décisions fondées sur des preuves. Les critères de sélection des gestionnaires et leur nomination inappropriée ainsi que leurs remplaçants rapides et les différences de paiement dans les secteurs public et privé peuvent affaiblir la PDFDP de deux façons : d’une part en influant sur la motivation des décideurs et d'autre part en détruisant la continuité du programme. De même, tandis que la sélection et le remplacement des chercheurs n'est pas comme ceux des gestionnaires, il n'y a aucun critère pour encourager ces deux groupes à soutenir le processus décisionnel fondés sur des preuves dans le secteur de la santé et les changements ultérieurs. La sélection et la promotion des décideurs politiques devraient être basées sur leur performance en matière de la PDFDP et les efforts des universitaires doivent être comptés lors de leurs promotions personnelles et celles du rang de leur institution. Les attitudes et les capacités des décideurs et des chercheurs devraient être encouragés en leur donnant assez de pouvoir et d’habiliter dans les différentes étapes du cycle de décision. Cette étude a révélé que les gestionnaires n'ont pas suffisamment accès à la fois aux preuves nationales et internationales. Réduire l’écart qui sépare les chercheurs des décideurs est une étape cruciale qui doit être réalisée en favorisant la communication réciproque. Cette question est très importante étant donné que l'utilisation des connaissances ne peut être renforcée que par l'étroite collaboration entre les décideurs politiques et le secteur de la recherche. Dans ce but des programmes à long terme doivent être conçus ; la création des réseaux de chercheurs et de décideurs pour le choix du sujet de recherche, le classement des priorités, et le fait de renforcer la confiance réciproque entre les chercheurs et les décideurs politiques semblent être efficace.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le succès commercial des jeux vidéo nous montre qu’ils sont devenus une alternative non négligeable en matière de loisir et de divertissement. En observant les tendances, on constate que les concepteurs de jeux vidéo cherchent à transposer ou adapter les loisirs comme la danse, l’interprétation de la musique ou la pratique d’un sport dans le contexte de jeux vidéo (l’univers virtuel) et ceci est devenu encore plus évident depuis l’apparition des nouvelles technologies intégrant le mouvement comme mode d'interaction. En rapport aux activités dont les jeux vidéo s’inspirent, ces tendances entraînent des changements considérables sur l’aspect formel de l’activité ludique et notamment l’interaction. Dans le cas particulier du tennis de table, ou ping-pong dans le langage courant, il semble y avoir des différences en terme de plaisir lors de la pratique de ce loisir de façon traditionnelle ou en mode virtuel dans ses différentes adaptations. Le but de cette recherche est de mettre en évidence les différences entre l’appréciation de l’interaction avec le contrôleur multifonctionnel Wiimote et une raquette traditionnelle de ping-pong et de découvrir les implications sur l’expérience du plaisir de la transposition du jeu ping-pong traditionnel comparé aux adaptations sur la console Wii. Ainsi, en regard du CLASSIC GAME MODEL de Juul (2005) et du modèle THE FOUR FUN KEYS de Lazzaro (2008) nous comparons les deux modes d’interaction, jeu traditionnel avec le jeu virtuel, sur le plan formel du jeu et sur les dimensions du plaisir que chacun procure. Les résultats obtenus par l’observation des tests de jeu et l’entremise des autres outils permettent de souligner le rôle déterminant des interfaces dans l’engagement des joueurs et de montrer les limites des interfaces digitales par rapport à celle des jeux traditionnels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’annotation en rôles sémantiques est une tâche qui permet d’attribuer des étiquettes de rôles telles que Agent, Patient, Instrument, Lieu, Destination etc. aux différents participants actants ou circonstants (arguments ou adjoints) d’une lexie prédicative. Cette tâche nécessite des ressources lexicales riches ou des corpus importants contenant des phrases annotées manuellement par des linguistes sur lesquels peuvent s’appuyer certaines approches d’automatisation (statistiques ou apprentissage machine). Les travaux antérieurs dans ce domaine ont porté essentiellement sur la langue anglaise qui dispose de ressources riches, telles que PropBank, VerbNet et FrameNet, qui ont servi à alimenter les systèmes d’annotation automatisés. L’annotation dans d’autres langues, pour lesquelles on ne dispose pas d’un corpus annoté manuellement, repose souvent sur le FrameNet anglais. Une ressource telle que FrameNet de l’anglais est plus que nécessaire pour les systèmes d’annotation automatisé et l’annotation manuelle de milliers de phrases par des linguistes est une tâche fastidieuse et exigeante en temps. Nous avons proposé dans cette thèse un système automatique pour aider les linguistes dans cette tâche qui pourraient alors se limiter à la validation des annotations proposées par le système. Dans notre travail, nous ne considérons que les verbes qui sont plus susceptibles que les noms d’être accompagnés par des actants réalisés dans les phrases. Ces verbes concernent les termes de spécialité d’informatique et d’Internet (ex. accéder, configurer, naviguer, télécharger) dont la structure actancielle est enrichie manuellement par des rôles sémantiques. La structure actancielle des lexies verbales est décrite selon les principes de la Lexicologie Explicative et Combinatoire, LEC de Mel’čuk et fait appel partiellement (en ce qui concerne les rôles sémantiques) à la notion de Frame Element tel que décrit dans la théorie Frame Semantics (FS) de Fillmore. Ces deux théories ont ceci de commun qu’elles mènent toutes les deux à la construction de dictionnaires différents de ceux issus des approches traditionnelles. Les lexies verbales d’informatique et d’Internet qui ont été annotées manuellement dans plusieurs contextes constituent notre corpus spécialisé. Notre système qui attribue automatiquement des rôles sémantiques aux actants est basé sur des règles ou classificateurs entraînés sur plus de 2300 contextes. Nous sommes limités à une liste de rôles restreinte car certains rôles dans notre corpus n’ont pas assez d’exemples annotés manuellement. Dans notre système, nous n’avons traité que les rôles Patient, Agent et Destination dont le nombre d’exemple est supérieur à 300. Nous avons crée une classe que nous avons nommé Autre où nous avons rassemblé les autres rôles dont le nombre d’exemples annotés est inférieur à 100. Nous avons subdivisé la tâche d’annotation en sous-tâches : identifier les participants actants et circonstants et attribuer des rôles sémantiques uniquement aux actants qui contribuent au sens de la lexie verbale. Nous avons soumis les phrases de notre corpus à l’analyseur syntaxique Syntex afin d’extraire les informations syntaxiques qui décrivent les différents participants d’une lexie verbale dans une phrase. Ces informations ont servi de traits (features) dans notre modèle d’apprentissage. Nous avons proposé deux techniques pour l’identification des participants : une technique à base de règles où nous avons extrait une trentaine de règles et une autre technique basée sur l’apprentissage machine. Ces mêmes techniques ont été utilisées pour la tâche de distinguer les actants des circonstants. Nous avons proposé pour la tâche d’attribuer des rôles sémantiques aux actants, une méthode de partitionnement (clustering) semi supervisé des instances que nous avons comparée à la méthode de classification de rôles sémantiques. Nous avons utilisé CHAMÉLÉON, un algorithme hiérarchique ascendant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nouveaux dispositifs de formation à distance représentent de nouvelles modalités de formation dans l’enseignement supérieur. Ces dispositifs impliquent l’utilisation d’environnements pédagogiques adaptés qui favorisent les situations de travail collaboratif. La collaboration au sein de ces outils résulte non seulement des interactions entre les étudiants, mais aussi des modalités de travail et d’accompagnement mises en place au préalable par les enseignants, notamment pour que les interactions fassent sens pour les étudiants. Ainsi, la question qui guide cette étude de cas est la suivante. Comment se caractérise le travail collaboratif des étudiants dans les blogs dans le cadre du cours ETA 6538? Plus précisément, nous cherchons à comprendre comment les étudiants collaborent à l'intérieur des blogs et quels sont les indicateurs propices à cette collaboration. À l’issue de notre étude, nous proposons une liste de recommandations pour favoriser la mise en place et le déroulement du travail collaboratif au sein des blogs, ainsi que des indicateurs pouvant servir à l’évaluation de la collaboration. Les concepts exploités dans ce mémoire sont relatifs au processus d'acquisition de savoir à partir de la collaboration émanant des interactions au sein des TIC, des dispositifs d’apprentissage en ligne et plus particulièrement des blogues. Nous avons utilisé une méthode de type à la fois quantitative et qualitative. Les blogs de huit étudiants ont été analysés. Les résultats de ces analyses montrent que les étudiants ont collaboré au sein des blogs et qu’ensemble, ils ont fait émergé de nouveaux savoirs et connaissances.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le choix du Sénégal de faire des TIC un des leviers stratégiques de rénovation de l’école soulève des questions dont la nécessité de voir comment les enseignants se les approprient afin que l’école en tire les avantages attendus. Pour mieux comprendre comment et pourquoi se construisent les usages pédagogiques des TIC, la présente recherche vise à décrire et à analyser le processus et les facteurs d’intégration des TIC dans les pratiques d’enseignement des instituteurs sénégalais. La difficulté à retracer le processus a conduit à nous appuyer sur un modèle descripteur des processus d’intégration pédagogique des TIC inspiré de Sandholtz, Ringstaff et Dwyer (1997), de Karsenti, Savoie-Zajc et Larose (2001) et de Poellhuber et Boulanger (2001). Six instituteurs de l’Inspection d’Académie de Dakar qui développent depuis quatre ans au moins des TIC en classe ont été sélectionnés pour une étude multi-cas. Six entrevues individuelles semi-dirigées ont été réalisées complétées par un questionnaire, l’observation des pratiques d’intégration des TIC et une analyse documentaire. Les résultats du traitement des données recueillies sont présentés en trois articles abordant chacun un des volets de l’objectif de la recherche. Il ressort des résultats que les usages des TIC des six participants sont portés par des profils et des contextes d’usages particulièrement favorables à des pratiques d’information, de communication et de préparation de la classe à la maison et à des activités de recherche et de documentation, d’édition et de publication et d’apprentissages disciplinaires ou thématiques en classe avec les élèves. Par ailleurs, les analyses comparatives montrent que les formations (initiales et en cours d’emploi) qu’ils ont suivies ne les ayant pas suffisamment préparés à intégrer les TIC dans leurs pratiques d’enseignement, c’est dans le cadre des équipes pédagogiques portant leurs projets d’établissement d’intégration pédagogique des TIC et par des stratégies individuelles d’autoformation et d’organisation, collectives et coopératives de co-formation qu’ils ont construit leurs usages et surmonté les difficultés du parcours. Ce processus est porté par divers facteurs contextuels, institutionnels et sociaux particulièrement favorables. En plus, Ils partagent des dispositions d’esprit, des croyances et des postures épistémiques et psychosociales qui les poussent à toujours aller plus loin dans leurs pratiques d’intégration des TIC. En permettant de mieux comprendre le processus menant un instituteur des usages personnels des TIC à leurs usages professionnels et pédagogiques et comment les facteurs d’influence jouent sur les processus de cooptation et d’appropriation par lesquels il les construit, la présente recherche fournit des modèles de tracés et d’étapes d’intégration des TIC susceptibles d’être partagés et intégrés dans les référentiels de formation des enseignants à l’intégration pédagogique des TIC. Elle permet également de mieux dessiner les contours des contextes d’usages à développer et de définir les axes et les leviers pédagogiques et psychosociaux que des formateurs peuvent utiliser afin d’amener des enseignants en situation de construction des usages pédagogiques des TIC à développer les comportements et les attitudes favorables à l’intégration des TIC dans leurs pratiques d’enseignement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dialyse péritonéale (DP) est une thérapie d’épuration extra-rénale qui peut se réaliser à domicile par l’entremise d’une technologie. Elle exige, du patient certaines aptitudes, (motivation et compétence) et de l’équipe de soins, une organisation particulière pour arriver à une autonomie d’exécution de l’épuration. Dans un contexte de thérapie à domicile, comme celui de la dialyse péritonéale, le niveau d’autonomie des patients ainsi que les facteurs qui y sont associés n’ont pas été examinés auparavant. C’est l’objet de cette thèse. En se fondant sur la théorie de l’autodétermination et sur une revue de la littérature, un cadre conceptuel a été développé et fait l’hypothèse que trois types de facteurs essentiels pourraient influencer l’autonomie. Il s’agit de facteurs individuels, technologiques et organisationnels. Pour tester ces hypothèses, un devis mixte séquentiel, composé de deux volets, a été réalisé. Un premier volet qualitatif - opérationnalisé par des entrevues auprès de 12 patients et de 11 infirmières - a permis, d’une part, d’explorer et de mieux définir les dimensions de l’autonomie pertinente dans le cadre de la DP; d’autre part de bonifier le développement d’un questionnaire. Après validation, ce dernier a servi à la collecte de données lors du deuxième volet quantitatif et alors a permis d’obtenir des résultats auprès d’un échantillon probabiliste (n =98), tiré de la population des dialysés péritonéaux du Québec (N=700). L’objectif de ce deuxième volet était de mesurer le degré d’autonomie des patients, d’examiner les associations entre les facteurs technologiques, organisationnels ainsi qu’individuels et les différentes dimensions de l’autonomie. Des analyses univariées et multivariées ont été réalisées à cet effet. Les résultats obtenus montrent que quatre dimensions d’autonomie sont essentielles à atteindre en dialyse à domicile. Il s’agit de l’autonomie, sur le plan clinique, technique, fonctionnel (liberté journalière) et organisationnel (indépendance par rapport à l’institution de soins). Pour ces quatre types d’autonomie, les patients ont rapporté être hautement autonomes, un résultat qui se reflète dans les scores obtenus sur une échelle de 1 à 5 : l’autonomie clinique (4,1), l’autonomie technique (4,8), l’autonomie fonctionnelle (4,1) et l’autonomie organisationnelle (4,5). Chacun de ces types d’autonomie est associé à des degrés variables aux trois facteurs du modèle conceptuel : facteurs individuels (motivation et compétence), technologique (convivialité) et organisationnels (soutien clinique, technique et familial). Plus spécifiquement, la motivation serait associée à l’autonomie fonctionnelle. La convivialité serait associée à l’autonomie clinique, alors que la myopathie pourrait la compromettre. La convivialité de la technologie et la compétence du patient contribueraient à une meilleure autonomie organisationnelle. Quant à l’autonomie sur le plan technique, tous les patients ont rapporté être hautement autonomes en ce qui concerne la manipulation de la technologie. Ce résultat s’expliquerait par une formation adéquate mise à la disposition des patients en prédialyse, par le suivi continu et par la manipulation quotidienne pendant des années d’utilisation. Bien que dans cette thèse la technologie d’application soit la dialyse péritonéale, nous retenons que lorsqu’on transfère la maîtrise d’une technologie thérapeutique à domicile pour traiter une maladie chronique, il est primordial d’organiser ce transfert de telle façon que les trois facteurs techniques (convivialité), individuels (motivation, formation et compétence), et organisationnels (soutien de l’aidant) soient mis en place pour garantir une autonomie aux quatre niveaux, technique, clinique, fonctionnel et organisationnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif principal: Il n’est pas démontré que les interventions visant à maîtriser voire modérer la médicamentation de patients atteints d’hypertension peuvent améliorer leur gestion de la maladie. Cette revue systématique propose d’évaluer les programmes de gestion contrôlée de la médicamentation pour l’hypertension, en s’appuyant sur la mesure de l’observance des traitements par les patients (CMGM). Design: Revue systématique. Sources de données: MEDLINE, EMBASE, CENTRAL, résumés de conférences internationales sur l’hypertension et bibliographies des articles pertinents. Méthodes: Des essais contrôlés randomisés (ECR) et des études observationnelles (EO) ont été évalués par 2 réviseurs indépendants. L’évaluation de la qualité (de ce matériel) a été réalisée avec l’aide de l’outil de Cochrane de mesure du risque de biais, et a été estimée selon une échelle à quatre niveaux de qualité Une synthèse narrative des données a été effectuée en raison de l'hétérogénéité importante des études. Résultats: 13 études (8 ECR, 5 EO) de 2150 patients hypertendus ont été prises en compte. Parmi elles, 5 études de CMGM avec l’utilisation de dispositifs électroniques comme seule intervention ont relevé une diminution de la tension artérielle (TA), qui pourrait cependant être expliquée par les biais de mesure. L’amélioration à court terme de la TA sous CMGM dans les interventions complexes a été révélée dans 4 études à qualité faible ou modérée. Dans 4 autres études sur les soins intégrés de qualité supérieure, il n'a pas été possible de distinguer l'impact de la composante CMGM, celle-ci pouvant être compromise par des traitements médicamenteux. L’ensemble des études semble par ailleurs montrer qu’un feed-back régulier au médecin traitant peut être un élément essentiel d’efficacité des traitements CMGM, et peut être facilement assuré par une infirmière ou un pharmacien, grâce à des outils de communication appropriés. Conclusions: Aucune preuve convaincante de l'efficacité des traitements CMGM comme technologie de la santé n’a été établie en raison de designs non-optimaux des études identifiées et des ualités méthodologiques insatisfaisantes de celles-ci. Les recherches futures devraient : suivre les normes de qualité approuvées et les recommandations cliniques actuelles pour le traitement de l'hypertension, inclure des groupes spécifiques de patients avec des problèmes d’attachement aux traitements, et considérer les résultats cliniques et économiques de l'organisation de soins ainsi que les observations rapportées par les patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’un des aspects les plus percutants des avancées de la technologie des quinze dernières années a trait à la communication médiée par ordinateur : clavardage, messagerie instantanée, courrier électronique, forums de discussion, blogues, sites de réseautage social, etc. En plus d’avoir eu un impact significatif sur la société contemporaine, ces outils de communication ont largement modifié les pratiques d’écriture. Notre objet d’étude est le clavardage en groupe qui offre la possibilité aux scripteurs de communiquer simultanément entre eux. Cet outil de communication présente deux caractéristiques importantes aux plans discursif et communicationnel. Premièrement, on admet de façon générale que le clavardage est une forme de communication hybride : le code utilisé est l’écrit, mais les échanges de messages entrent dans une structure de dialogue qui rappelle l’oral. Deuxièmement, le caractère spontané du clavardage impose la rapidité, tant pour l’encodage que pour le décodage des messages. Dans le cadre d’une étude comparative réalisée sur les pratiques scripturales des clavardeurs francophones (Tatossian et Dagenais 2008), nous avons établi quatre catégories générales pour rendre compte de toutes les variantes scripturales de notre corpus : procédés abréviatifs, substitutions de graphèmes, neutralisations en finale absolue et procédés expressifs. Nous voulons maintenant tester la solidité de notre typologie pour des langues dont le degré de correspondance phonético-graphique diffère. En vertu de l’hypothèse de la profondeur de l’orthographe (orthographic depth hypothesis [ODH]; Katz et Frost 1992) selon laquelle un système orthographique transparent (comme l’italien, l’espagnol ou le serbo-croate) transpose les phonèmes directement dans l’orthographe, nous vérifierons si nos résultats pour le français peuvent être généralisés à des langues dont l’orthographe est dite « transparente » (l’espagnol) comparativement à des langues dont l’orthographe est dite « opaque » (le français et l’anglais). Pour chacune des langues, nous avons voulu répondre à deux question, soit : 1. De quelle manière peut-on classifier les usages scripturaux attestés ? 2. Ces usages graphiques sont-ils les mêmes chez les adolescents et les adultes aux plans qualitatif et quantitatif ? Les phénomènes scripturaux du clavardage impliquent également l’identité générationnelle. L’adolescence est une période caractérisée par la quête d’identité. L’étude de Sebba (2003) sur l’anglais démontre qu’il existe un rapport entre le « détournement de l’orthographe » et la construction identitaire chez les adolescents (par ex. les graffitis, la CMO). De plus, dans ces espaces communicationnels, nous assistons à la formation de communautés d’usagers fondée sur des intérêts communs (Crystal 2006), comme l’est la communauté des adolescents. Pour la collecte des corpus, nous recourrons à des échanges effectués au moyen du protocole Internet Relay Chat (IRC). Aux fins de notre étude, nous délimitons dans chacune des langues deux sous-corpus sociolinguistiquement distincts : le premier constitué à partir de forums de clavardage destinés aux adolescents, le second à partir de forums pour adultes. Pour chacune des langues, nous avons analysé 4 520 énoncés extraits de divers canaux IRC pour adolescents et pour adultes. Nous dressons d’abord un inventaire quantifié des différents phénomènes scripturaux recensés et procédons ensuite à la comparaison des résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fertilisation chez les plantes dépend de la livraison des cellules spermatiques contenues dans le pollen à l’ovule. Au contact du stigmate, le grain de pollen s’hydrate et forme une protubérance, le tube pollinique, chargé de livrer les noyaux spermatiques à l’ovule. Le tube pollinique est une cellule à croissance rapide, anisotrope et non autotrophe; ainsi tout au long de sa croissance à travers l’apoplaste du tissu pistillaire, le tube pollinique puise ses sources de carbohydrates et de minéraux du pistil. Ces éléments servent à la synthèse des constituants de la paroi qui seront acheminés par des vésicules de sécrétion jusqu’à l’apex du tube. Ce dernier doit aussi résister à des pressions mécaniques pour maintenir sa forme cylindrique et doit répondre à différents signaux directionnels pour pouvoir atteindre l’ovule. Mon projet de doctorat était de comprendre le rôle du cytosquelette dans la croissance anisotrope du tube pollinique et d’identifier les éléments responsables de sa croissance et de son guidage. Le cytosquelette du tube pollinique est composé des microfilaments d’actine et des microtubules. Pour assurer une bonne croissance des tubes polliniques in vitro, les carbohydrates et les éléments de croissance doivent être ajoutés au milieu à des concentrations bien spécifiques. J’ai donc optimisé les conditions de croissance du pollen d’Arabidopsis thaliana et de Camellia japonica qui ont été utilisés avec le pollen de Lilium longiflorum comme modèles pour mes expériences. J’ai développé une méthode rapide et efficace de fixation et de marquage du tube pollinique basée sur la technologie des microondes. J’ai aussi utilisé des outils pharmacologiques, mécaniques et moléculaires couplés à différentes techniques de microscopie pour comprendre le rôle du cytosquelette d’actine lors de la croissance et le tropisme du tube pollinique. J’ai trouvé que le cytosquelette d’actine et plus précisément l’anneau d’actine localisé dans la partie sub-apicale du tube est fortement impliqué dans la croissance et le maintien de l’architecture du tube à travers le contrôle de la livraison des vésicules de sécrétion. J’ai construit une chambre galvanotropique qui peut être montée sur un microscope inversé et qui sert à envoyer des signaux tropistiques bien précis à des tubes polliniques en croissance. J’ai trouvé que les filaments d’actine sont impliqués dans la capacité du tube pollinique à changer de direction. Ce comportement tropistique dépend de la concentration du calcium dans le milieu de croissance et du flux de calcium à travers des canaux calciques. Le gradient de calcium établi dans le tube pollinique affecte l’activité de certaines protéines qui se lient à l’actine et dont le rôle est la réorganisation des filaments d’actine. Parmi ces protéines, il y a celles de dépolymérisation de l’actine (ADF) dont deux spécifiquement exprimées dans le gamétophyte mâle d’Arabidopsis (ADF7 et ADF10). Par marquage avec des proteins fluorescents, j’ai trouvé que l’ADF7 et l’ADF10 ont des expressions différentielles pendant la microsporogenèse et la germination et croissance du tube pollinique et qu’elles partagent entre elles des rôles importants durant ces différents stades.