991 resultados para optimize


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cellules souches embryonnaires (ES) sont porteuses de grands espoirs en recherche biomédicale dans le but d’apporter un traitement définitif à l’ostéoarthrose. Parce que certaines articulations des chevaux sont similaires à celles des humains, cet animal représente un modèle important dans l’évaluation de stratégies de régénération du cartilage. Cependant, pour expérimenter un traitement par les cellules ES chez le cheval, des cellules ES équines (eES) n’ont toujours pas pu être dérivées. Dans ce contexte, l’objectif principal de cette étude est de dériver des lignées de cellules eES. Le premier objectif de notre étude consiste à optimiser la technique de dérivation des cellules eES. Nous démontrons que la lignée de cellules nourricières et le stade de développement des embryons influencent l’efficacité de la technique de dérivation tandis que l’inhibition de voies de signalisation menant à la différenciation des cellules ES ne l’influence pas sous nos conditions. Le deuxième objectif de notre étude est de caractériser de façon plus approfondie les lignées de cellules eES obtenues. Nous démontrons que les cellules eES dérivées expriment autant des marqueurs associés aux cellules pluripotentes qu’aux cellules différenciées et que l’inhibition de voies de signalisation menant à la différenciation n’influence pas l’expression de ces marqueurs. Pour conclure, nous confirmons avoir dérivé des lignées de cellules semblables au cellules eES (eES-like) ne correspondant pas complètement aux critères des cellules ES.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face aux pressions continues que subissent les systèmes de santé, de nombreuses réformes sont perpétuellement en cours pour améliorer le processus de soins et par conséquent, offrir des soins de qualité et accroître le niveau de santé des populations. Les réformes que connaissent actuellement les systèmes de santé visent à optimiser l’impact des services sur la santé de la population en introduisant le concept de la responsabilité populationnelle. Par ailleurs, il existe de plus en plus un consensus sur la nécessité d’établir une relation directe et durable entre les prestataires et la population des territoires desservies pour être en mesure de tenir compte des contextes personnels et sociaux des patients et de leurs familles et pour assurer la continuité des soins dans le temps et d’un service à l’autre. Cette thèse porte sur la Programmation régionale de services ambulatoires (PRSA) de Laval. Elle analyse cette programmation comme une solution innovatrice dans la mise en œuvre de la responsabilisation populationnelle des soins. La stratégie de recherche combine à la fois une revue intégrative de la littérature qui vise à analyser le bien-fondé de la PRSA; une étude quasi-expérimentale pour examiner ses effets; et enfin, une recherche synthétique de cas pour comprendre l’évolution de la PRSA et analyser l’institutionnalisation du changement dans les organisations de la santé. Dans le premier article, nous nous sommes employés à analyser le bien fondé c’est-à-dire la plausibilité des mécanismes causaux présumés. La PRSA est un modèle d’intégration régionale basée sur une approche populationnelle. La stratégie de réseaux intégrés de soins et de case management combinée avec une approche populationnelle telle que mise de l’avant par le PRSA sont trois éléments essentiels en faveur d’une responsabilité populationnelle des soins. À l’aide d’une revue intégrative de la littérature, nous avons démontré qu’il s’agit d’une programmation capable de consolider une intégration régionale en mettant de l’avant une approche populationnelle permettant de bien cibler les besoins des populations du territoire à desservir. Le deuxième article examine les effets populationnels de la PRSA en termes de réduction de la durée moyenne de séjour et de l’augmentation de la rétention régionale. Une approche quasi expérimentale a été utilisée. En ce qui concerne la durée moyenne de séjour, on n’observe aucune diminution pour l’asthme ni pour la démence. Par contre, il est plausible que l’implantation de la PRSA ait permis une diminution de la durée moyenne de séjour pour les maladies coronariennes, les MPOC, l’embolie pulmonaire et le cancer du sein. Pour la rétention régionale, aucun effet n’a été observé pour les MPOC, l’embolie pulmonaire et la démence. Une augmentation de la rétention régionale a été observée pour les maladies coronariennes, l’asthme et le cancer du sein. Cette augmentation pourrait être attribuée à la PRSA. Dans le troisième article, nous avons examiné les facteurs susceptibles d’expliquer l’évolution de la PRSA. En partant du point de vue des responsables de la programmation de la PRSA et les gestionnaires actuels de la programmation de services de la région de Laval, nous avons tenté de mieux cerner les facteurs qui ont provoqué la suspension du déploiement de la PRSA. Les résultats indiquent que les changements fréquents dans les structures dirigeantes du réseau de la santé ainsi que l’interférence de plusieurs autres réformes ont été un obstacle dans le maintien de la PRSA. Dans le contexte actuel des réformes en santé où l’approche de réseaux intégrés de soins et de responsabilité populationnelle sont mises de l’avant, les résultats de cette thèse apportent un éclairage certain sur l’opérationnalisation de ces orientations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les différentes protéines accessoires du VIH-1, l’agent étiologique du SIDA, optimisent la réplication et la propagation du virus in vivo. Parmi ces dernières figure Vpu, l’antagoniste du facteur de restriction nommé Tetherin qui prévient la relâche des particules virales à partir de la surface de cellules infectées. En diminuant son expression de surface, Vpu prévient l’incorporation de ce facteur de restriction dans la particule virale en formation et conséquemment, empêche la formation d’une ancre protéique reliant le virus mature à la membrane plasmique de la cellule infectée. La mécanistique sous-jacente n’était cependant pas connue. Cette présente thèse relate nos travaux exécutés afin d’élucider la dynamique des mécanismes cellulaires responsables de cet antagonisme. Une approche de mutagénèse dirigée a d’abord permis d’identifier deux régions contenant des déterminants de la localisation de Vpu dans le réseau trans-Golgi (RTG), puis de démontrer la relation existante entre cette distribution et l’augmentation de la relâche des particules virales. Des expériences subséquentes de marquage métabolique suivi d’une chasse exécutées dans des systèmes cellulaires où Tetherin est exprimée de façon endogène ont suggéré le caractère dispensable de l’induction par Vpu de la dégradation du facteur de restriction lors de son antagonisme. En revanche, une approche de réexpression de Tetherin conduite en cytométrie en flux, confirmée en microscopie confocale, a mis en évidence une séquestration de Tetherin dans le RTG en présence de Vpu, phénomène qui s’est avéré nécessiter l’interaction entre les deux protéines. L’usage d’un système d’expression de Vpu inductible conjugué à des techniques de cytométrie en flux nous a permis d’apprécier l’effet majeur de Vpu sur la Tetherin néo-synthétisée et plus mineur sur la Tetherin de surface. En présence de Vpu, la séquestration intracellulaire de la Tetherin néo-synthétisée et la légère accélération de l’internalisation naturelle de celle en surface se sont avérées suffisantes à la réduction de son expression globale à la membrane plasmique et ce, à temps pour l’initiation du processus de relâche virale. À la lumière de nos résultats, nous proposons un modèle où la séquestration de la Tetherin néo-synthétisée dans le RTG préviendrait le réapprovisionnement de Tetherin en surface qui, combinée avec l’internalisation naturelle de Tetherin à partir de la membrane plasmique, imposerait l’établissement d’un nouvel équilibre de Tetherin incompatible avec une restriction de la relâche des particules virales. Cette thèse nous a donc permis d’identifier un processus par lequel Vpu augmente la sécrétion de virus matures et établit une base mécanistique nécessaire à la compréhension de la contribution de Vpu à la propagation et à la pathogénèse du virus, ce qui pourrait mener à l’élaboration d’une stratégie visant à contrer l’effet de cette protéine virale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif : L’objectif principal de cette thèse est d’examiner les déterminants de l’utilisation des services de soins pour des raisons de santé mentale dans le sud-ouest de Montréal. Données et méthodes : L’étude utilise les données de la première phase du projet portant sur « le développement d’une zone circonscrite d’études épidémiologiques en psychiatrie dans le sud-ouest de Montréal ». Les données ont été collectées entre mai 2007 et août 2008 auprès d’un échantillon de 2434 personnes sélectionnées au hasard dans tout le territoire de l’étude. De cet échantillon, nous avons sélectionné un sous-échantillon de personnes ayant eu au moins un diagnostic de santé mentale au cours de la dernière année. 423 personnes ont rencontrées ce critère et constituent l’échantillon pour les analyses de la présente thèse. Le modèle comportemental d’Andersen a servi de cadre pour le choix des variables à analyser. Parce que l’approche socio-spatiale a été privilégiée pour modéliser les déterminants de l’utilisation des services, les analyses ont été effectuées à l’aide de quatre logiciels distincts à savoir : SPSS, AMOS, ArcGIS et MlWin. Résultats : Les résultats montrent que 53,66% de notre échantillon ont utilisés au moins un service de santé pour des raisons de santé mentale. On constate néanmoins que les déterminants de l’utilisation des services en santé mentale sont à la fois complexes et spatialement inégalement réparties. En ce qui concerne les caractéristiques sociodémographiques et cliniques, les femmes et ceux qui perçoivent la stigmatisation envers les personnes ayant un problème de santé mentale utilisent plus les services. Le nombre de diagnostics de santé mentale est aussi associé à l’utilisation des services. L’augmentation du nombre de diagnostics entraîne une augmentation de l’utilisation des services (=0,38; p<0,001). D’autres variables comme l’âge, le statut matrimonial, la taille du ménage, le soutien social et la qualité de vie influencent indirectement l’utilisation des services. À titre illustratif toute augmentation de l’âge entraîne une augmentation du soutien social de (=0,69; p<0,001) qui à son tour fait diminuer la détresse psychiatrique (= -0,09 (p<0,05). Or, toute augmentation d’une unité de détresse psychiatrique entraîne une augmentation de l’utilisation des services (=0,58 (p<0,001). Sur le plan spatiale, il existe une corrélation positive entre l’utilisation des services et la défavorisation matérielle, la défavorisation sociale et le nombre d’immigrants récents sur un territoire. Par contre, la corrélation entre la prévalence de la santé mentale et l’utilisation des services est négative. Les analyses plus poussées indiquent que le contexte de résidence explique 12,26 % (p<0,05) de la variation totale de l’utilisation des services. De plus, lorsqu’on contrôle pour les caractéristiques individuelles, vivre dans un environnement stable augmente l’utilisation des services (O.R=1,24; p<0,05) tandis que les contextes défavorisés du point de vue socioéconomique ont un effet néfaste sur l’utilisation (O.R=0,71; p<0,05). Conclusion : Les résultats de l’étude suggèrent que si on veut optimiser l’utilisation des services en santé mentale, il est important d’agir prioritairement au niveau de la collectivité. Plus spécifiquement, il faudrait mener des campagnes de sensibilisation auprès de la population pour combattre la stigmatisation des personnes ayant un problème de santé mentale. Sur le plan de la planification des soins de santé, on devrait augmenter l’offre des services dans les territoires défavorisés pour en faciliter l’accès aux habitants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’observation d’un modèle pratiquant une habileté motrice promeut l’apprentissage de l’habileté en question. Toutefois, peu de chercheurs se sont attardés à étudier les caractéristiques d’un bon modèle et à mettre en évidence les conditions d’observation pouvant optimiser l’apprentissage. Dans les trois études composant cette thèse, nous avons examiné les effets du niveau d’habileté du modèle, de la latéralité du modèle, du point de vue auquel l’observateur est placé, et du mode de présentation de l’information sur l’apprentissage d’une tâche de timing séquentielle composée de quatre segments. Dans la première expérience de la première étude, les participants observaient soit un novice, soit un expert, soit un novice et un expert. Les résultats des tests de rétention et de transfert ont révélé que l’observation d’un novice était moins bénéfique pour l’apprentissage que le fait d’observer un expert ou une combinaison des deux (condition mixte). Par ailleurs, il semblerait que l’observation combinée de modèles novice et expert induise un mouvement plus stable et une meilleure généralisation du timing relatif imposé comparativement aux deux autres conditions. Dans la seconde expérience, nous voulions déterminer si un certain type de performance chez un novice (très variable, avec ou sans amélioration de la performance) dans l’observation d’une condition mixte amenait un meilleur apprentissage de la tâche. Aucune différence significative n’a été observée entre les différents types de modèle novices employés dans l’observation de la condition mixte. Ces résultats suggèrent qu’une observation mixte fournit une représentation précise de ce qu’il faut faire (modèle expert) et que l’apprentissage est d’autant plus amélioré lorsque l’apprenant peut contraster cela avec la performance de modèles ayant moins de succès. Dans notre seconde étude, des participants droitiers devaient observer un modèle à la première ou à la troisième personne. L’observation d’un modèle utilisant la même main préférentielle que soi induit un meilleur apprentissage de la tâche que l’observation d’un modèle dont la dominance latérale est opposée à la sienne, et ce, quel que soit l’angle d’observation. Ce résultat suggère que le réseau d’observation de l’action (AON) est plus sensible à la latéralité du modèle qu’à l’angle de vue de l’observateur. Ainsi, le réseau d’observation de l’action semble lié à des régions sensorimotrices du cerveau qui simulent la programmation motrice comme si le mouvement observé était réalisé par sa propre main dominante. Pour finir, dans la troisième étude, nous nous sommes intéressés à déterminer si le mode de présentation (en direct ou en vidéo) influait sur l’apprentissage par observation et si cet effet est modulé par le point de vue de l’observateur (première ou troisième personne). Pour cela, les participants observaient soit un modèle en direct soit une présentation vidéo du modèle et ceci avec une vue soit à la première soit à la troisième personne. Nos résultats ont révélé que l’observation ne diffère pas significativement selon le type de présentation utilisée ou le point de vue auquel l’observateur est placé. Ces résultats sont contraires aux prédictions découlant des études d’imagerie cérébrale ayant montré une activation plus importante du cortex sensorimoteur lors d’une observation en direct comparée à une observation vidéo et de la première personne comparée à la troisième personne. Dans l’ensemble, nos résultats indiquent que le niveau d’habileté du modèle et sa latéralité sont des déterminants importants de l’apprentissage par observation alors que le point de vue de l’observateur et le moyen de présentation n’ont pas d’effets significatifs sur l’apprentissage d’une tâche motrice. De plus, nos résultats suggèrent que la plus grande activation du réseau d’observation de l’action révélée par les études en imagerie mentale durant l’observation d’une action n’induit pas nécessairement un meilleur apprentissage de la tâche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif principal de la présente thèse était de déterminer les facteurs susceptibles d’influencer l’efficacité des processus de contrôle en ligne des mouvements d’atteinte manuelle. De nos jours, les mouvements d’atteinte manuelle réalisés dans un environnement virtuel (déplacer une souris d’ordinateur pour contrôler un curseur à l’écran, par exemple) sont devenus chose commune. Par comparaison aux mouvements réalisés en contexte naturel (appuyer sur le bouton de mise en marche de l’ordinateur), ceux réalisés en contexte virtuel imposent au système nerveux central des contraintes importantes parce que l’information visuelle et proprioceptive définissant la position de l’effecteur n’est pas parfaitement congruente. Par conséquent, la présente thèse s’articule autour des effets d’un contexte virtuel sur le contrôle des mouvements d’atteinte manuelle. Dans notre premier article, nous avons tenté de déterminer si des facteurs tels que (a) la quantité de pratique, (b) l’orientation du montage virtuel (aligné vs. non-aligné) ou encore (c) l’alternance d’un essai réalisé avec et sans la vision de l’effecteur pouvaient augmenter l’efficacité des processus de contrôle en ligne de mouvement réalisés en contexte virtuel. Ces facteurs n’ont pas influencé l’efficacité des processus de contrôle de mouvements réalisés en contexte virtuel, suggérant qu’il est difficile d’optimiser le contrôle des mouvements d’atteinte manuelle lorsque ceux-ci sont réalisés dans un contexte virtuel. L’un des résultats les plus surprenants de cette étude est que nous n’avons pas rapporté d’effet concernant l’orientation de l’écran sur la performance des participants, ce qui était en contradiction avec la littérature existante sur ce sujet. L’article 2 avait pour but de pousser plus en avant notre compréhension du contrôle du mouvement réalisé en contexte virtuel et naturel. Dans le deuxième article, nous avons mis en évidence les effets néfastes d’un contexte virtuel sur le contrôle en ligne des mouvements d’atteinte manuelle. Plus précisément, nous avons observé que l’utilisation d’un montage non-aligné (écran vertical/mouvement sur un plan horizontal) pour présenter l’information visuelle résultait en une importante diminution de la performance comparativement à un montage virtuel aligné et un montage naturel. Nous avons aussi observé une diminution de la performance lorsque les mouvements étaient réalisés dans un contexte virtuel aligné comparativement à un contexte naturel. La diminution de la performance notée dans les deux conditions virtuelles s’expliquait largement par une réduction de l’efficacité des processus de contrôle en ligne. Nous avons donc suggéré que l’utilisation d’une représentation virtuelle de la main introduisait de l’incertitude relative à sa position dans l’espace. Dans l’article 3, nous avons donc voulu déterminer l’origine de cette incertitude. Dans ce troisième article, deux hypothèses étaient à l’étude. La première suggérait que l’augmentation de l’incertitude rapportée dans le contexte virtuel de la précédente étude était due à une perte d’information visuelle relative à la configuration du bras. La seconde suggérait plutôt que l’incertitude provenait de l’information visuelle et proprioceptive qui n’est pas parfaitement congruente dans un contexte virtuel comparativement à un contexte naturel (le curseur n’est pas directement aligné avec le bout du doigt, par exemple). Les données n’ont pas supporté notre première hypothèse. Plutôt, il semble que l’incertitude soit causée par la dissociation de l’information visuelle et proprioceptive. Nous avons aussi démontré que l’information relative à la position de la main disponible sur la base de départ influence largement les processus de contrôle en ligne, même lorsque la vision de l’effecteur est disponible durant le mouvement. Ce résultat suggère que des boucles de feedback interne utilisent cette information afin de moduler le mouvement en cours d’exécution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente les recherches et réflexions entourant la conception d’une application à base d’ontologie dédiée au e-recrutement dans le domaine des services de dotation de personnel en technologies de l’information à l’ère du Web Social. Cette application, nommée Combine, vise essentiellement à optimiser et enrichir la Communication Médiée par Ordinateur (CMO) des acteurs du domaine et utilise des concepts issus du paradigme technologique émergent qu’est le Web sémantique. Encore très peu discuté dans une perspective CMO, le présent mémoire se propose donc d’examiner les enjeux communicationnels relatifs à ce nouveau paradigme. Il présente ses principaux concepts, dont la notion d’ontologie qui implique la modélisation formelle de connaissances, et expose le cas de développement de Combine. Il décrit comment cette application fut développée, de l’analyse des besoins à l’évaluation du prototype par les utilisateurs ciblés, tout en révélant les préoccupations, les contraintes et les opportunités rencontrées en cours de route. Au terme de cet examen, le mémoire tend à évaluer de manière critique le potentiel de Combine à optimiser la CMO du domaine d’activité ciblé. Le mémoire dresse au final un portrait plutôt favorable quant à la perception positive des acteurs du domaine d’utiliser un tel type d’application, et aussi quant aux nets bénéfices en frais d’Interactions Humain-Ordinateur (IHO) qu’elle fait miroiter. Il avertit toutefois d’une certaine exacerbation du problème dit « d’engagement ontologique » à considérer lors de la construction d’ontologies modélisant des objets sociaux tels que ceux dont le monde du recrutement est peuplé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’entraînement délibéré joue un rôle essentiel dans le développement de l’excellence sportive. Cette pratique est décrite comme étant une activité menée dans un but d’amélioration exigeant un niveau élevé d’effort et de concentration et n’étant pas nécessairement plaisante. Bien que les aspects quantitatifs de la pratique délibérée aient grandement été explorés, peu d’études se sont attardées à qualifier ce processus de façon précise. Ainsi, l’objectif de la présente étude est de définir précisément ce qu’est un entraînement de qualité ainsi que le processus psychologique s’y rattachant. Pour ce faire, des entrevues semi-structurées ont été menées auprès de douze patineurs élites québécois. L’analyse des données, par théorisation ancrée, démontre qu’un entraînement de haute qualité est le résultat d’une interaction dynamique de plusieurs facteurs liés à l’athlète, à son environnement, au contenu de son entraînement et à son état psychologique. Plus précisément, la confiance, la motivation, la concentration et l’attitude positive sont les habiletés psychologiques qui peuvent affecter l’entraînement. En fait, l’analyse démontre qu’un processus psychologique important s’opère lors de l’entraînement délibéré. Tout d’abord, des stratégies cognitives et comportementales comme l’imagerie mentale, la fixation d’objectifs et la routine sont utilisées par les athlètes pour se préparer à l’entraînement. Puis, lorsque son état psychologique est affecté négativement, l’athlète a recours à différentes stratégies afin d’optimiser cet état. Si ces stratégies s’avèrent efficaces, la qualité de l’entraînement est maintenue et l’athlète en ressort avec l’impression d’avoir progressé autant sur le plan technique, mental qu’émotionnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec la complexité croissante des systèmes sur puce, de nouveaux défis ne cessent d’émerger dans la conception de ces systèmes en matière de vérification formelle et de synthèse de haut niveau. Plusieurs travaux autour de SystemC, considéré comme la norme pour la conception au niveau système, sont en cours afin de relever ces nouveaux défis. Cependant, à cause du modèle de concurrence complexe de SystemC, relever ces défis reste toujours une tâche difficile. Ainsi, nous pensons qu’il est primordial de partir sur de meilleures bases en utilisant un modèle de concurrence plus efficace. Par conséquent, dans cette thèse, nous étudions une méthodologie de conception qui offre une meilleure abstraction pour modéliser des composants parallèles en se basant sur le concept de transaction. Nous montrons comment, grâce au raisonnement simple que procure le concept de transaction, il devient plus facile d’appliquer la vérification formelle, le raffinement incrémental et la synthèse de haut niveau. Dans le but d’évaluer l’efficacité de cette méthodologie, nous avons fixé l’objectif d’optimiser la vitesse de simulation d’un modèle transactionnel en profitant d’une machine multicoeur. Nous présentons ainsi l’environnement de modélisation et de simulation parallèle que nous avons développé. Nous étudions différentes stratégies d’ordonnancement en matière de parallélisme et de surcoût de synchronisation. Une expérimentation faite sur un modèle du transmetteur Wi-Fi 802.11a a permis d’atteindre une accélération d’environ 1.8 en utilisant deux threads. Avec 8 threads, bien que la charge de travail des différentes transactions n’était pas importante, nous avons pu atteindre une accélération d’environ 4.6, ce qui est un résultat très prometteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Suite aux notifications de cas de comportements suicidaires associés aux antidépresseurs (ADs) chez les jeunes, une mise en garde réglementaire a été émise en mai 2004 au Canada, et deux guides de pratique clinique ont été publiés dans la littérature en novembre 2007. L'objectif de ce mémoire fut d'évaluer l’association entre ces interventions de communication et le suivi médical de la population pédiatrique traitée par ADs au Québec. Une étude de cohorte rétrospective (1998-2008) a été menée chez 4 576 enfants (10-14 ans) et 12 419 adolescents (15-19 ans) membres du régime public d’assurance médicaments du Québec, ayant débuté un traitement par AD. Le suivi médical dans les trois premiers mois de traitement a été mesuré par l’occurrence et la fréquence de visites médicales retrouvées dans les banques de données de la RAMQ. Les facteurs associés à un suivi conforme aux recommandations ont été évalués à partir de modèles de régression logistique multivariés. Seuls 20% des enfants ou adolescents ont eu au moins une visite de suivi à chaque mois, en conformité avec les recommandations. La probabilité de recevoir un suivi médical conforme était plus élevée lorsque le prescripteur initial était un psychiatre. L’occurrence et la fréquence des visites n’ont pas changé après la publication de la mise en garde ou des recommandations. De ce mémoire on conclut que d'autres interventions visant à optimiser le suivi médical devraient être envisagées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’étude du cerveau humain est un domaine en plein essor et les techniques non-invasives de l’étudier sont très prometteuses. Afin de l’étudier de manière non-invasive, notre laboratoire utilise principalement l’imagerie par résonance magnétique fonctionnelle (IRMf) et l’imagerie optique diffuse (IOD) continue pour mesurer et localiser l’activité cérébrale induite par une tâche visuelle, cognitive ou motrice. Le signal de ces deux techniques repose, entre autres, sur les concentrations d’hémoglobine cérébrale à cause du couplage qui existe entre l’activité neuronale et le flux sanguin local dans le cerveau. Pour être en mesure de comparer les deux signaux (et éventuellement calibrer le signal d’IRMf par l’IOD), où chaque signal est relatif à son propre niveau de base physiologique inconnu, une nouvelle technique ayant la capacité de mesurer le niveau de base physiologique est nécessaire. Cette nouvelle technique est l’IOD résolue temporellement qui permet d’estimer les concentrations d’hémoglobine cérébrale. Ce nouveau système permet donc de quantifier le niveau de base physiologique en termes de concentrations d’hémoglobine cérébrale absolue. L’objectif général de ma maîtrise était de développer un tel système afin de l’utiliser dans une large étude portant sur la condition cardiovasculaire, le vieillissement, la neuroimagerie ainsi que les performances cognitives. Il a fallu tout d’abord construire le système, le caractériser puis valider les résultats avant de pouvoir l’utiliser sur les sujets de recherche. La validation s’est premièrement réalisée sur des fantômes homogènes ainsi qu’hétérogènes (deux couches) qui ont été développés. La validation des concentrations d’hémoglobine cérébrale a été réalisée via une tâche cognitive et appuyée par les tests sanguins des sujets de recherche. Finalement, on présente les résultats obtenus dans une large étude employant le système d’IOD résolue temporellement en se concentrant sur les différences reliées au vieillissement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une nouvelle méthode d'extraction en phase solide (SPE) couplée à une technique d'analyse ultrarapide a été développée pour la détermination simultanée de neuf contaminants émergents (l'atrazine, le déséthylatrazine, le 17(béta)-estradiol, l'éthynylestradiol, la noréthindrone, la caféine, la carbamazépine, le diclofénac et le sulfaméthoxazole) provenant de différentes classes thérapeutiques et présents dans les eaux usées. La pré-concentration et la purification des échantillons a été réalisée avec une cartouche SPE en mode mixte (Strata ABW) ayant à la fois des propriétés échangeuses de cations et d'anions suivie d'une analyse par une désorption thermique par diode laser/ionisation chimique à pression atmosphérique couplée à la spectrométrie de masse en tandem (LDTD-APCI-MS/MS). La LDTD est une nouvelle méthode d'introduction d'échantillon qui réduit le temps total d'analyse à moins de 15 secondes par rapport à plusieurs minutes avec la chromatographie liquide couplée à la spectrométrie de masse en tandem traditionnelle (LC-MS/MS). Plusieurs paramètres SPE ont été évalués dans le but d'optimiser l'efficacité de récupération lors de l'extraction des analytes provenant des eaux usées, tels que la nature de la phase stationnaire, le débit de chargement, le pH d'extraction, le volume et la composition de la solution de lavage et le volume de l'échantillon initial. Cette nouvelle méthode a été appliquée avec succès à de vrais échantillons d'eaux usées provenant d'un réservoir de décantation primaire. Le recouvrement des composés ciblés provenant des eaux usées a été de 78 à 106%, la limite de détection a été de 30 à 122 ng L-1, alors que la limite de quantification a été de 88 à 370 ng L-1. Les courbes d'étalonnage dans les matrices d'eaux usées ont montré une bonne linéarité (R2 > 0,991) pour les analytes cibles ainsi qu’une précision avec un coefficient de variance inférieure à 15%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nombre d’infirmières et infirmiers diplômés à l’étranger (IIDÉ) est en constante progression au Canada. Le préceptorat est qualifié d’approche exemplaire pour faciliter la transition professionnelle d’IIDÉ dans le nouvel environnement (Sherman & Eggenberger, 2008). Au cours de cette période, les défis pour l’IIDÉ sont importants en raison des différences culturelles et de pratique entre les pays d’origine et d’accueil (Johnston & Mohide, 2008). Une transition réussie est nécessaire pour le bien-être des IIDÉ et leur rétention dans le milieu de travail, mais aussi pour l’impact possible sur la sécurité des patients et la qualité des soins (Kawi & Xu, 2009). Inspirée de la théorie intermédiaire de la transition (Meleis, Sawyer, Im, Messias, & Schumacher, 2000), cette recherche avait pour but de décrire les perceptions d’IIDÉ et de préceptrices, en regard des stratégies utilisées en période de préceptorat, pour contrer les barrières et faciliter la transition professionnelle d’IIDÉ, en milieu de santé québécois. Les résultats de cette recherche descriptive qualitative proviennent de l’analyse d’entrevues semi-dirigées avec six IIDÉ d’origine française et deux préceptrices. Plusieurs stratégies s’adressant à l’IIDÉ, la préceptrice, l’équipe de travail et l’organisation du centre hospitalier ont été identifiées. Celles pour l’IIDÉ servent à échanger et s’intégrer, accepter et optimiser, comprendre et apprendre ainsi que comparer et sélectionner; celles pour la communauté professionnelle se résument à soutenir, encadrer, personnaliser, expliquer et justifier. Les perceptions d’IIDÉ et de préceptrices varient sur plusieurs des stratégies. Des recommandations pour la formation, la pratique et la recherche en sciences infirmières ont été formulées.