25 resultados para Times and movements
Resumo:
Le but de cette étude est de vérifier l'apport de la stéréoscopie dans le phénomène de la constance de forme. La méthode utilisée consiste à mesurer la performance de différents participants (temps de réponse et de taux d'erreurs) à une tâche de prospection visuelle. Quatre groupes de participants ont effectué la tâche. Le premier groupe a été exposé à une présentation stéréoscopique des stimuli, le deuxième groupe à une présentation des stimuli en stéréoscopie inversée (la disparité binoculaire était inversée), le troisième groupe à des stimuli comprenant une information de texture, mais sans stéréoscopie et le quatrième groupe à des stimuli bi-dimensionnels, sans texture. Une interaction entre les effets de rotation (points de vue familiers vs. points de vue non familiers) et le type d'information de profondeur disponible (stéréoscopie, stéréoscopie inversée, texture ou ombrage) a été mise en évidence, le coût de rotation étant plus faible au sein du groupe exposé à une présentation en stéréoscopie inversée. Ces résultats appuient l'implication de représentations tridimensionnelles dans le traitement de l'information visuelle.
Resumo:
Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.
Resumo:
De nombreux chercheurs et cliniciens sont sceptiques quant à la validité des questionnaires autoadministrés, lorsqu’utilisés auprès d’une population carcérale (Gendreau, Irvine et Knight, 1973), surtout si celle-ci est composée de délinquants sexuels (Marshall et Hall, 1995). La sensibilité des sujets investigués jumelés à la transparence des questions expose l’évaluateur à la possibilité que le participant dissimule et modifie ses réponses (Tierney et McCabe, 2001). L’objectif de ce projet est de comprendre les processus impliqués dans la performance des participants à une évaluation autoadministrée. Les données de 282 délinquants sexuels ayant complétés le Multidimensional Inventory of Development, Sex, and Agression (MIDSA) ont été analysées afin de mieux comprendre l’interaction entre les échelles de désirabilité sociale, les temps de latence et les coefficients d’ajustement du modèle de Rasch. La convergence des analyses de temps de latence et des échelles de désirabilité sociale semble indiquer que certains participants dissimuleraient consciemment leurs réponses. Notamment, les participants détectés par les échelles de désirabilité sociales sembleraient répondre de manière de plus lente aux échelles d’évaluations, et certains d’entre eux offriraient des patrons de réponses incohérents à la prescription du modèle de Rasch. Les hypothèses permettant d’expliquer les potentiels mécanismes liés à la dissimulation seront discutées.
Resumo:
L’ablation de fibrillation auriculaire (FA) persistante est associée à des temps de procédure plus longs et à un moindre succès par rapport à l’ablation de FA paroxystique. Nous avons posé l’hypothèse que la restauration et le maintien du rythme sinusal ≥ 1 mois pré-procédure faciliteraient la terminaison de la FA et amélioreraient le succès de la procédure. Méthodes: Nous avons conduit une étude rétrospective comparant deux cohortes de patients consécutifs se présentant en FA persistante pour première ablation de FA : le groupe rythme sinusal (RS) avec restauration et maintien du rythme RS ≥ 1 mois pré-procédure (Groupe RS; N=40) et un groupe contrôle de patients en FA pré ablation (Groupe contrôle; N=40), apparié selon le sexe, l’âge, la longueur maximale de durée de FA. Une ablation de type en paliers (“stepwise”) a été réalisée dans les deux groupes (avec FA induite en début de procédure dans le groupe RS). Le succès a été défini par l’absence de récidive de FA ou de tachycardie atriale sans anti arythmique après un suivi minimal de 12 mois post procédure. Résultats: Durant la procédure de index d’ablation de FA, le cycle de FA était plus long dans le groupe RS par rapport au groupe contrôle (183±32 vs 166±20 ms, P=0.06) suggérant un remodelage inverse. Dans le groupe RS, la FA a été terminée plus fréquemment par l’ablation (95.0% vs 77.5%, P<0.05) et a demandé une ablation moins extensive avec moins d’ablation des électrocardiogrammes fragmentés (40.0% vs 87.5%, p<0.001) et moins de lésions linéaires (42.5% vs 82.5%, p<0.001). Les durées moyennes de procédure (199.8±69.8 vs 283.5±72.3 minutes, P<0.001), de fluoroscopie (51.0±24.9 vs 96.3±32.1 minutes, P<0.001), et de radiofréquence (47.5±18.9 vs 97.0±30.6 minutes, P<0.001) ont été plus courtes dans le groupe RS. Les succès cliniques ont été comparables dans les deux groupes après la première (55.0% vs 45.0%, P=0.28) et la dernière procédure (80.0% vs 70.0%, P=0.28), après une durée moyenne de suivi comparable (21.1±9.7 mois).
Resumo:
L’utilisation accrue des nanomatériaux manufacturés (NM) fait en sorte que les différents acteurs de réglementation se questionnent de plus en plus par rapport à leur destin et leurs impacts sur les écosystèmes et la santé humaine suite à leur rejet dans l’environnement. Le développement de techniques analytiques permettant de détecter et de caractériser les NM en matrice environnementale est impératif étant donné la nécessité d’évaluer le risque relié à ces polluants émergents. Une des approches de plus en plus favorisée est d’utiliser une technique chromatographique et un ou plusieurs détecteurs sensibles dans les buts de réduire les effets de matrice, d’identifier des nanoparticules (NP) selon leurs temps de rétention et de les quantifier à des concentrations représentatives de la réalité environnementale. Une technique analytique utilisant la chromatographie hydrodynamique (HDC) et des détecteurs en ligne ou hors ligne (détecteurs de diffusion statique ou dynamique de la lumière, spectromètre de masse par torche à plasma en mode particule unique (SP-ICPMS), l’ultracentrifugation analytique) a donc été développée. Le couplage de la colonne HDC avec ces détecteurs a permis de caractériser des NP standards et l’optimisation des conditions de séparation de ces nanoparticules de polystyrène, d’or et d’argent a permis de confirmer que les NP y sont bel et bien séparées seulement selon leur taille, tel que la théorie le prédit. De plus, l’utilisation de la colonne HDC couplée au SP-ICPMS a permis de séparer un mélange de nanoparticules d’argent (nAg) et de les détecter à des concentrations représentatives de celles rencontrées dans l’environnement, soit de l’ordre du μg L-1 au ng L-1. Par exemple, dans un échantillon d’eau usée (effluent), un mélange de nAg de 80 et de 40 nm a été séparé et les nAg ont été détectées à l’aide du SP-ICPMS connecté à la colonne HDC (temps de rétention de 25.2 et 25.6 minutes et diamètres déterminés de 71.4 nm et 52.0 nm). Finalement, pour plusieurs échantillons environnementaux auxquels aucun ajout de nanoparticules n’a été fait, les analyses HDC-SP-ICPMS effectuées ont permis de déterminer qu’ils ne contenaient initialement pas de nAg.
L’intégration de la prise de décision visuo-motrice et d’action motrice dans des conditions ambiguës
Resumo:
La prise de décision est un mécanisme qui fait intervenir les structures neuronales supérieures afin d’effectuer un lien entre la perception du signal et l’action. Plusieurs travaux qui cherchent à comprendre les mécanismes de la prise de décision sont menés à divers ni- veaux allant de l’analyse comportementale cognitive jusqu'à la modélisation computationnelle. Le but de ce projet a été d’évaluer d’un instant à l’autre comment la variabilité du signal observé («bruit»), influence la capacité des sujets humains à détecter la direction du mouvement dans un stimulus visuel. Dans ces travaux, nous avons éliminé l’une des sources potentielles de variabilité, la variabilité d’une image à l’autre, dans le nombre de points qui portaient les trois signaux de mouvements cohérents (gauche, droite, et aléatoire) dans les stimuli de Kinématogramme de points aléatoires (KPA), c’est-à-dire la variabilité d’origine périphérique. Les stimuli KPA de type « V6 » étaient des stimuli KPA standard avec une variabilité instantanée du signal, et par contre les stimuli KPA de type « V8 », étaient modifiés pour éliminer la variabilité stochastique due à la variabilité du nombre de pixels d’un instant à l’autre qui portent le signal cohérent. Si la performance des sujets, qui correspond à leur temps de réaction et au nombre de bonnes réponses, diffère en réponse aux stimuli dont le nombre de points en mouvement cohérent varie (V6) ou ne varie pas (V8), ceci serait une preuve que la variabilité d’origine périphérique modulerait le processus décisionnel. Par contre, si la performance des sujets ne diffère pas entre ces deux types de stimuli, ceci serait une preuve que la source majeure de variabilité de performance est d’origine centrale. Dans nos résultats nous avons constaté que le temps de réaction et le nombre de bonnes réponses sont modulés par la preuve nette du mouvement cohérent. De plus on a pu établir qu’en éliminant la variabilité d’origine périphérique définit ci-dessus, on n’observe pas réellement de modification dans les enregistrements. Ce qui nous à amené à penser qu’il n y a pas de distinction claire entre la distribution des erreurs et les bonnes réponses effectuées pour chacun des essais entre les deux stimuli que nous avons utilisé : V6 et V8. C’est donc après avoir mesuré la « quantité d’énergie » que nous avons proposé que la variabilité observée dans les résultats serait probablement d’origine centrale.
Resumo:
Réalisé sous la co-direction des Drs Denis Bouchard et Michel Pellerin
Resumo:
Les médias renforcent l’image négative de l’émergence de zones criminelles dans certaines banlieues, mettant en avant l’impuissance des interventions policières et de la stratégie étatique. Les citoyens vivant au quotidien dans ces quartiers expriment un sentiment d’insécurité. L’impression d’un cercle vicieux entre insécurité réelle et sentiment d’insécurité persiste alors au travers de tels discours et perdure au travers des époques et des lieux, que ce soit en France, aux États-Unis ou même au Canada. Bon nombre d’études ont déjà posé la question à savoir si ces discours se fondent sur une réelle situation d’insécurité ou sur le sentiment d’insécurité des citoyens mais peu ont pris l’axe d’approfondir la réflexion et l’étude sur ces nouveaux phénomènes de désordres urbains et d’incivilités émergents dans les banlieues du Québec. Cette recherche a pour but d’approfondir cette réflexion en prenant un exemple d’un quartier de Laval au Québec. Il s’agit d’établir s’il y a réelle problématique d’incivilités et de désordres urbains ou s’il s’agit davantage d’un sentiment d’insécurité, le but étant ainsi de pouvoir établir un guide de résolutions de problèmes dans les banlieues et d’apporter une réflexion sur les interventions potentielles dans des zones sensibles. Se basant sur une méthodologique mixte, reliant une comparaison des statistiques de criminalité par quartiers à la perception d’acteurs clés de terrain de Laval, cette recherche apporte un nouveau regard sur ces résolutions de problèmes. Les résultats apportent une analyse intéressante sur cette interaction en soulignant l’importance du quartier et des caractéristiques sociodémographiques, du contrôle social informel, du tissu social mais aussi de la nécessité du cadre de l’autorité institutionnelle telle que la police, l’école ou encore le tissu associatif. Ces premiers éléments permettent d’ouvrir la discussion sur un plan partenarial d’interventions établissant une stratégie de lutte contre l’insécurité et le sentiment d’insécurité, cassant ainsi ce cercle vicieux par la mise en place d’une nouvelle gouvernance locale de sécurité et de bien-vivre ensemble.
Resumo:
La famille des protéines kinases C (PKC) est essentielle pour la fonction plaquettaire en réponse à la thrombine qui signale et active les plaquettes via les proteases activated receptors (PAR-1 et PAR-4) et le GPIbα. Ces derniers constituent les récepteurs de moyenne/faible et de hautes affinités pour la thrombine, respectivement. L’isoforme PKCδ régule positivement ou négativement la fonction des plaquettes tout dépendamment de la nature du stimulus. Cependant, son importance dans la fonction plaquettaire en réponse à la thrombine en aval de la GPIbα reste inconnue. L’objectif principal de ce projet de doctorat était de déterminer l'implication de l'axe thrombine/GPIbα/PKCδ dans la fonction plaquettaire et d’évaluer le rôle de cet axe dans la régulation de la thrombose. Dans les plaquettes humaines, le prétraitement avec l'inhibiteur spécifique de la PKCδ δ(V1-1)TAT, a significativement potentialisé l'activation et l’agrégation des plaquettes en réponse à de faibles concentrations de α-thrombine, mais pas en réponse à la γ-thrombine ou aux agonistes des PARs. Ce phénomène de potentialisation a été associé à une sécrétion accrue de granules, de génération de thromboxane A2 (TXA2) et une phosphorylation de la PKCδ sur la Tyr311, qui ont toutes été prévenues par l’inhibition spécifique du GPIbα à l’aide d’un anticorps monoclonal bloquant. En outre, l'inhibition de la p38 MAPK, ERK1/2 et le TXA2 a inversé ce processus de potentialisation. Les plaquettes murines déficientes en PKCδ étaient aussi plus réactives à la thrombine et ont montré une augmentation significative de l'agrégation, alors qu’une étude menée in vivo chez la souris PKCδ- /- a montré, suite à une stimulation par α-thrombine, une réaction thrombotique accrue caractérisée par une diminution significative du temps de saignement ainsi qu’une formation de thrombo-embolies pulmonaires. En bloquant le GPIbα, ces effets ont été renversés. Cette étude ouvre de nouvelles perspectives quant au rôle de la PKCδ dans les plaquettes en aval de GPIbα, où elle régule négativement la fonction plaquettaire en réponse à la thrombine. Ainsi, l'axe thrombine/GPIbα/PKCδ dans les plaquettes pourrait représenter un régulateur critique de la fonction plaquettaire et l'hémostase, et le dysfonctionnement de cette voie pourrait conduire à des événements thrombotiques.
Resumo:
Les études sur la mémoire, qui connaissent une grande popularité depuis les années 1980, ont mené à un intérêt pour l’histoire de l’histoire et pour la création de figures héroïques. Ce mémoire de maîtrise s’inscrit dans ces courants de recherche en étudiant le sort qu’une historiographie plurinationale a réservé à trois officiers français du théâtre nord-américain de la guerre de Sept Ans. Nous observerons comment les ouvrages britanniques, français, américains, canadiens-anglais et canadiens-français ont traité de Vaudreuil, Bougainville et Lévis. Nous pourrons ainsi exploiter la richesse de l’historiographie relative à cette guerre, qui date du XVIIIe siècle jusqu’à aujourd’hui. Il s’agira de suivre les regards croisés que les historiens des différentes époques et allégeances nationales ont porté sur nos personnages. C’est que ces trois hommes incarnent trois postures que l’historiographie interprétera de façon variable. En effet, comme cette production historique est surtout marquée par des rivalités entre les personnages qui prennent des allures de conflits nationaux, nos héros seront surtout jugés selon une perspective nationale. Vaudreuil, le gouverneur canadien né dans la colonie y devient donc le champion de son «pays», Bougainville, le métropolitain critique des conditions coloniales, futur navigateur et homme des Lumières, est jugé en fonction de ses propos sur le Canada, alors que Lévis, le métropolitain discret dans ses écrits, sera surtout jugé en fonction de sa victoire à Sainte-Foy en 1760.