992 resultados para motivated
Resumo:
La protection de l’intimité et de la vie privée des personnes est une préoccupation majeure de notre société car elle favorise la santé et le bien-être des individus. La confidentialité est un des éléments du droit au respect de la vie privée. Élément indispensable à la relation de confiance, le respect de la confidentialité soulève quelques problèmes quant à son maintien dans la relation impliquant les enfants. L’objectif de la présente étude est tout d’abord, d’explorer les différentes dynamiques entourant le secret thérapeutique ou la confidentialité de même que son application, à la lumière des pratiques internationales. Ensuite, elle vise à comprendre les perceptions et le sens de la confidentialité du dossier médical des enfants chez les professionnels de la santé et de l’éducation. Enfin, ce travail vise à comprendre les motivations et la connaissance des impacts du bris de confidentialité par ces professionnels. Il s'agit d'une étude qualitative de nature exploratoire. Les données proviennent d'entrevues semi-dirigées réalisées auprès de dix-neuf personnes oeuvrant de près ou de loin auprès des enfants. Une grille d'entrevue a été utilisée pour la collecte des données. Les résultats permettent d'observer que : tout d’abord, sur le plan international, il y a une absence d’uniformité dans l’application du concept de confidentialité. Son degré de protection dépend du contexte juridique d'un système donné Ensuite, l’étude démontre une relation entre la sensibilité du répondant et son milieu professionnel usuel. En effet, les professionnels de la santé, membres de corporation professionnelle, ont une vision beaucoup plus déontologique de la confidentialité et ils sont très sensibles à la question de la confidentialité, car celle-ci constitue une valeur centrale. Par contre, les professionnels de l’éducation, en l’absence d’identité professionnelle commune, s’inspirent d’une approche institutionnelle qu’éthique et ils apparaissent nettement moins sensibles à la confidentialité. Bref, le respect de la confidentialité est lié à une question de responsabilité sociale des professionnels. Enfin, le bris de la confidentialité est motivé par divers facteurs légitimes (pour raisons légale ou judiciaire, contexte de collaboration) et illégitimes (la négligence, l’erreur, l’inconduite).
Resumo:
La présente thèse examine les liens entre le sommeil, la mémoire épisodique et les rêves. Dans une première étude, nous utilisons les technologies de la réalité virtuelle (RV) en liaison avec un paradigme de privation de sommeil paradoxal et de collecte de rêve en vue d'examiner l'hypothèse que le sommeil paradoxal et le rêve sont impliqués dans la consolidation de la mémoire épisodique. Le sommeil paradoxal a été associé au rappel des aspects spatiaux des éléments émotionnels de la tâche RV. De la même façon, l'incorporation de la tâche RV dans les rêves a été associée au rappel des aspects spatiaux de la tâche. De plus, le rappel des aspects factuels et perceptuels de la mémoire épisodique, formé lors de la tâche VR, a été associé au sommeil aux ondes lentes. Une deuxième étude examine l'hypothèse selon laquelle une fonction possible du rêve pourrait être de créer de nouvelles associations entre les éléments de divers souvenirs épisodiques. Un participant a été réveillé 43 fois lors de l'endormissement pour fournir des rapports détaillés de rêves. Les résultats suggèrent qu'un seul rêve peut comporter, dans un même contexte spatiotemporel, divers éléments appartenant aux multiples souvenirs épisodiques. Une troisième étude aborde la question de la cognition lors du sommeil paradoxal, notamment comment les aspects bizarres des rêves, qui sont formés grâce aux nouvelles combinaisons d'éléments de la mémoire épisodique, sont perçus par le rêveur. Les résultats démontrent une dissociation dans les capacités cognitives en sommeil paradoxal caractérisée par un déficit sélectif dans l'appréciation des éléments bizarres des rêves. Les résultats des quatre études suggèrent que le sommeil aux ondes lentes et le sommeil paradoxal sont différemment impliqués dans le traitement de la mémoire épisodique. Le sommeil aux ondes lentes pourrait être implique dans la consolidation de la mémoire épisodique, et le sommeil paradoxal, par l'entremise du rêve, pourrais avoir le rôle d'introduire de la flexibilité dans ce système mnémonique.
Resumo:
La rapide progression des technologies sans fil au cours de ces dernières années a vu naître de nouveaux systèmes de communication dont les réseaux véhiculaires. Ces réseaux visent à intégrer les nouvelles technologies de l’information et de la communication dans le domaine automobile en vue d’améliorer la sécurité et le confort sur le réseau routier. Offrir un accès Internet aux véhicules et à leurs occupants peut sans doute aider à anticiper certains dangers sur la route tout en rendant plus agréables les déplacements à bord des véhicules. Le déploiement de ce service nécessite que des messages soient échangés entre les véhicules. Le routage constitue un élément crucial dans un réseau, car définissant la façon dont les différentes entités échangent des messages. Le routage dans les VANETS constitue un grand défi car ces derniers sont caractérisés par une forte mobilité entraînant une topologie très dynamique. Des protocoles ont été proposés pour étendre Internet aux réseaux véhiculaires. Toutefois, la plupart d’entre eux nécessitent un coût élevé de messages de contrôle pour l’établissement et le maintien des communications. Ceci a pour conséquence la saturation de la bande passante entrainant ainsi une baisse de performance du réseau. Nous proposons dans ce mémoire, un protocole de routage qui s’appuie sur des passerelles mobiles pour étendre Internet aux réseaux véhiculaires. Le protocole prend en compte la mobilité des véhicules et la charge du réseau pour l’établissement et le maintien des routes.
Resumo:
La consommation des jeunes placés dans les centres jeunesse du Québec est bien documentée, mais leurs motivations à consommer, à changer ou à parler de leur consommation avec un intervenant demeurent inconnues. Par ailleurs, très peu de chercheurs se sont intéressés aux particularités du processus de changement à l’adolescence et encore moins à ce processus dans un contexte d’autorité. Pour ces raisons, la présente recherche donne la parole aux jeunes afin de mieux comprendre leur usage de substances psychoactives, leur désir éventuel de réduire ou d’arrêter leur consommation, leur ouverture à réfléchir ou à discuter de leur consommation et leur ouverture envers les interventions disponibles. Basés sur une collecte de données qualitatives composée de 27 entrevues avec les jeunes hébergés au Centre jeunesse de Montréal et de huit mois d’observations participantes dans les unités de vie, les résultats indiquent que la majorité des adolescents interviewés disent consommer diverses substances psychoactives pour lesquelles ils identifient différentes sources de motivation, autant à consommer qu’à changer leur consommation. De plus, ces sources de motivation identifiées sont plus ou moins associées au contexte d’autorité dans lequel les jeunes sont placés. Ainsi, si certains jeunes estiment que la possibilité de changement est facilitée par l’environnement contrôlé du Centre jeunesse, pour d’autres, les contraintes de ce milieu de vie ne semblent pas avoir d’impact sur leur motivation. Par ailleurs, les jeunes démontrent différents degrés d’ouverture envers les interventions disponibles et envers les éducateurs qui les côtoient. En général, les approches compréhensives et moins autoritaires semblent encourager un certain investissement de la relation entre jeunes et éducateurs et peuvent potentiellement faciliter l’établissement d’une relation d’aide et le changement de comportement. En utilisant le cadre théorique proposé, une combinaison du Modèle transthéortique du changement et de la Théorie de l’auto-détermination, il apparaît limité de considérer les jeunes en difficulté comme étant motivés ou non motivés à changer leur consommation. Les analyses démontrent que les perceptions de la nécessité ou des possibilités d’amorcer un processus de changement varient beaucoup d’un jeune à l’autre. Ainsi, l’approche choisie pour intervenir auprès des jeunes en difficulté devrait prendre en considération les nuances et la dynamique des motivations afin de mieux adapter les services offerts et de mieux comprendre les raisons associées au succès et à l’échec de certaines interventions et intervenants vis-à-vis de certains adolescents. En outre, afin de favoriser une perception positive du « placement » et pour que les jeunes le voient comme une « opportunité de changement », il apparaît important d’examiner la fréquence et l’intensité des interventions contraignantes appliquées dans les centres de réadaptation. Finalement, il importe de mentionner que les conclusions de cette étude exploratoire ne permettent d’établir des relations causales entre l’approche choisie par l’intervenant, la motivation à changer et l’ouverture des jeunes. Cependant, les données obtenues permettent d’analyser en profondeur les représentations que les jeunes ont des relations entre ces trois éléments.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Ayant recours aux théories de la «surconscience linguistique», du «choc des langues» et des «zones de contact» telles que développées par Lise Gauvin, Sherry Simon et Catherine Leclerc, ce mémoire a pour objectif de développer une littérature montréalaise activée par la langue et les langues dans un contexte contemporain. S'inspirant des débats entourant la littérature anglo-québécoise, et la place accordée à l'imaginaire anglo-montréalais et à ses représentants dans l'histoire, deux romans sont analysés du point de vue des langues : La logeuse d'Eric Dupont et Heroine de Gail Scott. À la lumière d'une interdiction formulée par Gilles Marcotte dans « Neil Bissoondath disait… », célèbre brûlot qui prohibe l’analyse conjointe des littératures de langue française et anglaise, l'approche adoptée dans ce mémoire vise par l'intermédiaire des romans à dépasser les propos de Marcotte afin de créer une spécificité montréalaise orientée par des préoccupations linguistiques. Ce mémoire démontre que les propos de Gilles Marcotte sont intenables dans le contexte actuel où les langues ne sont plus une source de division, mais bien un prétexte à joindre dans un propos qui les englobe et les dépasse les corpus de langue anglaise et française dans le contexte montréalais. La logeuse et Heroine témoignent d'un imaginaire et de préoccupations linguistiques comparables et de ce fait, permettent de définir les contours d'une littérature montréalaise activée par les langues. Enfin, ce mémoire se questionne sur l'équation entre langue et culture, mais également entre littérature et culture afin qu'une langue montréalaise, à l'instar d'une littérature montréalaise, prenne forme.
Resumo:
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.
Resumo:
Les biocapteurs sont utilisés quotidiennement pour déterminer la présence de molécules biologiques dans une matrice complexe, comme l’urine pour les tests de grossesses ou le sang pour les glucomètres. Les techniques courantes pour la détection des autres maladies nécessitent fréquemment le marquage de l’analyte avec une autre molécule, ce qui est à éviter pour fin de simplicité d’analyse. Ces travaux ont pour but la maximisation de la sensibilité d’une surface d’or ou d’argent nanotrouée, afin de permettre la détection de la liaison de molécules biologiques par résonance des plasmons de surface localisés (LSPR), en utilisant la spectroscopie de transmission. Un biocapteur portable, rapide et sans marquage pour quantifier des analytes d’intérêt médical ou environnemental pourrait être construit à partir de ces travaux. Dans l’objectif d’étudier de nombreuses configurations pour maximiser la sensibilité, le temps et le coût des méthodes de fabrication de nanostructures habituelles auraient limité le nombre de surfaces nanotrouées pouvant être étudiées. Un autre objectif du projet consiste donc au développement d’une technique de fabrication rapide de réseaux de nanotrous, et à moindres coûts, basée sur la lithographie de nanosphères (NSL) et sur la gravure au plasma à l’oxygène (RIE). La sensibilité à la variation d’indice de réfraction associée aux liaisons de molécules sur la surface du métal noble et la longueur d’onde d’excitation du plasmon de surface sont influencées par les caractéristiques des réseaux de nanotrous. Dans les travaux rapportés ici, la nature du métal utilisé, le diamètre ainsi que la périodicité des trous sont variés pour étudier leur influence sur les bandes LSPR du spectre en transmission pour maximiser cette sensibilité, visant la fabrication d’un biocapteur. Les surfaces d’argent, ayant un diamètre de nanotrous inférieur à 200 nm pour une périodicité de 450 nm et les nanotrous d’une périodicité de 650 nm démontre un potentiel de sensibilité supérieur.
Resumo:
Ce mémoire vise à comprendre les motivations des États à intervenir militairement dans un autre État pour mettre fin aux violations graves des droits de l’homme tel que le nettoyage ethnique et le génocide. Plus précisément, nous cherchons à comprendre pourquoi il y a eu une variation dans la position américaine face aux cas de génocide au Rwanda en 1994, au Kosovo en 1999 et au Darfour de 2003 à 2008. À partir d’une approche réaliste en Relations Internationales qui met l’accent sur l’intérêt national égoïste comme facteur principal explicatif du comportement des États, nous procédons à l’étude des cas de la position américaine lors de trois crises humanitaires. Plus précisément, nous cherchons à comprendre la non intervention des États-Unis lors du génocide des Tutsis au Rwanda en 1994, l’intervention américaine au Kosovo en 1999, et enfin la non intervention américaine au Darfour de 2003 à 2008. En somme, nos études de cas démontrent que c’est l’intérêt national qui motive les États d’intervenir ou de ne pas intervenir lors des cas de nettoyage ethnique ou de génocide. D’une part, lors du génocide des Tutsis au Rwanda en 1994, les États-Unis ne sont pas intervenus car l’intérêt national interprété comme le repli sur les affaires internes américaines ne serait pas maximisé par l’intervention militaire. Ensuite, l’intervention des États-Unis et de l’OTAN au Kosovo en 1999 est expliquée par l’intérêt national américain dans un contexte de l’après guerre froide d’approfondir son engagement sécuritaire en Europe et de préserver sa position hégémonique et son prestige sur la scène internationale, d’assurer la stabilité régionale et de préserver la crédibilité de l’OTAN. Finalement, l’intérêt national défini en termes de sécurité dans un contexte de la guerre au terrorisme explique la non intervention américaine au Darfour de 2003 à 2008.
Resumo:
L'ensemble de mon travail a été réalisé grâce a l'utilisation de logiciel libre.
Resumo:
Il existe des associations entre les bars de danse érotique et les activités illicites, dans les écrits journalistiques et scientifiques. Nous avons vérifié ces associations en menant une description des crimes et déviances associés aux bars de danse érotique. Puis, nous avons tenté d’expliquer l’organisation et la structure de ces crimes, en nous appuyant sur l’approche du crime organisant et la théorie de l’écosystème du crime, de Felson (2006). Des entretiens semi-dirigés ont été conduits avec dix femmes danseuses, une femme shooter girl, un propriétaire, un portier et deux clients. Une analyse thématique à deux niveaux a montré que les délits se rapportent aux stupéfiants, à la prostitution, au proxénétisme, aux déviances, et à divers actes de violence. Des distinctions importantes, quant au contrôle selon les établissements sont notées. La structure et l’organisation des crimes peuvent s’expliquer par une logique propre aux relations symbiotiques et interdépendantes, tel que le suggère la théorie de l’écosystème du crime de Felson. Ainsi, la structure des délits peut prendre une forme mutualiste ou parasitaire. L’interrelation propre au neutralisme explique l’organisation générale de ces délits. Le milieu criminogène de la danse érotique offre de multiples opportunités, qui seront saisies par les acteurs motivés, en vue de réaliser un bénéfice personnel. Deux constats étonnants : les données suggèrent que l’implication des organisations criminelles est relativement limitée; et les conséquences occasionnées par les activités du milieu présentent un caractère inquiétant, particulièrement pour les femmes. Des efforts en matière de prévention situationnelle seraient appropriés pour réduire les opportunités.
Resumo:
Thèse réalisée dans le cadre d'une cotutelle avec l'Université Paul Cézanne Aix-Marseille III
Resumo:
Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif.
Resumo:
Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.
Resumo:
L‟utilité de la théorie de la dissuasion est régulièrement remise en question pour expliquer la relation entre les peines et la criminalité puisque les propriétés objectives de la peine ne semblent pas affecter les taux de criminalité, les perceptions que s‟en font les individus et la récidive des délinquants. Trois limites conceptuelles des auteurs qui remettent en question la dissuasion sont soulevées. Premièrement, les unités spatiales utilisées sont des territoires sur lesquels plusieurs corps policiers sont en fonction. Il y a donc peu de chances que tous les citoyens présents soient exposés au même message pénal. Deuxièmement, les chercheurs ont mesuré le risque objectif d‟être arrêté à l‟aide d‟un ratio entre le nombre d‟arrestations et le nombre de crimes rapportés. Cette conceptualisation est problématique puisque les résultats d‟autres études suggèrent que les citoyens ont peu de connaissances des propriétés objectives et qu‟il serait, ainsi, intéressant de se référer aux stimuli dissuasifs pour conceptualiser la notion de risques. Troisièmement, pour plusieurs chercheurs, la délinquance est considérée comme une activité pour laquelle les délits impunis découlent du hasard. Pourtant, les délinquants utilisent fréquemment des stratégies pour éviter les autorités policières. Ils sont donc proactifs dans leur impunité. De ces limites découlent quatre propositions : 1) afin de détecter les réels effets des propriétés de la peine sur la criminalité, les territoires utilisés dans les études doivent représenter des juridictions sur lesquelles un seul corps policier opère; 2) afin de détecter les réels effets des propriétés de la peine sur la criminalité, les études doivent être effectuées avec des données provenant d‟une juridiction dans laquelle les activités de répression sont augmentées significativement par rapport à leur seuil antérieur et maintenue sur une période de temps suffisamment longue; 3) les stimuli dissuasifs observés doivent être considérés comme des expériences vicariantes ; 4) l‟impunité doit être définie comme étant une expérience recherchée par les délinquants. Deux études ont été réalisées dans le cadre de cette thèse. D‟abord, une étude a été réalisée à l‟aide de données issues des rapports policiers de collisions et des constats d‟infraction rendus. Les résultats montrent que l‟augmentation de la répression policière ii sur le territoire du Service de Police de la Ville de Montréal a fait diminuer le nombre de collisions. Au même moment, les collisions sont demeurées stables sur le territoire desservis par le Service de police de la Ville de Québec. Dans un deuxième temps, une étude perceptuelle a été réalisée avec un échantillon d‟étudiants universitaires. Les résultats démontrent des effets mitigés des stimuli dissuasifs sur les perceptions que se font les individus de leurs risques d‟être arrêté et sur leurs comportements délinquants. Chez les moins délinquants, les stimuli dissuasifs font augmenter la perception que les délinquants se font de leurs risques. Par contre, les plus motivés à commettre des délits de la route développent des stratégies en réaction aux opérations policières plutôt que d‟en craindre les représailles. Ces tactiques d‟évitement n‟assurent pas une impunité totale, ni une perception moins élevée des risques de recevoir une contravention, mais elles retardent le moment où le délinquant sera confronté à la punition.