312 resultados para Recherche à voisinage variable


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche-action participative s’inscrit dans un paradigme féministe intersectionnelle. Elle présente la façon dont sept jeunes femmes de la rue (18-23 ans) de Québec ont fait l’expérience de la violence structurelle et ont déployé des stratégies pour y faire face. Elle s’articule autour d’une définition de la violence structurelle inspirée de celle proposée par Farmer, Bourgois, Scheper-Hugues et al. (2004) qui la présentent comme étant le processus à la racine des inégalités sociales et de l’oppression vécue par différents groupes sociaux. Ce processus s’opère dans trois dimensions complémentaires soit : 1) la domination symbolique, 2) la violence institutionnelle et 3) la violence quotidienne. Une analyse de contenu thématique a permis de dégager l’expérience des participantes dans chacune de ces dimensions. L’analyse de la domination symbolique a montré que les participantes ont été perçues à travers le prisme de quatre visions ou préjugés : 1) l’image de la jeune délinquante (Bad girl), 2) le discours haineux envers les personnes assistées sociales, 3) la culture du viol et 4) l’hétéronormativité. Les différentes expériences de violence quotidienne et institutionnelle vécues par les participantes peuvent être mises en lien avec ces manifestations de la domination symbolique. Les participantes ont expérimenté la violence institutionnelle à travers leurs trajectoires au sein des services de protection de l’enfance, durant leurs démarches pour obtenir un emploi, un logement ou du soutien financier de la part des programmes offerts par l’État et pendant leurs demandes d’aide auprès d’organismes communautaires ou d’établissements du réseau de la santé et des services sociaux. L’analyse de l’expérience des participantes a permis de révéler deux processus imbriqués de façon cyclique de violence structurelle : l’exclusion et le contrôle social. La plupart des stratégies ii expérimentées par les participantes pour combler leurs besoins fondamentaux les ont exposées au contrôle social. Le contrôle social a exacerbé les difficultés financières des participantes et a accru leur crainte de subir de l’exclusion. Bien que la violence structurelle expérimentée par les participantes se situe à la croisée des rapports de pouvoir liée au genre, à la classe sociale, à l’âge et à l’orientation sexuelle, il se dégage que la domination masculine s’est traduite dans le quotidien des participantes, car l’exclusion et le contrôle social ont créé des contextes où elles ont été susceptibles de subir une agression sexuelle ou de vivre de la violence de la part d’un partenaire intime. L’analyse de la dimension intersubjective de la grille d’analyse de Yuval-Davis (2006) montre la présence de certains rapports de pouvoir liés à la classe sociale au sein même de la population des jeunes de la rue. Cette analyse souligne également la difficulté des participantes à définir les contours de la violence et d’adopter des rapports égalitaires avec les hommes. Enfin, le processus de recherche-action participative expérimenté dans le cadre de cette thèse a été analysé à partir des critères de scientificité présentés par Reason et Bradbury (2001). L’élaboration de deux projets photos, choisis par le groupe en guise de stratégie de lutte contre la violence structurelle, a contribué à ouvrir le dialogue avec différents acteurs concernés par la violence structurelle envers les jeunes femmes de la rue et s’est inscrit dans une perspective émancipatoire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le but de notre recherche est de répondre à la question suivante : Quelles sont les sources d’influence des pratiques d’emploi instaurées par les EMN originaires de pays européens dans leurs filiales québécoises? Comme les EMN constituent notre objet de recherche, nous avons, dans un premier temps, recensé les principales caractéristiques de celles-ci. Il faut noter que les EMN ont un portrait différent par rapport à celui des entreprises qui ne sont pas multinationales. Comme le Québec est l’endroit où notre recherche a eu lieu, nous avons aussi expliqué les caractéristiques socioéconomiques du marché québécois. Nous avons constaté que le marché québécois se distingue du reste du Canada par son hybridité résultant d’un mélange de caractéristiques libérales et coordonnées. Comme les EMN étudiées sont d’origine européenne, nous avons aussi expliqué les caractéristiques des pays européens à économie coordonnée et libérale. Il faut noter que les pays à économie coordonnée et à économie libérale ont de caractéristiques différentes, voire opposées. Dans un deuxième temps, nous avons recensé les études qui ont tenté de répondre à notre question de recherche. La littérature identifie quatre sources d’influence des pratiques d’emploi que les EMN instaurent dans leurs filiales étrangères : le pays d’accueil, le pays d’origine, les sources d’influence hybrides, et les sources d’influence globales. Les sources d’influence provenant des pays d’accueil déterminent les pratiques d’emploi des filiales étrangères en mettant en valeur l’isomorphisme, les principes calculateur et collaborateur, et la capacité des filiales à modifier les marchés dans lesquels elles opèrent. Les sources d’influence provenant des pays d’origine influencent les pratiques d’emploi en mettant en valeur l’isomorphisme culturel, l’effet du pays d’origine, et l’effet du pays de gestion. Les sources d’influence hybrides combinent les facteurs en provenance des pays d’accueil, des pays d’origine, et du marché global pour déterminer les pratiques d’emploi des filiales étrangères. Finalement, les sources d’influence globales mettent en valeur les pressions d’intégration au marché mondial pour expliquer la convergence des pratiques d’emploi des filiales étrangères vers un modèle universel anglo-saxon. Pour répondre à notre question de recherche, nous avons identifié les niveaux de coordination des pays d’origine comme variable indépendante, et les niveaux de coordination des pratiques d’emploi comme variable dépendante. Sept hypothèses avec leurs indicateurs respectifs ont tenu compte des relations entre nos variables indépendantes et dépendante. Nous avons préparé un questionnaire de recherche, et avons interviewé des membres du personnel de RH de dix EMN européennes ayant au moins une filiale au Québec. Les filiales faisant partie de notre échantillon appartiennent à des EMN originaires de divers pays européens, autant à marché libéral que coordonné. Nous avons décrit en détail les caractéristiques de chacune de ces EMN et de leurs filiales québécoises. Nous avons identifié des facteurs explicatifs (index de coordination de Hall et Gingerich, secteur d’activité, taille des filiales, et degré de globalisation des EMN) qui auraient pu aussi jouer un rôle dans la détermination et la nature des pratiques d’emploi des filiales. En matière de résultats, nous n’avons constaté de lien entre le type de marché du pays d’origine et le degré de coordination des pratiques d’emploi que pour les pratiques salariales; confirmant ainsi notre première hypothèse. Les pratiques de stabilité d’emploi, de formation, et de relations de travail ont un lien avec le secteur d’activité; soit le secteur de la production des bien, ou celui des services. Ainsi, les filiales dans le secteur de la production de biens font preuve de plus de coordination en matière de ces trois pratiques comparativement aux filiales dans le secteur des services. Finalement, les pratiques de développement de carrière et de partage d’information et consultation sont de nature coordonnée dans toutes les filiales, mais aucun facteur explicatif n’explique ce résultat. Compte tenu que le marché d’accueil québécois est commun à toutes les filiales, le Québec comme province d’accueil pourrait expliquer le fort degré de coordination de ces deux pratiques. Outre le marché d’accueil, le caractère multinational des EMN auxquelles ces filiales appartiennent pourrait aussi expliquer des résultats semblables en matière des pratiques d’emploi. Notre recherche comporte des forces et des faiblesses. Concernant les forces, notre méthode de recherche nous a permis d’obtenir des données de source directe, car nous avons questionné directement les gens concernées par les pratiques d’emploi. Ceci a pour effet d’assurer une certaine validité à notre recherche. Concernant nos faiblesses, la nature restreinte de notre échantillon ne nous permet pas de généraliser les résultats. Il faudrait réaliser d’autres recherches pour améliorer la fiabilité. De plus, les pays d’origine des filiales demeure ambigu pour certaines d’entre elles, car celles-ci ont changé de propriétaire plusieurs fois. D’autres ont au moins deux propriétaires originaires de pays distincts.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pour analyser les images en tomodensitométrie, une méthode stœchiométrique est gé- néralement utilisée. Une courbe relie les unités Hounsfield d’une image à la densité électronique du milieu. La tomodensitométrie à double énergie permet d’obtenir des informations supplémentaires sur ces images. Une méthode stœchiométrique a été dé- veloppée pour permettre de déterminer les valeurs de densité électronique et de numéro atomique effectif à partir d’une paire d’images d’un tomodensitomètre à double énergie. Le but de cette recherche est de développer une nouvelle méthode d’identification de tissus en utilisant ces paramètres extraits en tomodensitométrie à double énergie. Cette nouvelle méthode est comparée avec la méthode standard de tomodensitométrie à simple énergie. Par ailleurs, l’impact dosimétrique de bien identifier un tissu est déterminé. Des simulations Monte Carlo permettent d’utiliser des fantômes numériques dont tous les paramètres sont connus. Les différents fantômes utilisés permettent d’étalonner les méthodes stœchiométriques, de comparer la polyvalence et la robustesse des méthodes d’identification de tissus double énergie et simple énergie, ainsi que de comparer les distributions de dose dans des fantômes uniformes de mêmes densités, mais de compo- sitions différentes. La méthode utilisant la tomodensitométrie à double énergie fournit des valeurs de densi- tés électroniques plus exactes, quelles que soient les conditions étudiées. Cette méthode s’avère également plus robuste aux variations de densité des tissus. L’impact dosimé- trique d’une bonne identification de tissus devient important pour des traitements aux énergies plus faibles, donc aux énergies d’imagerie et de curiethérapie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les mesures cosmologiques les plus récentes ont montré la présence d’un type de matière exotique constituant 85% de la masse de l’univers. Ce type de matière non baryonique serait formé de particules neutres, non relativistes, massives et interagissant faiblement avec la matière baryonique. L’ensemble des candidats est regroupé sous le nom générique WIMP (Weakly Interactive Massive Particles). L’expérience PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une expérience utilisant des détecteurs à seuil d’énergie contenant des gouttelettes surchauffées constituées de C4F10. Cette technique de détection est basée sur le principe de la chambre à bulles. Le projet PICASSO a pour but de détecter directement une particule de matière sombre. Le principe de détection est qu’une particule de matière sombre interagissant avec le liquide actif engendre un recul nucléaire du 19F. L’énergie de recul serait suffisante pour engendrer une transition de phase accompagnée d’un signal acoustique enregistrée par des senseurs piézoélectriques. Dans le cadre de ce mémoire, une simulation du taux de comptage de l’étalonnage des détecteurs PICASSO soumis à des neutrons monoénergétiques a été effectuée en utilisant la théorie de Seitz qui décrit les critères pour qu’une transition de phase ait lieu pour un liquide en état de surchauffe. De plus, un modèle calculant le signal acoustique émis lors d’une transition de phase engendré par différents types de radiations a été créé permettant de caractériser la discrimination entre différents bruits de fond en fonction de l’énergie de seuil. Finalement, un outil d’analyse, la localisation des évènements, a été utilisé pour appliquer des coupures sur le volume dans le but d’améliorer la discrimination alpha-neutron.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des études supérieures en vue de l’obtention du grade de Docteur en psychologie (D.Psy.), option clinique

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce document est une version mise-à-jour du document "Lire la recherche utilisant des données qualitatives", décembre 2014 : http://hdl.handle.net/1866/11341

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des Arts et des Sciences en vue de l’obtention du grade de Doctorat en Psychologie option clinique (D.Psy.)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mise en garde : Ce mémoire a été réalisé grâce au soutien financier du Fonds d’éducation et de saine gouvernance de l'Autorité des marchés financiers. Les informations, opinions et avis exprimés n'engagent que la responsabilité de Marie-Annick Laurendeau.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Une étude récente auprès de 302 mathématiciens canadiens révèle un écart intriguant : tandis que 43% des sondés utilisent la programmation informatique dans leur recherche, seulement 18% indiquent qu'ils emploient cette technologie dans leur enseignement (Buteau et coll., 2014). La première donnée reflète le potentiel énorme qu'a la programmation pour faire et apprendre des mathématiques. La deuxième donnée a inspiré ce mémoire : pourquoi existe-t-il un tel écart ? Pour répondre à cette question, nous avons mené une étude exploratoire qui cherche à mieux comprendre la place de la programmation dans la recherche et la formation en mathématiques au niveau universitaire. Des entrevues semi-dirigées ont été conduites avec 14 mathématiciens travaillant dans des domaines variés et à différentes universités à travers le pays. Notre analyse qualitative nous permet de décrire les façons dont ces mathématiciens construisent des programmes informatiques afin d'accomplir plusieurs tâches (p.e., simuler des phénomènes réels, faire des mathématiques « expérimentales », développer de nouveaux outils puissants). Elle nous permet également d'identifier des moments où les mathématiciens exposent leurs étudiants à certains éléments de ces pratiques en recherche. Nous notons toutefois que les étudiants sont rarement invités à concevoir et à écrire leurs propres programmes. Enfin, nos participants évoquent plusieurs contraintes institutionnelles : le curriculum, la culture départementale, les ressources humaines, les traditions en mathématiques, etc. Quelques-unes de ces contraintes, qui semblent limiter l'expérience mathématique des étudiants de premier cycle, pourraient être revues.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le droit de propriété, théoriquement absolu, est restreint dans le cadre de la copropriété divise étant donné le contexte individuel et collectif dans lequel il s’exerce. En fait, l’intérêt collectif peut lui imposer des restrictions, mais à certaines conditions. L’une d’entre elles, essentielle, est le respect de la destination de l’immeuble. Or, la notion de destination de l'immeuble ne fait l'objet d'aucune disposition législative permettant de la définir. Afin de préciser cette notion, deux conceptions ont été développées. La première est à l’effet qu’on doit tenir compte, dans la recherche de la destination de l'immeuble, de ses caractères et de sa situation. La deuxième prévoit plutôt qu'il faut distinguer ces trois éléments. Même si la première thèse est majoritairement admise en jurisprudence, nous croyons que les tribunaux interprètent trop largement cette notion, qui devrait être mieux circonscrite. Après une revue de la littérature et une analyse jurisprudentielle, nous développerons notre propre conception de la notion de destination, qui sera une voie mitoyenne entre les deux conceptions établies, et proposerons des améliorations quant à la rédaction de cette clause dans la déclaration de copropriété.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Robert Bourbeau, département de démographie (Directeur de recherche) Marianne Kempeneers, département de sociologie (Codirectrice de recherche)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les technologies de stimulations transcrâniennes – tel que la tDCS ou la TMS – présentent à l’heure actuelle d’intéressantes perspectives thérapeutiques, tout comme diverses améliorations cognitives chez le sujet « non-malade » dont découlent des applications neuroamélioratives, plus ou moins imminentes, en dehors du cadre clinique ou investigatoire. Est proposé ici d’analyser les risques associés à ces applications, détournées des objectifs premiers de recherche, et aux préoccupations éthiques qui les accompagnent (autonomie, justice, intégrité physique), via un concept généralement associé aux recherches avec des perspectives de sécurité nationale et associées à un niveau de risque élevé. Révisant la trivialité d’une définition dichotomique aux usages « bons » et « mauvais », est proposé d’étendre le concept de « double-usage » pour l’appliquer à la neuroamélioration comme un mésusage de la recherche en neurosciences. Faisant référence au conflit entre, d’une part, le respect de la liberté académique et, d’autre part, la protection de la sécurité et de la santé publique, ce concept s’avère être un outil diagnostique pertinent pour l’évaluation des risques associés à l’usage mélioratif desdites technologies, et plus particulièrement de la tDCS, afin d’alimenter la réflexion sur la régulation de ces dispositifs en amont de leur utilisation, selon un principe de précaution inhérent au double-usage de la recherche. Ce concept permet ainsi de réfléchir à la mise en place d’une gouvernance proactive et contextualisée impliquant une responsabilité partagée d’un large panel d’acteurs, nécessaire au vu des avancées rapides du domaine des neurosciences et de l’imminence de l’arrivée sur le marché de ces dispositifs.