975 resultados para coming
Resumo:
Les systèmes statistiques de traduction automatique ont pour tâche la traduction d’une langue source vers une langue cible. Dans la plupart des systèmes de traduction de référence, l'unité de base considérée dans l'analyse textuelle est la forme telle qu’observée dans un texte. Une telle conception permet d’obtenir une bonne performance quand il s'agit de traduire entre deux langues morphologiquement pauvres. Toutefois, ceci n'est plus vrai lorsqu’il s’agit de traduire vers une langue morphologiquement riche (ou complexe). Le but de notre travail est de développer un système statistique de traduction automatique comme solution pour relever les défis soulevés par la complexité morphologique. Dans ce mémoire, nous examinons, dans un premier temps, un certain nombre de méthodes considérées comme des extensions aux systèmes de traduction traditionnels et nous évaluons leurs performances. Cette évaluation est faite par rapport aux systèmes à l’état de l’art (système de référence) et ceci dans des tâches de traduction anglais-inuktitut et anglais-finnois. Nous développons ensuite un nouvel algorithme de segmentation qui prend en compte les informations provenant de la paire de langues objet de la traduction. Cet algorithme de segmentation est ensuite intégré dans le modèle de traduction à base d’unités lexicales « Phrase-Based Models » pour former notre système de traduction à base de séquences de segments. Enfin, nous combinons le système obtenu avec des algorithmes de post-traitement pour obtenir un système de traduction complet. Les résultats des expériences réalisées dans ce mémoire montrent que le système de traduction à base de séquences de segments proposé permet d’obtenir des améliorations significatives au niveau de la qualité de la traduction en terme de le métrique d’évaluation BLEU (Papineni et al., 2002) et qui sert à évaluer. Plus particulièrement, notre approche de segmentation réussie à améliorer légèrement la qualité de la traduction par rapport au système de référence et une amélioration significative de la qualité de la traduction est observée par rapport aux techniques de prétraitement de base (baseline).
Resumo:
Les réseaux sociaux accueillent chaque jour des millions d’utilisateurs. Les usagers de ces réseaux, qu’ils soient des particuliers ou des entreprises, sont directement affectés par leur fulgurante expansion. Certains ont même développé une certaine dépendance à l’usage des réseaux sociaux allant même jusqu’à transformer leurs habitudes de vie de tous les jours. Cependant, cet engouement pour les réseaux sociaux n’est pas sans danger. Il va de soi que leur expansion favorise et sert également l’expansion des attaques en ligne. Les réseaux sociaux constituent une opportunité idéale pour les délinquants et les fraudeurs de porter préjudice aux usagers. Ils ont accès à des millions de victimes potentielles. Les menaces qui proviennent des amis et auxquelles font face les utilisateurs de réseaux sociaux sont nombreuses. On peut citer, à titre d’exemple, la cyberintimidation, les fraudes, le harcèlement criminel, la menace, l’incitation au suicide, la diffusion de contenu compromettant, la promotion de la haine, l’atteinte morale et physique, etc. Il y a aussi un « ami très proche » qui peut être très menaçant sur les réseaux sociaux : soi-même. Lorsqu’un utilisateur divulgue trop d’informations sur lui-même, il contribue sans le vouloir à attirer vers lui les arnaqueurs qui sont à la recherche continue d’une proie. On présente dans cette thèse une nouvelle approche pour protéger les utilisateurs de Facebook. On a créé une plateforme basée sur deux systèmes : Protect_U et Protect_UFF. Le premier système permet de protéger les utilisateurs d’eux-mêmes en analysant le contenu de leurs profils et en leur proposant un ensemble de recommandations dans le but de leur faire réduire la publication d’informations privées. Le second système vise à protéger les utilisateurs de leurs « amis » dont les profils présentent des symptômes alarmants (psychopathes, fraudeurs, criminels, etc.) en tenant compte essentiellement de trois paramètres principaux : le narcissisme, le manque d’émotions et le comportement agressif.
Resumo:
La fibrillation auriculaire (FA) est une arythmie touchant les oreillettes. En FA, la contraction auriculaire est rapide et irrégulière. Le remplissage des ventricules devient incomplet, ce qui réduit le débit cardiaque. La FA peut entraîner des palpitations, des évanouissements, des douleurs thoraciques ou l’insuffisance cardiaque. Elle augmente aussi le risque d'accident vasculaire. Le pontage coronarien est une intervention chirurgicale réalisée pour restaurer le flux sanguin dans les cas de maladie coronarienne sévère. 10% à 65% des patients qui n'ont jamais subi de FA, en sont victime le plus souvent lors du deuxième ou troisième jour postopératoire. La FA est particulièrement fréquente après une chirurgie de la valve mitrale, survenant alors dans environ 64% des patients. L'apparition de la FA postopératoire est associée à une augmentation de la morbidité, de la durée et des coûts d'hospitalisation. Les mécanismes responsables de la FA postopératoire ne sont pas bien compris. L'identification des patients à haut risque de FA après un pontage coronarien serait utile pour sa prévention. Le présent projet est basé sur l'analyse d’électrogrammes cardiaques enregistrées chez les patients après pontage un aorte-coronaire. Le premier objectif de la recherche est d'étudier si les enregistrements affichent des changements typiques avant l'apparition de la FA. Le deuxième objectif est d'identifier des facteurs prédictifs permettant d’identifier les patients qui vont développer une FA. Les enregistrements ont été réalisés par l'équipe du Dr Pierre Pagé sur 137 patients traités par pontage coronarien. Trois électrodes unipolaires ont été suturées sur l'épicarde des oreillettes pour enregistrer en continu pendant les 4 premiers jours postopératoires. La première tâche était de développer un algorithme pour détecter et distinguer les activations auriculaires et ventriculaires sur chaque canal, et pour combiner les activations des trois canaux appartenant à un même événement cardiaque. L'algorithme a été développé et optimisé sur un premier ensemble de marqueurs, et sa performance évaluée sur un second ensemble. Un logiciel de validation a été développé pour préparer ces deux ensembles et pour corriger les détections sur tous les enregistrements qui ont été utilisés plus tard dans les analyses. Il a été complété par des outils pour former, étiqueter et valider les battements sinusaux normaux, les activations auriculaires et ventriculaires prématurées (PAA, PVA), ainsi que les épisodes d'arythmie. Les données cliniques préopératoires ont ensuite été analysées pour établir le risque préopératoire de FA. L’âge, le niveau de créatinine sérique et un diagnostic d'infarctus du myocarde se sont révélés être les plus importants facteurs de prédiction. Bien que le niveau du risque préopératoire puisse dans une certaine mesure prédire qui développera la FA, il n'était pas corrélé avec le temps de l'apparition de la FA postopératoire. Pour l'ensemble des patients ayant eu au moins un épisode de FA d’une durée de 10 minutes ou plus, les deux heures précédant la première FA prolongée ont été analysées. Cette première FA prolongée était toujours déclenchée par un PAA dont l’origine était le plus souvent sur l'oreillette gauche. Cependant, au cours des deux heures pré-FA, la distribution des PAA et de la fraction de ceux-ci provenant de l'oreillette gauche était large et inhomogène parmi les patients. Le nombre de PAA, la durée des arythmies transitoires, le rythme cardiaque sinusal, la portion basse fréquence de la variabilité du rythme cardiaque (LF portion) montraient des changements significatifs dans la dernière heure avant le début de la FA. La dernière étape consistait à comparer les patients avec et sans FA prolongée pour trouver des facteurs permettant de discriminer les deux groupes. Cinq types de modèles de régression logistique ont été comparés. Ils avaient une sensibilité, une spécificité et une courbe opérateur-receveur similaires, et tous avaient un niveau de prédiction des patients sans FA très faible. Une méthode de moyenne glissante a été proposée pour améliorer la discrimination, surtout pour les patients sans FA. Deux modèles ont été retenus, sélectionnés sur les critères de robustesse, de précision, et d’applicabilité. Autour 70% patients sans FA et 75% de patients avec FA ont été correctement identifiés dans la dernière heure avant la FA. Le taux de PAA, la fraction des PAA initiés dans l'oreillette gauche, le pNN50, le temps de conduction auriculo-ventriculaire, et la corrélation entre ce dernier et le rythme cardiaque étaient les variables de prédiction communes à ces deux modèles.
Resumo:
Ce texte traite de l’évolution des modes alternatifs de résolution de conflit (MARC) en ligne. L’auteur dresse un historique des différents projets de médiation en ligne en passant par ses « débuts » en 1999 lorsque l’Online Ombuds Office (OOO) fut approché pour l’élaboration d’un système de médiation pour les clients d’eBay, par SquareTrade.com, par les règles de l’ICANN, par Cybersettle et Clicknsettle, etc. Il expose ensuite le courrant que prendra la cybermédiation et le cyberarbitrage dans les années à venir. Ainsi, le médium informatique devient lentement une « quatrième partie » aux discussions et peut venir en aide aux arbitres et aux médiateurs dans la gestion et la communication d’informations. De plus les fonctions d’affichages propres aux ordinateurs, c’est-à-dire la possibilité d’incorporer images, graphiques, plans, etc., devront être mis à l’œuvre par les systèmes de MARC en ligne si ceux-ci sont destinés à prendre de l’expansion dans d’autres domaines que ceux leur étant présentement réservés.
Resumo:
L'adoption des technologies de réseaux sans-fil de type WiFi a connu une croissance impressionnante ces dernières années. Cette vague de popularité ne semble pas vouloir s'estomper, il est estimé que 84 millions d’appareils seront vendus en 2007 totalisant des revenus de 3.7 milliards de dollars. Devant cette forte demande, les fabricants d’appareils de télécommunications ont songés à développer des produits encore plus performants. Appuyé par la norme IEEE 802.16, un consortium du nom de WiMAX Forum a regroupé 350 membres dans le but de promouvoir des produits standardisés portant la marque WiMAX. À l'inverse des premières versions du WiFi, le WiMAX sera doté de mécanismes de sécurité beaucoup plus fiables. L'avantage du WiMAX, comme pour plusieurs de ses concurrents, repose sur sa capacité d'opérer sur une large bande de fréquences, réglementées ou non. Sa portée théorique de 50 Km et son débit escompté de 75 Mbit/s a capté l'attention des fournisseurs de services qui cherchent à réduire leurs coûts d'exploitations mais également de divers organismes gouvernementaux qui espèrent améliorer les services de communications dans les communautés des régions éloignées. Grâce à l'appui du ministre des Affaires indiennes et du nord canadien, le territoire du Nunavut a mis sur pied un réseau à large bande qui dessert actuellement l’ensemble de ses 29 communautés sur tout son territoire. La possibilité de couvrir une superficie de plusieurs kilomètres ramène à la surface le concept d’omniprésence ou de « Pervasive computing ». Cette notion représente l’intégration des technologies dans notre entourage afin de rendre nos interactions avec celle-ci plus naturelles. Nos déplacements dans cet environnement pourraient être facilités puisque les ordinateurs seraient en mesure de détecter et réagir à notre présence pour nous offrir des solutions personnalisées. Les déploiements de réseaux de type WiMAX sont déjà en cours dans plusieurs pays, d'après la situation actuelle du marché, il est envisageable de voir une forte adoption de cette forme de diffusion d’informations dans les prochaines années. Le présent document trace un résumé des applications liées au WiMAX et discute de certaines problématiques engendrées par ce type de réseau.
Resumo:
Faculté de Pharmacie
Resumo:
Ce mémoire prend la forme d’une réflexion critique sur le modèle proposé par Hosler afin d’expliquer les taux quantifiés d’étain et d’arsénique dans des objets de statut métalliques Mésoaméricains provenant principalement de l’Occident mésoaméricain et couvrant les deux phases de développement de la métallurgie mésoaméricaine. Ces objets font partie de la collection du Museo Regional de Guadalajara. Plus particulièrement, ce mémoire s’intéresse aux grelots mésoaméricains puisqu’ils représentent un élément important de la métallurgie préhispanique en Mésoamérique. Cette réflexion critique soulève plusieurs considérations techniques, méthodologiques, étymologiques, iconographiques, ethnohistoriques et logiques du modèle de Hosler relativement à la couleur des alliages constituant les grelots mésoaméricains. Les paramètres sur lesquels Hosler base son modèle sont questionnables à plusieurs niveaux. Ainsi, le fait que les niveaux d’arsenic ou d’étain observés dans les alliages cupriques de biens utilitaires sont généralement inférieurs à ceux quantifiés dans les alliages cupriques usités pour la fabrication de biens de statut de la Période 2 pourrait s’expliquer par le fait qu’il s’agit de deux méthodes de fabrication distinctes ayant des contraintes techniques différentes ou que ces artéfacts ont des paramètres et des fonctions distinctes. Les limites de l’association soleil-or, lune-argent y sont également exposées et un chapitre est consacré à la sonorité.
Resumo:
Ce mémoire de maîtrise s’intéresse à la scène musicale islandaise à travers le documentaire. La notion de scène désigne généralement un contexte spatial au sein duquel différents acteurs (musiciens, producteurs, promoteurs, amateurs de musique, etc.) partagent des intérêts à l’égard de la musique. Dans ce mémoire, elle est conceptualisée en combinant d’une part l’approche de Straw (1991) qui met l’accent sur l’aspect interactionnel et réticulaire de la scène et souligne le potentiel d’adaptation au changement de cet espace de sociabilité ; et d’autre part, celle de Bennett et Peterson (2004) qui insistent sur les différences d’échelles auxquelles se déploient les réseaux d’interactions que constituent les scènes locales, trans-locales et virtuelles. L’auteure y intègre aussi une réflexion géographique destinée à problématiser le caractère insulaire de l’Islande en tant qu’élément productif de la scène musicale qui s’y déploie. Pour ce faire, elle a recours aux propositions théoriques de Massey (2005) concernant l’espace comme construit à travers un ensemble hétérogène de trajectoires, des « stories-so-far » dont la co-présence et la simultanéité conférerait au lieu que serait, en l’occurrence, la scène islandaise, sa spécificité. Ce questionnement fait l’objet d’une exploration empirique à travers une série de documentaires s’intéressant, selon des modes différents (Nichols, 2001 ; 2010), à différents visages de la musique locale en Islande. Les représentations visuelles et auditives de l’Islande et de la musique islandaise que produisent ces documentaires constituent le discours qui fait l’objet de l’analyse. Inspirée de la perspective de Hall (1994 ; 1997), le discours est abordé en tant qu’unité significative socio-historiquement ancrée et composée d’énoncés. La démarche méthodologique adoptée consiste à examiner un corpus de documentaires pour en dégager les énoncés et, sur cette base, reconstituer les différentes trajectoires constitutives de la scène musicale islandaise ainsi mise en discours. L’analyse met en évidence cinq trajectoires (Monde ; Affinités ; Filiation ; Stéréotypie et authenticité ; Territorialité) ainsi que les différentes modalités de leur co-occurrence, points de rencontre ou de distanciation, à différentes échelles. Ce sont ces points de (non) rencontre qui constituent le lieu de la scène islandaise.
Resumo:
Il y a quelques décennies, l’émergence du discours de la promotion de la santé infléchissait un nouveau tournant à la santé publique, orientant sa pratique vers l’action communautaire, participative et intersectorielle. Parallèlement, au Québec, la réforme du système de santé de 2004 réorganisait le niveau de gouverne locale à travers la création des centres de santé et de services sociaux (CSSS). Ceux-ci doivent articuler les secteurs des soins et de la santé publique à travers un continuum de services qui va de la promotion de la santé aux soins palliatifs. Ces changements ont des implications majeures pour les acteurs de la santé et de la santé publique, qui doivent composer avec de nouveaux rôles professionnels et de nouvelles stratégies d’action. Le développement professionnel est considéré comme un levier potentiel pour soutenir ces changements. En 2009, une équipe de la Direction de la santé publique de l’Agence de santé et des services sociaux de Montréal concevait un programme de développement professionnel appelé le Laboratoire de promotion de la santé. Ce programme mise sur une approche d’apprentissage de groupe pour permettre aux professionnels des CSSS de développer de nouvelles compétences, une pratique réflexive ainsi que de nouvelles pratiques de promotion de la santé. Basée sur une méthodologie générale qualitative et une approche d’évaluation collaborative, cette thèse utilise plusieurs stratégies d’investigation afin d’évaluer le Laboratoire de promotion de la santé sous trois angles, qui renvoient à sa conceptualisation, à son implantation et à ses effets. Plus spécifiquement, elle vise à : (1) examiner la plausibilité de la théorie d’intervention du programme; (2) décrire et comprendre les processus d’apprentissage d’équipe ainsi que les facteurs qui les influencent; et (3) explorer, du point de vue des participants, les effets réflexifs du Laboratoire. Afin de répondre à ces objectifs, la thèse mobilise diverses perspectives théoriques liées à l’apprentissage individuel, d’équipe et organisationnel. Les résultats des analyses démontrent que : (1) malgré quelques améliorations possibles, le modèle du programme est généralement bien conçu pour parvenir aux résultats visés; (2) l’implantation de ce modèle dans deux sites a donné lieu à des processus d’apprentissage d’équipe différents, bien que conditionnés par des facteurs communs liés aux participants, à l’équipe, au contexte organisationnel et à l’implantation du programme; (3) tel que visé, les participants des deux sites ont développé de la réflexivité vis-à-vis leur pratique et leur rôle professionnel – cette réflexivité adoptant une fonction formative ou critique en regard de l’expérience professionnelle. Ces résultats soulignent le potentiel que représente l’évaluation de la théorie d’intervention pour améliorer la conceptualisation d’un programme de développement professionnel, ainsi que l’intérêt et la pertinence d’évaluer les processus d’apprentissage au niveau de l’équipe dans le cadre d’une approche collective de développement professionnel. De plus, ils appuient l’importance de l’apprentissage réflexif pour l’amélioration des pratiques et l’engagement social des professionnels. En ce sens, ils proposent différentes avenues qui ont le potentiel de consolider les capacités de la main-d’œuvre de santé publique et d’influer conséquemment sur son efficacité à améliorer la santé des collectivités dans le prochain siècle.
Resumo:
À la suite du dévoilement d’une agression sexuelle, l’examen médical est l’une des étapes importantes qui sont recommandées pour les enfants victimes, mais seulement certains d’entre eux le complètent. L’objectif de la présente étude est de vérifier si les enfants qui font l’examen anogénital à la suite du dévoilement d’agression sexuelle sont différents de ceux qui n’en font pas ainsi que de documenter les variables, notamment les caractéristiques de l’enfant, de la famille, de l’agresseur et de l’agression, qui pourraient prédire le fait de compléter cet examen. L’échantillon est composé de 211 enfants âgés de 6 à 13 ans recevant des services au Centre d’expertise Marie-Vincent. Une régression logistique binaire révèle que l’absence d’emploi de la mère (RC = 6,15), être victime d’une agression sexuelle très sévère (RC = 6,02), être victime d’un agresseur adulte (RC = 3,43) et provenir d’une famille monoparentale (RC = 2,89) contribuent à prédire si l’examen anogénital est réalisé ou pas à la suite du dévoilement. Les résultats confirment que les enfants complètent l’examen surtout afin de trouver des éléments de preuves et que parmi ceux qui pourraient en bénéficier pour leur bien-être, plusieurs ne sont pas rencontrés.
Resumo:
Le vieillissement de la population est un phénomène démographique auquel est confronté le Québec. Dans ce contexte, la protection des personnes inaptes et vulnérables, prendra de plus en plus d'importance au cours des prochaines années. Ces personnes doivent bénéficier d'une protection adéquate lors de l'ouverture d'un régime de protection à leur égard. Considérant que l'ouverture d'un régime de protection au majeur inapte est toujours le résultat d'une décision judiciaire, le greffier de la Cour supérieure du Québec a un rôle fondamental à jouer à l'occasion dans le processus judiciaire. À titre d'officier de justice, il a compétence pour prononcer le jugement d'ouverture du régime de protection. Par conséquent, le présent mémoire consiste à vérifier si les majeurs inaptes sont bien protégés par le rôle et les pouvoirs de l'officier de justice. Pour ce faire, le sujet à l'étude a fait l'objet d'une double approche. Dans un premier temps, le cadre juridique à l'intérieur duquel le greffier doit exécuter ses fonctions sera étudié. Dans un deuxième temps, les résultats et l'analyse d'une enquête empirique auprès des greffiers de la Cour supérieure du Québec seront exposés. Cette démarche permet une approche comparative entre la théorie et la pratique en la matière et permet de constater qu'il peut y avoir un écart entre les deux.
Resumo:
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.
Resumo:
To investigate the role of muscles in the development of adolescent idiopathic scoliosis (AIS), our group was initially interested in Duchenne muscular dystrophy (DMD) diseases where a muscular degeneration often leads to scoliosis. Few years ago the studies with those patients provided interesting results but were obtained only from few patients. To increase that number, the present project was initiated but recruitment of new DMD patients from Marie-Enfant hospital was found impossible. As an alternative, patients with Friedreich’s ataxia (FA) were recruited since they also suffer from a muscular deficiency which often induces a scoliosis. So, 4 FA patients and 4 healthy controls have been chosen to closely match the age, weight and body mass indexes (BMI) of the patients were enrolled in our experiments. As in the previous study, electromyography (EMG) activity of paraspinal muscles were recorded on each side of the spine during three types of contraction at 2 different maximum voluntary contractions (MVC). Moreover, the volume and skinfold thickness of these muscles were determined from ultrasound images (US) in order to facilitate the interpretation of EMG signals recorded on the skin surface. For the 3 FA right scoliotic patients, EMG activity was most of the time larger on the concave side of the deviation. The opposite was found for the 4th one (P4, left scoliosis, 32°) for whom EMG activity was larger on the convex side; it should however be noted that all his signals were of small amplitude. This was associated to a muscle weakness and a large skinfold thickness (12 mm) vs 7 mm for the 3 others. As for the paraspinal muscle volume, it was present on the convex side of P1, P3 and P4 and on the concave side for P2. As for skinfold thickness over this muscle, it was larger on the concave side for P1 and P2 and the opposite for P3 and P4. At the apex of each curve, the volume and skinfold thickness differences were the largest. Although the study covers only a small number of FA patients, the presence of larger EMG signals on the concave side of a spinal deformation is similar to pre-scoliotic DMD patients for whom the deformation is in its initial stage. It thus seems that our FA patients with more EMG activity on their concave side could see progression of their spinal deformation in the coming months in spite of their already important Cobb angle.
Resumo:
Avec la vague des départs à la retraite amorcée par la génération des baby-boomers, le marché du travail canadien traversera inéluctablement une période de transition. Le vide laissé par ces départs obligera de nombreuses industries à réajuster leur tir afin de ne pas être secouées par de trop fortes turbulences. À cet effet, l’impact des retraites n’aura pas la même ampleur pour chacune des branches d’activité. S’appuyant sur les données longitudinales de l’Enquête sur la dynamique du travail et du revenu de 1993 à 2010, cette recherche analyse les tendances au fil du temps et entre les industries en regard des départs d’emploi de carrière. Une attention particulière est aussi portée aux emplois de transition selon le secteur d’activité, afin de déterminer si cette pratique peut amoindrir les répercussions des départs d’emploi de carrière. Les résultats montrent que l’intensité des départs d’emploi de carrière s’accroit au cours de la période considérée et que d’importantes variations existent entre les travailleurs des diverses catégories d’industries examinées. L’industrie des services professionnels, scientifiques et techniques affiche la plus faible proportion de travailleurs ayant quitté un emploi de carrière (26 %). À l’autre extrémité du spectre, les travailleurs du secteur de l’hébergement et des services de restauration présentent la plus forte probabilité d’effectuer un départ d’emploi de carrière (47 %). Au chapitre des emplois de transition, les travailleurs en provenance l’industrie de la construction montrent la plus forte propension à oeuvrer au sein d’un tel type d’emploi. Si certaines industries se démarquent des autres, cela s’explique surtout en raison du comportement différentiel des travailleurs les plus âgés (55 à 64 ans).
Resumo:
Cette recherche tente de comprendre le rôle de la culture des nouveaux médias (Jenkins, 2006a) dans le processus d'affirmation qui mène au dévoilement de l'orientation sexuelle (aussi nommé « sortie du placard ») des jeunes gais, population souvent perçue en tant que vulnérable. Pour ce faire, une approche interprétative a été choisie ainsi qu'une méthode d'entrevues rétrospectives semi-structurées et axées sur la participation des jeunes gais en ligne, telle qu'abordée par Ito et al. (2010). Suite aux deux entrevues avec chacun des cinq participants, il semble que leur engagement en ligne soit influencé par leurs contextes hors ligne. Les résultats montrent le rôle des nouveaux médias dans la construction identitaire et la sortie du placard des participants, notamment via l'exploration des relations affectives, la création et la gestion de profils et leurs réflexions sur la culture néomédiatique et sur « être gai ». Toutefois, le cœur de la discussion est centré sur le processus de ce que j'appelle l'accueil de la différence. J'aborde et je discute alors des concepts tels que la différence (Hall, 1997)et la normativité sociale (Butler, 1990; Duggan, 2002).