947 resultados para Mélange de distributions khi-deux non centrées
Resumo:
L’objectif de la présente thèse est de générer des connaissances sur les contributions possibles d’une formation continue à l’évolution des perspectives et pratiques des professionnels de la santé buccodentaire. Prônant une approche centrée sur le patient, la formation vise à sensibiliser les professionnels à la pauvreté et à encourager des pratiques qui se veulent inclusives et qui tiennent compte du contexte social des patients. L’évaluation de la formation s’inscrit dans le contexte d’une recherche-action participative de développement d’outils éducatifs et de transfert des connaissances sur la pauvreté. Cette recherche-action aspire à contribuer à la lutte contre les iniquités sociales de santé et d’accès aux soins au Québec; elle reflète une préoccupation pour une plus grande justice sociale ainsi qu’une prise de position pour une santé publique critique fondée sur une « science des solutions » (Potvin, 2013). Quatre articles scientifiques, ancrés dans une philosophie constructiviste et dans les concepts et principes de l’apprentissage transformationnel (Mezirow, 1991), constituent le cœur de cette thèse. Le premier article présente une revue critique de la littérature portant sur l’enseignement de l’approche de soins centrés sur le patient. Prenant appui sur le concept d’une « épistémologie partagée », des principes éducatifs porteurs d’une transformation de perspective à l’égard de la relation professionnel-patient ont été identifiés et analysés. Le deuxième article de thèse s’inscrit dans le cadre du développement participatif d’outils de formation sur la pauvreté et illustre le processus de co-construction d’un scénario de court-métrage social réaliste portant sur la pauvreté et l’accès aux soins. L’article décrit et apporte une réflexion, notamment sur la dimension de co-formation entre les différents acteurs des milieux académique, professionnel et citoyen qui ont constitué le collectif À l’écoute les uns des autres. Nous y découvrons la force du croisement des savoirs pour générer des prises de conscience sur soi et sur ses préjugés. Les outils développés par le collectif ont été intégrés à une formation continue axée sur la réflexion critique et l’apprentissage transformationnel, et conçue pour être livrée en cabinet dentaire privé. Les deux derniers articles de thèse présentent les résultats d’une étude de cas instrumentale évaluative centrée sur cette formation continue et visant donc à répondre à l’objectif premier de cette thèse. Le premier consiste en une analyse des transformations de perspectives et d’action au sein d’une équipe de 15 professionnels dentaires ayant participé à la formation continue sur une période de trois mois. L’article décrit, entre autres, une plus grande ouverture, chez certains participants, sur les causes structurelles de la pauvreté et une plus grande sensibilité au vécu au quotidien des personnes prestataires de l’aide sociale. L’article comprend également une exploration des effets paradoxaux dans l’apprentissage, notamment le renforcement, chez certains, de perceptions négatives à l’égard des personnes prestataires de l’aide sociale. Le quatrième article fait état de barrières idéologiques contraignant la transformation des pratiques professionnelles : 1) l’identification à l’idéologie du marché privé comme véhicule d’organisation des soins; 2) l’attachement au concept d’égalité dans les pratiques, au détriment de l’équité; 3) la prédominance du modèle biomédical, contraignant l’adoption de pratiques centrées sur la personne et 4) la catégorisation sociale des personnes prestataires de l’aide sociale. L’analyse des perceptions, mais aussi de l’expérience vécue de ces barrières démontre comment des facteurs systémiques et sociaux influent sur le rapport entre professionnel dentaire et personne prestataire de l’aide sociale. Les conséquences pour la recherche, l’éducation dentaire, le transfert des connaissances, ainsi que pour la régulation professionnelle et les politiques de santé buccodentaire, sont examinées à partir de cette perspective.
Resumo:
Les organismes de promotion gourmands sont bien implantés au Québec. En effet, à l’aide des regroupements de producteurs locaux, la majorité des régions touristiques possèdent leur marque de commerce régionale gourmande favorisant le développement économique des régions du Québec. Sachant que ces organismes de promotions gourmands sont de propriété collective et qu’ils disposent tous d’un cahier de charges pouvant être plus ou moins exigeant d’une région à l’autre, une recension des écrits a permis d’établir les principales attentes qu’entretiennent les divers segments de marché (i.e., clientèle locale, clientèle touristique, clientèle originaire de la région promotionnelle de l’organisme et clientèle non originaire de la région promotionnelle de l’organisme) envers ceux-ci. L’objectif est de vérifier si ces divers types de clientèles entretiennent des attentes différentes vis-à-vis les entreprises membres d’un organisme de promotion gourmand, en plus d’analyser si ces diverses clientèles évaluent la performance des entreprises membres de Gaspésie Gourmande de la même manière. Un questionnaire a été mis à la disposition des répondants sur le site internent de Gaspésie Gourmande. Les résultats indiquent qu’il y a quelques différences entre ces divers types de clientèles quant aux variables étudiées. De plus, une analyse des écarts « performances perçues – attentes » selon la méthodologie du paradigme de confirmation / disconfirmation des attentes a permis de savoir si Gaspésie Gourmande répond aux attentes des divers segments de marché.
Resumo:
Les convertisseurs de longueur d’onde sont essentiels pour la réalisation de réseaux de communications optiques à routage en longueur d’onde. Dans la littérature, les convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur constituent une solution extrêmement intéressante, et ce, en raison de leurs nombreuses caractéristiques nécessaires à l’implémentation de tels réseaux de communications. Avec l’émergence des systèmes commerciaux de détection cohérente, ainsi qu’avec les récentes avancées dans le domaine du traitement de signal numérique, il est impératif d’évaluer la performance des convertisseurs de longueur d’onde, et ce, dans le contexte des formats de modulation avancés. Les objectifs de cette thèse sont : 1) d’étudier la faisabilité des convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur pour les formats de modulation avancés et 2) de proposer une technique basée sur le traitement de signal numérique afin d’améliorer leur performance. En premier lieu, une étude expérimentale de la conversion de longueur d’onde de formats de modulation d’amplitude en quadrature (quadrature amplitude modulation - QAM) est réalisée. En particulier, la conversion de longueur d’onde de signaux 16-QAM à 16 Gbaud et 64-QAM à 5 Gbaud dans un amplificateur optique à semi-conducteur commercial est réalisée sur toute la bande C. Les résultats démontrent qu’en raison des distorsions non-linéaires induites sur le signal converti, le point d’opération optimal du convertisseur de longueur d’onde est différent de celui obtenu lors de la conversion de longueur d’onde de formats de modulation en intensité. En effet, dans le contexte des formats de modulation avancés, c’est le compromis entre la puissance du signal converti et les non-linéarités induites qui détermine le point d’opération optimal du convertisseur de longueur d’onde. Les récepteurs cohérents permettent l’utilisation de techniques de traitement de signal numérique afin de compenser la détérioration du signal transmis suite à sa détection. Afin de mettre à profit les nouvelles possibilités offertes par le traitement de signal numérique, une technique numérique de post-compensation des distorsions induites sur le signal converti, basée sur une analyse petit-signal des équations gouvernant la dynamique du gain à l’intérieur des amplificateurs optiques à semi-conducteur, est développée. L’efficacité de cette technique est démontrée à l’aide de simulations numériques et de mesures expérimentales de conversion de longueur d’onde de signaux 16-QAM à 10 Gbaud et 64-QAM à 5 Gbaud. Cette méthode permet d’améliorer de façon significative les performances du convertisseur de longueur d’onde, et ce, principalement pour les formats de modulation avancés d’ordre supérieur tel que 64-QAM. Finalement, une étude expérimentale exhaustive de la technique de post-compensation des distorsions induites sur le signal converti est effectuée pour des signaux 64-QAM. Les résultats démontrent que, même en présence d’un signal à bruité à l’entrée du convertisseur de longueur d’onde, la technique proposée améliore toujours la qualité du signal reçu. De plus, une étude du point d’opération optimal du convertisseur de longueur d’onde est effectuée et démontre que celui-ci varie en fonction des pertes optiques suivant la conversion de longueur d’onde. Dans un réseau de communication optique à routage en longueur d’onde, le signal est susceptible de passer par plusieurs étages de conversion de longueur d’onde. Pour cette raison, l’efficacité de la technique de post-compensation est démontrée, et ce pour la première fois dans la littérature, pour deux étages successifs de conversion de longueur d’onde de signaux 64-QAM à 5 Gbaud. Les résultats de cette thèse montrent que les convertisseurs de longueur d’ondes basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur, utilisés en conjonction avec des techniques de traitement de signal numérique, constituent une technologie extrêmement prometteuse pour les réseaux de communications optiques modernes à routage en longueur d’onde.
Resumo:
Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Chaque année, des adolescents québécois sont soumis à des sanctions judiciaires en raison de leurs actes de délinquance (Association des centres jeunesse du Québec, 2015). Plusieurs recherches récentes indiquent que ces jeunes sont plus à risque de répondre aux critères diagnostiques d’au moins un trouble mental que les adolescents de la population générale (Fazel, Doll, & Langstrom, 2008; Vermeiren, 2003). Les jeunes contrevenants sont également plus nombreux à présenter des symptômes et des troubles intériorisés (Abram et al., 2014; Skowyra & Cocozza, 2007; Teplin et al., 2006), soit des comportements anxieux, dépressifs, de retrait et des plaintes somatiques (Achenbach & McConaughy, 1992). Cette thèse contribue aux connaissances quant aux symptômes et aux troubles intériorisés chez les jeunes contrevenants en traitant de deux sujets peu étudiés : les problèmes intériorisés des jeunes contrevenants associés aux gangs de rue et l’identification de ces problèmes par les intervenants travaillant auprès d’eux. Le premier article composant la thèse présente une étude descriptive où le nombre de symptômes et de troubles intériorisés a été comparé entre des jeunes contrevenants révélant être ou avoir été associés aux gangs de rue (n = 62) et des jeunes contrevenants n’ayant pas révélé une telle association (n = 41). Les symptômes et les troubles intériorisés ont été mesurés à l’aide d’un questionnaire et d’une entrevue diagnostique semi-structurée. Les résultats indiquent que les jeunes associés aux gangs présentent davantage de symptômes de dépression-anxiété et sont plus nombreux à répondre aux critères diagnostiques d’au moins un trouble anxieux que ceux qui n’y sont pas associés. De plus, près de la moitié des participants, associés ou non aux gangs de rue, répondent aux critères diagnostiques d’au moins un trouble intériorisé. Cette forte prévalence de troubles intériorisés soulève l’importance que ceux-ci soient dépistés par les intervenants travaillant auprès des jeunes contrevenants. En effet, considérant que les troubles mentaux non traités entrainent de la souffrance, nuisent au fonctionnement et sont liés à des taux de tentatives de suicide, d’arrestations et de récidive plus élevés (Abram et al., 2014; Cottle, Lee, & Heilbrun, 2001; Hoeve, McReynolds, & Wasserman, 2013; Schonfeld et al., 1997), leur identification s’avère primordiale afin qu’ils puissent bénéficier des services dont ils auraient besoin. Le deuxième article de cette thèse est une étude exploratoire où sont recensés les symptômes et les troubles intériorisés mentionnés par les intervenants au rapport prédécisionnel (RPD) de 22 participants. La concordance entre ces symptômes et troubles intériorisés et ceux autorapportés par les jeunes contrevenants par un questionnaire et une entrevue semi-structurée est ensuite évaluée. Plusieurs symptômes et troubles intériorisés seraient « sous-identifiés » dans le RPD des jeunes contrevenants en comparaison de ce qui est révélé par les participants. Les résultats de ces deux études laissent croire qu’il serait pertinent d’offrir de la formation aux intervenants quant aux symptômes et aux troubles intériorisés chez les adolescents, d’implanter une procédure de dépistage systématique des troubles mentaux, et d’inclure les symptômes et les troubles intériorisés dans les programmes de prévention et de traitement offerts aux jeunes contrevenants.
Resumo:
Abstract : The structural build-up of fresh cement-based materials has a great impact on their structural performance after casting. Accordingly, the mixture design should be tailored to adapt the kinetics of build-up given the application on hand. The rate of structural build-up of cement-based suspensions at rest is a complex phenomenon affected by both physical and chemical structuration processes. The structuration kinetics are strongly dependent on the mixture’s composition, testing parameters, as well as the shear history. Accurate measurements of build-up rely on the efficiency of the applied pre-shear regime to achieve an initial well-dispersed state as well as the applied stress during the liquid-solid transition. Studying the physical and chemical mechanisms of build-up of cement suspensions at rest can enhance the fundamental understanding of this phenomenon. This can, therefore, allow a better control of the rheological and time-dependent properties of cement-based materials. The research focused on the use of dynamic rheology in investigating the kinetics of structural build-up of fresh cement pastes. The research program was conducted in three different phases. The first phase was devoted to evaluating the dispersing efficiency of various disruptive shear techniques. The investigated shearing profiles included rotational, oscillatory, and combination of both. The initial and final states of suspension’s structure, before and after disruption, were determined by applying a small-amplitude oscillatory shear (SAOS). The difference between the viscoelastic values before and after disruption was used to express the degree of dispersion. An efficient technique to disperse concentrated cement suspensions was developed. The second phase aimed to establish a rheometric approach to dissociate and monitor the individual physical and chemical mechanisms of build-up of cement paste. In this regard, the non-destructive dynamic rheometry was used to investigate the evolutions of both storage modulus and phase angle of inert calcium carbonate and cement suspensions. Two independent build-up indices were proposed. The structural build-up of various cement suspensions made with different cement contents, silica fume replacement percentages, and high-range water reducer dosages was evaluated using the proposed indices. These indices were then compared to the well-known thixotropic index (Athix.). Furthermore, the proposed indices were correlated to the decay in lateral pressure determined for various cement pastes cast in a pressure column. The proposed pre-shearing protocol and build-up indices (phases 1 and 2) were then used to investigate the effect of mixture’s parameters on the kinetics of structural build-up in phase 3. The investigated mixture’s parameters included cement content and fineness, alkali sulfate content, and temperature of cement suspension. Zeta potential, calorimetric, spectrometric measurements were performed to explore the corresponding microstructural changes in cement suspensions, such as inter-particle cohesion, rate of Brownian flocculation, and nucleation rate. A model linking the build-up indices and the microstructural characteristics was developed to predict the build-up behaviour of cement-based suspensions The obtained results showed that oscillatory shear may have a greater effect on dispersing concentrated cement suspension than the rotational shear. Furthermore, the increase in induced shear strain was found to enhance the breakdown of suspension’s structure until a critical point, after which thickening effects dominate. An effective dispersing method is then proposed. This consists of applying a rotational shear around the transitional value between the linear and non-linear variations of the apparent viscosity with shear rate, followed by an oscillatory shear at the crossover shear strain and high angular frequency of 100 rad/s. Investigating the evolutions of viscoelastic properties of inert calcite-based and cement suspensions and allowed establishing two independent build-up indices. The first one (the percolation time) can represent the rest time needed to form the elastic network. On the other hand, the second one (rigidification rate) can describe the increase in stress-bearing capacity of formed network due to cement hydration. In addition, results showed that combining the percolation time and the rigidification rate can provide deeper insight into the structuration process of cement suspensions. Furthermore, these indices were found to be well-correlated to the decay in the lateral pressure of cement suspensions. The variations of proposed build-up indices with mixture’s parameters showed that the percolation time is most likely controlled by the frequency of Brownian collisions, distance between dispersed particles, and intensity of cohesion between cement particles. On the other hand, a higher rigidification rate can be secured by increasing the number of contact points per unit volume of paste, nucleation rate of cement hydrates, and intensity of inter-particle cohesion.
Resumo:
Récemment, beaucoup d’efforts ont été investis afin de développer des modulateurs sur silicium pour les télécommunications optiques et leurs domaines d’applications. Ces modulateurs sont utiles pour les centres de données à courte portée et à haut débit. Ainsi, ce travail porte sur la caractérisation de deux types de modulateurs à réseau de Bragg intégré sur silicium comportant une jonction PN entrelacée dont le but est de réaliser une modulation de la longueur d’onde de Bragg par le biais de l’application d’un tension de polarisation inverse réalisant une déplétion des porteurs au sein du guide d’onde. Pour le premier modulateur à réseau de Bragg, la période de la jonction PN est différente de celle du réseau de Bragg tandis que le deuxième modulateur à réseau de Bragg a la période de sa jonction PN en accord avec celle du réseau de Bragg. Ces différences apporteront un comportement différent du modulateur impliquant donc une transmission de données de qualité différente et c’est ce que nous cherchons à caractériser. L’avantage de ce modulateur à réseau de Bragg est qu’il est relativement simple à designer et possède un réseau de Bragg uniforme dont on connaît déjà très bien les caractéristiques. La première étape dans la caractérisation de ces modulateurs fut de réaliser des mesures optiques, uniquement, afin de constater la réponse spectrale en réflexion et en transmission. Par la suite, nous sommes passé par l’approche usuelle, c’est à dire en réalisant des mesures DC sur les modulateurs. Ce mémoire montre également les résultats pratiques sur le comportement des électrodes et de la jonction PN. Mais il rend compte également des résultats de la transmission de données de ces modulateurs par l’utilisation d’une modulation OOK et PAM-4 et permet de mettre en évidence les différences en terme d’efficacité de modulation de ces deux modulateurs. Nous discutons alors de la pertinence de ce choix de design par rapport à ce que l’on peut trouver actuellement dans la littérature.
Resumo:
Au Canada, en 2015, il était estimé que 78 000 personnes allaient mourir d’un cancer, représentant 30 % de tous les décès et faisant de celui-ci la première cause de mortalité. De plus, 196 900 nouveaux cas de cancers seraient découverts au cours de cette même année (Canadian Cancer Society’s Advisory Committee on Cancer Statistics. Canadian Cancer Statistics 2015. Toronto, ON : Canadian Cancer Society; 2015). L’intégrité du génome est chaque jour menacée par des conditions environnementales qui endommagent l’ADN (ultraviolets, produits chimiques divers, etc.). Parmi les différents types de lésions, l’un des plus délétères et pouvant mener au cancer est la cassure double-brin (CDB). Celle-ci peut être réparée suivant deux mécanismes majeurs : la jonction des extrémités non homologues (Non-Homologous End-Joining ou NHEJ) ou la Recombinaison Homologue (RH). Cette dernière, prépondérante pendant les phases S/G2, consiste en la réparation d’une CDB grâce à l’utilisation d’une chromatide soeur comme modèle, permettant une réparation fidèle du dommage. La RH est sous la dépendance de diverses protéines, dont RAD51, PALB2 et BRCA2. Ces deux dernières sont connues pour être mutées dans les cancers du sein et des ovaires. Ainsi, la compréhension de l’implication de chaque acteur dans la RH est un objectif fondamental dans la lutte contre le cancer et constitue l’objectif général de cette thèse. En 2012, une étude a montré qu’une nouvelle protéine, APRIN (Androgen-induced PRoliferation INhibitor), appartenant au complexe cohésine, interagissait avec BRCA2 et jouait un rôle dans la RH. Les rôles précis d’APRIN dans ce mécanisme restaient toutefois à être définis. Le projet principal de cette thèse repose sur la caractérisation fonctionnelle d’APRIN dans la réparation par RH. Nous révélons qu’APRIN aurait un rôle spécifique et indépendant de celui de la cohésine dans la RH, et pourrait agir à diverses étapes cruciales de ce mécanisme. De plus, nos données montrent que le niveau d’expression d’APRIN pourrait être un marqueur de prédiction dans le cancer ovarien. Étant donné qu’APRIN interagit aussi avec PALB2, autre partenaire essentiel de BRCA2, nous avons également étudié et caractérisé les fonctions de divers mutants de PALB2. Nous faisons ainsi la découverte inattendue d’un nouveau phénotype induit par une troncation de cette protéine associée à certains cancers agressifs. Ainsi, cette thèse apporte des informations supplémentaires et indispensables à la compréhension de la réparation de l’ADN par RH et de la survenue de certains cancers.
Resumo:
Dans le contexte où les routes non revêtues sont susceptibles de subir des charges importantes, une méthode rigoureuse pour la conception de ces chaussées basée sur des principes mécanistes-empiriques et sur le comportement mécanique des sols support est souhaitable. La conception mécaniste combinée à des lois d’endommagement permet l’optimisation des structures de chaussées non revêtues ainsi que la réduction des coûts de construction et d’entretien. Le but de ce projet est donc la mise au point d’une méthode de conception mécaniste-empirique adaptée aux chaussées non revêtues. Il a été question tout d’abord de mettre au point un code de calcul pour la détermination des contraintes et des déformations dans la chaussée. Ensuite, des lois d’endommagement empiriques pour les chaussées non revêtues ont été développées. Enfin, les méthodes de calcul ont permis la création d’abaques de conception. Le développement du code de calcul a consisté en une modélisation de la chaussée par un système élastique multi-couches. La modélisation a été faite en utilisant la transformation d’Odemark et les équations de Boussinesq pour le calcul des déformations sous la charge. L’élaboration des fonctions de transfert empiriques adaptées aux chaussées non revêtues a également été effectuée. Le développement des fonctions de transfert s’est fait en deux étapes. Tout d’abord, l’établissement de valeurs seuil d’orniérage considérant des niveaux jugés raisonnables de conditions fonctionnelle et structurale de la chaussée. Ensuite, le développement de critères de déformation admissible en associant les déformations théoriques calculées à l’aide du code de calcul à l’endommagement observé sur plusieurs routes en service. Les essais ont eu lieu sur des chaussées typiques reconstituées en laboratoire et soumises à un chargement répété par simulateur de charge. Les chaussées ont été instrumentées pour mesurer la déformation au sommet du sol d’infrastructure et les taux d’endommagements ont été mesurés au cours des essais.
Resumo:
En 1983, un « nouveau » type de logiciels que nous avons appelé « idéateur » est apparu sur le marché de la micro-informatique. Ces logiciels combinent les facilités du traitement de textes avec l'utilisation particulière du « chaînage » de texte. Ce chaînage permet entre autre les manipulations suivantes du texte; classer, mettre en ordre prioritaire, sous-catégoriser des ensembles, lancer les items au hasard, effacer, déplacer ou copier un ou des items, etc. (Pour plus de détails, voir le chapitre 1.2 et les annexes 1 à 3). Après une étude pour situer le cadre de notre recherche (voir le chapitre II) et la traduction du logiciel MaxThink, nous avons introduit cet idéateur dans une classe de français correctif, de niveau collégial. Nous avons choisis ces sujets parce ces étudiant-e-s se servaient déjà de l'ordinateur à l'intérieur des cours et qu'ils (elles) avaient intérêt (pensions-nous) à utiliser l’idéateur pour améliorer leur français. Tous ces sujets ont eu à suivre le cours sur la manipulation de MaxThink. Un design expérimental de catégorie « semi-contrôlée » a été mis en place pour isoler l'influence des trois instruments servant à la composition ; l'idéateur (MaxThink), un traitement de texte traditionnel (Editexte) et le crayon/papier. Le pré-test et le post-test consistant à composer sur un thème déterminé était à chaque fois précédé d'un brainstorming afin de générer une liste d'idées". Par la suite, les textes ont été soumis à trois juges qui ont eu à coter la cohérence globale individuelle pré-test/post-test et la cohérence de groupe au pré-test ainsi qu'au post-test. Deux analyses statistiques non-paramétriques utiles pour un nombre restreint de sujets (trois sous-groupes de quatre sujets) ont été utilisées: analyse de variance (formule KRUSKAL-WALLIS) et analyse des probabilités d'occurrence des distributions (formule HODGES-LEHMANN). En conclusion, nos recommandations tiennent compte de l'analyse statistique des résultats et des commentaires des étudiant-e-s.
Resumo:
Les gouvernements des pays industrialisés occidentaux ont constaté, au cours des années 70, un accroissement des abandons scolaires et une augmentation du taux de chômage chez les jeunes. La solution généralement appliquée fut alors une injection massive de fonds pour des programmes de préparation à l'emploi pour les jeunes sans emploi et les jeunes adultes devenus chômeurs. C'est ce que nous révèlent les rapports présentés lors de la conférence internationale sur "Le passage des jeunes de l'enseignement obligatoire à la vie active" tenue à Salzbourg (Autriche) en avril 1983 par l'Organisation de coopération et de développement économique (OCDE, 1983a). Les mesures adoptées ont pris l'aspect de formations d'appoint, de programmes de création d'emploi, de recherche d'emploi, d'expérience de travail ou de formation en emploi. Dans son enquête sur "Les études et le travail vus par les jeunes", le Centre pour la recherche et l'innovation dans l'enseignement (OCDE, 1983b) déplore cependant le fait que les pouvoirs publics aient accordé l'essentiel de leur attention à une minorité de jeunes soulevant des problèmes d'ordre social et politique les plus visibles et les plus urgents, au détriment d'une majorité de jeunes éprouvant des difficultés moins apparentes mais aussi importantes. […]
Resumo:
Cette étude de cas a pour but de vérifier, chez des enfants autistes, l'effet de l'intégration en milieu scolaire régulier sur la fréquence d'émissions des comportements d'isolement social, de ceux reliés aux troubles de la communication verbale et non verbale ainsi que les comportements stéréotypés. Deux enfants autistes, un garçon de quatre ans et une fillette de cinq ans, ont participé à cette étude. La fréquence d'émission des comportements mentionnés ci-haut a été observée à la maison, en classe spéciale ainsi qu'en classe régulière à l'aide d'une grille conçue spécialement pour les enfants autistes (EGA 111). La collecte d'informations a été effectuée à des périodes précises soit avant l'intégration scolaire (maison 1), au début de l'intégration (phase 1), un mois après l'intégration (phase 2) et deux mois après l'intégration (phase 3) enfin à la maison (maison 2). Vingt heures d'observation ont été collectées au total auprès de chaque enfant Une analyse graphique est utilisée pour présenter les résultats obtenus durant les différentes phases d'observation. Celle-ci est assortie d'une analyse non paramétrique de randomisation pour vérifier si la fréquentation d'un groupe de pairs régulier peut contribuer à diminuer significativement les problèmes de communication, d'émission de comportements stéréotypés et d'isolement social. Sauf une exception, les résultats obtenus démontrent que la fréquence d'émission des comportements d'isolement social, de ceux reliés aux troubles de la communication verbale et non verbale et des comportements stéréotypés diminue au cours de l'intégration scolaire en groupes réguliers et ce, tant en classe spéciale qu'en classe régulière chez chacun des enfants. Il est aussi remarquable de constater que les taux horaires d'émission de comportements d'isolement social, de communication verbale et non verbale ainsi que des activités motrices stéréotypées sont beaucoup plus fréquents en classe spéciale comparativement à la classe régulière. Ces résultats suggèrent que l'intégration au groupe de pairs régulier contribue à diminuer la fréquence d'émission de comportements susceptibles de nuire à la qualité de l'adaptation sociale et à l'apprentissage de nouvelles habiletés et qu'il y a généralisation des acquis en classe spéciale et à la maison.
Resumo:
Dans ses champs de recherches ou d'application scientifiques, la géographie se situe au carrefour de nombreuses autres sciences. Tout au cours de son évolution, ce voisinage l'a amené à s'interroger sur le bien-fondé de ses propres assises scientifiques. Bénéficiant, d'une part, de l'apport de d'autres disciplines et donnant naissance, d'autre part, à des sciences autonomes (sociologie, géomorphologie), elle conserve son approche globale et ses applications concrètes. En respectant cette dualité, mon intérêt m'a porté à aborder à la fois la problématique liée aux programmes d'amélioration de quartier et leurs impacts sur les villes moyennes du Québec. Ces petites villes constituent un champ d'investigation encore peu explorée. Cette étude est d'autant plus pertinente que le département de géographie et le centre de recherche en aménagement régional de l'Université de Sherbrooke y ont trouvé leur vocation particulière. Le choix des villes repose sur deux (2) raisons: elles devaient faire l'objet d'un P.A.Q., posséder des caractéristiques particulières dues à son rôle et à sa localisation; six (6) centres urbaines ont été retenus sur cette base : Hull, ville administrative et pôle administratif dans la région de l'Outaouais ; St-Hyacinthe, ville satellite faisant partie des sept (7) villes de la couronne montréalaise ; Longueuil, ville banlieue en expansion accélérée ; Lachine, ville historique située sur l'Île de Montréal ; Sherbrooke, ville à caractère manufacturier et pôle régional dans l’Estrie ; Drummondville, ville à caractère manufacturier et pôle régional dans la région centre du Québec. Notre démarche est relativement simple. Afin de vérifier si les objectifs des P.A.Q. et les solutions véhiculées dans les programmes de même nature correspondent aux situations que nous aurons nous-mêmes observées, il nous faut analyser tout d'abord les caractéristiques physiques et socio-économiques des quartiers centraux, leur structure et leurs relations avec l'ensemble de leur agglomération respective. Cette description fera l'objet des premier et deuxième chapitres. Pour compléter cette analyse, nous croyons qu'il est nécessaire de composer une seule image avec l'ensemble de ces quartiers pour obtenir l'approche globale que nous désirons. Nous utiliserons l'analyse factorielle pour obtenir une définition de ces quartiers. Nous pourrons ainsi vérifier si elle est contenue dans problématique liée aux programmes de rénovation urbaine. Cette redéfinition constitue la démarche principale du troisième chapitre […].
Observations hydrologiques à deux heures d'intervalle, en une station fixe, dans la Baie de Nhatrang
Resumo:
Hydrologic observations at every 2 hours interval, have been carried out at one non-anchored station in the Nhatrang Bay during daytime of January 31, 1961. A thin surface layer of 20m thickness, susceptible to the temperature diurnal variation, has been found. ln addition, a weak internal movement of water mass, at 50-60m depth, seems to be found also below the station.