582 resultados para Procédure multipartie
Resumo:
Using legal instruments and council records, this article analyses the legal rules, the procedure and the cost of licensing a private building work as well the practices used by competent authorities to sanction and solve illegal actions in Lisbon through the modern age.
Resumo:
The aim of these pages is to offer a view on the Jewish regulation of Lucena (Cordoba) in the 11th century. Through the legal texts originating from this place, which were conserved in the Cairo Genizah and later guarded at the Bodleian Library in Oxford, it is possible to observe the legal procedure of this group in relation to two essential issues: its consideration of dhimmis, due to its belonging to the ’ahl al-Kitāb or ‘people of the Book’ category, and the internal regulation of the community according to the problems emerged in it. In this article, therefore, the more frequent legal matters derived from the litigations conserved from this city until these dates will be studied.
Resumo:
Certaines recherches ont investigué le traitement visuel de bas et de plus hauts niveaux chez des personnes neurotypiques et chez des personnes ayant un trouble du spectre de l’autisme (TSA). Cependant, l’interaction développementale entre chacun de ces niveaux du traitement visuel n’est toujours pas bien comprise. La présente thèse a donc deux objectifs principaux. Le premier objectif (Étude 1) est d’évaluer l’interaction développementale entre l’analyse visuelle de bas niveaux et de niveaux intermédiaires à travers différentes périodes développementales (âge scolaire, adolescence et âge adulte). Le second objectif (Étude 2) est d’évaluer la relation fonctionnelle entre le traitement visuel de bas niveaux et de niveaux intermédiaires chez des adolescents et des adultes ayant un TSA. Ces deux objectifs ont été évalué en utilisant les mêmes stimuli et procédures. Plus précisément, la sensibilité de formes circulaires complexes (Formes de Fréquences Radiales ou FFR), définies par de la luminance ou par de la texture, a été mesurée avec une procédure à choix forcés à deux alternatives. Les résultats de la première étude ont illustré que l’information locale des FFR sous-jacents aux processus visuels de niveaux intermédiaires, affecte différemment la sensibilité à travers des périodes développementales distinctes. Plus précisément, lorsque le contour est défini par de la luminance, la performance des enfants est plus faible comparativement à celle des adolescents et des adultes pour les FFR sollicitant la perception globale. Lorsque les FFR sont définies par la texture, la sensibilité des enfants est plus faible comparativement à celle des adolescents et des adultes pour les conditions locales et globales. Par conséquent, le type d’information locale, qui définit les éléments locaux de la forme globale, influence la période à laquelle la sensibilité visuelle atteint un niveau développemental similaire à celle identifiée chez les adultes. Il est possible qu’une faible intégration visuelle entre les mécanismes de bas et de niveaux intermédiaires explique la sensibilité réduite des FFR chez les enfants. Ceci peut être attribué à des connexions descendantes et horizontales immatures ainsi qu’au sous-développement de certaines aires cérébrales du système visuel. Les résultats de la deuxième étude ont démontré que la sensibilité visuelle en autisme est influencée par la manipulation de l’information locale. Plus précisément, en présence de luminance, la sensibilité est seulement affectée pour les conditions sollicitant un traitement local chez les personnes avec un TSA. Cependant, en présence de texture, la sensibilité est réduite pour le traitement visuel global et local. Ces résultats suggèrent que la perception de formes en autisme est reliée à l’efficacité à laquelle les éléments locaux (luminance versus texture) sont traités. Les connexions latérales et ascendantes / descendantes des aires visuelles primaires sont possiblement tributaires d’un déséquilibre entre les signaux excitateurs et inhibiteurs, influençant ainsi l’efficacité à laquelle l’information visuelle de luminance et de texture est traitée en autisme. Ces résultats supportent l’hypothèse selon laquelle les altérations de la perception visuelle de bas niveaux (local) sont à l’origine des atypies de plus hauts niveaux chez les personnes avec un TSA.
Resumo:
L’imagerie musicale involontaire (IMIN) est un phénomène mental extrêmement commun. Il peut être défini en tant que type d’imagerie mentale musicale qui devient consciente sans effort ou intentionnalité et qui n’est pas pathologique. La forme la plus connue d’IMIN est le « ver d’oreille », qui se présente généralement comme un court extrait musical tournant en boucle en tête et dont on se débarrasse difficilement. L’objectif principal de la présente thèse est d’investiguer les mécanismes cognitifs sous-tendant le phénomène puisque, malgré l’intérêt répandu dans les médias populaires, son étude expérimentale est récente et un modèle intégré n’a pas encore été proposé. Dans la première étude, l’induction expérimentale a été tentée et les caractéristiques des images mentales d’épisodes d’IMIN ont été investiguées. Dans le laboratoire, des chansons accrocheuses (versus des proverbes) ont été présentées répétitivement aux participants qui devaient ensuite les chanter le plus fidèlement possible. Ils ont par après quitté le laboratoire, une enregistreuse numérique en mains, avec la consigne d’enregistrer une reproduction vocale la plus fidèle possible de ce qu’ils avaient en tête lors de tous leurs épisodes d’IMIN sur une période de quatre jours, ainsi que de décrire leur timbre. L’expérience a été répétée deux semaines plus tard. Douze des dix-huit participants du groupe expérimental ont rapporté des pièces induites comme épisodes d’IMIN, ce qui confirme l’efficacité de la procédure d’induction. La tonalité et le tempo des productions ont ensuite été analysés et comparés à ceux des pièces originales. Similairement pour les épisodes d’IMIN induits et les autres, les tempi produits et, dans une moindre mesure pour les non-musiciens, les tonalités étaient proches des originaux. Le timbre décrit était généralement une version simplifiée de l’original (un instrument et/ou une voix). Trois études se sont ensuite intéressées au lien entre le potentiel d’IMIN et la mémorabilité. Dans une étude préliminaire, 150 chansons du palmarès francophone radiophonique ont été évaluées en ligne par 164 participants, sur leur niveau de familiarité, d’appréciation et de potentiel d’IMIN. Les pièces ont ensuite été divisées en groupes de stimuli à faible et à fort potentiel d’IMIN, qui ont été utilisés dans une tâche typique de rappel libre/reconnaissance, premièrement avec des francophones (pour qui les pièces étaient familières) et ensuite avec des non-francophones (pour qui les pièces étaient non-familières). Globalement, les pièces à fort potentiel d’IMIN étaient mieux rappelées et reconnues que les pièces à faible potentiel. Une dernière étude a investigué l’impact de la variabilité inter-stimulus du timbre sur les résultats précédents, en demandant à une chanteuse d’enregistrer les lignes vocales des pièces et en répétant l’expérience avec ces nouveaux stimuli. La différence précédemment observée entre les stimuli à fort et à faible potentiel d’IMIN dans la tâche de reconnaissance a ainsi disparu, ce qui suggère que le timbre est une caractéristique importante pour le potentiel d’IMIN. En guise de conclusion, nous suggérons que les phénomènes mentaux et les mécanismes cognitifs jouant un rôle dans les autres types de souvenirs involontaires peuvent aussi s’appliquer à l’IMIN. Dépendamment du contexte, la récupération mnésique des pièces peut résulter de la répétition en mémoire à court terme, de l’amorçage à court et long terme ou de l’indiçage provenant de stimuli dans l’environnement ou les pensées. Une des plus importantes différences observables entre l’IMIN et les autres souvenirs involontaires est la répétition. Nous proposons que la nature même de la musique, qui est définie par la répétition à un niveau micro- et macro-structurel en est responsable.
Resumo:
Ce projet illustre cinq études, mettant l'emphase sur le développement d'une nouvelle approche diagnostique cardiovasculaire afin d'évaluer le niveau d’oxygène contenu dans le myocarde ainsi que sa fonction microvasculaire. En combinant une séquence de résonance magnétique cardiovasculaire (RMC) pouvant détecter le niveau d’oxygène (OS), des manœuvres respiratoires ainsi que des analyses de gaz artériels peuvent être utilisés comme procédure non invasive destinée à induire une réponse vasoactive afin d’évaluer la réserve d'oxygénation, une mesure clé de la fonction vasculaire. Le nombre de tests diagnostiques cardiaques prescrits ainsi que les interventions, sont en pleine expansion. L'imagerie et tests non invasifs sont souvent effectués avant l’utilisation de procédures invasives. L'imagerie cardiaque permet d’évaluer la présence ou absence de sténoses coronaires, un important facteur économique dans notre système de soins de santé. Les techniques d'imagerie non invasives fournissent de l’information précise afin d’identifier la présence et l’emplacement du déficit de perfusion chez les patients présentant des symptômes d'ischémie myocardique. Néanmoins, plusieurs techniques actuelles requièrent la nécessité de radiation, d’agents de contraste ou traceurs, sans oublier des protocoles de stress pharmacologiques ou physiques. L’imagerie RMC peut identifier une sténose coronaire significative sans radiation. De nouvelles tendances d’utilisation de RMC visent à développer des techniques diagnostiques qui ne requièrent aucun facteur de stress pharmacologiques ou d’agents de contraste. L'objectif principal de ce projet était de développer et tester une nouvelle technique diagnostique afin d’évaluer la fonction vasculaire coronarienne en utilisant l' OS-RMC, en combinaison avec des manœuvres respiratoires comme stimulus vasoactif. Ensuite, les objectifs, secondaires étaient d’utilisés l’OS-RMC pour évaluer l'oxygénation du myocarde et la réponse coronaire en présence de gaz artériels altérés. Suite aux manœuvres respiratoires la réponse vasculaire a été validée chez un modèle animal pour ensuite être utilisé chez deux volontaires sains et finalement dans une population de patients atteints de maladies cardiovasculaires. Chez le modèle animal, les manœuvres respiratoires ont pu induire un changement significatif, mesuré intrusivement par débit sanguin coronaire. Il a été démontré qu’en présence d'une sténose coronarienne hémodynamiquement significative, l’OS-RMC pouvait détecter un déficit en oxygène du myocarde. Chez l’homme sain, l'application de cette technique en comparaison avec l'adénosine (l’agent standard) pour induire une vasodilatation coronarienne et les manœuvres respiratoires ont pu induire une réponse plus significative en oxygénation dans un myocarde sain. Finalement, nous avons utilisé les manœuvres respiratoires parmi un groupe de patients atteint de maladies coronariennes. Leurs myocardes étant altérées par une sténose coronaire, en conséquence modifiant ainsi leur réponse en oxygénation. Par la suite nous avons évalué les effets des gaz artériels sanguins sur l'oxygénation du myocarde. Ils démontrent que la réponse coronarienne est atténuée au cours de l’hyperoxie, suite à un stimuli d’apnée. Ce phénomène provoque une réduction globale du débit sanguin coronaire et un déficit d'oxygénation dans le modèle animal ayant une sténose lorsqu’un supplément en oxygène est donné. En conclusion, ce travail a permis d'améliorer notre compréhension des nouvelles techniques diagnostiques en imagerie cardiovasculaire. Par ailleurs, nous avons démontré que la combinaison de manœuvres respiratoires et l’imagerie OS-RMC peut fournir une méthode non-invasive et rentable pour évaluer la fonction vasculaire coronarienne régionale et globale.
Resumo:
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.
Resumo:
Contexte: La césarienne est une procédure chirurgicale qui survient dans plus du quart des accouchements en Amérique du Nord. Les techniques chirurgicales de fermeture de l’utérus lors de la césarienne sont variées, influencent la cicatrisation et le risque de complications chez la femme à court et long terme. Il a été suggéré que la fermeture en un plan barré augmentait le risque de rupture de l’utérus et de défaut de cicatrisation de l’utérus. Cependant, en l’absence d’un haut niveau d’évidence, cette technique est toujours pratiquée au Canada et en Amérique du Nord. Objectif: Comparer l’impact des différentes techniques de fermeture de l’utérus lors de la césarienne sur les complications maternelles à court et long terme. Méthode : Trois revues systématiques et méta-analyses d’études observationnelles ou d’essais randomisés contrôlés (ECR) ont été réalisées. La prévalence des défauts de cicatrisation et les issues à court et long terme ont été comparées entre les techniques de fermeture de l’utérus. Par la suite, un essai randomisé contrôlé a évalué trois techniques de fermeture de l’utérus : un plan barré, deux plans barrés et deux plans non barrés excluant la déciduale, chez 81 femmes avec une césarienne primaire élective à ≥ 38 semaines de grossesse. L’épaisseur du myomètre résiduel a été mesurée six mois après la césarienne à l’aide d’une échographie transvaginale et comparée par un test t de Student. Résultats : Les résultats des revues systématiques et méta-analyses ont montré que 37% à 59% des femmes présentaient un défaut de cicatrisation de l’utérus après leur césarienne. Concernant les complications à court terme, les types de fermeture de l’utérus étudiés sont comparables, à l’exception de la fermeture en un plan barré qui est associée à un temps opératoire plus court que celle en deux plans (-6.1 minutes, 95% intervalle de confiance (IC) -8.7 à -3.4, p<0.001). Les fermetures de l’utérus en un plan barré sont associées à plus de risque de rupture utérine qu’une fermeture en deux plans barrés (rapport de cote 4.96; IC 95%: 2.58–9.52, P< 0.001). L’ECR a également démontré que la fermeture de l’utérus en un plan barré était associée à une épaisseur du myomètre résiduel plus mince que la fermeture en deux plans non barrés excluant la déciduale (3.8 ± 1.6 mm vs 6.1 ± 2.2 mm; p< 0.001). Finalement, aucune différence significative n’a été détectée concernant la fréquence des points d’hémostases entre les techniques (p=1.000). Conclusion : Lors d’une césarienne élective primaire à terme, une fermeture en deux plans non barrés est associée à un myomètre plus épais qu’une fermeture en un plan barré, sans augmenter le recours à des points d’hémostase. De plus, il est suggéré que la fermeture en deux plans réduirait le risque de rupture utérine lors d’une prochaine grossesse. Finalement, la fermeture chez les femmes en travail doit être plus étudiée.
Resumo:
Des métastases cérébrales vont se développer chez 10 à 30% des patients atteints de cancer. La radiothérapie fait partie des possibilités de traitement, et ceci même si les dommages induits au cerveau par des rayonnements ionisants sont potentiellement importants. Nous proposons l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf) sur le rat pour mieux comprendre ces effets. Ce mémoire traite de la mise en place d’un tel protocole d’IRMf. Les principaux points abordés sont la préparation de l’animal, les différentes insultes et stimulations sensorielles possibles ainsi que la méthode d’acquisition. Notre protocole d’insulte hyperoxique permet de déceler des dommages physiques d’origine vasculaire suite à une intense irradiation dans le cerveau du rat. Toutefois, la même procédure associée à une stimulation mécanique de la patte arrière de l’animal n’amène pas de changement observable à l’IRMf sur un sujet sain. Malgré tout, ce type de stimulation induit une réponse respiratoire, même sous anesthésie d’isoflurane. Une telle méthode n’est donc pas adéquate à l’étude d’animaux anesthésiés, surtout ceux dont la réponse cérébrale pourra avoir été réduite par une irradiation. Quelques améliorations et modifications du protocole seraient possiblement à même de permettre une mesure reproductible de la réponse d’IRMf à une stimulation sensorielle. Le présent mémoire décrit les tentatives de mise en place d’une stimulation sensorielle donnant lieu à une activation IRMf reproductible et localisée. De plus, un protocole de traitement d’image adapté au petit animal ainsi qu’une implémentation de la méthode keyhole ont été mis en place. L’insulte hyperoxique et ses effets sur le cerveau de rat ont été explorés plus en détail.
Resumo:
Au Québec, les écoles sont situées dans une région où l’aléa sismique est considéré modéré à élevé. La majorité de ces écoles ont été construites avant les années 70 et comportent de la maçonnerie non armée (MNA) qui est un matériau à ductilité faible. Au cours des séismes passés notamment celui du Saguenay en 1988, il semble que les structures comportant de la MNA constituent le type de structure le plus dangereux vis-à-vis du séisme. La performance sismique de ces écoles est alors mise en question d’autant plus que la plupart ont été construites avant l’introduction des normes parasismiques. Ce projet de recherche traite de la vulnérabilité sismique des écoles comportant de la MNA et s’inscrit à la suite d’un projet d’élaboration d’une procédure de classification des écoles dans l’Est du Canada. Il découle d’une initiative du Réseau Canadien pour la Recherche Parasismique (RCRP) qui vise des procédures d’analyse de ces bâtiments en vue d’un programme de réhabilitation d’écoles, lancé par le Ministère de l’Éducation, des Loisirs et du Sport (MELS). Une procédure à trois niveaux pour l’évaluation de la vulnérabilité sismique des bâtiments dans l’Est du Canada a été élaborée par différents chercheurs de l’Université de Sherbrooke, de l’École de Technologie Supérieure et de l’Université McGill [Nollet et al., 2012]. Partant des conclusions de cette étude et d’une revue de littérature, les efforts de la recherche développeront un niveau d’évaluation sismique complète des écoles types au Québec comportant de la MNA comme murs de remplissage. Les objectifs seront donc de proposer un modèle adéquat du comportement sismique de la MNA issue de la littérature, étudier l’influence de la non linéarité de la MNA sur la réponse dynamique de ces écoles ainsi que l’influence de l’irrégularité en plan sur la réponse dynamique de ces écoles. La démarche comprend le développement des modèles Opensees [Mazzoni et al., 2004] et la modélisation des écoles génériques sur le logiciel OpenSees (l’un des défi majeur du projet), la validation des modèles à partir de valeurs empirique et expérimentale et enfin les analyses modales et temporelles.
Resumo:
Abstract : Since at least the 1980's, a growing number of companies have set up an ethics or a compliance program within their organization. However, in the field of study of business management, there is a paucity of research studies concerning these management systems. This observation warranted the present investigation of one company's compliance program. Compliance programs are set up so that individuals working within an organization observe the laws and regulations which pertain to their work. This study used a constructivist grounded theory methodology to examine the process by which a specific compliance program, that of Siemens Canada Limited, was implemented throughout its organization. In conformity with this methodology, instead of proceeding with the investigation in accordance to a particular theoretical framework, the study established a number of theoretical constructs used strictly as reference points. The study's research question was stated as: what are the characteristics of the process by which Siemens' compliance program integrated itself into the existing organizational structure and gained employee acceptance? Data consisted of documents produced by the company and of interviews done with twenty-four managers working for Siemens Canada Limited. The researcher used QSR-Nvivo computer assisted software to code transcripts and to help with analyzing interviews and documents. Triangulation was done by using a number of analysis techniques and by constantly comparing findings with extant theory. A descriptive model of the implementation process grounded in the experience of participants and in the contents of the documents emerged from the data. The process was called "Remolding"; remolding being the core category having emerged. This main process consisted of two sub-processes identified as "embedding" and "appraising." The investigation was able to provide a detailed account of the appraising process. It identified that employees appraised the compliance program according to three facets: the impact of the program on the employee's daily activities, the relationship employees have with the local compliance organization, and the relationship employees have with the corporate ethics identity. The study suggests that a company who is entertaining the idea of implementing a compliance program should consider all three facets. In particular, it suggests that any company interested in designing and implementing a compliance program should pay particular attention to its corporate ethics identity. This is because employee's acceptance of the program is influenced by their comparison of the company's ethics identity to their local ethics identity. Implications of the study suggest that personnel responsible for the development and organizational support of a compliance program should understand the appraisal process by which employees build their relationship with the program. The originality of this study is that it points emphatically that companies must pay special attention in developing a corporate ethics identify which is coherent, well documented and well explained.
Resumo:
Chaque année, des adolescents québécois sont soumis à des sanctions judiciaires en raison de leurs actes de délinquance (Association des centres jeunesse du Québec, 2015). Plusieurs recherches récentes indiquent que ces jeunes sont plus à risque de répondre aux critères diagnostiques d’au moins un trouble mental que les adolescents de la population générale (Fazel, Doll, & Langstrom, 2008; Vermeiren, 2003). Les jeunes contrevenants sont également plus nombreux à présenter des symptômes et des troubles intériorisés (Abram et al., 2014; Skowyra & Cocozza, 2007; Teplin et al., 2006), soit des comportements anxieux, dépressifs, de retrait et des plaintes somatiques (Achenbach & McConaughy, 1992). Cette thèse contribue aux connaissances quant aux symptômes et aux troubles intériorisés chez les jeunes contrevenants en traitant de deux sujets peu étudiés : les problèmes intériorisés des jeunes contrevenants associés aux gangs de rue et l’identification de ces problèmes par les intervenants travaillant auprès d’eux. Le premier article composant la thèse présente une étude descriptive où le nombre de symptômes et de troubles intériorisés a été comparé entre des jeunes contrevenants révélant être ou avoir été associés aux gangs de rue (n = 62) et des jeunes contrevenants n’ayant pas révélé une telle association (n = 41). Les symptômes et les troubles intériorisés ont été mesurés à l’aide d’un questionnaire et d’une entrevue diagnostique semi-structurée. Les résultats indiquent que les jeunes associés aux gangs présentent davantage de symptômes de dépression-anxiété et sont plus nombreux à répondre aux critères diagnostiques d’au moins un trouble anxieux que ceux qui n’y sont pas associés. De plus, près de la moitié des participants, associés ou non aux gangs de rue, répondent aux critères diagnostiques d’au moins un trouble intériorisé. Cette forte prévalence de troubles intériorisés soulève l’importance que ceux-ci soient dépistés par les intervenants travaillant auprès des jeunes contrevenants. En effet, considérant que les troubles mentaux non traités entrainent de la souffrance, nuisent au fonctionnement et sont liés à des taux de tentatives de suicide, d’arrestations et de récidive plus élevés (Abram et al., 2014; Cottle, Lee, & Heilbrun, 2001; Hoeve, McReynolds, & Wasserman, 2013; Schonfeld et al., 1997), leur identification s’avère primordiale afin qu’ils puissent bénéficier des services dont ils auraient besoin. Le deuxième article de cette thèse est une étude exploratoire où sont recensés les symptômes et les troubles intériorisés mentionnés par les intervenants au rapport prédécisionnel (RPD) de 22 participants. La concordance entre ces symptômes et troubles intériorisés et ceux autorapportés par les jeunes contrevenants par un questionnaire et une entrevue semi-structurée est ensuite évaluée. Plusieurs symptômes et troubles intériorisés seraient « sous-identifiés » dans le RPD des jeunes contrevenants en comparaison de ce qui est révélé par les participants. Les résultats de ces deux études laissent croire qu’il serait pertinent d’offrir de la formation aux intervenants quant aux symptômes et aux troubles intériorisés chez les adolescents, d’implanter une procédure de dépistage systématique des troubles mentaux, et d’inclure les symptômes et les troubles intériorisés dans les programmes de prévention et de traitement offerts aux jeunes contrevenants.
Resumo:
Les autorités gouvernementales canadiennes se sont données, depuis plus de 30 ans, une procédure pour évaluer les conséquences que les politiques, les plans ou les programmes fédéraux et provinciaux peuvent engendrer sur l’environnement. Si, avec le temps, l’évaluation a couvert une plus large définition de l’environnement pour intégrer les dimensions sociale et économique, la procédure d’évaluation environnementale stratégique est-elle pour autant adéquate? Y a-t-il un outil ou une méthode efficace qui pourrait améliorer son rendement? S’il est aujourd’hui accepté qu’un promoteur gouvernemental recherche l’acceptabilité sociale tout en mesurant les effets positifs et négatifs de son projet, ne pourrait-il pas adopter une méthodologie plus holistique et plus simple que la démarche d’identification et d’évaluation des impacts? C’est l’hypothèse qui sous-tend cet essai. L’objectif général de cet essai est de mener une réflexion sur l’utilisation de l’approche systémique dans l’élaboration de l’évaluation environnementale stratégique. En premier lieu, l’approche systémique sera étudiée de manière approfondie afin d’en faire ressortir ses bienfaits en matière de gestion de l’environnement. En second lieu, l’analyse de l’évaluation environnementale canadienne, américaine et européenne permettra de déceler les failles et les réussites dans la mise en place des plans, politiques et programmes. Finalement, une étude de cas sera utilisée pour valider l’hypothèse de travail. L’analyse révèle que l’utilisation de l’approche systémique dans le processus d’évaluation environnementale des plans, des politiques et des programmes est un outil judicieux et holistique hors pair. Non seulement cette méthode permet de tenir compte de toutes les préoccupations des parties prenantes, elle permet aussi de mieux cibler la problématique associée, d’adapter des mesures d’atténuation performantes et de mettre en oeuvre un programme de suivi efficace. Ces résultats démontrent le bénéfice d’utiliser une telle démarche dans ce processus rigoureux qu’est l’évaluation environnementale stratégique. En somme, l’utilisation de l’approche systémique dans l’élaboration de l’évaluation environnementale stratégique permettrait de mieux encadrer toutes les démarches visant à déceler les impacts positifs et négatifs sur l’environnement. Cet outil permettrait de satisfaire la volonté du gouvernement fédéral et des ministres promoteurs de promouvoir le développement de la société dans une perspective de développement durable.
Resumo:
Abstract: Highway bridges have great values in a country because in case of any natural disaster they may serve as lines to save people’s lives. Being vulnerable under significant seismic loads, different methods can be considered to design resistant highway bridges and rehabilitate the existing ones. In this study, base isolation has been considered as one efficient method in this regards which in some cases reduces significantly the seismic load effects on the structure. By reducing the ductility demand on the structure without a notable increase of strength, the structure is designed to remain elastic under seismic loads. The problem associated with the isolated bridges, especially with elastomeric bearings, can be their excessive displacements under service and seismic loads. This can defy the purpose of using elastomeric bearings for small to medium span typical bridges where expansion joints and clearances may result in significant increase of initial and maintenance cost. Thus, supplementing the structure with dampers with some stiffness can serve as a solution which in turn, however, may increase the structure base shear. The main objective of this thesis is to provide a simplified method for the evaluation of optimal parameters for dampers in isolated bridges. Firstly, performing a parametric study, some directions are given for the use of simple isolation devices such as elastomeric bearings to rehabilitate existing bridges with high importance. Parameters like geometry of the bridge, code provisions and the type of soil on which the structure is constructed have been introduced to a typical two span bridge. It is concluded that the stiffness of the substructure, soil type and special provisions in the code can determine the employment of base isolation for retrofitting of bridges. Secondly, based on the elastic response coefficient of isolated bridges, a simplified design method of dampers for seismically isolated regular highway bridges has been presented in this study. By setting objectives for reduction of displacement and base shear variation, the required stiffness and damping of a hysteretic damper can be determined. By modelling a typical two span bridge, numerical analyses have followed to verify the effectiveness of the method. The method has been used to identify equivalent linear parameters and subsequently, nonlinear parameters of hysteretic damper for various designated scenarios of displacement and base shear requirements. Comparison of the results of the nonlinear numerical model without damper and with damper has shown that the method is sufficiently accurate. Finally, an innovative and simple hysteretic steel damper was designed. Five specimens were fabricated from two steel grades and were tested accompanying a real scale elastomeric isolator in the structural laboratory of the Université de Sherbrooke. The test procedure was to characterize the specimens by cyclic displacement controlled tests and subsequently to test them by real-time dynamic substructuring (RTDS) method. The test results were then used to establish a numerical model of the system which went through nonlinear time history analyses under several earthquakes. The outcome of the experimental and numerical showed an acceptable conformity with the simplified method.
Resumo:
Les prescrits didactiques et le programme d’Histoire et éducation à la citoyenneté (Gouvernement du Québec, 2007) défendent actuellement des pratiques d’enseignement visant l’apprentissage de la pensée historique. Un apprentissage qui est défini comme une activité intellectuelle inscrite dans une démarche de résolution de problème, permettant de développer une compréhension plus approfondie des réalités sociales dans la perspective du temps (Martineau, 2010). Toutefois, les recherches indiquent que cet apprentissage serait variablement intégré aux pratiques effectives dans les classes d’histoire (Levstik, 2008), notamment au Québec (Boutonnet, 2013; Moisan, 2010). À cet égard, il semblerait y avoir un écart entre les finalités auxquelles les enseignants adhèrent et les situations d’enseignement-apprentissage qu’ils mettent en œuvre. Pour mettre en lumière cette variabilité, nous avons réalisé une recherche exploratoire visant à décrire les pratiques d’enseignement en histoire en troisième et en quatrième années du secondaire. À cette fin, nous avons eu recours aux théories des représentations sociales (Moscovici, 1976) et de l’attribution (Deschamps, 1996) permettant de recenser, dans le savoir commun des enseignants d’histoire, des éléments relatifs à l’apprentissage de la pensée historique. Ce savoir a été analysé en fonction de quatre types de variables : l’opinion, les dispositifs d’enseignement, les attributions et les attitudes individuelles à l’égard de l’apprentissage de la pensée historique. Les données ont été recueillies auprès d’un échantillon de convenance de huit enseignants, et elles ont été analysées dans le cadre d’une approche lexicométrique. La procédure de cueillette a consisté à réaliser quatre entrevues auprès de chacun de ces enseignants, lors des phases préactive et postactive de trois situations d’enseignement-apprentissage, pour identifier par la récurrence des discours des propriétés invariantes. Les données ont été interprétées en fonction de deux types de fondement théorique, relatifs aux théories de l’apprentissage, illustrant différentes manières d’apprendre à penser historiquement, et aux modèles de pratique, décrivant des dispositifs séquencés d’enseignement associés à cet apprentissage. De manière générale, les résultats révèlent la prédominance des théories de l’apprentissage de sens commun, socioconstructiviste et cognitivo-rationaliste, ainsi que des modèles de pratique fondés sur la conceptualisation et le tâtonnement empirique. Même si cette recherche ne peut être considérée représentative, elle a comme principale retombée scientifique de livrer une description de pratiques nuancée, exprimant différentes modulations de l’apprentissage de la pensée historique au niveau des pratiques. Cette recherche contribue à alimenter la réflexion auprès des chercheurs, des formateurs et des enseignants qui pourront mettre en perspective les pratiques actuelles relatives à un apprentissage des plus importants en histoire.
Resumo:
Dans ce mémoire, nous expliquons d'abord que les principaux critères d'évaluation d'un plan-média qui sont utilisés en pratique sont inappropriés parce qu'ils reposent sur des hypothèses irréalistes concernant le comportement des rendements marginaux des expositions à la publicité. Les distributions d'exposition à la publicité sont ensuite utilisées pour modéliser l'impact de différents plans-média en assumant l'existence de rendements marginaux décroissants en publicité. La performance de ce premier modèle est comparée à celle d'un autre modèle où l'impact est fonction de la taille de l'auditoire-cible des différents supports publicitaires et du nombre d'insertions dans chacun de ceux-ci. Nous trouvons une forte relation entre les deux modèles, ce qui suggère que les données qui alimentent le deuxième modèle et qui sont immédiatement disponibles pour tous les types de médias peuvent remplacer les distributions d'exposition dont l'estimation est beaucoup plus complexe. Nous dérivons enfin une règle de répartition du budget de publicité qui permet de déterminer de façon analytique le meilleur plan-média sans avoir recours à la procédure exhaustive d'essai et erreur qui est utilisée dans la plupart des modèles-média.