999 resultados para Objectifs pénaux
Resumo:
Cet article explore sous l’angle éthique les attentes, surprises et déceptions vécues par les étudiants inscrits à un atelier de design participatif avec des jeunes de 10-14 ans. Cette expérience, inscrite dans le programme Growing up in Cities, devait aboutir à des résultats de recherche et des projets d’aménagement réalistes en impliquant les jeunes comme collaborateurs dans la conception. Face à ces objectifs ambitieux, le bilan pour les jeunes est mitigé sur le plan des retombées et du caractère égalitaire des rapports. En revanche, on se rend compte que les étudiants ont cherché diverses manières de traiter les jeunes comme des personnes intelligentes, sensibles et autonomes. Cet article propose quelques pistes pour éclairer les choix en termes de démarche de participation.
Resumo:
his paper explores how participation and sustainability are being addressed by architects within the Building Schools for the Future (BSF) programme in the UK. The intentions promoted by the programme are certainly ambitious, but the ways to fulfil these aims are ill-explored. Simply focusing on providing innovative learning technologies, or indeed teaching young people about physical sustainability features in buildings, will not necessarily teach them the skills they will need to respond to the environmental and social challenges of a rapidly changing world. However, anticipating those skills is one of the most problematic issues of the programme. The involvement of young people in the design of schools is used to suggest empowerment, place-making and to promote social cohesion but this is set against government design literature which advocates for exemplars, standard layouts and best practice, all leading to forms of standardisation. The potentials for tokenistic student involvement and conflict with policy aims are evident. This paper explores two issues: how to foster in young people an ethic towards future generations, and the role of co-design practices in this process. Michael Oakeshott calls teaching the conversation of mankind. In this paper, I look at the philosophy of Hannah Arendt, Emmanuel Levinas, Maurice Merleau-Ponty and Luce Irigaray to argue that investigating the ethical dilemmas of the programme through critical dialogue with students offers an approach to meeting government objectives, building sustainable schools, and fostering sustainable citizenship.
Resumo:
Un document accompagne le mémoire et est disponible pour consultation au Centre de conservation des bibliothèques de l'Université de Montréal (http://www.bib.umontreal.ca/conservation/).
Resumo:
Comprend une bibliographie.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
L’asthme est connu comme l’une des maladies chroniques les plus fréquentes chez la femme enceinte avec une prévalence de 4 à 8%. La prévalence élevée de l’asthme fait en sorte qu’on se préoccupe de l’impact de la grossesse sur l’asthme et de l’impact de l’asthme sur les issus de la grossesse. La littérature présente des résultats conflictuels concernant l’impact de l’asthme maternel sur les issus périnatales comme les naissances prématurées, les bébés de petit poids et les bébés de petit poids pour l’âge gestationnel (PPGA). De plus, les données scientifiques sont rares concernant l’impact de la sévérité et de la maîtrise de l’asthme durant la grossesse sur les issus périnatales. Donc, nous avons mené cinq études pour réaliser les objectifs suivants: 1. Le développement et la validation de deux indexes pour mesurer la sévérité et la maîtrise de l’asthme. 2. L’évaluation de l’impact du sexe du fœtus sur le risque d’exacerbation de l’asthme maternel et l’utilisation de médicaments antiasthmatiques durant la grossesse; 3. L’évaluation de l’impact de l’asthme maternel sur les issus périnatales; 4. L’évaluation de l’impact de la sévérité de l’asthme maternel durant la grossesse sur les issus périnatales; 5. L’évaluation de l’impact de la maîtrise de l’asthme maternel durant la grossesse sur les issus périnatales. Pour réaliser ces projets de recherche, nous avons travaillé avec une large cohorte de grossesse reconstruite à partir du croisement de trois banques de données administratives du Québec recouvrant la période entre 1990 et 2002. Pour les trois dernières études, nous avons utilisé un devis de cohorte à deux phases d’échantillonnage pour obtenir, à l’aide d’un questionnaire postal, des informations complémentaires qui ne se trouvaient pas dans les banques de données, comme la consommation de cigarettes et d’alcool pendant la grossesse. Nous n’avons trouvé aucune différence significative entre les mères de fétus féminins et de fétus masculins pour les exacerbations de l’asthme pendant la grossesse (aRR=1.02; IC 95%: 0.92 to 1.14). Par contre, nous avons trouvé que le risque de bébé PPGA (OR: 1.27, IC 95%: 1.14-1.41), de bébé de petit poids (OR: 1.41, IC 95%:1.22-1.63) et de naissance prématurée (OR: 1.64, IC 95%:1.46-1.83) était significativement plus élevés chez les femmes asthmatiques que chez les femmes non asthmatiques. De plus, nous avons démontré que le risque d’un bébé PPAG était significativement plus élevé chez les femmes avec un asthme sévère (OR:1.48, IC 95%: 1.15-1.91) et modéré (OR: 1.30, IC 95%:1.10-1.55) que chez les femmes qui avaient un asthme léger. Nous avons aussi observé que les femmes qui avaient un asthme bien maîtrisé durant la grossesse étaient significativement plus à risque d’avoir un bébé PPAG (OR:1.28, IC 95%: 1.15-1.43), un bébé de petit poids (OR: 1.42, IC 95%:1.22-1.66), et un bébé prématuré (OR: 1.63, IC 95%:1.46-1.83) que les femmes non asthmatiques. D’après nos résultats, toutes les femmes asthmatiques même celles qui ont un asthme bien maîtrisé doivent être suivies de près durant la grossesse car elles courent un risque plus élevé d’avoir des issus de grossesses défavorables pour leur nouveau-né.
Resumo:
Based on a close reading of the debate between Rawls and Sen on primary goods versus capabilities, I argue that liberal theory cannot adequately respond to Sen’s critique within a conventionally neutralist framework. In support of the capability approach, I explain why and how it defends a more robust conception of opportunity and freedom, along with public debate on substantive questions about well-being and the good life. My aims are: (i) to show that Sen’s capability approach is at odds with Rawls’s political liberal version of neutrality; (ii) to carve out a third space in the neutrality debate; and (iii) to begin to develop, from Sen’s approach, the idea of public value liberalism as a position that falls within that third space.
Resumo:
Ce mémoire tente de présenter la politique allemande de François Mitterrand de 1981 à 1991 à travers le discours public du président français. À cette fin, il présente la position du chef d’État socialiste sur le rôle de l’Allemagne dans la construction de l’unité européenne et dans la politique de défense et de sécurité française, ainsi que sur la question de la réunification allemande. Il tente ensuite de situer la politique allemande de François Mitterrand par rapport à celle du général de Gaulle, et de juger de la valeur du discours public du président français comme source primaire. L’hypothèse principale que nous soutenons est que le président socialiste tente, de 1981 à 1991, de s’appuyer sur la République fédérale d’Allemagne pour atteindre les objectifs de grandeur et d’indépendance fixés pour la France par de Gaulle dans les années 1960. Nous croyons qu’il souhaite d’abord se rapprocher de la RFA pour que celle-ci l’aide à unifier politiquement, économiquement et militairement l’Europe autour du couple franco-allemand. Nous croyons également que Mitterrand veut s’assurer, au début des années 1980, que la RFA restera ancrée solidement au camp occidental et qu’elle ne glissera pas vers le neutralisme, ce qui doit, selon le président français, permettre à la France d’augmenter son niveau de protection face à l’URSS et accroître son indépendance face aux États-Unis. Enfin, nous croyons que le président socialiste ne tente pas d’empêcher la réunification de l’Allemagne, mais qu’il tente d’en ralentir le processus afin de pouvoir mettre en place l’unité européenne au sein de laquelle il souhaite exercer une influence sur l’Allemagne réunifiée, et à partir de laquelle il prévoit développer sa politique d’après-guerre froide. Ces initiatives doivent permettre à la France d’absorber les contrecoups de la réunification allemande et de sauvegarder ses intérêts nationaux. Dans l’ensemble, la politique allemande de François Mitterrand est en continuité avec la politique allemande développée par le général de Gaulle de 1958 à 1964. Les deux hommes cherchent ainsi à s’appuyer sur la RFA pour créer l’unité européenne afin que celle-ci serve de tremplin à la France pour qu’elle atteigne ses objectifs de grandeur et d’indépendance. Enfin, nous croyons que le discours public du président socialiste peut être utilisé comme source primaire car il renferme une quantité importante d’information, mais son utilisation doit se faire avec précaution car comme tous les discours politiques, il vise d’abord et avant tout à convaincre l’opinion publique du bien fondé des politiques avancées.
Resumo:
Le développement ainsi que l’amélioration des différentes techniques de purification sont des défis importants pour la chimie d’aujourd’hui. Certaines des méthodes actuelles, tel que le greffage d’un réactif sur un support solide permettant d’accéder à un produit pur par simple filtration du milieu, comportent toutefois certains inconvénients. En effet, les propriétés de solubilité de ces polymères rendent la mise en œuvre des réactions plus difficiles. C’est dans ce contexte que le groupe du Pr. Charette a rapporté l’utilisation de réactifs liés à un sel de tétraarylphosphonium (TAP). Ces sels peuvent être solubilisés dans un solvant tel que le dichlorométhane et aisément retirés du milieu réactionnel par précipitation à l’aide d’éther diéthylique (Chapitre 1). L’un des objectifs de cette thèse a donc été lié à la découverte de deux méthodes complémentaires qui, jusqu’à présent, sont considérées comme des méthodes de choix pour la synthèse des sels de TAP fonctionnalisés (Chapitre 2). L’une d’entre elles est utilisée par Soluphase inc., une entreprise qui commercialise ces sels de TAP. L’efficacité des sels en tant que support dans la synthèse de petites molécules a été démontrée lors de la synthèse d’un produit naturel, la (–)-coniine (Chapitre 3). L’isolement des intermédiaires synthétiques instables par simple précipitation à l’aide d’un support de TAP a permis de rendre cette synthèse plus efficace que celle déjà connue. Dans le deuxième volet de cette thèse, plusieurs problèmes reliés à la synthèse de dérivés cyclopropaniques 1,1-disubstitués ont été étudiés. Ces derniers font partie intégrale de plusieurs produits naturels et de médicaments. Cependant, leur formation par une réaction de cyclopropanation d’alcènes utilisant des réactifs diazoïques possédant deux groupements de type accepteur n’est pas tâche facile (Chapitre 4). En effet, cette réaction souffre d’un faible contrôle diastéréosélectif. Par le fait même, très peu de méthodologies de synthèse ont rapporté l’utilisation de ce type de réactifs diazoïques dans des réactions de cyclopropanation stéréosélectives. L’étude du mécanisme de la réaction de cyclopropanation catalysée au Rh(II) a proposé des indices favorisant un modèle ayant des précédents dans la littérature (Chapitre 5). Ces études nous ont mené à la découverte de la «capacité trans-directrice» du groupement amide lors des réactions de cyclopropanation d’oléfines. Nous avons donc utilisé cette propriété afin de résoudre plusieurs problèmes rencontrés dans la littérature. Nous avons montré qu’elle permet l’accès à des dérivés cyclopropaniques possédant deux groupements carboxyliques géminaux avec des sélectivités élevées (Chapitre 6). Ces produits étaient accessibles que par des séquences synthétiques nécessitant plusieurs étapes. De plus, nous avons démontrés que ces nouveaux dérivés cyclopropaniques sont des outils synthétiques fort utiles dans la synthèse de produits naturels d’intérêt biologique. Cette formidable «capacité trans-directrice» du groupement amide nous a permi de résoudre le problème de la synthèse asymétrique de dérivés carboxyliques α-cyano cyclopropaniques (Chapitre 7). De plus, ce projet nous a menées à la découverte de l’effet de divers additif achiraux permettant d’augmenter la sélectivité dans certaines réactions. Cette réaction possède une vaste étendue et l’utilité de ces nouveaux dérivés cyclopropaniques a été démontrée par plusieurs transformations de groupements fonctionnels.
Resumo:
Cette recherche a été inspirée par les travaux de John Bowlby sur l’attachement ainsi que par les écrits psychanalytiques de Sigmund Freud et de Donald Winnicott sur le développement de la relation père-garçon. Trois objectifs ont été formulés dans la présente étude : A) Les jeunes garçons d’âge préscolaire pourraient-ils projeter, à travers quelques sessions de jeu symbolique libre, leurs représentations paternelles? B) S’ils les projettent, quelle est la nature de ces représentations paternelles? C) Existe-t-il une relation entre le type d’attachement (évalué par un instrument standard) et les représentations paternelles projetées dans le jeu symbolique libre? Dix garçons de quatre ans ont été filmés à la maison et dans une garderie pendant, en moyenne, quatre sessions totalisant par enfant, une durée moyenne de deux heures trente minutes de jeu symbolique. Le type d’attachement a été évalué à l’aide de l’Attachment Story Completion Task. Les résultats démontrent que l’ensemble des garçons ont été en mesure de projeter des représentations paternelles basées sur la figure du père. Tous ces garçons ont perçu le père comme une figure de protection et huit enfants sur dix ont exprimé verbalement leur attachement à ce dernier. Un enfant de type évitant (type A) n’a pas évoqué la figure du père dans son jeu. Ce père était rarement à la maison pour s’occuper de son garçon. Enfin, le dernier enfant, de type ambivalent (un enfant particulièrement agressif de type C), a présenté dans son jeu des interactions négatives avec le père et ce, tout au long des sessions de jeu symbolique. Il appert ainsi que le jeu symbolique permet à l’enfant de projeter des représentations de la figure paternelle. Ces représentations sont en lien avec le type d’attachement que l’enfant détient au moment de l’évaluation.
Resumo:
Les tendinites sont des lésions communes chez le cheval athlète, ayant un impact financier et sportif considérable. Les cellules souches mésenchymateuses (CSMs) de moelle osseuse (MO) sont empiriquement utilisées en clinique pour améliorer la guérison des affections myoarthrosquelettiques. Cependant, il est nécessaire de standardiser les protocoles d’isolement des CSMs équines et d’analyser leurs effets sur la guérison tendineuse pour ajuster leur dose. Les objectifs de cette étude étaient de comparer 3 méthodes d’isolement des CSMs équines et d’établir un modèle de guérison tendineuse minimal invasif pour analyser l’effet des CSMs sur cette guérison. Des CSMs de MO du sternum de juments étaient isolées par 3 protocoles couramment utilisés (adhérence au pétri (Classique) et 2 méthodes par gradient de densité (Percoll et Ficoll)). La viabilité des cellules après isolement, le rendement d’isolement, le nombre de CSMs obtenues après 14 jours de culture et leurs caractéristiques fonctionnelles (renouvellement et différentiation) étaient comparés entre les 3 protocoles. Les résultats suggéraient que le Percoll était le meilleur protocole en termes de rendement et de capacité de renouvellement des cellules. La différence n’était pas significative pour leur viabilité et leur capacité de différentiation. Un modèle de guérison tendineuse, consistant en une ténectomie du tendon extenseur latéral du doigt fut ensuite développé. Cependant, la grande variabilité interindividuelle de qualité de guérison dans le groupe pilote implique une ré-évaluation du modèle. Des études futures, avec des CSMs isolées par le Percoll dans de nouveaux modèles de guérison tendineuse devraient permettre de déterminer la dose adéquate de CSMs.
Resumo:
Cette étude a été réalisée dans le cadre d’une maîtrise en Aménagement. Elle s’efforce à démontrer que l’étape d’un projet que l’on appelle problématisation, c’est-à-dire l’étape de construction des problèmes à être résolus, permet de s’assurer que les actions entreprises soient en cohérence et en pertinence avec le contexte du projet. Nous constatons désormais que nous ne pouvons plus nous contenter d’évaluer les projets sur la seule base de son efficience, c’est-à-dire la concordance de ses résultats avec les objectifs prévus. Dans ces circonstances, nous émettons l’hypothèse que la problématisation fait appel à des compétences particulières et généralement peu utilisées par rapport à d’autres étapes de la réalisation d’un projet. À cet égard, nous avons réalisé un travail de recherche exploratoire sur ce thème en ayant comme objectif d’obtenir une compréhension des compétences mobilisées lors de la problématisation en situation de projet en général et d’identifier plus spécifiquement ces compétences dans une situation de projet en particulier, celle des projets de coopération internationale. Pour y arriver, nous avons procédé à la construction d’un référentiel d’emploi et d’activités pour en déduire un référentiel de compétences de la problématisation. Pour ce faire, nous avons réalisé une étude de cas sur les projets de stage de coopération internationale. L’utilisation de la technique de l’« instruction au sosie » et d’une rechercheintervention nous ont permis de dégager les principaux résultats suivant: la problématisation fait appel à des compétences particulières de gestion de l’information et de médiation. Les compétences générales de problématisation que les responsables des stages dans les organisations de coopération internationale v doivent maîtriser sont : être capable de générer les disponibilités de projets à partir de données primaires et secondaires; être capable de faire des choix et de justifier ces choix en fonction de l’analyse des données; être capable de présenter des informations écrites claires, respectueuses des idées des partenaires en fonction du langage de projet utilisé par le public auquel s’adresse la proposition; être capable d’utiliser les commentaires des évaluateurs pour améliorer un projet et être capable de mener à terme un projet. La contribution principale de ce travail de recherche réside dans la proposition d’un outil précieux pour le recrutement et la sélection, l’évaluation du rendement, la formation et le perfectionnement des acteurs de la problématisation.
Resumo:
La préparation scolaire de l’enfant en maternelle est associée, selon maintes études, à sa réussite scolaire future. Plusieurs facteurs sont liés à la préparation scolaire, dont l’implication parentale en milieu scolaire, quoiqu’il n’y ait pas consensus à ce sujet. Ainsi, la présente étude vise deux objectifs. Il s’agit tout d’abord de définir quelles sont les caractéristiques de l’enseignant, de la famille et de l’enfant étant associées à l’implication parentale. L’objectif principal se centre, pour sa part, sur les liens possibles entre l’implication parentale et la préparation scolaire de l’enfant en maternelle. Les résultats révèlent que l’âge de l’enseignant et son expérience professionnelle, l’âge des parents et la scolarité de la mère sont les caractéristiques liées à l’implication parentale. De plus, chacune des dimensions de la préparation scolaire des enfants en maternelle (santé physique et bien-être, développement cognitif, intégration sociale et autorégulation) est associée à la communication entre l’enseignant et les parents et à la participation parentale à la vie scolaire de l’enfant. Ainsi, notre étude offre un apport intéressant au domaine des sciences de l’éducation en montrant que l’implication parentale est liée à la préparation scolaire de l’enfant.
Resumo:
Au niveau clinique, il a été observé que de 15 à 30 % des patients qui ont subi un infarctus du myocarde développent une dépression majeure. De plus, la population atteinte de dépression post-infarctus présente un risque de mortalité de trois à quatre fois plus élevé, et ce, en comparaison avec la population non dépressive post-infarctus. Dans un modèle de rat développé pour étudier la dépression post-infarctus, des cellules apoptotiques ont été retrouvées au niveau du système limbique. Il apparaît que les cytokines seraient en partie responsables de cette mort cellulaire qui relie le cœur en ischémie et le système nerveux central. Donc, les objectifs de cette thèse sont : 1) de caractériser spatialement et temporellement la survenue de la mort cellulaire par apoptose dans les structures du système limbique du rat, à la suite d’un infarctus du myocarde ; 2) de déterminer l’effet de l’anti-inflammatoire celecoxib sur cette apoptose observée au niveau de l’amygdale et de déterminer l’implication de l’enzyme COX-2 ; 3) de déterminer l’implication de la cytokine pro-inflammatoire TNF-α dans l’apoptose observée au niveau des structures du système limbique du rat, à la suite d’un infarctus du myocarde. Afin d’atteindre ces objectifs, les rats ont subi une ischémie de 40 minutes, suivi d’une période de reperfusion qui varie d’un protocole à l’autre (15 minutes, 24, 48, 72 heures ou 7 jours). De plus, en fonction du protocole, ces rats ont été traités avec soit du célécoxib (inhibiteur sélectif de la COX-2), soit avec du PEG sTNF-R1 (inhibiteur du TNF-α). À la suite de ces protocoles, les rats ont été sacrifiés, la taille de l’infarctus a été déterminée et les différentes structures cérébrales du système limbique prélevées. Des tests biochimiques propres à chaque protocole ont été réalisés afin de documenter l'apoptose. Il a alors été observé qu’aucun des deux traitements ne présentait d’effet sur la taille de l’infarctus. L’étude de l’apoptose dans le système limbique a révélé que : 1) le processus apoptotique se mettait en place dans l’hippocampe dès les 15 premières minutes de reperfusion suivant l’infarctus du myocarde et que ce processus était spatialement dynamique dans le système limbique jusqu’au septième jour postreperfusion ; 2) il est apparu que la COX-2 était impliquée dans l'apoptose du système limbique ; 3) il a été observé que le TNF-α périphérique était impliqué dans ce processus apoptotique après 72 heures de reperfusion en activant la voie extrinsèque de l'apoptose. Ces résultats ont permis de caractériser la survenue de l’apoptose au niveau du système limbique chez le rat à la suite d’un infarctus du myocarde et de documenter l'implication de la COX-2 et du TNF-α dans ce processus. Bien que ces résultats n’apportent pas de schémas thérapeutiques clairs ou de mécanismes physiopathologiques globaux ces derniers permettent une meilleure compréhension de la relation existante entre le cœur et le système nerveux central dans le cadre de l’infarctus du myocarde. De manière moins spécifique ils précisent la relation entre le système inflammatoire et le système nerveux central.
Resumo:
L’industrie forestière est un secteur qui, même s’il est en déclin, se trouve au cœur du débat sur la mondialisation et le développement durable. Pour de nombreux pays tels que le Canada, la Suède et le Chili, les objectifs sont de maintenir un secteur florissant sans nuire à l’environnement et en réalisant le caractère fini des ressources. Il devient important d’être compétitif et d’exploiter de manière efficace les territoires forestiers, de la récolte jusqu’à la fabrication des produits aux usines, en passant par le transport, dont les coûts augmentent rapidement. L’objectif de ce mémoire est de développer un modèle de planification tactique/opérationnelle qui permet d’ordonnancer les activités pour une année de récolte de façon à satisfaire les demandes des usines, sans perdre de vue le transport des quantités récoltées et la gestion des inventaires en usine. L’année se divise en 26 périodes de deux semaines. Nous cherchons à obtenir les horaires et l’affectation des équipes de récolte aux blocs de coupe pour une année. Le modèle mathématique développé est un problème linéaire mixte en nombres entiers dont la structure est basée sur chaque étape de la chaine d’approvisionnement forestière. Nous choisissons de le résoudre par une méthode exacte, le branch-and-bound. Nous avons pu évaluer combien la résolution directe de notre problème de planification était difficile pour les instances avec un grand nombre de périodes. Cependant l’approche des horizons roulants s’est avérée fructueuse. Grâce à elle en une journée, il est possible de planifier les activités de récolte des blocs pour l’année entière (26 périodes).