985 resultados para Stratégie de planification
Resumo:
Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.
Resumo:
Wilson Harris créée dans son roman Le palace du paon un espace de transformation intellectuelle d’une nature inédite. Cet espace se confond avec la matrice narrative de son roman. Celle-ci permet la génèse de l’identité guyanaise, non pas à partir des vestiges pré-coloniaux, ni grâce aux récits des historiens des vainqueurs mais avec des ingrédients philosophiques et littéraires de nature à transformer l’étoffe même de notre imaginaire et énergie créative. Il utilise pour ce faire la répétition comme stratégie narrative permettant de rompre la linéarité chronologique qui joint passé, présent et avenir. Ainsi faisant, il déjoue toutes les attentes de ses lecteurs les habituant ainsi à ce que Derrida appelle la logique spectrale qui permet l’influence mutuelle entre passé et présent. Ce travail est l’exploration des mécanismes de ce lâcher prise imaginatif mais aussi de toutes les voix qui répètent, à travers le temps et les continents, cet appel à l’hospitalité inconditionnelle envers l’Autre, c'est-à-dire une ouverture envers le paradoxal, le multiple, le différent en soi et en dehors de soi.
Resumo:
Le 12 juin 2002, le gouvernement du Québec rendait public un projet de loi visant à lutter contre la pauvreté et l’exclusion sociale. Le projet de loi 112 fait de la lutte contre la pauvreté une priorité gouvernementale et il engage le gouvernement à mettre en place des plans d’action spécifiques et des structures institutionnelles pour assurer le suivi de ces plans. La loi s’accompagne également d’une stratégie gouvernementale relativement ambitieuse de lutte contre la pauvreté. L’article présente le projet de loi et la stratégie, en insistant sur les origines citoyennes du projet et sur ses implications pour la démocratisation du social. Le projet a le mérite de mettre la lutte contre la pauvreté à l’avant-plan et d’être conçu dans une perspective longitudinale, intégrée et participative. Mais il demeure pour l’instant relativement abstrait. Seul le temps nous dira si cette ouverture significative donnera des résultats importants.
Resumo:
L’hypertension essentielle étant un facteur majeur de morbidité, la compréhension de son l’étiologie est prépondérante. Ainsi, la découverte de nouvelles composantes ou mécanismes de régulation de la PA par l’identification de QTL et l’étude de leurs interactions s’avère une approche prometteuse. L’utilisation de souches congéniques de rats pour l’étude de l’hypertension est une stratégie payante puisqu’elle permet de masquer les effets de l’environnement, tout en gardant le caractère polygénique de la PA. Longtemps conçu comme un trait issu de l’accumulation des effets minimes des QTL, la PA est régulée par une architecture basée sur l’existence d’interactions épistatiques. L’analyse par paires de QTL individuels a permis d’établir une modularité dans l’organisation des QTL chez le rat Dahl Salt-sensitive en fonction de la présence ou de l’absence d’une interaction épistatique entre eux. Ainsi, deux modules épistatiques ont été établis; EM1 et EM2 où tous les QTL appartenant à EM1 sont épistatiques entre eux et agissent de façon additive avec les membres de EM2. Des hiérarchies dans la régulation peuvent alors être révélées si les QTL d’un même EM ont des effets opposés. L’identification de la nature moléculaire des candidats C18QTL4/Hdhd2 et C18QTL3/Tcof1, membres du EM1, et de l’interaction épistatique entre ces deux QTL, a permis, en plus, d’élucider une régulation séquentielle au sein du module. Hdhd2 pourrait agir en amont de Tcof1 et réguler ce dernier par une modification post-traductionnelle. Cette interaction est la première évidence expérimentale de la prédiction des relations entre QTL, phénomène établi par leur modularisation. Le dévoilement du fonctionnement de l’architecture génétique à la base du contrôle de la PA et la découverte des gènes responsables des QTL permettrait d’élargir les cibles thérapeutiques et donc de développer des traitements antihypertenseurs plus efficaces.
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l’obtention du grade Maître ès sciences (M.Sc.) en sciences infirmières option expertise-conseil
Resumo:
Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option formation
Resumo:
Les fichiers accompagnant le document sont en format Microsoft Excel 2010.
Resumo:
La transglutaminase tissulaire est une enzyme dépendante du calcium qui catalyse la formation de liens isopeptidiques, entre les chaînes latérales de résidus glutamine et lysine, permettant, par le fait même, la réticulation des protéines dans les systèmes biologiques. Elle joue un rôle, entre autres, dans l’endocytose, la régulation du développement des cellules, et même dans l’apoptose. Néanmoins, une dérégulation de l’activité biologique de cette enzyme peut entrainer différentes pathologies, comme la formation de cataractes, de plaques amyloïdes dans la maladie d’Alzheimer, ou encore peut mener au développement de la maladie céliaque. C’est pourquoi une meilleure connaissance du mécanisme d’action de cette enzyme et la possibilité de réguler son action à l’aide de substrats ou d’inhibiteurs sont nécessaires. Dans cette optique, une méthode d’expression et de purification de la transglutaminase humaine a été développée, permettant de travailler directement avec la cible pharmacologique désirée. De plus, une étude du mode d’inhibition et de liaison d’une classe d’inhibiteurs réversibles précédemment découverte dans le groupe, soit la famille des trans-cinnamoyles, a permis d’identifier que la puissance de ces molécules est influencée par la présence du calcium et qu’une inhibition dépendante du temps est observée, en lien avec un potentiel équilibre conformationnel lent de la transglutaminase. D’un autre côté, la susceptibilité à une attaque nucléophile par des thiols de cette classe de molécule rend leur potentiel pharmacologique grandement diminué, et c’est pourquoi une nouvelle famille de molécules a été identifiée, basée sur un squelette ynone, avec une valeur d’IC50 très prometteuse de 2,6 μM, en faisant un des meilleurs inhibiteurs réversibles de la transglutaminase développés à ce jour. Finalement, une stratégie de photomarquage jumelée à une analyse de spectrométrie de masse en tandem a été développée pour la découverte du site de liaison du substrat dérivé de la lysine, dans le but de mieux comprendre le mécanisme complexe de cette enzyme.
Resumo:
Faisant confiance à leur intuition les urbanistes s’inscrivent souvent dans un flou théorique qui les rend susceptibles de succomber à l’idéologie dominante et aux modes du moment. La première partie de ce mémoire vise à démontrer que cette posture par rapport à la théorie entraine un manque de réflexivité qui constitue un obstacle majeur à l’exercice d’une pratique urbanistique véritablement professionnelle, éthique et respectueuse du territoire. En effet, selon Bourdieu, un corpus théorique autonome permettrait d’offrir à l’urbaniste un cadre de réflexivité lui permettant de prendre du recul sur le quotidien et d’échapper à l’influence indue de l’idéologie sur sa pratique. Ce mémoire vise à comprendre la configuration actuelle du champ des théories de l’urbanisme en Occident (compris selon la théorie des champs de Bourdieu) et à proposer un modèle synthèse spécifiquement destiné à servir d’outil de réflexivité à l’urbaniste. Pour y parvenir, il a été privilégié de faire une relecture herméneutique de modèles théoriques existants, mais considérés comme incomplets, des théories de l’urbanisme. Dans ce domaine, deux Écoles de pensée ont été définies (École française et École anglo-saxonne). Ensuite, une typologie emblématique de chaque École a été choisie pour être revue à la lumière de l’objectif fixé. Ainsi, les typologies de Françoise Choay (École française) et de Philip Allmendinger (École anglo-saxonne) ont été analysées et mises en commun au moyen de la construction d’une historiographie commune des théories de l’urbanisme. Finalement, un modèle théorique original (la typologie intégrée) a été formulé. Celui-ci définit quatre grands courants théoriques : le rationalisme instrumental, le rationalisme intersubjectif, le mouvement pragmatico-postmoderne et le mouvement patrimonial. Il apparaît alors que le rationalisme occupe une position hégémonique dans le champ des théories de l’urbanisme depuis sa fondation et qu’elle est assumée par le rationalisme intersubjectif depuis le milieu des années 1990.
Resumo:
Le cancer du sein est le cancer le plus fréquent chez la femme. Il demeure la cause de mortalité la plus importante chez les femmes âgées entre 35 et 55 ans. Au Canada, plus de 20 000 nouveaux cas sont diagnostiqués chaque année. Les études scientifiques démontrent que l'espérance de vie est étroitement liée à la précocité du diagnostic. Les moyens de diagnostic actuels comme la mammographie, l'échographie et la biopsie comportent certaines limitations. Par exemple, la mammographie permet de diagnostiquer la présence d’une masse suspecte dans le sein, mais ne peut en déterminer la nature (bénigne ou maligne). Les techniques d’imagerie complémentaires comme l'échographie ou l'imagerie par résonance magnétique (IRM) sont alors utilisées en complément, mais elles sont limitées quant à la sensibilité et la spécificité de leur diagnostic, principalement chez les jeunes femmes (< 50 ans) ou celles ayant un parenchyme dense. Par conséquent, nombreuses sont celles qui doivent subir une biopsie alors que leur lésions sont bénignes. Quelques voies de recherche sont privilégiées depuis peu pour réduire l`incertitude du diagnostic par imagerie ultrasonore. Dans ce contexte, l’élastographie dynamique est prometteuse. Cette technique est inspirée du geste médical de palpation et est basée sur la détermination de la rigidité des tissus, sachant que les lésions en général sont plus rigides que le tissu sain environnant. Le principe de cette technique est de générer des ondes de cisaillement et d'en étudier la propagation de ces ondes afin de remonter aux propriétés mécaniques du milieu via un problème inverse préétabli. Cette thèse vise le développement d'une nouvelle méthode d'élastographie dynamique pour le dépistage précoce des lésions mammaires. L'un des principaux problèmes des techniques d'élastographie dynamiques en utilisant la force de radiation est la forte atténuation des ondes de cisaillement. Après quelques longueurs d'onde de propagation, les amplitudes de déplacement diminuent considérablement et leur suivi devient difficile voir impossible. Ce problème affecte grandement la caractérisation des tissus biologiques. En outre, ces techniques ne donnent que l'information sur l'élasticité tandis que des études récentes montrent que certaines lésions bénignes ont les mêmes élasticités que des lésions malignes ce qui affecte la spécificité de ces techniques et motive la quantification de d'autres paramètres mécaniques (e.g.la viscosité). Le premier objectif de cette thèse consiste à optimiser la pression de radiation acoustique afin de rehausser l'amplitude des déplacements générés. Pour ce faire, un modèle analytique de prédiction de la fréquence de génération de la force de radiation a été développé. Une fois validé in vitro, ce modèle a servi pour la prédiction des fréquences optimales pour la génération de la force de radiation dans d'autres expérimentations in vitro et ex vivo sur des échantillons de tissu mammaire obtenus après mastectomie totale. Dans la continuité de ces travaux, un prototype de sonde ultrasonore conçu pour la génération d'un type spécifique d'ondes de cisaillement appelé ''onde de torsion'' a été développé. Le but est d'utiliser la force de radiation optimisée afin de générer des ondes de cisaillement adaptatives, et de monter leur utilité dans l'amélioration de l'amplitude des déplacements. Contrairement aux techniques élastographiques classiques, ce prototype permet la génération des ondes de cisaillement selon des parcours adaptatifs (e.g. circulaire, elliptique,…etc.) dépendamment de la forme de la lésion. L’optimisation des dépôts énergétiques induit une meilleure réponse mécanique du tissu et améliore le rapport signal sur bruit pour une meilleure quantification des paramètres viscoélastiques. Il est aussi question de consolider davantage les travaux de recherches antérieurs par un appui expérimental, et de prouver que ce type particulier d'onde de torsion peut mettre en résonance des structures. Ce phénomène de résonance des structures permet de rehausser davantage le contraste de déplacement entre les masses suspectes et le milieu environnant pour une meilleure détection. Enfin, dans le cadre de la quantification des paramètres viscoélastiques des tissus, la dernière étape consiste à développer un modèle inverse basé sur la propagation des ondes de cisaillement adaptatives pour l'estimation des paramètres viscoélastiques. L'estimation des paramètres viscoélastiques se fait via la résolution d'un problème inverse intégré dans un modèle numérique éléments finis. La robustesse de ce modèle a été étudiée afin de déterminer ces limites d'utilisation. Les résultats obtenus par ce modèle sont comparés à d'autres résultats (mêmes échantillons) obtenus par des méthodes de référence (e.g. Rheospectris) afin d'estimer la précision de la méthode développée. La quantification des paramètres mécaniques des lésions permet d'améliorer la sensibilité et la spécificité du diagnostic. La caractérisation tissulaire permet aussi une meilleure identification du type de lésion (malin ou bénin) ainsi que son évolution. Cette technique aide grandement les cliniciens dans le choix et la planification d'une prise en charge adaptée.
Resumo:
Cette recherche exploratoire a pour objet d’étude la mise en œuvre des interventions d’activation pour l’emploi auprès des prestataires de l’assistance sociale en situation de grande vulnérabilité au Québec. Elle cherche à décrire les pratiques mises en œuvre par des intervenants de la première ligne (« street-level ») au sein des organismes communautaires œuvrant en employabilité, dans le cadre des mesures et programmes de l’agence Emploi- Québec, dans un contexte de contractualisation et partenariat entre le gouvernement et le secteur à but non lucratif. Le mémoire cherche à identifier les processus qui peuvent influencer les pratiques de la première ligne de services lors de l’interaction avec les destinataires du système intégré d’aide financière de dernier recours et d’aide à l’emploi, de même qu’à comprendre les rapports de force en présence lors de la mise en œuvre des interventions. L’on veut répondre aux deux questions suivantes : Quel est le poids relatif du cadre institutionnel du système d’activation et du pouvoir discrétionnaire des intervenants de la première ligne travaillant directement avec les prestataires les plus vulnérables, au sein des organismes communautaires en employabilité? Plus précisément, comment ces deux types de processus interagissent-ils entre eux, pour produire la politique telle que mise en œuvre? On se base sur des approches théoriques sur la mise en œuvre des politiques inspirées des perspectives de « street level bureaucracy » (Lipsky, 1971, 1980; Smith et Lipsky, 1993 ; Hupe & Hill, 2007 ; Brodkin, 2007, 2011, 2012, 2015; Rice, 2012), du néo-institutionnalisme discursif (Schmidt, 2008, 2010) et de l’Ethnographie institutionnelle (Smith, 1999, 2006; Campbell & Gregor, 2008). On considère que la mise en œuvre de la politique d’activation entraîne non seulement une « appropriation » du cadre institutionnel et systémique par les intervenants de première ligne, mais aussi une co-construction de la politique dans un contexte de gouvernance spécifique. La stratégie de recherche est qualitative et s’inspire de l’approche de l’ethnographie institutionnelle en sociologie, qui propose une méthodologie pour retracer les effets des institutions sur les travailleurs dans leur vie quotidienne (Smith, 2005, 1999, 1987; Campbell and Gregor, 2008). Elle comprend : i) des entretiens avec des intervenants communautaires qui fournissent des services d’aide et d’accompagnement pour l’intégration en emploi portant sur certains dossiers de prestataires du système; ii) des entretiens avec des coordinatrices d’organismes communautaires œuvrant en employabilité, et iii) une collecte et une analyse de la documentation institutionnelle et du cadre de réglementation pour la mise en œuvre du système d’activation. L'analyse aborde le discours institutionnel d'une part et, d'autre part, le discours des répondants du secteur communautaire en employabilité concernant leurs interventions auprès des prestataires dans le cadre des programmes et mesures d’E-Q, et leurs « explications » des pratiques quotidiennes.
Resumo:
Le capital humain d’un pays est un facteur important de sa croissance et de son développement à long terme. Selon l’Unicef, ce capital humain est constitué en donnant à chaque enfant un bon départ dans la vie : non seule- ment la possibilité de survivre, mais aussi les conditions nécessaires pour se développer et réaliser tout son potentiel. Malheureusement, cet état de fait est loin d’être une réalité en Afrique Subsaharienne. En effet, selon toujours l’Unicef et sur la base d’enquêtes ménages dans 21 pays d’Afrique de l’Ouest et du Centre, c’est près de 32 millions d’enfants qui ont l’âge officiel d’être scolarisés, mais qui ne le sont pas. A ces chiffres, il faut ajouter 17 millions d’enfants scolarisés qui risquent fortement l’exclusion. De son Côté, l’OMS pointe du doigt la mauvaise santé des enfants dans cette région. Ainsi, les décès d’enfants sont de plus en plus concentrés en Afrique subsaharienne où les enfants ont plus de 15 fois plus de risques de mourir avant l’âge de cinq ans que les enfants des régions développées. Les difficultés économiques apparaissent comme la première explication des obstacles à l’amélioration du bien être des enfants aussi bien du côté de l’offre que de la demande. Cette thèse relie trois essais sur d’une part le lien entre conflit armés, l’éducation et la mortalité des enfants et d’autre part sur le lien entre fertilité et éducation des enfants en milieu urbain. Le premier chapitre identifie l’impact de la crise politico-militaire de la Côte d’Ivoire sur le bien être des enfants, en particulier sur l’éducation et la mor- talité infanto-juvénile en exploitant la variation temporelle et géographique de la crise. Il ressort de cette analyse que les individus qui vivaient dans les régions de conflit et qui ont atteint durant la crise, l’âge officiel d’entrer à l’école ont 10% moins de chance d’être inscrits à l’école. Les élèves qui habitaient dans des régions de conflit pendant la crise ont subit une diminu- tion du nombre d’années scolaire d’au moins une année. Les élèves les plus v vi âgés et qui sont susceptibles d’être au secondaire ont connu une décroissance du nombre d’année scolaire d’au moins deux années. Il ressort également que la crise ivoirienne a accru la mortalité infanto-juvénile d’au moins 3%. Mes résultats suggèrent également que la détérioration des conditions de vie et la limitation de l’utilisation des services de santé au cours du conflit con- tribuent à expliquer ces effets négatifs. Des tests de robustesse incluant un test de placebo suggèrent que les résultats ne sont pas dus à des différences préexistantes entre les régions affectées par le conflit et celles non affectées. Le deuxième chapitre étudie les disparités intra-urbaines en matière d’arbitrage entre le nombre d’enfant et la scolarisation des enfants en se focalisant sur le cas de Ouagadougou (Capitale du Burkina Faso). Dans cette ville, au moins 33% des deux millions d’habitants vivent dans des zones informelles (appelées localement des zones non-loties). Cette sous-population manque d’infrastructures socioéconomiques de base et a un niveau d’éducation très bas. Dans ce chapitre, prenant en compte la possible endogénéité du nombre d’enfants et en utilisant une approche "two-step control function" avec des modèles Probit, nous investiguons les différences de comportement des mé- nages en matière de scolarisation entre zones formelles et zones informelles. Nous nous focalisons en particulier sur l’arbitrage entre la "quantité" et la "qualité" des enfants. Compte tenu de l’hétérogénéité des deux types de zones, nous utilisons les probabilités prédites pour les comparer. Nos princi- pales conclusions sont les suivantes. Tout d’abord, nous trouvons un impact négatif de la taille de la famille sur le niveau de scolarisation dans les deux types de zone. Cependant, nous constatons que l’impact est plus aigu dans les zones informelles. Deuxièmement, si nous supposons que le caractère en- dogène du nombre d’enfants est essentiellement due à la causalité inverse, les résultats suggèrent que dans les zones formelles les parents tiennent compte de la scolarisation des enfants dans la décision de leur nombre d’enfants, mais ce ne est pas le cas dans les zones informelles. Enfin, nous constatons que, pour des familles avec les mêmes caractéristiques observables, la probabilité d’atteindre le niveau post-primaire est plus élevée dans les zones formelles que dans les zones informelles. En terme d’implications politique, selon ces résultats, les efforts pour améliorer la scolarisation des enfants ne doivent pas être dirigées uniquement vers les zones rurales. En plus de réduire les frais de scolarité dans certaines zones urbaines, en particulier les zones informelles, un accent particulier devrait être mis sur la sensibilisation sur les avantages de l’éducation pour le bien-être des enfants et leur famille. Enfin, du point vii de vue méthodologique, nos résultats montrent l’importance de tenir compte de l’hétérogénéité non observée entre les sous-populations dans l’explication des phénomènes socio-économiques. Compte tenu du lien négatif entre la taille de la famille et la scolarisation des enfants d’une part et les différences intra-urbaines de comportement des ménages en matière de scolarisation, le trosième chapitre étudie le rôle des types de méthodes contraceptives dans l’espacement des naissances en mi- lieu urbain. Ainsi, en distinguant les méthodes modernes et traditionnelles et en utilisant l’histoire génétique des femmes, ce chapitre fait ressortir des différences de comportement en matière de contraception entre les femmes des zones formelles et informelles à Ouagadougou (capitale du Burkina Faso). Les résultats montrent que les deux types de méthodes contraceptives aug- mentent l’écart des naissances et diminuent la probabilité qu’une naissance se produise moins de 24 mois après la précédente. Prendre en compte les caractéristiques non observées mais invariants avec le temps ne modifie pas significativement l’amplitude du coefficient de l’utilisation de la contracep- tion moderne dans les deux types de zone. Toutefois, dans la zone informelle, la prise en compte les effets fixes des femmes augmentent significativement l’effet des méthodes traditionnelles. Les normes sociales, la perception de la planification familiale et le rôle du partenaire de la femme pourraient expli- quer ces différences de comportement entre les zones formelles et informelles. Par conséquent, pour améliorer l’utilisation de la contraception et de leur efficacité, il est essentiel de hiérarchiser les actions en fonction du type de sous-population, même dans les zones urbaines.
Resumo:
Les médias renforcent l’image négative de l’émergence de zones criminelles dans certaines banlieues, mettant en avant l’impuissance des interventions policières et de la stratégie étatique. Les citoyens vivant au quotidien dans ces quartiers expriment un sentiment d’insécurité. L’impression d’un cercle vicieux entre insécurité réelle et sentiment d’insécurité persiste alors au travers de tels discours et perdure au travers des époques et des lieux, que ce soit en France, aux États-Unis ou même au Canada. Bon nombre d’études ont déjà posé la question à savoir si ces discours se fondent sur une réelle situation d’insécurité ou sur le sentiment d’insécurité des citoyens mais peu ont pris l’axe d’approfondir la réflexion et l’étude sur ces nouveaux phénomènes de désordres urbains et d’incivilités émergents dans les banlieues du Québec. Cette recherche a pour but d’approfondir cette réflexion en prenant un exemple d’un quartier de Laval au Québec. Il s’agit d’établir s’il y a réelle problématique d’incivilités et de désordres urbains ou s’il s’agit davantage d’un sentiment d’insécurité, le but étant ainsi de pouvoir établir un guide de résolutions de problèmes dans les banlieues et d’apporter une réflexion sur les interventions potentielles dans des zones sensibles. Se basant sur une méthodologique mixte, reliant une comparaison des statistiques de criminalité par quartiers à la perception d’acteurs clés de terrain de Laval, cette recherche apporte un nouveau regard sur ces résolutions de problèmes. Les résultats apportent une analyse intéressante sur cette interaction en soulignant l’importance du quartier et des caractéristiques sociodémographiques, du contrôle social informel, du tissu social mais aussi de la nécessité du cadre de l’autorité institutionnelle telle que la police, l’école ou encore le tissu associatif. Ces premiers éléments permettent d’ouvrir la discussion sur un plan partenarial d’interventions établissant une stratégie de lutte contre l’insécurité et le sentiment d’insécurité, cassant ainsi ce cercle vicieux par la mise en place d’une nouvelle gouvernance locale de sécurité et de bien-vivre ensemble.
Resumo:
Le campus de l’Université de Montréal est composé de bâtiments et d’aménagements paysagers hautement significatifs, dont la présence contribue à faire comprendre son évolution spatiale. Parmi eux, les espaces libres des années 1960 méritent une attention particulière pour plusieurs raisons historiques : ils font l’objet d’une réflexion pour la toute première fois dans l’histoire du campus ; l’Université de Montréal vit une phase d’expansion sans précédent ; les disciplines de l’aménagement et la pratique de planification émergent au Québec. Cet article présente de manière contextuelle les principes de planification qui ont mené à leur réalisation par La Haye et associés, firme d’urbanisme de premier plan au Québec. Il expose les qualités et les défauts des espaces libres de cette période moderne, soit l’innovation sur le plan de la vision planificatrice et du design, d’un côté, et la trop grande importance accordée aux automobiles au détriment de la sécurité et de la convivialité, de l’autre côté.
Resumo:
Plusieurs chercheurs ont constaté un déséquilibre démographique important (ratio homme/femme) en Inde du Nord-Ouest qui serait l’une des conséquences directe de la sélection sexuelle prénatale engendrée par forte préférence pour la naissance des garçons. Dans les villes de Jaipur (Rajasthan) et Gurgaon (Haryana), auprès de femmes mariées issues de milieux socio-économiques aisés, j’ai tenté de comprendre comment les femmes vivent au quotidien la préférence pour les garçons et d’explorer pourquoi elles reproduisent ces préférences et discriminations envers garçons et filles dans leurs pratiques reproductives. Le recours à la sélection sexuelle semble résoudre de nombreuses tensions produites par les interactions entre les changements économiques, l’intensification de la planification familiale, l’accessibilité aux technologies de la santé reproductive et les attentes filiales de la famille. Bien que les femmes subissent de la pression familiale pour concevoir un fils, elles peuvent désirer pour elles-mêmes la naissance de fils, une préférence influencée par la construction identitaire de genre qui associe l’achèvement de la féminité à travers les rôles d’épouse et la maternité de fils. Les pressions pour la naissance d’un garçon émaneraient tout autant des structures sociales que de l’environnement familial immédiat.