595 resultados para Cas multiples


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La littérature abordant les enjeux socio-éthiques et réglementaires associés aux médicaments est relativement abondante, ce qui n’est pas le cas des dispositifs médicaux (DM). Ce dernier secteur couvre une très large diversité de produits qui servent à de multiples applications: diagnostic, traitement, gestion des symptômes de certaines conditions physiques ou psychiatriques, restauration d’une fonction débilitante, chirurgie, etc. À tort, on a tendance à croire que les DM sont réglementés de la même manière que les médicaments, que ce soit pour les exigences concernant leur mise en marché ou des pratiques de surveillance après mise en marché. Or, au cours des dernières années, leur usage élargi, leur impact sur les coûts des soins de santé, et les rappels majeurs dont certains ont fait l’objet ont commencé à inquiéter la communauté médicale et de nombreux chercheurs. Ils interpellent les autorités réglementaires à exercer une plus grande vigilance tant au niveau de l’évaluation des nouveaux DM à risque élevé avant leur mise en marché, que dans les pratiques de surveillance après mise en marché. Une stratégie plus rigoureuse d’évaluation des nouveaux DM permettrait d’assurer un meilleur suivi des risques associés à leur utilisation, de saisir la portée des divers enjeux socio-éthiques découlant de l’utilisation de certains DM, et de préserver la confiance du public. D’emblée, il faut savoir que les autorités nationales n’ont pas pour mandat d’évaluer la portée des enjeux socio-éthiques, ou encore les coûts des DM qui font l’objet d’une demande de mise en marché. Cette évaluation est essentiellement basée sur une analyse des rapports risques-bénéfices générés par l’usage du DM pour une indication donnée. L’évaluation des impacts socio-éthiques et l’analyse coûts-bénéfices relèvent des agences d’Évaluation des technologies de santé (ÉTS). Notre recherche montre que les DM sont non seulement peu fréquemment évalués par les agences d’ÉTS, mais l’examen des enjeux socio-éthiques est trop souvent encore incomplet. En fait, les recommandations des rapports d’ÉTS sont surtout fondées sur une analyse coûts-bénéfices. Or, le secteur des DM à risque élevé est particulièrement problématique. Plusieurs sont non seulement porteurs de risques pour les patients, mais leur utilisation élargie comporte des impacts importants pour les systèmes de santé. Nous croyons que le Principisme, au cœur de l’éthique biomédicale, que ce soit au plan de l’éthique de la recherche que de l’éthique clinique, constitue un outil pour faciliter la reconnaissance et l’examen, particulièrement par les agences d’ÉTS, des enjeux socio-éthiques en jeu au niveau des DM à risque élevé. Également, le Principe de Précaution pourrait aussi servir d’outil, particulièrement au sein des agences nationales de réglementation, pour mieux cerner, reconnaître, analyser et gérer les risques associés à l’évaluation et l’utilisation de ce type de DM. Le Principisme et le Principe de Précaution pourraient servir de repères 1) pour définir les mesures nécessaires pour éliminer les lacunes observées dans pratiques associées aux processus de réglementation, et 2) pour mieux cerner et documenter les enjeux socio-éthiques spécifiques aux DM à risque élevé.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduction. Les programmes de vélos en libre-service (PVLS) représentent une innovation en transport actif. À ce jour, la sensibilisation à cette innovation en tant que prérequis à l’accessibilité n’a jamais été étudiée. Objectif. Identifier les facteurs liés à l’absence de sensibilisation à l’existence du PVLS à Montréal. Méthode. 7011 Montréalais âgés de 18 ans et plus ont été interrogés au cours de 3 sondages téléphoniques sur une période couvrant deux saisons : avant la première saison (n=2000), après la première saison (n=2502) et après la deuxième saison (n=2509). Des analyses de régression logistique ont été réalisées sur 93,6 % (n=6562) de l’échantillon pour examiner l’effet du temps, de la proximité des stations de vélos et du niveau d’éducation sur l’absence de sensibilisation à l’existence du PVLS. Résultats. Nous constatons que, après la première saison d’implantation du PVLS, la probabilité d’absence de sensibilisation au PVLS est plus élevée chez les individus dont le niveau d’éducation est faible que chez ceux dont le niveau d’éducation est élevé (RC = 1,60; 95 % IC : 1,18; 2,19). Aussi, nous observons que, après la deuxième saison d’implantation, la probabilité d’absence de sensibilisation au PVLS est plus élevée chez les individus dont le niveau d’éducation est faible et qui vivent dans un voisinage pourvu d’un PVLS, que chez ceux dont le niveau d’éducation est élevé et qui vivent dans un voisinage dépourvu d’un PVLS (RC = 1,63, 95 % IC : 1,01; 2,64). Conclusion. Malgré l’accessibilité au PVLS dans un voisinage, des inégalités sociales persistent.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’utilisation accrue des nanomatériaux manufacturés (NM) fait en sorte que les différents acteurs de réglementation se questionnent de plus en plus par rapport à leur destin et leurs impacts sur les écosystèmes et la santé humaine suite à leur rejet dans l’environnement. Le développement de techniques analytiques permettant de détecter et de caractériser les NM en matrice environnementale est impératif étant donné la nécessité d’évaluer le risque relié à ces polluants émergents. Une des approches de plus en plus favorisée est d’utiliser une technique chromatographique et un ou plusieurs détecteurs sensibles dans les buts de réduire les effets de matrice, d’identifier des nanoparticules (NP) selon leurs temps de rétention et de les quantifier à des concentrations représentatives de la réalité environnementale. Une technique analytique utilisant la chromatographie hydrodynamique (HDC) et des détecteurs en ligne ou hors ligne (détecteurs de diffusion statique ou dynamique de la lumière, spectromètre de masse par torche à plasma en mode particule unique (SP-ICPMS), l’ultracentrifugation analytique) a donc été développée. Le couplage de la colonne HDC avec ces détecteurs a permis de caractériser des NP standards et l’optimisation des conditions de séparation de ces nanoparticules de polystyrène, d’or et d’argent a permis de confirmer que les NP y sont bel et bien séparées seulement selon leur taille, tel que la théorie le prédit. De plus, l’utilisation de la colonne HDC couplée au SP-ICPMS a permis de séparer un mélange de nanoparticules d’argent (nAg) et de les détecter à des concentrations représentatives de celles rencontrées dans l’environnement, soit de l’ordre du μg L-1 au ng L-1. Par exemple, dans un échantillon d’eau usée (effluent), un mélange de nAg de 80 et de 40 nm a été séparé et les nAg ont été détectées à l’aide du SP-ICPMS connecté à la colonne HDC (temps de rétention de 25.2 et 25.6 minutes et diamètres déterminés de 71.4 nm et 52.0 nm). Finalement, pour plusieurs échantillons environnementaux auxquels aucun ajout de nanoparticules n’a été fait, les analyses HDC-SP-ICPMS effectuées ont permis de déterminer qu’ils ne contenaient initialement pas de nAg.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Streptococcus du Groupe B (GBS) et Streptococcus suis sont deux pathogènes encapsulés qui induisent des pathologies similaires dont la méningite et la septicémie chez les animaux et/ou les humains. Les sérotypes III et V du GBS et les sérotypes 2 et 14 du S. suis (utilisés dans cette étude) sont parmi les plus prévalents et/ou les plus virulents. La capsule polysaccharidique (CPS) définit le sérotype et est considérée comme un facteur de virulence essentiel pour les deux espèces bactériennes. Malgré que plusieurs études aient été réalisées au niveau des interactions entre ces streptocoques et les cellules de l’immunité innée, aucune information n’est disponible sur la régulation de la réponse immunitaire contre ces pathogènes par les cellules dendritiques (DCs) et leur interactions avec d’autres cellules, notamment les cellules ‘natural killer’ (NK). Dans cette étude, différentes approches (in vitro, ex vivo et in vivo) chez la souris ont été développées pour caractériser les interactions entre les DCs, les cellules NK et GBS ou S. suis. L’utilisation de mutants non encapsulés a permis d’évaluer l’importance de la CPS dans ces interactions. Les résultats in vitro avec les DCs infectées par GBS ou S. suis ont démontré que ces deux pathogènes interagissent différemment avec ces cellules. GBS est grandement internalisé par les DCs, et ce, via de multiples mécanismes impliquant notamment les radeaux lipidiques et la clathrine. Le mécanisme d’endocytose utilisé aurait un effet sur la capacité du GBS à survivre intracellulairement. Quant au S. suis, ce dernier est très faiblement internalisé et, si le cas, rapidement éliminé à l’intérieur des DCs. GBS et S. suis activent les DCs via différents récepteurs et favorisent la production de cytokines et chimiokines ainsi que l’augmentation de l’expression de molécules de co-stimulation. Cette activation permet la production d’interferon-gamma (IFN-y) par les cellules NK. Cependant, GBS semble plus efficient à activer les DCs, et par conséquent, les cellules NK que S. suis. La production d’IFN-y, en réponse à la stimulation bactérienne, est principalement assurée par un contact direct entre les DCs et les cellules NK et ne dépend qu’en partie de facteurs solubles. De plus, nos résultats in vivo ont démontré que ces deux streptocoques induisent rapidement la libération d'IFN-y par les cellules NK lors de la phase aiguë de l'infection. Ceci suggère que les interactions entre les DCs et les cellules NK pourraient jouer un rôle dans le développement d’une réponse immune T auxiliaire de type 1 (T ‘helper’ 1 en anglais; Th1). Cependant, la capacité de S. suis à activer la réponse immunitaire in vivo est également plus faible que celle observée pour GBS. En effet, les CPSs de GBS et de S. suis jouent des rôles différents dans cette réponse. La CPS de S. suis empêche une activation optimale des DCs et des cellules NK alors que c’est l’opposé pour la CPS de GBS, indépendamment du sérotype évalué. En résumé, cette étude adresse pour la première fois la contribution des DCs et des cellules NK dans la réponse immunitaire innée lors d’une infection à GBS ou à S. suis et, par extension, dans le développement d’une réponse Th1. Nos résultats renforcent davantage le rôle central des DCs dans le contrôle efficace des infections causées par des bactéries encapsulées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des Arts et des Sciences Humaines en vue de l'obtention du grade de doctorat en psychologie clinique (D.Psy)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire de maîtrise s’intéresse aux nouvelles expressions protestataires qui ont émergé après les soulèvements connus sous le « printemps arabe » en prenant, comme objet d’analyse, Uprising of Women in the Arab World (UWAW), une page Facebook qui œuvre pour les droits des femmes à travers le « monde arabe ». Ce travail propose de saisir cette page Facebook à travers les croisements d’enjeux d’arabité et de genre, dans une perspective discursive critique. La notion d’arabité désigne une appartenance commune au « monde arabe » qui reposerait sur la production de référents religieux et linguistiques partagés par l’ensemble des pays arabes. Le genre est abordé comme un langage privilégié pour signifier les rapports de pouvoir (Scott, 1988). Afin de mettre en lumière les différentes intersections de l’arabité et du genre, je propose de recourir au concept d’articulation (Hall, 1980). Ce dernier réfère à l’assemblage de différentes pratiques de production qui constituent un discours. Cette mise en relation, non-nécessaire, s’effectue dans une conjoncture régie par les forces hégémoniques du moment. Ainsi, le concept d’articulation permet d’explorer ce que font dans leur (co)présence les discours hétérogènes par et dans lesquels l’arabité et le genre sont rendus visibles dans et à travers la page UWAW. Ces articulations sont questionnées à partir du concept de chaine d’équivalence de Laclau (2008) qui désigne une condensation de revendications hétérogènes, à travers des relations d’équivalence et de différence. Ces dernières se produisent à travers l’affirmation des particularités des revendications, tandis que les relations d’équivalence sont basées sur la mise en avant de la communalité des revendications. Cette recherche est guidée par la proposition de recherche suivante : UWAW peut être comprise comme un espace discursif traversé par des chaines d’équivalences où les articulations de l’arabité et du genre se matérialiseraient selon des relations d’équivalence et de différence. Elle fait l’objet d’une analyse critique de trois campagnes ayant eu cours sur l’UWAW en 2014. Ces dernières sont abordées comme des lieux de discours, soit des espaces construits dans et par un recours à des discours spécifiques qui participent à la production de savoirs situés dont ils sont aussi, de quelque manière, les produits. Ainsi, l’analyse s’attarde à comprendre comment la production de sens repose sur des discours concurrentiels qui puisent dans des savoirs différents qu’ils contribuent à faire circuler. L’analyse démontre la grande hétérogénéité de l’arabité qui s’est manifestée sous un visage distinct dans chaque campagne. Elle est homogénéisée et universalisée dans Do You know, clivée dans Israël Apartheid Week, et citoyenne dans « Je ne resterai pas silencieuse ». Le genre est davantage stabilisé, puisqu’il agit principalement comme force universalisante dans les trois campagnes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La décentralisation implantée en 2004 au Niger, a pour objectif de promouvoir le développement « par le bas » et de diffuser les principes démocratiques dans les milieux locaux, afin d’améliorer les conditions de vie des populations. Les recherches sur le sujet font état d’un écart considérable entre les objectifs et les réalisations de la décentralisation. Les facteurs avancés pour expliquer cet écart sont entre autres, le faible appui technique et financier de l’État envers les collectivités territoriales ou encore la quasi-inexistence d’une fonction publique locale qualifiée et apte à prendre en charge les projets de décentralisation. Toutefois, ces observations s’avèrent insuffisantes pour rendre compte des difficultés rencontrées par les acteurs de la décentralisation au Niger. Nous affirmons que les partis politiques jouent un rôle fondamental dans le processus de décentralisations. Ceux-ci diffusent des stratégies d’influence politique et de patronage dans les arènes locales. Les stratégies des partis politiques entravent les initiatives des acteurs locaux, notamment leur capacité de mobilisation des ressources financières.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contexte : Pour les programmes sanitaires faits dans les pays à faibles ressources, la non-pérennisation des résultats est un phénomène important (Pluye, Potvin, & Denis, Making public health programs last: conceptualizing sustainability, 2004). Par contre, peu d’études ont été faites pour présenter des solutions à ce problème. Pour trouver des pistes de réponses, nous avons fait une étude de cas du programme national multisectoriel de lutte contre le VIH/SIDA (PNMLS) en République Démocratique du Congo. En 2004, le programme a été implanté avec l’aide de la Banque Mondiale à travers son programme MAP (Multi Aids Program). Le MAP s’est retiré en 2010. Objectifs : Le but de notre recherche était de déterminer, trois ans après le départ du MAP, quel a été le niveau de pérennisation des objectifs atteints. Notre autre objectif était de savoir quels ont été les facteurs qui ont influencé la pérennisation des objectifs atteints. Méthodes : Nous avons fait une revue de littérature sur la pérennisation et ainsi développé un cadre théorique mettant en lien les facteurs qui pourraient influencer la pérennisation des résultats. Nous avons observé le programme PNLMS dans son écosystème pour repérer quels sont les facteurs qui ont influé la pérennisation des résultats. Nous avons passé des entrevues aux acteurs clefs et avons fait une analyse documentaire, pour ainsi trouver des réponses à nos questions de recherche. Résultat : notre recherche supporte le concept qu’une approche multisectorielle aurait un impact positif sur la pérennisation des résultats. Par contre, il est important d’adapter cette approche multisectorielle à l’environnement et l’écosystème dans lequel évolue le programme. Cette adaptation doit se faire dès l’implantation du programme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche s’inscrit dans le cadre du programme interdisciplinaire de recherche Ignis Mutat Res et vise à éclairer l’univers de l’architecture sur la capacité des toits à amener des solutions efficaces aux problématiques environnementales dans un contexte urbain dense et à forte consommation d'énergie. La volonté de réduire l’empreinte écologique des villes est aujourd’hui bien présente dans le monde de la recherche architecturale et urbaine, ayant ainsi fait preuve de son importance. Pourtant, la réduction de l’empreinte écologique des villes serait une approche globale difficile à quantifier économiquement. Le manque de méthodologie standardisée fait en sorte que les travaux sur le sujet empruntent des démarches qui ne dépassent pas l’étape exploratoire. Dans ce contexte, le mémoire porte sur l’élaboration d’un dispositif numérique d’évaluation des potentialités des toits horizontaux comme un outil d’aide à la décision pour les interventions urbaines visant à réduire l’empreinte écologique des villes, en utilisant le cas de Montréal. Ce type de toit est abordé comme un territoire d’investigation en contribution aux préoccupations reliées à la gestion de l’eau et à l’atténuation des îlots de chaleur. Plus précisément, cette recherche porte sur trois secteurs de l'île de Montréal. Ces échantillons correspondent à deux types de formes urbaines (résidentielle versus commerciale ou industrielle) et sont décortiqués dans le but d’identifier les déséquilibres entre les espaces naturels, faisant référence aux espaces verts (jardins, parcs et canopées) et les étendues minérales occasionnées par l'urbanisation. Ces rapports exprimés en superficies démontrent que l’étendue des toits est assez considérable pour compenser le manque d’espaces naturels en ville. La végétalisation des toits à l’échelle d’un secteur pourrait donc atténuer considérablement les problèmes environnementaux liés aux îlots de chaleur et à la gestion du ruissellement des eaux de pluie. La stratégie consistant à explorer l'hypothèse des 50 % de naturel versus 50 % de minéral pourrait contribuer grandement à l’autonomisation des villes et à la diminution de leurs dépendances vis-à-vis des ressources fossiles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans le but d’optimiser la représentation en mémoire des enregistrements Scheme dans le compilateur Gambit, nous avons introduit dans celui-ci un système d’annotations de type et des vecteurs contenant une représentation abrégée des enregistrements. Ces derniers omettent la référence vers le descripteur de type et l’entête habituellement présents sur chaque enregistrement et utilisent plutôt un arbre de typage couvrant toute la mémoire pour retrouver le vecteur contenant une référence. L’implémentation de ces nouvelles fonctionnalités se fait par le biais de changements au runtime de Gambit. Nous introduisons de nouvelles primitives au langage et modifions l’architecture existante pour gérer correctement les nouveaux types de données. On doit modifier le garbage collector pour prendre en compte des enregistrements contenants des valeurs hétérogènes à alignements irréguliers, et l’existence de références contenues dans d’autres objets. La gestion de l’arbre de typage doit aussi être faite automatiquement. Nous conduisons ensuite une série de tests de performance visant à déterminer si des gains sont possibles avec ces nouvelles primitives. On constate une amélioration majeure de performance au niveau de l’allocation et du comportement du gc pour les enregistrements typés de grande taille et des vecteurs d’enregistrements typés ou non. De légers surcoûts sont toutefois encourus lors des accès aux champs et, dans le cas des vecteurs d’enregistrements, au descripteur de type.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’encadrement légal particulier de la négociation collective impliquant les pompiers municipaux québécois, malgré sa soumission à certaines règles prévues par le régime général du Code du travail, présente des spécificités qui pourraient en affecter l’efficacité et ainsi contribuer à l’instauration de relations de travail difficiles. Ce mémoire s’attarde aux difficultés associées à ce régime de négociation collective interdisant le recours à la grève et prévoyant son remplacement par un système d’arbitrage obligatoire. L’étude des relations de travail impliquant les pompiers de Montréal ne permet pas, à elle seule, de qualifier ce régime particulier de négociation collective d’alternative inefficace au régime général. Toutefois, ce mémoire met en évidence les limites d’un cadre légal, alors que des facteurs externes au droit, tels que le caractère public de l’employeur et la nature particulière du métier, semblent jouer un rôle déterminant dans la dynamique conflictuelle des relations de travail impliquant des pompiers municipaux.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les collaborations interorganisationnelles apparaissent de plus en plus incontournables pour s’attaquer concrètement, et avec quelques chances de résultats, à nos problèmes et défis collectifs les plus importants, que ce soit dans les domaines de l’environnement, de la santé ou de la sécurité publique. Ces initiatives de gouvernance collaborative surpassent chacune des organisations individuelles pour décider et intervenir collectivement. Dans cette visée, cette recherche contribue à mieux comprendre le processus de concertation et les interactions entre les acteurs et les organisations qui participent à des initiatives de collaboration interorganisationnelle où de nombreuses parties prenantes sont interpellées. Plus précisément, cette étude porte sur la problématique des réseaux d’acteurs et de la gouvernance en sécurité routière au Québec. Nous nous sommes penchés sur l’expérience de la Table québécoise de la sécurité routière (TQSR) afin de comprendre les enjeux actuels de représentation et de concertation en matière d’action gouvernementale. Cette recherche examine le rôle de l’identité des acteurs et de leurs interactions dans les processus de construction de consensus et de prise de décision, de même que les divers enjeux de communication inhérents à ce genre d’exercice collectif. Nous démontrons également qu’un facteur de succès d’une collaboration interorganisationnelle repose sur la capacité des acteurs à construire une identité collective malgré leurs intérêts divergents et parfois opposés. Cette thèse améliore donc notre compréhension des mécanismes et des processus à la base des collaborations interorganisationnelles comme pratique de gouvernance collaborative, un mode de gestion de plus en plus utilisé dans l’administration de nos sociétés contemporaines. Cette thèse contribue également à montrer la manière dont les organisations se construisent et se maintiennent localement par l’entremise de la communication et de ses modalités.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In a global context of climate change and energy transition, Quebec seems to be privileged, producing a large amount of cheap hydroelectricity. But aside from the established popular belief that Quebec’s energy is abundant, clean and inexpensive, Quebec’s energy future is still precarious. Within a few decades, Quebec will have to import a significant amount of electricity at a higher price than it actually produces it; the cheap exploitable hydro resources will not only get scarcer if not nonexistent; and the national hydroelectric ``cultural`` heritage even seems to quell the development of alternative energies, letting few space for local innovation coming from municipalities. While in many countries, municipalities are recognised as key figures in the energy sector, here, in Quebec, their role in the national energy system seems marginal. As main actors responsible for territorial planning, it seams that municipalities could play a more important role on Quebec’s energy scene. So they can densify their territory, develop active and collective solutions to transportation issues, they can adopt exemplary energetic habits, they can produce their own energy with wind, solar or even district heating systems. District heating and heat networks being less well know and documented in Quebec, the present study aims at explaining their low penetration level in the Quebec energy landscape. The study also attempts to understand what are the main hurdles to the implementation of district heating in Quebec’s particular energetic context. Finally, the research tries to open a discussion on the motives that could incite municipalities to adopt district heating as an energy alternative. Based on some twenty interviews with key actors of the energy and municipal sectors, the findings give some indications that the low penetration level of district heating in the Quebec municipalities could explain itself in part by : the low priced hydroelectricity, the presence of a comfortable, sufficient and pervasive Hydro-Quebec(er) culture, and also by organizational dynamic and a certain political inertia which limit the appropriation of an energy competence by local governments. In turn, the study shows that district heating solutions are more likely to develop in contexts in which : there are minimum urban or energy density levels; the development of district heating coincides with the local or regional economic structure; and where exist a mobilising local leader or local visions from a community in favor of the implementation of alternative energy systems.