957 resultados para Conduite du changement


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette étude empirique que nous avons appliquée à l’ingénierie-conseil, vise principalement deux objectifs ; (1) la validation des relations entre certaines caractéristiques des clients des services de ressources humaines et leur niveau de satisfaction face à ces services et (2) l’étude des relations entre les compétences des professionnels RH et le niveau de satisfaction des clients. Nous avons retenu un cadre théorique qui est constitué principalement de l’approche des constituantes multiples. Notre modèle d’analyse suppose que la satisfaction des groupes-clients d’un SRH est influencée par onze facteurs. De ces facteurs, cinq reflètent les caractéristiques des clients ; 1-l’engagement, 2-le sexe, 3-l’âge, 4-l’ancienneté et 5-la fréquence des contacts. Les six autres facteurs représentent les compétences des professionnels en ressources humaines ; 1-expert en ressources humaines, 2-allié de l’organisation, 3-gestion de la culture et du changement, 4-architecte stratégique, 5-gestion de talent et 6-activiste crédible. Pour les fins de notre recherche, nous retenons une approche quantitative et qualitative. Les résultats des analyses bivariées ne confirment pas nos hypothèses. Par contre, l’ancienneté et l’âge des clients semblent avoir une relation négative avec la satisfaction des clients. Quant à l’analyse de contenu des entrevues effectuées auprès des professionnels ressources humaines d’une organisation, elle permet de faire ressortir les liens entre la satisfaction et cinq compétences. Celles-ci sont l’expert en ressources humaines, l’allié de l’organisation, la gestion de la culture et du changement, la gestion du talent et l’activiste crédible. Ainsi, cinq propositions sont supportées.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ma thèse montre la présence et le rôle de la métaphysique dans Vérité et méthode. Elle tente de démontrer que Gadamer s'inspire du néoplatonisme pour surmonter le subjectivisme de la modernité et propose une métaphysique à cette fin. Après avoir expliqué comment Gadamer se réapproprie l’héritage de la pensée grecque pour critiquer la modernité en situant son interprétation de Platon par rapport à celle de Heidegger, je montre que Gadamer s’approprie la conception de l’être de Plotin de façon telle qu’il peut s’y appuyer pour penser l’autoprésentation de l’être dans l’expérience herméneutique de la vérité. L’art va, pour ce faire, redevenir sous la conduite du néoplatonisme source de vérité. Gadamer redonne en effet une dignité ontologique à l’art grâce à la notion d’émanation, notion qui permet de penser qu’il y a une présence réelle du représenté dans sa représentation, celle-ci émanant du représenté sans l’amoindrir, mais lui apportant au contraire un surcroît d’être. La notion d’émanation permet ensuite à Gadamer d’affirmer le lien indissoluble qui unit les mots aux choses. En effet, la doctrine du verbe intérieur de Thomas d’Aquin implique ce lien que Platon avait occulté en réduisant le langage, comme la logique, à n’être qu’un instrument de domination du réel. L’utilisation de la notion néoplatonicienne d’émanation permet donc de dépasser la philosophie grecque du logos et de mieux rendre compte de l’être de la langue. Je montre ensuite comment Gadamer radicalise sa pensée en affirmant que l’être qui peut être compris est langage, ce qui veut dire que l’être, comme chez Plotin, est autoprésentation de soi-même. Pour ce faire, Gadamer rattache l’être du langage à la métaphysique néoplatonicienne de la lumière. Les dernières pages de Vérité et méthode rappellent en effet que la splendeur du beau est manifestation de la vérité de l’être. On rattachera alors le concept de vérité herméneutique à ses origines métaphysiques. La vérité est une manifestation de l’être dont on ne peut avoir part que si on se laisse submerger par sa lumière. Loin d’être affaire de contrôle méthodique, l’expérience de la vérité exige de se laisser posséder par ce qui est à comprendre. Je démontre ainsi que Gadamer a découvert dans le néoplatonisme des éléments permettant de s’opposer à la dictature du sujet moderne, dictature qui doit être renversée, car elle masque le réel rapport de l’homme à la vérité en faisant abstraction de la finitude de son existence concrète. La critique du subjectivisme moderne sous la conduite du néoplatonisme ouvre ainsi le chemin vers une métaphysique de la finitude.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les habitats uniques de l'écotone forêt boréale-subarctique dans le nord du Canada subissent les contrecoups du changement climatique. Combinés aux effets de la mondialisation, les changements environnementaux touchent les Inuits de cette région et imposent des contraintes importantes sur leur mode de vie traditionnel, ce qui a des répercussions sur leur langue et les savoirs qui l'accompagnent. Cette étude compare deux aspects de l’ethnobiologie inuite : a) les noms et les utilisations des plantes par les Inuits de Nain, Nunatsiavut, suivis par une comparaison des utilisations avec la communauté inuite de Kangiqsualujjuaq, Nunavik, et b) une analyse des types de lieux ou d’habitats que les Inuits reconnaissent et nomment. Des interviews semi-dirigés ont été menés à Nain, Nunatsiavut et à Kangiqsualujjuaq, au Nunavik. Les plantes mentionnées sont utilisées comme aliment, thé, médecine, combustible, construction, nettoyage, et autres utilisations. Les deux communautés ont utilisé un nombre égal de plantes, avec des proportions équivalentes de taxons vasculaires/invasculaires, de formes de croissance (habitus), et d’espèces par catégorie d'utilisation. Les éléments du paysage les plus fréquemment rapportés sont d’ordre topographique, hydrologique ou écologique. L’intégration des concepts inuits, quant aux plantes et au paysage, à ceux de la science occidentale peut améliorer notre compréhension de l'écologie subarctique, aider à impliquer les acteurs locaux dans les décisions sur le développement de leur territoire et, conséquemment, modifier l'aménagement du territoire ainsi que les initiatives de conservation de la biodiversité. Ces concepts ont également des répercussions sur les stratégies d'adaptation face aux changements climatiques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En Argentine, la mise en place des lois internationales sur les droits humains dans les tribunaux locaux et son impact ne peuvent être séparés de l’histoire récente, qui a vu commettre des crimes massifs pendant la dictature de 1976 à 1983. En 1987, la Cour suprême a voté « la loi de l’Obéissance due » aussi appelée « loi de l’impunité ». Puis, en 2005, cette loi a été déclarée invalide par une nouvelle décision de la Cour suprême, car contraire à celles sur les droits humains. Les principes de la loi internationale ont prévalu pour permettre une justice efficace, ce changement soulignant le rôle de la société civile. Étant donné les réclamations grandissantes pour plus de justice dans la société argentine, le rôle de la société civile est essentiel pour comprendre la transformation et l’accroissement de la valeur normative des lois sur les droits humains dans les Cours suprêmes argentines. L’action de la société civile internationale est liée aux processus sud-américains de démocratisation, surtout dans le domaine des droits humains. La lutte contre l’impunité n’a été rendue publique que très récemment, soit seulement à partir de 2003. Elle se traduit aujourd’hui dans le rôle grandissant de l’expertise juridique et éthique dans la mise en place des politiques publiques. En fait, l’influence de la nouvelle stratégie dépend largement de la transparence des administrations bureaucratiques, des valeurs et de la volonté politique du gouvernement. Le changement légal peut être analysé selon l’acteur à l’origine du changement, le mécanisme par lequel le changement se fait et le contexte qui fournit l’opportunité pour ce changement. Dans le présent article, nous nous concentrons sur les stratégies argumentatives présentées par les juges dans la description des évènements entourant la décision de 2005. Le but de cet article est d’essayer de lier les stratégies des sociétés civiles avec l’argumentation légale dans la décision de 2005. Ces stratégies poussent à surmonter l’obstacle juridique : le fait que les crimes contre l’humanité n’étaient pas codifiés dans la loi nationale quand ils se sont déroulés (et ne le sont toujours pas.)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les défis conjoints du changement climatique d'origine anthropique et la diminution des réserves de combustibles fossiles sont le moteur de recherche intense pour des sources d'énergie alternatives. Une avenue attrayante est d'utiliser un processus biologique pour produire un biocarburant. Parmi les différentes options en matière de biocarburants, le bio-hydrogène gazeux est un futur vecteur énergétique attrayant en raison de son efficacité potentiellement plus élevé de conversion de puissance utilisable, il est faible en génération inexistante de polluants et de haute densité d'énergie. Cependant, les faibles rendements et taux de production ont été les principaux obstacles à l'application pratique des technologies de bio-hydrogène. Des recherches intensives sur bio-hydrogène sont en cours, et dans les dernières années, plusieurs nouvelles approches ont été proposées et étudiées pour dépasser ces inconvénients. À cette fin, l'objectif principal de cette thèse était d'améliorer le rendement en hydrogène moléculaire avec un accent particulier sur l'ingénierie métabolique et l’utilisation de bioprocédés à variables indépendantes. Une de nos hypothèses était que la production d’hydrogène pourrait être améliorée et rendue plus économiquement viable par ingénierie métabolique de souches d’Escherichia coli producteurs d’hydrogène en utilisant le glucose ainsi que diverses autres sources de carbone, y compris les pentoses. Les effets du pH, de la température et de sources de carbone ont été étudiés. La production maximale d'hydrogène a été obtenue à partir de glucose, à un pH initial de 6.5 et une température de 35°C. Les études de cinétiques de croissance ont montré que la μmax était 0.0495 h-1 avec un Ks de 0.0274 g L-1 lorsque le glucose est la seule source de carbone en milieu minimal M9. .Parmi les nombreux sucres et les dérivés de sucres testés, les rendements les plus élevés d'hydrogène sont avec du fructose, sorbitol et D-glucose; 1.27, 1.46 et 1.51 mol H2 mol-1 de substrat, respectivement. En outre, pour obtenir les interactions entre les variables importantes et pour atteindre une production maximale d'hydrogène, un design 3K factoriel complet Box-Behnken et la méthodologie de réponse de surface (RSM) ont été employées pour la conception expérimentale et l'analyse de la souche d'Escherichia coli DJT135. Le rendement en hydrogène molaire maximale de 1.69 mol H2 mol-1 de glucose a été obtenu dans les conditions optimales de 75 mM de glucose, à 35°C et un pH de 6.5. Ainsi, la RSM avec un design Box-Behken était un outil statistique utile pour atteindre des rendements plus élevés d'hydrogène molaires par des organismes modifiés génétiquement. Ensuite, l'expression hétérologue de l’hydrogénases soluble [Ni-Fe] de Ralstonia eutropha H16 (l'hydrogénase SH) a tenté de démontrer que la mise en place d'une voie capable de dériver l'hydrogène à partir de NADH pourrait surpasser le rendement stoechiométrique en hydrogène.. L’expression a été démontrée par des tests in vitro de l'activité enzymatique. Par ailleurs, l'expression de SH a restaurée la croissance en anaérobie de souches mutantes pour adhE, normalement inhibées en raison de l'incapacité de réoxyder le NADH. La mesure de la production d'hydrogène in vivo a montré que plusieurs souches modifiées métaboliquement sont capables d'utiliser l'hydrogénase SH pour dériver deux moles d’hydrogène par mole de glucose consommé, proche du maximum théorique. Une autre stratégie a montré que le glycérol brut pourrait être converti en hydrogène par photofermentation utilisant Rhodopseudomonas palustris par photofermentation. Les effets de la source d'azote et de différentes concentrations de glycérol brut sur ce processus ont été évalués. À 20 mM de glycérol, 4 mM glutamate, 6.1 mol hydrogène / mole de glycérol brut ont été obtenus dans des conditions optimales, un rendement de 87% de la théorie, et significativement plus élevés que ce qui a été réalisé auparavant. En prolongement de cette étude, l'optimisation des paramètres a également été utilisée. Dans des conditions optimales, une intensité lumineuse de 175 W/m2, 30 mM glycérol et 4.5 mM de glutamate, 6.69 mol hydrogène / mole de glycérol brut ont été obtenus, soit un rendement de 96% de la valeur théorique. La détermination de l'activité de la nitrogénase et ses niveaux d'expression ont montré qu'il y avait relativement peu de variation de la quantité de nitrogénase avec le changement des variables alors que l'activité de la nitrogénase variait considérablement, avec une activité maximale (228 nmol de C2H4/ml/min) au point central optimal. Dans la dernière section, la production d'hydrogène à partir du glucose via la photofermentation en une seule étape a été examinée avec la bactérie photosynthétique Rhodobacter capsulatus JP91 (hup-). La méthodologie de surface de réponse avec Box-Behnken a été utilisée pour optimiser les variables expérimentales de façon indépendante, soit la concentration de glucose, la concentration du glutamate et l'intensité lumineuse, ainsi que d'examiner leurs effets interactifs pour la maximisation du rendement en hydrogène moléculaire. Dans des conditions optimales, avec une intensité lumineuse de 175 W/m2, 35 mM de glucose, et 4.5 mM de glutamate,, un rendement maximal d'hydrogène de 5.5 (± 0.15) mol hydrogène /mol glucose, et un maximum d'activité de la nitrogénase de 246 (± 3.5) nmol C2H4/ml/min ont été obtenus. L'analyse densitométrique de l'expression de la protéine-Fe nitrogenase dans les différentes conditions a montré une variation significative de l'expression protéique avec un maximum au point central optimisé. Même dans des conditions optimales pour la production d'hydrogène, une fraction significative de la protéine Fe a été trouvée dans l'état ADP-ribosylée, suggérant que d'autres améliorations des rendements pourraient être possibles. À cette fin, un mutant amtB dérivé de Rhodobacter capsulatus JP91 (hup-) a été créé en utilisant le vecteur de suicide pSUP202. Les résultats expérimentaux préliminaires montrent que la souche nouvellement conçue métaboliquement, R. capsulatus DG9, produit 8.2 (± 0.06) mol hydrogène / mole de glucose dans des conditions optimales de cultures discontinues (intensité lumineuse, 175 W/m2, 35 mM de glucose et 4.5 mM glutamate). Le statut d'ADP-ribosylation de la nitrogénase-protéine Fe a été obtenu par Western Blot pour la souche R. capsulatus DG9. En bref, la production d'hydrogène est limitée par une barrière métabolique. La principale barrière métabolique est due au manque d'outils moléculaires possibles pour atteindre ou dépasser le rendement stochiométrique en bio-hydrogène depuis les dernières décennies en utilisant les microbes. À cette fin, une nouvelle approche d’ingénierie métabolique semble très prometteuse pour surmonter cette contrainte vers l'industrialisation et s'assurer de la faisabilité de la technologie de la production d'hydrogène. Dans la présente étude, il a été démontré que l’ingénierie métabolique de bactéries anaérobiques facultatives (Escherichia coli) et de bactéries anaérobiques photosynthétiques (Rhodobacter capsulatus et Rhodopseudomonas palustris) peuvent produire de l'hydrogène en tant que produit majeur à travers le mode de fermentation par redirection métabolique vers la production d'énergie potentielle. D'autre part, la méthodologie de surface de réponse utilisée dans cette étude représente un outil potentiel pour optimiser la production d'hydrogène en générant des informations appropriées concernant la corrélation entre les variables et des producteurs de bio-de hydrogène modifiés par ingénierie métabolique. Ainsi, un outil d'optimisation des paramètres représente une nouvelle avenue pour faire un pont entre le laboratoire et la production d'hydrogène à l'échelle industrielle en fournissant un modèle mathématique potentiel pour intensifier la production de bio-hydrogène. Par conséquent, il a été clairement mis en évidence dans ce projet que l'effort combiné de l'ingénierie métabolique et la méthodologie de surface de réponse peut rendre la technologie de production de bio-hydrogène potentiellement possible vers sa commercialisation dans un avenir rapproché.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les récepteurs couplés aux protéines G (RCPGs) représentent la plus grande famille de cibles thérapeutiques pour le traitement d’une panoplie de pathologies humaines. Bien que plusieurs décennies de recherche aient permis de façonner nos connaissances sur ces protéines membranaires, notre compréhension des déterminants moléculaires de leur activité signalétique reste encore limitée. De ces domaines de recherche, une avancée récente a mis à jour un nouveau phénomène, appelé sélectivité fonctionnelle des ligands, qui a bouleversé les paradigmes décrivant leu fonctionnement de ces récepteurs. Ce concept émane d’observations montrant que l’activité pharmacologique de certains ligands n’est pas nécessairement conservée sur tout le répertoire signalétiques connu du récepteur et peu se restreindre à l'activation sélective d’un sous-groupe de voies de signalisation.Ce nouveau modèle pharmacologique de l'activation des RCPG ouvre de nouvelles possibilités pour la découverte de médicaments plus efficace et sûr, ciblant les RCPGs. En effet, il permet la conception de molécules modulant spécifiquement les voies signalétiques d’intérêt thérapeutique, sans engager les autres voies qui pourraient mener à des effets secondaires indésirables ou de la tolérance. Cette thèse décrit l'utilisation d'une nouvelle approche sans marquage, basée sur la mesure du changement l'impédance cellulaire. Par la mesure des changements cellulaires, comme la morphologie, l’adhésion et/ou la redistribution des macromolécules, cette approche permet de mesurer de façon simultanée l'activité de plusieurs voies de signalisation impliqués dans ces réponses. Utilisant le récepteur β2-adrénergique (β2AR) comme modèle, nous avons démontré que les variations dans l’impédance cellulaire étaient directement liées à l’activation de multiples voies de signalisation suite à la stimulation du récepteur par son ligand. L’agoniste type du β2AR, l’isoprotérénol, s’est avéré induire une réponse d’impédance dose-dépendante constituée, dans le temps, de plusieurs caractéristiques distinctes pouvant être bloquées de façon compétitive par l’antagoniste ICI118,551 Par l’utilisation d’inhibiteurs sélectifs, nous avons été en mesure de déterminer la contribution de plusieurs voies signalétiques canoniques, comme les voies dépendantes de Gs et Gi, la production d’AMPc et l’activation de ERK1/2, sur ces changements. De plus, la dissection de la réponse d’impédance a permis d’identifier une nouvelle voie de mobilisation du Ca2+ contribuant à la réponse globale des changements initiés par la stimulation du β2AR. Dans une autre étude, nous avons rapporté que la réponse calcique induite par le β2AR serait attribuable à une transactivation Gs-dépendant du récepteur purinergique P2Y11, lui-même couplé à la protéine Gq. La mesure d’impédance permettant de distinguer et de décrire une pléiade d’activités signalétiques, nous avons émis l’hypothèse que des ligands arborant des profils signalétiques différents généreraient des réponses d’impédance distinctes. Le criblage d’une librairie de ligands spécifiques au β2AR a révélé une grande variété de signatures d’impédance. Grâce au développement d’une approche computationnelle innovatrice, nous avons été en mesure de regrouper ces signatures en cinq classes de composés, un regroupement qui s’est avéré hautement corrélé avec le profil signalétique des différents ligands. Nous avons ensuite combiné le criblage de composés par impédance avec l’utilisation d’inhibiteurs sélectifs de voies signalétiques afin d’augmenter la résolution du regroupement. En évaluant l’impact d’une voie signalétique donnée sur la signature d’impédance, nous avons été en mesure de révéler une plus grande variété de textures parmi les ligands. De plus, cette méthode s’est avérée efficace pour prédire le profil signalétique d’une librairie de composés non caractérisés, ciblant le β2AR. Ces travaux ont mené à l’élaboration d’une méthode permettant d’exprimer visuellement la sélectivité fonctionnelle de ligands et ont révélé de nouvelles classes de composés pour ce récepteur. Ces nouvelles classes de composés ont ensuite été testées sur des cardiomyocytes humains, confirmant que les composés regroupés dans différentes classes produisent des effets distincts sur la contractilité de ces cellules. Globalement, ces travaux démontrent la pertinence de l’utilisation de l’impédance cellulaire pour une évaluation précise des différences fonctionnelles parmi les composés ciblant les RCPGs. En fournissant une représentation pluridimensionnelle de la signalisation émanant des RCPGs à l’aide d’un seul essai ne requérant pas de marquage, les signatures d’impédance représentent une stratégie simple et innovante pour l’évaluation de la fonctionnalité sélective des ligands. Cette méthode pourrait être d’une grande utilité dans le processus de découverte de nouveaux médicaments.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En mai 2009, l’Ontario a adopté la Loi sur l’énergie verte et devint ainsi la première juridiction en Amérique du Nord à promouvoir l’énergie renouvelable par le biais de tarifs de rachat garantis. En novembre 2010, dans son Plan énergétique à long terme, la province s’est engagée à déployer 10,700 MW en capacité de production d’énergie renouvelable non-hydroélectrique par 2018. Il s’agit de la cible de déploiement la plus élevée dans ce secteur au Canada. Les infrastructures de production et de distribution d’électricité comprennent des coûts d’installation élevés, une faible rotation des investissements et de longs cycles de vie, facteurs qui servent habituellement à ancrer les politiques énergétiques dans une dynamique de dépendance au sentier. Depuis le début des années 2000, cependant, l’Ontario a commencé à diverger de sa traditionnelle dépendance aux grandes centrales hydroélectriques, aux centrales à charbon et aux centrales nucléaires par une série de petits changements graduels qui feront grimper la part d’énergie renouvelable dans le mix énergétique provincial à 15% par 2018. Le but de ce mémoire est d’élucider le mécanisme de causalité qui a sous-tendu l’évolution graduelle de l’Ontario vers la promotion de l’énergie renouvelable par le biais de tarifs de rachat garantis et d’une cible de déploiement élevée. Ce mémoire applique la théorie du changement institutionnel graduel de Mahoney et Thelen au cas du développement de politiques d’énergie renouvelable en Ontario afin de mieux comprendre les causes, les modes et les effets du changement institutionnel. Nous découvrons que le contexte canadien de la politique énergétique favorise la sédimentation institutionnelle, c’est-à-dire un mode changement caractérisé par de petits gains favorisant l’énergie renouvelable. Ces gains s’accumulent pourtant en transformation politique importante. En Ontario, la mise sur pied d’une vaste coalition pour l’énergie renouvelable fut à l’origine du changement. Les premiers revendicateurs de politiques favorisant l’énergie renouvelable – les environnementalistes et les premières entreprises d’approvisionnement et de service en technologies d’énergie renouvelable – ont dû mettre sur pied un vaste réseau d’appui, représentant la quasi-totalité de la société ontarienne, pour faire avancer leur cause. Ce réseau a fait pression sur le gouvernement provincial et, en tant que front commun, a revendiqué l’énergie renouvelable non seulement comme solution aux changements climatiques, mais aussi comme solution à maints autres défis pressants de santé publique et de développement économique. La convergence favorable d’un nombre de facteurs contextuels a certes contribué à la réussite du réseau ontarien pour l’énergie renouvelable. Cependant, le fait que ce réseau ait trouvé des alliés au sein de l’exécutif du gouvernement provincial s’est révélé d’importance cruciale quant à l’obtention de politiques favorisant l’énergie renouvelable. Au Canada, les gouvernements provinciaux détiennent l’ultime droit de veto sur la politique énergétique. Ce n’est qu’en trouvant des alliés aux plus hauts échelons du gouvernement que le réseau ontarien pour l’énergie renouvelable a pu réussir.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

À ce jour, plusieurs études se sont penchées sur l’influence des comportements problématiques des enfants présentant un trouble déficitaire de l'attention avec ou sans hyperactivité (TDAH) sur les pratiques parentales (Chronis-Tuscano et al., 2008), mais peu de recherches se sont intéressées à la relation entre ce que pensent les parents et la façon dont ils se comportent avec leur enfant (Rudy & Grusec, 2006). L’objectif principal de cette thèse est d’étudier la relation entre les cognitions sociales des parents, les pratiques parentales et les caractéristiques comportementales de l’enfant présentant un TDAH. Une première étude examine la relation entre les cognitions sociales des parents (attributions causales, sentiment d’auto-efficacité parental (SAEP)), les caractéristiques comportementales de l’enfant (sous-type TDAH, symptômes concomitants) en lien avec les pratiques parentales utilisées. Cent dix familles dont l’enfant a un TDAH ont participé à l’étude. Les résultats indiquent que plus les parents ont un SAEP élevé, plus ils rapportent employer une discipline appropriée, une discipline verbale positive, des félicitations/récompenses et moins ils rapportent utiliser une discipline sévère/inconstante ou la punition physique. Les résultats montrent également que l’attribution des comportements de désobéissance de l’enfant soit à l’effort important du parent, soit au manque d’effort de l’enfant joue un rôle prédicteur en regard respectivement de l’utilisation d’une discipline verbale positive ou de l’utilisation d’une discipline sévère et inconstante par le parent. Par ailleurs, le fait de percevoir des symptômes d’opposition chez l’enfant TDAH prédit l’utilisation d’une discipline appropriée et d’une discipline verbale positive. Enfin, la présence de symptômes concomitants au TDAH prédit l’utilisation d’une discipline sévère et inconstante. L’objectif de la seconde étude est d’examiner le rôle des cognitions sociales des parents d’enfant ayant un TDAH en lien avec les pratiques parentales utilisées après leur participation à deux types d’intervention (programme d’entraînement aux habiletés parentales (PEHP) ou soutien téléphonique (ST)) comparativement à un groupe contrôle (GC). Les résultats suggèrent que dans certains cas, le SAEP ou les attributions causales prédisent différemment les pratiques parentales selon que les parents ont ou non participé à une intervention, mais il est prématuré de conclure que les cognitions sociales des parents d’enfant TDAH sont des modérateurs du changement des pratiques parentales. Les implications méthodologiques, conceptuelles et cliniques de ces deux études sont discutées.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

S’inscrivant dans le retour des débats entourant l’autofiction, après les années folles que furent les décennies 1960-1970, ce mémoire s’avère une exploration des potentialités de ce « genre » au cinéma. L’auteur cherche, à travers une étude de cas spécifique consacrée à Robert Morin, à déterminer les possibilités et modalités d’actualisation de l’autofiction cinématographique. Pour ce faire, il présente les tenants et aboutissants de ce concept littéraire, pour par la suite l’aborder avec les outils théoriques du cinéma : la narratologie filmique et la conduite du récit, la subjectivité, la caméra intradiégétique et l’hybridité générique des œuvres. S’inspirant de différents travaux réalisés sur le cinéma narratif « classique », l’auteur s’affère à les complémenter afin de rendre compte des spécificités propres à la pratique autofictive.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce mémoire vise à vérifier l’impact des réactions affectives à un évènement corporatif sur les attitudes des employés d’une institution financière à l’égard de l’organisation et d’un changement organisationnel. Plus précisément, nous tenons à déterminer si les réactions affectives positives ou négatives des employés à l’évènement corporatif auquel ils ont assisté améliorent ou diminuent leur engagement organisationnel affectif, leur désir de collaborer dans le cadre du changement organisationnel et leur satisfaction anticipée à l’égard du changement organisationnel. Basée sur les données recueillies à l’aide d’un sondage électronique à trois moments distincts, notre étude longitudinale confirme certaines de nos hypothèses. D’abord, les réactions affectives positives à l’évènement corporatif sont associées à l’amélioration du désir de collaborer dans le cadre du changement organisationnel et à la satisfaction anticipée à l’égard de ce changement quelques jours après l’évènement corporatif alors que les réactions négatives ont l’effet contraire. Les résultats révèlent que les réactions affectives à l’évènement corporatif n’influencent pas les attitudes des employés plus d’une semaine après l’évènement à l’exception des réactions affectives positives qui améliorent leur désir de collaborer dans le cadre du changement organisationnel.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat (D.Psy) en psychologie option psychologie clinique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les services écosystémiques (SE) réfèrent aux bénéfices que produisent et soutiennent la biodiversité et les écosystèmes et qui profitent à l’être humain. Dans beaucoup de cas, ils ne sont pas pris en compte dans le système économique. Cette externalisation des SE engendre des décisions sur l’utilisation du territoire et des ressources naturelles qui ignorent leur contribution à la qualité de vie des communautés. Afin notamment de sensibiliser l’opinion publique à l’importance des SE et de mieux les intégrer dans les processus décisionnels, ont été développées des démarches d’évaluation économique des SE. Dans cette thèse, nous avons cherché à comprendre à la fois comment l’utilisation passée et actuelle des sols dans la région de Montréal affecte la valeur des SE et comment ces aménités naturelles sont perçues et valorisées par la population, dans une perspective d’aménagement futur du territoire. Pour ce faire, nous avons utilisé deux approches : l’analyse spatiale recourant aux systèmes d’information géographique et l’analyse des préférences exprimées par des techniques d’enquête. Pour l’analyse spatiale, nous avons combiné des analyses cartographiques à des valeurs monétaires associées aux SE publiées dans la littérature. Nous avons alors estimé la valeur des écosystèmes d’un territoire par le transfert de bénéfices, de prix de marchés directs et de coûts évités. Cette démarche nous a permis de comprendre la relation entre l’utilisation actuelle du territoire du Grand Montréal écologique et la valeur des services fournis par les écosystèmes, que nous avons estimée à 2,2 milliards de dollars par année. Elle nous a permis aussi de mesurer les effets sur la valeur des SE du changement d’utilisation des sols entre les années 1960 et 2010. Nous avons montré que malgré différentes politiques de contrôle et d’encadrement de l’étalement urbain au cours de cette période, les pertes économiques non marchandes liées aux SE s’élèvent à 236 millions de dollars par année. Pour l’analyse des préférences exprimées, nous avons utlilisé deux méthodes, l’évaluation contingente et le choix multi-attributs, avec l’objectif de mesurer le consentement à payer de répondants pour des variations dans l’aménagement du territoire. Nous avons montré d’une part que les répondants valorisent significativement l’incidence des pratiques agro-environnementales sur la qualité de l’environnement et des paysages en consentant à payer entre 159 et 333 dollars par ménage par année pour une amélioration de la diversité du paysage agricole. D’autre part, leur volonté à payer pour l’amélioration de l’état des milieux humides du Québec est estimée entre 389 et 455 dollars par ménage par année. L’utilisation conjointe des deux méthodes nous a permis d’en comparer les résultats. Nous avons en outre démontré que le choix du format de question de valorisation de l’évaluation contingente affecte la convergence des résultats. Enfin, nous avons proposé des pistes de recherches futures portant sur l’intégration des démarches d’analyse biophysique, économique et politique dans des outils de prise de décision mieux adaptés à la dynamique des écosystèmes, de la biodiversité et des communautés humaines.