997 resultados para Patron de changement


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En mai 2009, l’Ontario a adopté la Loi sur l’énergie verte et devint ainsi la première juridiction en Amérique du Nord à promouvoir l’énergie renouvelable par le biais de tarifs de rachat garantis. En novembre 2010, dans son Plan énergétique à long terme, la province s’est engagée à déployer 10,700 MW en capacité de production d’énergie renouvelable non-hydroélectrique par 2018. Il s’agit de la cible de déploiement la plus élevée dans ce secteur au Canada. Les infrastructures de production et de distribution d’électricité comprennent des coûts d’installation élevés, une faible rotation des investissements et de longs cycles de vie, facteurs qui servent habituellement à ancrer les politiques énergétiques dans une dynamique de dépendance au sentier. Depuis le début des années 2000, cependant, l’Ontario a commencé à diverger de sa traditionnelle dépendance aux grandes centrales hydroélectriques, aux centrales à charbon et aux centrales nucléaires par une série de petits changements graduels qui feront grimper la part d’énergie renouvelable dans le mix énergétique provincial à 15% par 2018. Le but de ce mémoire est d’élucider le mécanisme de causalité qui a sous-tendu l’évolution graduelle de l’Ontario vers la promotion de l’énergie renouvelable par le biais de tarifs de rachat garantis et d’une cible de déploiement élevée. Ce mémoire applique la théorie du changement institutionnel graduel de Mahoney et Thelen au cas du développement de politiques d’énergie renouvelable en Ontario afin de mieux comprendre les causes, les modes et les effets du changement institutionnel. Nous découvrons que le contexte canadien de la politique énergétique favorise la sédimentation institutionnelle, c’est-à-dire un mode changement caractérisé par de petits gains favorisant l’énergie renouvelable. Ces gains s’accumulent pourtant en transformation politique importante. En Ontario, la mise sur pied d’une vaste coalition pour l’énergie renouvelable fut à l’origine du changement. Les premiers revendicateurs de politiques favorisant l’énergie renouvelable – les environnementalistes et les premières entreprises d’approvisionnement et de service en technologies d’énergie renouvelable – ont dû mettre sur pied un vaste réseau d’appui, représentant la quasi-totalité de la société ontarienne, pour faire avancer leur cause. Ce réseau a fait pression sur le gouvernement provincial et, en tant que front commun, a revendiqué l’énergie renouvelable non seulement comme solution aux changements climatiques, mais aussi comme solution à maints autres défis pressants de santé publique et de développement économique. La convergence favorable d’un nombre de facteurs contextuels a certes contribué à la réussite du réseau ontarien pour l’énergie renouvelable. Cependant, le fait que ce réseau ait trouvé des alliés au sein de l’exécutif du gouvernement provincial s’est révélé d’importance cruciale quant à l’obtention de politiques favorisant l’énergie renouvelable. Au Canada, les gouvernements provinciaux détiennent l’ultime droit de veto sur la politique énergétique. Ce n’est qu’en trouvant des alliés aux plus hauts échelons du gouvernement que le réseau ontarien pour l’énergie renouvelable a pu réussir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réponse cellulaire aux ultra-violets (UV), ou réponse UV, est une réponse complexe et spécialisée dans l’adaptation et la tolérance des dommages aux UV. Celle-ci est initiée par un grand nombre d’évènements moléculaires et de signalisation nucléaire mais aussi au niveau de la membrane plasmique ou du cytoplasme. L’importance et l’influence exactes de ces évènements sur la réparation par excision de nucléotides (NER) des dommages UV à l’ADN sont encore mal comprises et doivent encore être méthodiquement démontrées. Dans cette thèse, grâce à l’utilisation d’une méthode sensible d’analyse de la réparation NER basée sur la cytométrie en flux, il est montré, dans un premier temps, que l’activité des voies MAPK (Mitogen-Activated Protein Kinases), qui sont des voies de signalisation de stress UV d’origine cytoplsamique, ne participent pas à l’efficacité de réparation NER des dommages UV dans les cellules humaines. En effet, l’abrogation de la signalisation MAPK, par inhibition pharmacologique, par utilisation de mutants dominant-négatifs ou par inhibition de leur expression endogène, ne révèlent aucun changement de la cinétique de réparation des dommages UV par excision de nucléotides. Cependant, l’utilisation de cette même méthode de réparation, mais cette fois, appliquée pour l’étude de réparation NER en fonction du cycle cellulaire, a permis de mettre en évidence la nécessité fonctionnelle de l’ADN polymérase translésionnelle eta (Pol η) dans la réparation NER des dommages UV, uniquement en phase S. Cette observation fut initialement caractérisée dans les cellules de patients affectés du syndrome variant de xérodermie pigmentaire (XP-V) puis, confirmée ensuite par l’inhibition de l’expression de Pol η endogène ou par la complémentation avec des mutants non-fonctionnels dans les cellules XP-V. Ces résultats indiquent que, contrairement à la réponse UV MAPK cytoplasmique, les évènements nucléaires comme la synthèse translésionnelle, peuvent influencer l’efficacité de réparation NER en phase S. Plus particulièrement, ces données établissent un lien possible entre la réparation NER en phase S et les niveaux de stress réplicatifs, révélé ici par la déficience fonctionnelle Pol η ou ATR. Les observations, présentées dans cette thèse, renforcent un rôle du point de contrôle S aux UV sur l’efficacité de la réparation NER et suggèrent que l’inhibition NER, observée en phase S dans les cellules XP-V, est modulée par le stress réplicatif. Un tel moyen de contrôle pourrait avoir une action plutôt protectrice pendant cette phase critique du cycle cellulaire. Mots clés: UV, translésionnelle, eta, MAPK, NER, CPD, cytométrie, phase-S, tolérance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire engage une réflexion sur la plénitude dans la pensée de Charles Taylor, et plus particulièrement dans son maître ouvrage L’âge séculier. L’idée de plénitude y est intimement liée à celles de modernité, de croyance et d’incroyance. C’est que, pour Taylor, comprendre la modernité implique de saisir le changement qui nous a permis de passer d’un contexte dans lequel il était impensable de ne pas croire en Dieu à un contexte dans lequel la croyance n’est qu’une option. Ce changement tourne essentiellement autour d’une modification de notre représentation de la plénitude. Qu’est-ce que la plénitude pour notre auteur ? Elle est la condition à laquelle tend tout homme et implique une réponse, tacite ou pas, à la question du sens de la vie. Mon principal objectif sera de saisir la nature de la plénitude telle que la conçoit Taylor. Je montrerai que la double définition de la plénitude dans L’âge séculier génère une certaine tension entre la plénitude conçue comme un événement unique et comme une aspiration constante vers le sens (qui correspond aussi au bien). Je proposerai une résolution de cette tension à travers une compréhension de la plénitude qui vise à en restituer l’unité fondamentale, l’idée étant de saisir la plénitude comme événement unique et comme aspiration constante au sens, non pas séparément, mais dans leur relation. Ce modèle d’interprétation, fourni par l’idée d’éternité, que l’on retrouve aussi dans L’âge séculier, me conduira à établir une coïncidence entre la poursuite de la plénitude et le désir d’éternité. Tous deux ont le même but fondamental : à travers l’inscription de moments qualitativement privilégiés et uniques, constitutifs de la vie, dans la totalité de cette vie, ils visent à en dévoiler le sens et à lui conférer une certaine pérennité. À plus forte raison, ce que j’entends montrer à travers la coïncidence entre plénitude et éternité, c’est que la quête de plénitude n’engage pas nécessairement la perspective religieuse déployée dans L’âge séculier, mais plutôt une forme de transcendance que l’on pourrait qualifier de « temporelle ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet Observatoire des Agricultures du Monde (OAM, CIRAD/FAO) vise à construire un observatoire mondial permettant de donner des informations sur les agricultures des différents pays ainsi que sur leurs évolutions. A l’heure actuelle, cinq pays ont été choisis comme pays pilotes, dont Madagascar ou la zone d’étude retenue est le lac Alaotra. L’étude replace les notions de vulnérabilité, résilience, durabilité et viabilité au niveau de l’exploitation agricole et montre la nécessité de sélectionner et calculer quelques indicateurs clés nécessaires à la construction de l’observatoire. La base de données retenue dans le cadre de cette étude est celle du Réseau des Observatoires Ruraux (ROR). Les résultats montrent une résilience globale des exploitations agricoles très forte liée à une forte diversification des activités agricoles et non agricoles et à des pratiques innovantes progressives permettant de diluer le risque lie au changement technique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les propriétés antioxydantes du resvératrol sont d’un grand intérêt pour contrer la dysfonction endothéliale où la contribution du stress oxydant est majeure. Cette dysfonction endothéliale est d’ailleurs bien caractérisée en hypertrophie ventriculaire gauche (HVG). Cette étude vise à explorer les effets thérapeutiques du resvératrol sur la dysfonction endothéliale des artères coronaires épicardiques associée à l’HVG. L’HVG est induite suite à un cerclage aortique (CA) sur des porcelets de 2 mois. Le resvératrol est ensuite administré à 20 mg/kg/jour per os aux animaux répertoriés dans différents groupes. Le groupe 1 comprend les animaux contrôles sans CA alors que le groupe 2 représente les porcelets ayant subit le CA sans traitement. Le groupe 3 comprend les animaux traités pendant les 60 jours après la chirurgie alors que le groupe 4 est traité seulement à partir du 30ème jour jusqu’au jour 60. Des analyses échocardiographiques et histologiques ont été effectuées afin de déterminer le degré d’hypertrophie et l’impact du resvératrol sur la progression de l’HVG alors que la réactivité vasculaire a été évaluée par des expériences de chambres d’organes. La dysfonction endothéliale a été étudiée in vitro par quantification des métabolites nitriques et des niveaux de GMPc tandis que le stress oxydant est décrit par les niveaux d’angiotensine II (Ang II) et de protéines carbonylées. Les courbes dose-réponse à la sérotonine du groupe 3 traité pendant les 60 jours au resvératrol ont démontré une relaxation vasculaire significativement améliorée comparé au groupe 2 non-traité (p<0,05). Le pourcentage de changement du rapport de la masse du ventricule gauche sur la masse corporelle (LVmass/BW) a démontré une inhibition du développement de l’HVG dans le groupe 3 alors que le groupe 4 n’a pas eu d’effets bénéfiques des 30 jours de traitement au resvératrol. La biodisponibilité du NO représentée par la mesure de ses métabolites en circulation (398,71±21,74 ; 151,04±14,95 ; 241,86±15,53 ; 208,17±26,52 uM pour les groupes 1, 2, 3 et 4 respectivement, p<0,001 pour groupe 1 et 3 vs groupe 2) et par le niveau de GMPc a été augmentée avec l’administration du polyphénol (2,54±0,63 ; 0,67±0,45 ; 1,71±0,25 ; 1,98±0,29 pmol/ml pour les groupes 1, 2, 3 et 4 respectivement, p<0,05 pour groupe 1, 3 et 4 vs groupe 2). Le rôle antioxydant du resvératrol a été confirmé avec une réduction des niveaux de protéines carbonylées chez le groupe 3 comparé aux valeurs du groupe 2 (0,14±0,05 vs 0,33±0,03 nmol/mg respectivement) sans diminution des niveaux d’Ang II. Le resvératrol a aussi réduit l’hypertrophie des cardiomyocytes et la fibrose interstitielle. Ainsi, le resvératrol peut effectivement réduire la dysfonction endothéliale des artères coronaires épicardiques et limiter l’occurrence de remodelage myocardique associé à l’HVG, principalement à travers l’activation de la signalisation dépendante du NO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À ce jour, plusieurs études se sont penchées sur l’influence des comportements problématiques des enfants présentant un trouble déficitaire de l'attention avec ou sans hyperactivité (TDAH) sur les pratiques parentales (Chronis-Tuscano et al., 2008), mais peu de recherches se sont intéressées à la relation entre ce que pensent les parents et la façon dont ils se comportent avec leur enfant (Rudy & Grusec, 2006). L’objectif principal de cette thèse est d’étudier la relation entre les cognitions sociales des parents, les pratiques parentales et les caractéristiques comportementales de l’enfant présentant un TDAH. Une première étude examine la relation entre les cognitions sociales des parents (attributions causales, sentiment d’auto-efficacité parental (SAEP)), les caractéristiques comportementales de l’enfant (sous-type TDAH, symptômes concomitants) en lien avec les pratiques parentales utilisées. Cent dix familles dont l’enfant a un TDAH ont participé à l’étude. Les résultats indiquent que plus les parents ont un SAEP élevé, plus ils rapportent employer une discipline appropriée, une discipline verbale positive, des félicitations/récompenses et moins ils rapportent utiliser une discipline sévère/inconstante ou la punition physique. Les résultats montrent également que l’attribution des comportements de désobéissance de l’enfant soit à l’effort important du parent, soit au manque d’effort de l’enfant joue un rôle prédicteur en regard respectivement de l’utilisation d’une discipline verbale positive ou de l’utilisation d’une discipline sévère et inconstante par le parent. Par ailleurs, le fait de percevoir des symptômes d’opposition chez l’enfant TDAH prédit l’utilisation d’une discipline appropriée et d’une discipline verbale positive. Enfin, la présence de symptômes concomitants au TDAH prédit l’utilisation d’une discipline sévère et inconstante. L’objectif de la seconde étude est d’examiner le rôle des cognitions sociales des parents d’enfant ayant un TDAH en lien avec les pratiques parentales utilisées après leur participation à deux types d’intervention (programme d’entraînement aux habiletés parentales (PEHP) ou soutien téléphonique (ST)) comparativement à un groupe contrôle (GC). Les résultats suggèrent que dans certains cas, le SAEP ou les attributions causales prédisent différemment les pratiques parentales selon que les parents ont ou non participé à une intervention, mais il est prématuré de conclure que les cognitions sociales des parents d’enfant TDAH sont des modérateurs du changement des pratiques parentales. Les implications méthodologiques, conceptuelles et cliniques de ces deux études sont discutées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les polymères sensibles à des stimuli ont été largement étudiés ces dernières années notamment en vue d’applications biomédicales. Ceux-ci ont la capacité de changer leurs propriétés de solubilité face à des variations de pH ou de température. Le but de cette thèse concerne la synthèse et l’étude de nouveaux diblocs composés de deux copolymères aléatoires. Les polymères ont été obtenus par polymérisation radicalaire contrôlée du type RAFT (reversible addition-fragmentation chain-transfer). Les polymères à bloc sont formés de monomères de méthacrylates et/ou d’acrylamides dont les polymères sont reconnus comme thermosensibles et sensible au pH. Premièrement, les copolymères à bloc aléatoires du type AnBm-b-ApBq ont été synthétisés à partir de N-n-propylacrylamide (nPA) et de N-ethylacrylamide (EA), respectivement A et B, par polymérisation RAFT. La cinétique de copolymérisation des poly(nPAx-co-EA1-x)-block-poly(nPAy-co-EA1-y) et leur composition ont été étudiées afin de caractériser et évaluer les propriétés physico-chimiques des copolymères à bloc aléatoires avec un faible indice de polydispersité . Leurs caractères thermosensibles ont été étudiés en solution aqueuse par spectroscopie UV-Vis, turbidimétrie et analyse de la diffusion dynamique de la lumière (DLS). Les points de trouble (CP) observés des blocs individuels et des copolymères formés démontrent des phases de transitions bien définies lors de la chauffe. Un grand nombre de macromolécules naturels démontrent des réponses aux stimuli externes tels que le pH et la température. Aussi, un troisième monomère, 2-diethylaminoethyl methacrylate (DEAEMA), a été ajouté à la synthèse pour former des copolymères à bloc , sous la forme AnBm-b-ApCq , et qui offre une double réponse (pH et température), modulable en solution. Ce type de polymère, aux multiples stimuli, de la forme poly(nPAx-co-DEAEMA1-x)-block-poly(nPAy-co-EA1-y), a lui aussi été synthétisé par polymérisation RAFT. Les résultats indiquent des copolymères à bloc aléatoires aux propriétés physico-chimiques différentes des premiers diblocs, notamment leur solubilité face aux variations de pH et de température. Enfin, le changement d’hydrophobie des copolymères a été étudié en faisant varier la longueur des séquences des blocs. Il est reconnu que la longueur relative des blocs affecte les mécanismes d’agrégation d’un copolymère amphiphile. Ainsi avec différents stimuli de pH et/ou de température, les expériences effectuées sur des copolymères à blocaléatoires de différentes longueurs montrent des comportements d’agrégation intéressants, évoluant sous différentes formes micellaires, d’agrégats et de vésicules.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'hypertension artérielle est l'une des principales causes de morbidité et de mortalité dans le monde. La compréhension des mécanismes qui sont à la base du développement de l'hypertension offrira de nouvelles perspectives pour un meilleur contrôle de l'hypertension. Nous avons précédemment montré que le niveau des protéines Giα-2 et Giα-3 est augmenté chez les rats spontanément hypertendus (SHR) avant l'apparition de l'hypertension. Le traitement avec les inhibiteurs de l’enzyme de conversion de l’Angiotensine (IEC) est associé à une diminution de l’expression des protéines Gi. De plus, l'injection intrapertoneale de la toxine de la coqueluche inactive les deux protéines Giα et empêche le développement de l'hypertension chez les SHR. Cependant, la contribution spécifique des protéines Giα-2 et Giα-3 dans le développement de l'hypertension n'est pas encore connue. Dans la présente étude, l’Anti-sens oligodésoxynucléotide (AS-ODN) de Giα-2 et Giα-3 (1mg/Kg en poids corporel) encapsulé dans des liposomes cationiques PEG / DOTAP/ DOPE ont été administrés par voie intraveineuse aux SHR pré-hypertendus âgé de trois semaines et aux Wistar Kyoto (WKY) rats de même âge. Les contrôles des WKY et SHR non traités ont été injectés avec du PBS stérile, liposomes vides ou oligomères sens. La pression artérielle (PA) a été suivie chaque semaine en utilisant la technique manchon caudal. Les rats ont été sacrifiés à l'âge de six semaines et neuf semaines. Le coeur et l'aorte ont été utilisés pour étudier l'expression des protéines Gi. Le knockdown des protéines Giα-2 par l’injection de Giα-2-AS a empêché le développement de l'hypertension à l'âge de six semaines. Par la suite, la PA a commencé à augmenter rapidement et a atteint le niveau que l'on retrouve dans les groupes témoins à l'âge de neuf semaines. D'autre part, la PA du groupe traité avec le Giα-3-AS a commencé à augmenter à l'âge de quatre semaines. Dans le groupe des SHR-Giα-3-AS, la PA a augmenté à l’âgé de six semaines, mais moins que celle de SHR-CTL. Le coeur et l'aorte obtenues des SHR Giα-2-AS et Giα-3-AS à partir de l’âgé de six semaines ont eu une diminution significative de l’expression des protéines Giα-2 et Giα-3 respectivement. Dans le groupe des WKY Giα-2-AS et Giα-3-AS l'expression des protéines Giα-2 et Giα-3 respectivement a diminué malgré l'absence de changement dans la PA par rapport aux WKY CTL. À l'âge de neuf semaines, les SHR traités avec du Giα-2-AS et Giα-3-AS avaient la même PA et expression des protéines Gi que le SHR CTL. Ces résultats suggèrent que les deux protéines Giα-2 et Giα-3 sont impliqués dans le développement de l'hypertension chez les SHR, mais le knockdown de Giα-2 et pas de Giα-3 a empêché le développement de l'hypertension.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Suite aux grands changements politiques, économiques et sociaux que l’Occident a connus depuis plus d’un siècle, de nombreux problèmes ont émergé, de nouveaux défis ont été lancés et plusieurs approches et solutions ont été avancées. L’avènement de la démocratie, un exploit humain inestimable, a plus ou moins règlementé la pluralité idéologique, pour permettre un exercice politique organisé. Aujourd’hui, dans le nouvel ordre mondial, c’est la pluralité morale et religieuse qui a besoin d’être gérée; un défi pour les institutions démocratiques et pour la société civile, afin de réaliser un mieux vivre-ensemble dans le dialogue, la compréhension et le compromis. Or, beaucoup de travail est encore à faire : dans un premier temps, à l’intérieur de chaque tradition religieuse; dans un deuxième temps, entre les différentes traditions; et dans un troisième temps, entre ces traditions et la modernité. Le ‘dogmatisme’ est au cœur de ces débats, qu’il soit d’ordre traditionnel ou moderne, il entrave la raison dans son processus de libération et d’émancipation. La problématique de ce mémoire concerne la gestion de la pluralité morale et religieuse en Occident. Dans ce travail, nous allons essayer de démontrer comment la libération du dogmatisme en général et la libération du ‘dogmatisme’ musulman, en particulier, peuvent contribuer à la réalisation d’un mieux vivre-ensemble en Occident. Pour ce faire, nous analyserons les projets de deux penseurs musulmans contemporains : Muhammad Arkoun et Tariq Ramadan. Notre recherche va essentiellement se pencher sur leurs attitudes vis-à-vis de la tradition et de la modernité, car, nous pensons que l’enjeu du ‘dogmatisme’ est lié aux rapports des musulmans à leur tradition et à la modernité. Selon nos deux penseurs, la libération du ‘dogmatisme’ musulman n’est possible qu’à condition de pouvoir changer à la fois notre rapport à la tradition et à la modernité. Arkoun pense que ce changement doit suivre le modèle de la libération occidentale, au moyen d’une critique subversive de la tradition islamique. Cependant, Ramadan opte pour une réforme radicale de la pensée islamique qui vise une critique globale de la tradition, mais, qui épargne les fondements de la foi : le ‘sacré’.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de ce mémoire de maîtrise est de caractériser la distribution axiale des plasmas tubulaires à la pression atmosphérique créés et entretenus par une onde électromagnétique de surface ainsi que d’explorer le potentiel de ces sources pour la synthèse de matériaux et de nanomatériaux. Un précédent travail de thèse, qui avait pour objectif de déterminer les mécanismes à l’origine de la contraction radiale du plasma créé dans des gaz rares, a mis en lumière un phénomène jusque-là inconnu dans les plasmas d’onde de surface (POS). En effet, la distribution axiale varie différemment selon la puissance incidente ce qui constitue une différence majeure par rapport aux plasmas à pression réduite. Dans ce contexte, nous avons réalisé une étude paramétrique des POS à la pression atmosphérique dans l’Ar. À partir de nos mesures de densité électronique, de température d’excitation et de densité d’atomes d’Ar dans un niveau métastable (Ar 3P2), résolues axialement, nous avons conclu que le comportement axial de l’intensité lumineuse avec la puissance n’est pas lié à un changement de la cinétique de la décharge (qui est dépendante de la température des électrons et de la densité d’atomes d’Ar métastables), mais plutôt à une distribution anormale de dissipation de puissance dans le plasma (reliée à la densité d’électrons). Plus précisément, nos résultats suggèrent que ce dépôt anormal de puissance provient d’une réflexion de l’onde dans le fort gradient de densité de charges en fin de colonne, un effet plus marqué pour de faibles longueurs de colonnes à plasma. Ensuite, nous avons effectué une étude spectroscopique du plasma en présence de précurseurs organiques, en particulier le HMDSO pour la synthèse de matériaux organosiliciés et l’IPT pour la synthèse de matériaux organotitaniques. Les POS à la PA sont caractérisés par des densités de charges très élevées (>10^13 cm^-3), permettant ainsi d’atteindre des degrés de dissociation des précurseurs nettement plus élevés que ceux d'autres plasmas froids à la pression atmosphérique comme les décharges à barrière diélectrique. Dans de tels cas, les matériaux synthétisés prennent la forme de nanopoudres organiques de taille inférieure à 100 nm. En présence de faibles quantités d’oxygène dans le plasma, nous obtenons plutôt des nanopoudres à base d’oxyde de silicium (HMDSO) ou à base de titanate de silicium (IPT), avec très peu de carbone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En français contemporain, l’hésitation dans le choix entre être et avoir comme auxiliaire dans les formes verbale composées (par ex. le passé composé) de certains verbes intransitifs (par ex. tomber), surtout dans des variétés non standards du français, démonte clairement l’écart qui existe entre le français normé et le français oral quotidien. Cette hésitation, voire l’incertitude, dans le choix de l’auxiliaire n’est pas une particularité arbitraire ou aléatoire de la langue contemporaine; elle s’inscrit plutôt dans une tendance diachronique et pan-romane que l’on a pu observer dans la langue française depuis son émancipation du latin. Notre étude, qui se fonde sur la théorie de la grammaticalisation, propose une analyse du discours grammatical de 1500 – époque où sont apparues les premières grammaires du français – jusqu’à 1789 avec la Révolution française, signalant le moment où la langue se serait stabilisée et aurait adopté sa forme moderne. Nous divisons les trois siècles de notre étude en quatre périodes distinctes, déjà bien établies dans les études historiques. Ce sont : - Le XVIe siècle (1530-1599) - La première moitié de la période classique (1600-1650) - La deuxième moitié de la période classique (1651-1715) - Le Siècle des lumières (1716-1789) Pour chacune des quatre périodes, l’analyse se fait en trois temps. Premièrement, nous recensons les grammairiens, les lexicographes et les essayistes qui se sont prononcés, soit explicitement, soit implicitement, sur l’emploi des auxiliaires être et avoir dans les formes verbales composées (FVC). Nous identifions, là où cela est possible, le dialecte maternel de chaque auteur et son modèle d’usage. Deuxièmement, nous résumons les observations et les commentaires sur l’emploi des auxiliaires dans les FVC formulés par chaque auteur, y compris les tentatives d’explication quant à la variation dans le choix de l’auxiliaire. Finalement, nous rapportons la description de l’emploi des auxiliaires dans les FVC proposée par des historiens de la langue française pour la période en question. Notre étude nous permet de confirmer, en ce qui concerne les FVC, certaines tendances déjà reconnues dans la langue française et d’en identifier d’autres. Également, nous avons pu repérer, voire circonscrire des facteurs qui ont eu une influence sur le choix, tels les verbes plus sensibles à l’alternance, les grammairiens dont l’autorité s’est imposé plus que d’autres ou avant les autres dans l’établissement de la norme sur ce point, les contextes sociaux dans lesquels le débat a eu lieu et la période pendant laquelle les préoccupations sur ce choix était les plus intenses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation des informations proprioceptives pour le contrôle de l’équilibre à la marche est encore mal comprise chez les sujets en santé ou hémiparétiques suite à un accident vasculaire cérébral. Le but de cette étude était d’évaluer le rôle des informations proprioceptives dans le maintien de l'équilibre à la marche chez les patients en santé et hémiparétiques. Une analyse de mouvement en trois dimensions a été faite chez treize participants en santé et six hémiparétiques qui marchaient sur un tapis roulant instrumenté pour déterminer leur difficulté à maintenir l’équilibre postural et dynamique, évaluée respectivement par les forces stabilisante et déstabilisante. Des vibrations étaient appliquées en continu ou pendant la phase d’appui sur les muscles postérieurs du cou et sur le triceps sural du côté non-dominant/parétique. La vibration continue ou à l’appui du triceps sural a diminué, chez les sujets en santé, la difficulté à maintenir l’équilibre dynamique et postural (p< 0,01), avec une position du corps plus en arrière, sans changement des paramètres temporels de marche. L'équilibre et les paramètres temporels de la marche n'étaient pas modifiés significativement par la vibration à la nuque (p>.17). Aucun effet des vibrations n'a été mesuré chez les patients hémiparétiques (p> 0,45). Les informations proprioceptives sont donc bien utilisées lors de la marche, mais leur rôle dépendrait des conditions de marche et des afférences visuelles disponibles. Un changement dans les capacités d’intégration expliquerait l'absence d'effet des vibrations chez les patients hémiparétiques. D’autres études sont nécessaires pour comprendre l’intégration des informations proprioceptives et visuelles dans le contrôle de l’équilibre à la marche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette oeuvre est mise à disposition selon les termes de la licence Creative Commons Attribution - Pas d'utilisation commerciale - Pas de modification 2.5 Canada Vous avez donc le droit de : Partager - copier, distribuer et communiquer le matériel par tous les moyens et sous tous formats; Selon les conditions suivantes : Attribution — Vous devez créditer l'Oeuvre, intégrer un lien vers la licence et indiquer si des modifications ont été effectuées à l'Oeuvre. Vous devez indiquer ces informations par tous les moyens possibles mais vous ne pouvez pas suggérer que l'Offrant vous soutient ou soutient la façon dont vous avez utilisé son Oeuvre. Pas d’Utilisation Commerciale — Vous n'êtes pas autoriser à faire un usage commercial de cette Oeuvre, tout ou partie du matériel la composant. Pas de modifications — Dans le cas où vous effectuez un remix, que vous transformez, ou créez à partir du matériel composant l'Oeuvre originale, vous n'êtes pas autorisé à distribuer ou mettre à disposition l'Oeuvre modifiée. Pour voir une copie de cette licence, visitez http://creativecommons.org/licenses/by-nc-nd/2.5/ca/ ou écrivez à Creative Commons, 444 Castro Street, Suite 900, Mountain View, California, 94041, USA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.