395 resultados para Optimale Versuchsplanung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, environ un million de résidences sont isolées des réseaux d’égouts municipaux et doivent traiter leurs eaux usées à l’aide de systèmes d’assainissement autonomes. Également nommés installations septiques, ces systèmes sont susceptibles de contaminer l’environnement lorsqu’ils sont défaillants, désuets ou non conformes. Les épisodes de cyanobactéries survenus de 2006 à 2012 dans les plans d’eau québécois ont été attribués à d’importants apports de phosphore, que libèrent notamment les installations septiques polluantes. Les municipalités, les municipalités régionales de comté et les régies intermunicipales ont des compétences et des obligations en vertu du Règlement sur l’évacuation et le traitement des eaux usées des résidences isolées et de l’article 25.1 de la Loi sur les compétences municipales portant sur une gestion adéquate des installations septiques. Une gestion optimale de celles-ci permettant de protéger l’environnement et de prévenir la contamination est possible par la mise en place d’un programme de gestion qui concerne plus spécifiquement la vidange des fosses septiques et l’inspection des systèmes. L’objectif de cet essai est de faire une analyse des éléments constituants d’un programme de gestion des installations septiques et de discuter de leur mise en oeuvre pour assurer leur fonctionnement optimal. L’essai a été rédigé de manière à présenter l’information sous forme de lignes directrices pour guider les gestionnaires de programme ainsi que les preneurs de décisions. Un programme de gestion optimal se traduit par la prise en charge de la vidange des fosses septiques d’un territoire par une des trois entités municipales qui peuvent exercer un meilleur contrôle des systèmes d’épuration autonomes par la vidange des fosses septiques et de leur inspection régulière. Les inspections prennent la forme de relevés sanitaires qui permettent de classifier les installations en fonction de leur performance et d’inspections sommaires qui visent à faire un diagnostic simple et rapide d’une installation. Plusieurs autres éléments doivent être pris en compte dans le cadre d’un programme de gestion. Soit l’application d’un règlement municipal, la fréquence et le type de vidange, le recours à des experts, la sensibilisation des propriétaires des systèmes d’épuration autonomes, une démarche d’acceptabilité sociale et l’emploi de logiciels de suivi. L’efficacité d’un programme de gestion dépendra de la rigueur avec laquelle les instances municipales appliqueront les éléments de gestion. Il est recommandé au ministère du Développement durable, de l’Environnement et de la Lutte contre les changements climatiques d’apporter des modifications au règlement provincial dans le but de le rendre plus contraignant pour les systèmes vecteurs de contamination indirecte et ceux antérieurs à 1981. Le ministère des Affaires municipales et de l’Occupation du territoire devrait offrir son soutien aux municipalités dans le cadre de leur programme de gestion en offrant de l’aide financière, de la documentation et des formations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs études se sont penchées sur les effets de l’activité physique maternelle sur le poids du nouveau-né, un paramètre reflétant l’environnement intra-utérin associé au risque ultérieur d’obésité et de problèmes métaboliques. Devant les taux alarmants d’obésité infantile à travers le monde, l’identification d’interventions préventives efficaces devient un enjeu majeur dans la lutte contre l’obésité et ses complications. L’activité physique maternelle pourrait être une avenue intéressante, étant donné ses effets bénéfiques sur le gain de poids et le profil métabolique maternels et son potentiel de diminution du poids de naissance de l’enfant. Cependant, la dose optimale d’activité physique et ses effets sur la composition corporelle du nouveau-né sont encore méconnus. Par ailleurs, la majorité des femmes enceintes ne rencontrent pas les recommandations en matière d’activité physique durant la grossesse et les femmes obèses, chez qui les bienfaits de l’activité physique pourraient possiblement avoir le plus grand impact, présentent souvent les niveaux les plus bas. Curieusement, peu d’études ont évalué les effets d’une intervention d’activité physique durant la grossesse dans cette population. Ainsi, avant d’envisager l’activité physique comme une intervention thérapeutique non-pharmacologique durant la grossesse, il importe d’en évaluer la faisabilité et la sécurité et d’en connaître extensivement les effets. Notamment, il s’avère primordial de vérifier s’il est possible d’augmenter en toute sécurité les niveaux d’activité physique durant la grossesse, particulièrement chez les femmes obèses, et de distinguer les effets spécifiques de différents stimuli d’activité physique (variant en type, volume, intensité et moment de la grossesse) sur la croissance fœtale. Dans ce contexte, nous avons dans un premier temps entrepris une revue systématique de la littérature des études observationnelles portant sur l’association entre l’activité physique maternelle et les paramètres de croissance fœtale mesurés à la naissance. Dans un deuxième temps, 2 études de cohortes évaluant l’impact du type, du volume, de l’intensité et du trimestre de pratique de l’activité physique ont été menées afin de complémenter et d’approfondir les résultats de la revue systématique. Finalement, une étude d’intervention randomisée a été réalisée afin d’évaluer s’il est possible d’améliorer les niveaux d’activité physique durant la grossesse chez les femmes enceintes obèses. Nos travaux ont permis d’illustrer l’influence variable que différents stimuli d’activité physique maternelle peuvent avoir sur l’anthropométrie néonatale. La revue systématique a montré qu’un volume moyen d’activité physique est associé à une augmentation du poids de naissance comparativement à un volume plus faible, alors qu’un volume élevé est associé à une diminution du poids de naissance, comparativement à un volume plus faible. Nos données suggèrent également que l’association entre l’activité physique maternelle et le poids de naissance varie en présence de certaines caractéristiques maternelles. Notamment, nous avons montré pour la première fois que l’activité physique vigoureuse pratiquée en début de grossesse était associée à une diminution importante du poids de naissance chez les femmes qui reçoivent un diagnostic de pré-éclampsie en fin de grossesse. L’importance de l’intensité de l’activité physique dans la relation entre l’activité physique maternelle et la croissance fœtale a également été soulignée pour la première fois dans notre étude de cohorte avec mesure de la composition corporelle néonatale. Contrairement à l’activité physique d’intensité modérée, l’activité physique vigoureuse en début de grossesse est associée à une diminution du poids de naissance, principalement en raison d’une adiposité néonatale réduite. Finalement, les résultats de l’essai randomisé ont permis d’établir la faisabilité d’une intervention d’activité physique supervisée visant à augmenter la pratique d’activité physique chez des femmes enceintes obèses et le potentiel d’une telle intervention à favoriser le maintien de la condition physique et une meilleure gestion du gain de poids chez ces femmes. L’ensemble de ces résultats permet de mieux cerner l’impact de l’activité physique maternelle sur la croissance fœtale, en fonction des caractéristiques spécifiques du stimulus d’activité physique mais également de la population étudiée. La faisabilité d’une intervention d’activité physique prénatale dans une population de femmes obèses laisse entrevoir de nouvelles possibilités dans la prévention de l’obésité infantile et de ses complications. L’identification d’une dose optimale d’activité physique favorisant la santé de l’enfant à court et à long terme dans diverses populations de femmes enceintes et l’identification des facteurs permettant une meilleure adhérence aux recommandations qui en découleront constituent des pistes de recherche essentielles à la lutte contre l’obésité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours des années une variété des compositions de verre chalcogénure a été étudiée en tant qu’une matrice hôte pour les ions Terres Rares (TR). Pourtant, l’obtention d’une matrice de verre avec une haute solubilité des ions TR et la fabrication d’une fibre chalcogénure dopée au TR avec une bonne qualité optique reste toujours un grand défi. La présente thèse de doctorat se concentre sur l’étude de nouveaux systèmes vitreux comme des matrices hôtes pour le dopage des ions TR, ce qui a permis d’obtenir des fibres optiques dopées au TR qui sont transparents dans l’IR proche et moyenne. Les systèmes vitreux étudiés ont été basés sur le verre de sulfure d’arsenic (As2S3) co-dopé aux ions de Tm3+ et aux différents modificateurs du verre. Premièrement, l’addition de Gallium (Ga), comme un co-dopant, a été examinée et son influence sur les propriétés d’émission des ions de Tm a été explorée. Avec l’incorporation de Ga, la matrice d’As2S3 dopée au Tm a montré trois bandes d’émission à 1.2 μm (1H5→3H6), 1.4 μm (3H4→3F4) et 1.8 μm (3F4→3H6), sous l’excitation des longueurs d’onde de 698 nm et 800 nm. Les concentrations de Tm et de Ga ont été optimisées afin d’obtenir le meilleur rendement possible de photoluminescence. À partir de la composition optimale, la fibre Ga-As-S dopée au Tm3+ a été étirée et ses propriétés de luminescence ont été étudiées. Un mécanisme de formation structurale a été proposé pour ce système vitreux par la caractérisation structurale des verres Ga-As-S dopés au Tm3+, en utilisant la spectroscopie Raman et l’analyse de spectrométrie d’absorption des rayons X (EXAFS) à seuil K d’As, seuil K de Ga et seuil L3 de Tm et il a été corrélé avec les caractéristiques de luminescence de Tm. Dans la deuxième partie, la modification des verres As2S3 dopés au Tm3+, avec l’incorporation d’halogénures (Iode (I2)), a été étudiée en tant qu’une méthode pour l’adaptation des paramètres du procédé de purification afin d’obtenir une matrice de verre de haute pureté par distillation chimique. Les trois bandes d’émission susmentionnées ont été aussi bien observées pour ce système sous l’excitation à 800 nm. Les propriétés optiques, thermiques et structurelles de ces systèmes vitreux ont été caractérisées expérimentalement en fonction de la concentration d’I2 et de Tm dans le verre, où l’attention a été concentrée sur deux aspects principaux: l’influence de la concentration d’I2 sur l’intensité d’émission de Tm et les mécanismes responsables pour l’augmentation de la solubilité des ions de Tm dans la matrice d’As2S3 avec l’addition I2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une méthode optimale pour identifier les zones problématiques de drainage dans les champs de canneberges est d’un intérêt pratique pour les producteurs. Elle peut aider au développement de stratégies visant à améliorer le rendement des cultures. L’objectif de cette étude était de développer une méthodologie non intrusive de diagnostic d’un système de drainage en utilisant l’imagerie du géoradar ou Ground Penetrating Radar (GPR) ayant pour finalité de localiser les zones restrictives au drainage et de lier les scans du GPR à des propriétés du sol. Un système GPR muni d’une antenne monostatique a été utilisé pour acquérir des données dans deux champs de canneberges : un construit sur sol organique et l’autre sur sol minéral. La visualisation en trois dimensions de la stratification du champ a été possible après l’interpolation et l’analyse des faciès. La variabilité spatiale du rendement des cultures et la conductivité hydraulique saturée du sol ont été comparées aux données GPR par deux méthodes : calcul du pourcentage de différence et estimation de l’entropie. La visualisation des données couplée à leur analyse a permis de mettre en évidence la géométrie souterraine et des discontinuités importantes des champs. Les résultats montrent qu’il y a bonne corrélation entre les zones où la couche restrictive est plus superficielle et celle de faible rendement. Le niveau de similarité entre la conductivité hydraulique saturée et la profondeur de la couche restrictive confirme la présence de cette dernière. L’étape suivante a été la reconstruction de l’onde électromagnétique et son ajustement par modélisation inverse. Des informations quantitatives ont été extraites des scans : la permittivité diélectrique, la conductivité électrique et l’épaisseur des strates souterraines. Les permittivités diélectriques modélisées sont concordantes avec celles mesurées in-situ et celles de la littérature. Enfin, en permettant la caractérisation des discontinuités du sous-sol, les zones les plus pertinentes pour l’amélioration du drainage et d’irrigation ont été localisées, afin de maximiser le rendement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Les guides de pratique recommandent que les patients avec une maladie artérielle périphérique (MAP) soient traités médicalement afin de réduire la survenue d’évènements cardiovasculaires majeurs. Objectif : Identifier les facteurs associés à la prescription des thérapies préventives recommandées. Méthode : Les patients avec une MAP (n=362) traités consécutivement par angiodilatation fémoropoplitée entre 2008 et 2010 dans un centre tertiaire (CHU de Québec, Canada) ont été inclus dans l’étude. L’issue clinique primaire était la prescription de trois thérapies combinées. Résultats : Au total, 52% des patients recevaient la thérapie combinée. La présence d’au moins trois facteurs de risque cardiovasculaire (Rapport de cotes (RC)=4,51; IC 95% : 2,76-7,37) était le facteur le plus fortement associé à la prise des thérapies combinées. Conclusion : La prise en charge du risque cardiovasculaire des patients avec une MAP est encore sous-optimale. Une meilleure compréhension des barrières et des facilitateurs à l’application des recommandations est toujours nécessaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bei der Beurteilung von Projekten des Swiss Virtual Campus (SVC; Virtueller Campus Schweiz, Campus Virtuel Suisse, Campus Virtuale Svizzero), eines Programms des Bundes zur Förderung der neuen Informations- und Kommunikationstechnologien in der Hochschullehre, gilt es auch auf den optimalen Mix von Präsenzunterricht und Fernunterricht zu achten. Welche Arten von Szenarien sind vorstellbar, und wie beeinflusst die Art des Szenarios die optimale Verteilung von Präsenz- und Fernunterricht? Welche technischen Hilfsmittel sind für welches Szenario sinnvoll? Der Swiss Virtual Campus ist grundsätzlich nicht als Online-Universität geplant und nicht auf Fernstudien ausgerichtet. Es ist jedoch denkbar, dass manche Projekte des Swiss Virtual Campus künftig den Weg in Fernstudienangebote finden werden, obwohl sie nicht dafür konzipiert wurden. Einige Projekte von Fachhochschulen wurden bereits als Fernstudium konzipiert. In gewissen Aspekten funktionieren sie nach anderen Regeln als für Präsenzunterricht konzipierte Kurse.(DIPF/Orig.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pigeon pea ( Cajanus cajan (L.) Millsp.) is a drought tolerant pulse legume, mainly grown for grain in the semi-arid tropics, particularly in Africa. Pigeon pea production in countries like Kenya is faced with a number of challenges, particularly lack of high quality seeds. The objective of this study was to develop an in vitro regeneration system for pigeon pea varieties grown in Kenya, that is amenable to genetic transformation. In vitro regeneration of pigeon pea varieties, KAT 60/8 and ICEAP 00557, commonly grown in Kenya was achieved using leaf explants from in vitro grown seedlings, through callus initiation, followed by shoot and root induction. For callus initiation, MS media supplemented with 0.5-4 mg l-1 2, 4-D and TDZ separately were tested, and IBA at 0.1, 0.5 and 1 mg l-1 was tested for rooting of shoots. Embryogenic calli was obtained on MS containing 2, 4- D; whereas TDZ induced non-embryogenic callus alone or with shoots directly on explants. Indirect shoot regeneration frequency of 6.7 % was achieved using 1 mg l-1 2, 4-D-induced embryogenic callus obtained using KAT 60/8 explants. Whereas direct shoot regeneration frequencies of 20 and 16.7% were achieved using ICEAP 00557 and KAT 60/8 explants, using 0.5 mg l-1 and 2 mg l-1 TDZ, respectively. Optimum rooting was achieved using 0.5 mg l-1 IBA; and up to 92% rooted shoots were successfully established in soil after acclimatisation. Genotype and hormone concentrations had a significant (P<0.05) influence on callus, shoot and root induction. The protocol developed can be optimised for mass production and genetic transformation of KAT 60/8 variety.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette thèse est d’explorer le potentiel sismique des étoiles naines blanches pulsantes, et en particulier celles à atmosphères riches en hydrogène, les étoiles ZZ Ceti. La technique d’astérosismologie exploite l’information contenue dans les modes normaux de vibration qui peuvent être excités lors de phases particulières de l’évolution d’une étoile. Ces modes modulent le flux émergent de l’étoile pulsante et se manifestent principalement en termes de variations lumineuses multi-périodiques. L’astérosismologie consiste donc à examiner la luminosité d’étoiles pulsantes en fonction du temps, afin d’en extraire les périodes, les amplitudes apparentes, ainsi que les phases relatives des modes de pulsation détectés, en utilisant des méthodes standards de traitement de signal, telles que des techniques de Fourier. L’étape suivante consiste à comparer les périodes de pulsation observées avec des périodes générées par un modèle stellaire en cherchant l’accord optimal avec un modèle physique reconstituant le plus fidèlement possible l’étoile pulsante. Afin d’assurer une recherche optimale dans l’espace des paramètres, il est nécessaire d’avoir de bons modèles physiques, un algorithme d’optimisation de comparaison de périodes efficace, et une puissance de calcul considérable. Les périodes des modes de pulsation de modèles stellaires de naines blanches peuvent être généralement calculées de manière précise et fiable sur la base de la théorie linéaire des pulsations stellaires dans sa version adiabatique. Afin de définir dans son ensemble un modèle statique de naine blanche propre à l’analyse astérosismologique, il est nécessaire de spécifier la gravité de surface, la température effective, ainsi que différents paramètres décrivant la disposition en couche de l’enveloppe. En utilisant parallèlement les informations obtenues de manière indépendante (température effective et gravité de surface) par la méthode spectroscopique, il devient possible de vérifier la validité de la solution obtenue et de restreindre de manière remarquable l’espace des paramètres. L’exercice astérosismologique, s’il est réussi, mène donc à la détermination précise des paramètres de la structure globale de l’étoile pulsante et fournit de l’information unique sur sa structure interne et l’état de sa phase évolutive. On présente dans cette thèse l’analyse complète réussie, de l’extraction des fréquences à la solution sismique, de quatre étoiles naines blanches pulsantes. Il a été possible de déterminer les paramètres structuraux de ces étoiles et de les comparer remarquablement à toutes les contraintes indépendantes disponibles dans la littérature, mais aussi d’inférer sur la dynamique interne et de reconstruire le profil de rotation interne. Dans un premier temps, on analyse le duo d’étoiles ZZ Ceti, GD 165 et Ross 548, afin de comprendre les différences entre leurs propriétés de pulsation, malgré le fait qu’elles soient des étoiles similaires en tout point, spectroscopiquement parlant. L’analyse sismique révèle des structures internes différentes, et dévoile la sensibilité de certains modes de pulsation à la composition interne du noyau de l’étoile. Afin de palier à cette sensibilité, nouvellement découverte, et de rivaliser avec les données de qualité exceptionnelle que nous fournissent les missions spatiales Kepler et Kepler2, on développe une nouvelle paramétrisation des profils chimiques dans le coeur, et on valide la robustesse de notre technique et de nos modèles par de nombreux tests. Avec en main la nouvelle paramétrisation du noyau, on décroche enfin le ”Saint Graal” de l’astérosismologie, en étant capable de reproduire pour la première fois les périodes observées à la précision des observations, dans le cas de l’étude sismique des étoiles KIC 08626021 et de GD 1212.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alors que les activités anthropiques font basculer de nombreux écosystèmes vers des régimes fonctionnels différents, la résilience des systèmes socio-écologiques devient un problème pressant. Des acteurs locaux, impliqués dans une grande diversité de groupes — allant d’initiatives locales et indépendantes à de grandes institutions formelles — peuvent agir sur ces questions en collaborant au développement, à la promotion ou à l’implantation de pratiques plus en accord avec ce que l’environnement peut fournir. De ces collaborations répétées émergent des réseaux complexes, et il a été montré que la topologie de ces réseaux peut améliorer la résilience des systèmes socio-écologiques (SSÉ) auxquels ils participent. La topologie des réseaux d’acteurs favorisant la résilience de leur SSÉ est caractérisée par une combinaison de plusieurs facteurs : la structure doit être modulaire afin d’aider les différents groupes à développer et proposer des solutions à la fois plus innovantes (en réduisant l’homogénéisation du réseau), et plus proches de leurs intérêts propres ; elle doit être bien connectée et facilement synchronisable afin de faciliter les consensus, d’augmenter le capital social, ainsi que la capacité d’apprentissage ; enfin, elle doit être robuste, afin d’éviter que les deux premières caractéristiques ne souffrent du retrait volontaire ou de la mise à l’écart de certains acteurs. Ces caractéristiques, qui sont relativement intuitives à la fois conceptuellement et dans leur application mathématique, sont souvent employées séparément pour analyser les qualités structurales de réseaux d’acteurs empiriques. Cependant, certaines sont, par nature, incompatibles entre elles. Par exemple, le degré de modularité d’un réseau ne peut pas augmenter au même rythme que sa connectivité, et cette dernière ne peut pas être améliorée tout en améliorant sa robustesse. Cet obstacle rend difficile la création d’une mesure globale, car le niveau auquel le réseau des acteurs contribue à améliorer la résilience du SSÉ ne peut pas être la simple addition des caractéristiques citées, mais plutôt le résultat d’un compromis subtil entre celles-ci. Le travail présenté ici a pour objectifs (1), d’explorer les compromis entre ces caractéristiques ; (2) de proposer une mesure du degré auquel un réseau empirique d’acteurs contribue à la résilience de son SSÉ ; et (3) d’analyser un réseau empirique à la lumière, entre autres, de ces qualités structurales. Cette thèse s’articule autour d’une introduction et de quatre chapitres numérotés de 2 à 5. Le chapitre 2 est une revue de la littérature sur la résilience des SSÉ. Il identifie une série de caractéristiques structurales (ainsi que les mesures de réseaux qui leur correspondent) liées à l’amélioration de la résilience dans les SSÉ. Le chapitre 3 est une étude de cas sur la péninsule d’Eyre, une région rurale d’Australie-Méridionale où l’occupation du sol, ainsi que les changements climatiques, contribuent à l’érosion de la biodiversité. Pour cette étude de cas, des travaux de terrain ont été effectués en 2010 et 2011 durant lesquels une série d’entrevues a permis de créer une liste des acteurs de la cogestion de la biodiversité sur la péninsule. Les données collectées ont été utilisées pour le développement d’un questionnaire en ligne permettant de documenter les interactions entre ces acteurs. Ces deux étapes ont permis la reconstitution d’un réseau pondéré et dirigé de 129 acteurs individuels et 1180 relations. Le chapitre 4 décrit une méthodologie pour mesurer le degré auquel un réseau d’acteurs participe à la résilience du SSÉ dans lequel il est inclus. La méthode s’articule en deux étapes : premièrement, un algorithme d’optimisation (recuit simulé) est utilisé pour fabriquer un archétype semi-aléatoire correspondant à un compromis entre des niveaux élevés de modularité, de connectivité et de robustesse. Deuxièmement, un réseau empirique (comme celui de la péninsule d’Eyre) est comparé au réseau archétypique par le biais d’une mesure de distance structurelle. Plus la distance est courte, et plus le réseau empirique est proche de sa configuration optimale. La cinquième et dernier chapitre est une amélioration de l’algorithme de recuit simulé utilisé dans le chapitre 4. Comme il est d’usage pour ce genre d’algorithmes, le recuit simulé utilisé projetait les dimensions du problème multiobjectif dans une seule dimension (sous la forme d’une moyenne pondérée). Si cette technique donne de très bons résultats ponctuellement, elle n’autorise la production que d’une seule solution parmi la multitude de compromis possibles entre les différents objectifs. Afin de mieux explorer ces compromis, nous proposons un algorithme de recuit simulé multiobjectifs qui, plutôt que d’optimiser une seule solution, optimise une surface multidimensionnelle de solutions. Cette étude, qui se concentre sur la partie sociale des systèmes socio-écologiques, améliore notre compréhension des structures actorielles qui contribuent à la résilience des SSÉ. Elle montre que si certaines caractéristiques profitables à la résilience sont incompatibles (modularité et connectivité, ou — dans une moindre mesure — connectivité et robustesse), d’autres sont plus facilement conciliables (connectivité et synchronisabilité, ou — dans une moindre mesure — modularité et robustesse). Elle fournit également une méthode intuitive pour mesurer quantitativement des réseaux d’acteurs empiriques, et ouvre ainsi la voie vers, par exemple, des comparaisons d’études de cas, ou des suivis — dans le temps — de réseaux d’acteurs. De plus, cette thèse inclut une étude de cas qui fait la lumière sur l’importance de certains groupes institutionnels pour la coordination des collaborations et des échanges de connaissances entre des acteurs aux intérêts potentiellement divergents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fluoration artificielle de l’eau est une méthode employée en tant que moyen de prévention de la carie dentaire. Il s’agit d’un traitement de l’eau dont le but est d’ajuster de façon « optimale » la concentration en fluorure dans l’eau potable pour la prévention de la carie dentaire, par l’ajout d’un composé fluoré. La fluoration de l’eau fait l’objet d’un débat de société depuis le début des années 1950. La théorie du cycle hydrosocial nous invite à réfléchir sur la manière dont l’eau et la société se définissent et se redéfinissent mutuellement dans le temps et dans l’espace. Cette théorie nous permet d’aborder l’étude du sujet de la fluoration avec une nouvelle perspective d’analyse. Il y a peu d’études en sciences sociales qui portent sur le sujet de la fluoration, généralement abordé d’un point de vue des sciences de la santé. Nous proposons de décrire le processus de production des eaux fluorées dans un contexte hydrosocial. Ce mémoire est structuré en quatre chapitres. Nous commençons par familiariser le lecteur avec la théorie du cycle hydrosocial. Ensuite, nous faisons une mise en contexte de la fluoration de l’eau, d’une part en présentant un état des lieux, et d’autre part en présentant ce en quoi consiste la pratique de la fluoration de l’eau. Après avoir familiarisé le lecteur avec les thèmes généraux concernant la fluoration de l’eau, nous proposons de reconstituer une histoire hydrosociale de la fluoration. Cette histoire nous permet de mettre en évidence les relations hydrosociales desquelles découle la production des eaux fluorées. L’histoire hydrosociale de la fluoration comporte une phase contemporaine que nous abordons en présentant les principales idées de l’opposition à la fluoration artificielle de l’eau à l’aide notamment d’une analyse iconographique d’images portant sur le thème de la fluoration. Finalement, nous discutons des implications de la théorie du cycle hydrosocial pour étudier la problématique de la fluoration.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours de la période considérée, il a été effectué 4 cycles d'élevage larvaire complets et 5 cycles d'élevage post-larvaire matérialisant une importante évolution quantitative par rapport aux deux années antérieures du programme. Le protocole, décrit dans le rapport d'avancement des travaux 1988, n'a pas subi d'aménagements majeurs saufen matière de conditionnement des géniteurs. Malgré les progrès réalisés dans la production de larves "D" et en survie larvaire, il n'a pas été possible d'obtenir un nombre de post-larves significatif de Pecten jacobaeus pour cause de mortalité à la fixation. En revanche, un essai mené en parallèle à partir de pédivéligères de Pecten maximus, originaires d'Argenton, s'est soldé par l'obtention de près de 30.000 naissains dans des conditions de rendement satisfaisants. Enfin, le suivi mensuel de l'indice gonadique de la population naturelle de Pecten jacobaeus, associé à un examen histologique des gonades pendant une année, a permis de préciser pour la première fois en Méditerranée française le cycle de reproduction, ainsi que la période optimale de réponse à un stimuli de déclenchement de ponte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La suppléance à la communication (SC) est un moyen qui permet aux personnes qui ne peuvent pas communiquer par la parole de transmettre des informations à leur environnement et d'interagir de manière fonctionnelle avec lui. Le développement de la SC connaît des avancées importantes depuis quelques années, surtout avec l'avènement de nouvelles technologies. Toujours est-il qu'une compréhension plus approfondie des mécanismes qui sous-tendent l'utilisation de la SC reste primordiale. De plus, les relations qui existent entre l'utilisation du langage oral et de symboles graphiques sont peu explorées à ce jour. La présente étude fait partie d'un projet plus large visant donc à mieux explorer la nature des compétences nécessaires à une utilisation optimale de symboles graphiques dans la SC. Ainsi, et afin de mieux comprendre cette relation entre le langage oral et l'utilisation de symboles graphiques aussi bien en production qu'en compréhension, ainsi que pour mieux explorer l'effet d'âge et de genre, nous avons recruté 79 enfants (37 filles et 42 garçons), âgés entre 4;1 ans et 9;11ans, et qui présentent un développement typique du langage. L'étude du développement typique nous permet d'étudier certaines habiletés qui peuvent être difficiles à évaluer chez des enfants présentant des déficits sévères. Les sujets ont été répartis en 3 groupes selon leur âge: groupe 4-5 ans (n=26), groupe 6-7 ans (n=35) et groupe 8-9 ans (n=18). Plusieurs tâches ont été crées; celles-ci comprenaient des tâches de compréhension et de production, avec comme matériel des symboles graphiques, des objets ou des mots, qui étaient répartis au sein d'énoncés formés de trois, quatre, six ou huit éléments. Les résultats montrent tout d'abord deux profils distincts: chez les jeunes enfants, on observe une meilleure performance aux tâches d'interprétation par rapport aux tâches de production. Cependant, cette différence n'est plus évidente pour les groupes des plus âgés, et la distinction principale se situe alors au niveau de la différence de performance entre les tâches orales et les tâches symboliques au profit des premières. Par ailleurs, et conformément aux observations sur le développement du langage oral, la performance des filles est supérieure à celle des garçons à toutes les tâches, et cette différence semble disparaître avec l'âge. Enfin, nos résultats ont permis de montrer une amélioration plus marquée de la maîtrise du langage oral avec l'âge par comparaison à la maîtrise du traitement du symbole graphique. Par contre, l'interprétation et la production semblent être maîtrisées de manière similaire. Notre étude vient appuyer certains résultats rapportés dans la littérature, ainsi qu'élargir les connaissances surtout au niveau des liens qui existent entre la production et l'interprétation orale et symbolique en fonction de l'âge et du genre.