817 resultados para otite moyenne


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La performance d’un produit de finition sur le bois est influencée par la manière dont la surface est préparée. Le ponçage est très utilisé pour préparer les surfaces lors de la finition. Toutefois, ce procédé génère une grande quantité de poussières. Ainsi, les effets des procédés d’usinage sur les propriétés de surface, la performance d’un vernis et l’émission de poussières ont été étudiés dans le but de déterminer les modes de préparation des surfaces les plus adéquats pour le bois de chêne rouge. Dans un premier volet, les propriétés de surface et la performance d’un vernis ont été évaluées sur les surfaces préparées à l’aide du procédé traditionnel de ponçage et de trois procédés alternatifs de rabotage soit la coupe périphérique droite, la coupe hélicoïdale et la coupe oblique. La qualité de surface a été évaluée au moyen des caractéristiques de rugosité, d’endommagement cellulaire et de mouillabilité. Des essais de résistance à l’adhésion d’un vernis d’usage intérieur ont été effectués avant et après un traitement de vieillissement accéléré. Les résultats ont montré que le ponçage a induit une rugosité et un niveau de fibrillation supérieurs à ceux des autres procédés, ainsi qu’une mouillabilité et une adhésion du vernis après vieillissement accéléré élevées. Les surfaces rabotées avec la coupe périphérique droite ont présenté un certain niveau de fibrillation, une rugosité et une mouillabilité intermédiaires. Néanmoins, l’adhésion du vernis après vieillissement a été également inférieure par rapport aux autres procédés. La coupe hélicoïdale a produit une rugosité intermédiaire. D’autre part, la coupe oblique a été le procédé qui a présenté une perte d’adhésion après vieillissement similaire au ponçage. Ce procédé a généré des surfaces lisses avec rugosité et mouillabilité intermédiaires. Sur la base des résultats obtenus, le ponçage à l’aide d’un programme P100-grain et une vitesse d’avance de 7 m/min, la coupe périphérique droite avec un angle d’attaque de 25° et une onde d’usinage de 1,0 mm, la coupe hélicoïdale avec une onde d’usinage de 1,0 mm et la coupe oblique realisé avec un angle oblique de 15° ont permis d’obtenir les meilleures conditions d’usinage pour chaque procédé. Dans un deuxième volet, l’effet de différents paramètres de coupe sur l’émission de poussières et la rugosité de la surface a été étudié lors de la coupe hélicoïdale. Les émissions de poussières ont diminué avec la diminution de laprofondeur de coupe et l’augmentation de l’épaisseur moyenne du copeau. Cependant, les surfaces obtenues avec l’épaisseur moyenne du copeau plus élevée ont présenté une rugosité supérieure. Par contre, si une surface plus lisse est requise, une vitesse d’avance intermédiaire doit être utilisée afin de diminuer la rugosité des surfaces sans exposer les travailleurs à des niveaux élevés de poussière de bois. Par ailleurs, l’émission de poussières pour chaque fraction de particules peut être estimée à travers les modèles développés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s’intéresse à l’étude du critère de validation croisée pour le choix des modèles relatifs aux petits domaines. L’étude est limitée aux modèles de petits domaines au niveau des unités. Le modèle de base des petits domaines est introduit par Battese, Harter et Fuller en 1988. C’est un modèle de régression linéaire mixte avec une ordonnée à l’origine aléatoire. Il se compose d’un certain nombre de paramètres : le paramètre β de la partie fixe, la composante aléatoire et les variances relatives à l’erreur résiduelle. Le modèle de Battese et al. est utilisé pour prédire, lors d’une enquête, la moyenne d’une variable d’intérêt y dans chaque petit domaine en utilisant une variable auxiliaire administrative x connue sur toute la population. La méthode d’estimation consiste à utiliser une distribution normale, pour modéliser la composante résiduelle du modèle. La considération d’une dépendance résiduelle générale, c’est-à-dire autre que la loi normale donne une méthodologie plus flexible. Cette généralisation conduit à une nouvelle classe de modèles échangeables. En effet, la généralisation se situe au niveau de la modélisation de la dépendance résiduelle qui peut être soit normale (c’est le cas du modèle de Battese et al.) ou non-normale. L’objectif est de déterminer les paramètres propres aux petits domaines avec le plus de précision possible. Cet enjeu est lié au choix de la bonne dépendance résiduelle à utiliser dans le modèle. Le critère de validation croisée sera étudié à cet effet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le vieillissement du personnel enseignant se manifeste à la grandeur du Québec. Partout, dans toutes les commissions scolaires, on parle du besoin de se renouveler, d'avoir du "sang neuf". Pourtant, on oublie une réalité cruciale. Ces hommes et ces femmes qui ont donné 20, 30, parfois 40 ans de leur vie à l'enseignement, ont atteint une maturité incontestable. Ces personnes ont tout un bagage de connaissances et d'expériences à apporter aux enseignants débutants. L'envers de la médaille, c'est aussi le fait que l'absence de jeunes enseignants se fait cruellement sentir dans nos écoles. Les étudiants manifestent clairement le besoin de voir autres choses que des têtes blanches... Ils ont besoin de grands-parents, bien sûr, mais aussi de parents et plus que tout, de grands frères et de grandes soeurs qui ont le goût d'être avec eux et de vivre avec eux des expériences enrichissantes tous les jours, et non pas uniquement de temps en temps... Oui, le personnel enseignant du Québec a pris de l'âge (moyenne d'âge: 48 ans pour les enseignants(tes) du primaire et du secondaire). Peut-on espérer des stratégies qui géreraient ce vieillissement de façon positive? Ce travail veut souligner qu'avec le vieillissement vient aussi l'expérience, les connaissances et la maturité. Il voudrait de plus explorer des façons de vivre le vieillissement de façon à ce que chacun(e) puisse donner le meilleur de soi-même. Il voudrait surtout apporter des pistes pour que tous, jeunes et moins jeunes, trouvent leur vrai place dans l'organisation scolaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude évalue l’impact des formations formelles sur le revenu et la durée du chômage des immigrants de la classe des travailleurs qualifiés résidant dans la province de Québec. En effet, elle cherche à vérifier l’adéquation entre les formations formelles et les caractéristiques observables de ces immigrants d’une part, puis l’adéquation entre ces formations et la situation économique des immigrants d’autre part. Après avoir effectué une analyse descriptive de la base de données, la méthode d’appariement multiple basée sur les scores de propension généralisés est utilisée pour estimer l’effet causal des formations formelles sur le revenu et la durée du chômage des immigrants. De plus, la méthode de régression par quantile est utilisée pour faire ressortir l’effet causal de ces formations par quantile. En moyenne, les résultats de l’étude montrent que les formations formelles diminuent la durée de chômage des participants, avec une baisse de 580 jours pour les participants aux formations linguistiques. Les effets quantiles des formations professionnelles et académiques sont plus élevés sur le 75è quantile des distributions de la durée du chômage, avec des baisses respectives de 491 et 495 jours. Cependant, les formations formelles n’augmentent pas le revenu des participants. C’est pourquoi le gouvernement du Québec doit bien clarifier ses objectifs d’immigration selon l’augmentation de l’employabilité d’une part ou selon l’augmentation du niveau salarial d’autre part. Pour une optimisation des ressources, il est recommandé au gouvernement d’orienter les immigrants vers les formations linguistiques car elles diminuent plus la durée du chômage et de chercher la meilleure politique qui permettrait de rattraper l’écart salarial entre les participants et les non-participants des formations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’isomérisation alcaline du lactose en lactulose a été effectuée électro-chimiquement à l’aide d’un réacteur d’électro-activation en combinaison avec des résines échangeuses d’anions de polystyrène de trois types; à savoir Lewatit VP-OC-1065 faible-acide, Lewatit MP-64 moyenne-acide et Lewatit Monoplus M500 forte-acide. Les paramètres opératoires qui ont fait l’objet de cette étude ont été étudiés sur trois blocs expérimentaux pour optimiser le système. Dans le Premier bloc, les paramètres étudiés sont : (1) ratio lactose-5%(p/v) : résine échangeuse d’anions (1:0.5, 1:1 et 1:2), (2) intensité du champ électrique : 50 mA, 100 mA et 200 mA et (3) type de résines : faible, moyenne et forte. Dans le Deuxième bloc, les paramètres mis à l’étude comprenaient : (1) l’intensité du champ électrique : 300 mA, 450 mA et 550 mA, (2) le débit de la solution traitée : 25 ml / min, 50 ml/ min et 100 ml/min et (3) la surface active de la membrane adjacente au compartiment cathodique : 0.78 cm2, 7.06 cm2 et 18.1 cm2. Le Troisième bloc expérimental a été effectué sur la base de la distance entre la membrane et l’électrode : 3.1 cm, 5.6 cm et 9 cm. Le même modèle expérimental a était également réalisé avec du perméat du lactosérum d’une concentration de 7% (p/v). Les résultats obtenus ont révélé que le meilleur rendement de l’isomérisation du lactose en lactulose était obtenu après 30 minutes d’électroactivation en utilisant une solution modèle de lactose-5% avec une valeur d’environ 20.1%. Les conditions opératoires qui ont permis d’avoir ce taux de conversion sont une intensité du courant de 550 mA, un débit de la solution de 25 ml/min, une surface active de la membrane de 7.06 cm2 et une distance de 9 cm entre la cathode et la membrane qui lui y est adjacente. En utilisant le perméat de lactosérum-7%, un taux de conversion de lactose en lactulose de 8.34% a était obtenu avec une intensité du courant de 200 mA, un débit de 120 ml/min, une surface active de de 18.1cm2 et une distance de 9 cm entre la membrane et l’électrode dans le compartiment cathodique. Les analyses de variance ont indiqué un effet catalytique significatif du type de la résine. En effet, la résine-forte a permis d’avoir les plus hauts rendements de la réaction d’isomérisation par électro-activation. La résistance électrique globale du système d’électroactivation dépendait de la valeur de l’intensité du courant. Le produit final était d’une grande pureté, car il ne présentait que quelques traces de galactose (< 4%).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les pays développés, la prévalence des démences est de 5% chez les plus de 65ans et doublerait pour chaque tranche d'âge de 10 ans. Avec le vieillissement de la population, le nombre de personnes atteintes de démence augmente chaque année, ce qui pose le problème de trouver rapidement des thérapies et mesures de prévention efficaces. Il est connu que l'hypertension artérielle (HTA) est un facteur de risque pour certaines démences. De plus, de récentes études démontrent que la pression artérielle centrale serait un marqueur hémodynamique plus représentatif des lésions causées au cerveau, dues à une HTA, que la pression périphérique usuellement mesurée. Il serait donc intéressant d'évaluer si la démence est associée à une augmentation de la pression artérielle centrale, en comparaison avec des patients hypertendus non déments. But de l'étude : Cette étude a pour but de quantifier l'apport de la mesure de la pression artérielle centrale ambulatoire dans la caractérisation des patients avec une démence de type Alzheimer. L'objectif principal est de déterminer la taille de la différence de pression artérielle centrale et son écart-­‐type entre les patients hypertendus avec ou sans démence de type Alzheimer afin de pouvoir calculer le nombre de patients nécessaire pour montrer une différence significative. Dans cette étude, nous allons tester l'hypothèse que la pression artérielle centrale (moyenne, systolique et diastolique) est plus élevée chez les patients atteints de troubles cognitifs et/ou qu'ils présentent des perturbations du rythme circadien plus marquées, notamment pour les valeurs durant le sommeil, (non-­‐dipping, reverse dipping, extreme dipping).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif général des travaux présentes dans cette thèse de doctorat était d’établir la relation entre l’alimentation et la composition du lait des vaches laitières, en mettant l’emphase sur les teneurs en matières grasses (TMG), sur l’urée du lait et sur l’efficience d’utilisation de l’azote. Pour la TMG, c’est principalement la relation entre cette teneur et la différence alimentaire cations-anions (DACA) qui a été investiguée. Une base de données de 2 142 troupeaux québécois a été utilisée et la relation entre la composition de la ration, incluant la DACA, et la TMG du lait a été déterminée à l’aide de régressions multiples. Il a été possible de prédire entre 32 et 66 % de la variation de la TMG du lait en fonction du stade de lactation. Malgré plusieurs interactions trouvées, une augmentation de la DACA, une supplémentation avec de l’acide palmitique et une distribution des aliments en ration totale mélangée ont eu une relation positive avec la TMG du lait, tandis qu’une augmentation de la proportion de concentrés dans la ration a eu un effet négatif. Les modèles développés ont montré l’importance de la gestion de l’alimentation sur la TMG du lait. En plus, ils ont démontré l’intérêt de considérer la DACA dans la formulation de rations chez la vache laitière. Dans une deuxième étude, la même base des données a été utilisée pour identifier les facteurs nutritionnels qui peuvent faire varier la teneur en urée du lait. Contrairement à ce qui est mentionné dans la littérature, tant des corrélations positives et que négatives entre les teneurs en urée du lait et en protéines des rations à l’intérieur des troupeaux sur une période de 36 mois ont été obtenues. Pour mieux comprendre ces relations, les résultats de performances et d’alimentation de 100 troupeaux avec des corrélations positives (r > 0,69) et de 100 troupeaux avec des corrélations négatives (r < -0,44) entre la teneur en urée du lait et en protéine brute de la ration ont été comparés. Les résultats n’ont pas montré de différences entre les deux groupes ni pour la composition de la ration, ni pour l’urée du lait. Ces résultats ne permettent pas d’identifier le meilleur contexte pour l’utilisation de la teneur en urée du lait comme un outil de gestion de l’alimentation. Ces observations soulèvent des questions sur la validité de l’utilisation des statistiques d’alimentation provenant de la base de données utilisée pour des évaluations nutritionnelles plus spécifiques. Considérant les résultats du projet précédent, le dernier projet visait à mieux comprendre les caractéristiques des fermes avec différentes efficiences d’utilisation de l’azote en utilisant des données plus fiables. Ainsi, 100 fermes laitières au Québec ont été visitées pour recueillir les données de production, de consommation d’aliments et de gestion de leur troupeau. Ces fermes ont été divisées en quatre groupes par une analyse en grappes selon leur efficience d’utilisation de l’azote. La comparaison entre les groupes a montré que les fermes dans les groupes avec une plus haute efficience d’utilisation d’azote ont une production laitière moyenne par vache plus élevée. Pour les stratégies d’alimentation, les fermes plus efficientes donnent plus d’énergie, mais moins de protéines brutes que les fermes des groupes moins efficients. Les résultats ont également montré l’importance de la prise alimentaire des vaches sur l’efficience d’utilisation de l’azote puisque les fermes des groupes avec la plus grande efficience étaient également celles avec la plus faible prise alimentaire. Aussi, les résultats n’ont pas permis d’établir clairement la relation entre la teneur en urée du lait et l’efficience de l’utilisation de l’azote. En effet, des valeurs différentes pour l’urée du lait étaient obtenues entre le groupe plus efficient et le moins efficient, mais la faible ampleur de variation de l’efficience d’utilisation de l’azote des groupes intermédiaires n’a pas permis d’observer de différences pour l’urée du lait. Finalement, outre une réduction des risques de pollution, les fermes des groupes plus efficaces pour l’utilisation de l’azote étaient également celles avec la marge sur les coûts d’alimentation par les vaches plus élevées. Par conséquent, il y a aussi un intérêt économique à améliorer l’efficience de l’utilisation de l’azote sur les fermes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse propose de développer des mécanismes déployables pour applications spatiales ainsi que des modes d’actionnement permettant leur déploiement et le contrôle de l’orientation en orbite de l’engin spatial les supportant. L’objectif étant de permettre le déploiement de surfaces larges pour des panneaux solaires, coupoles de télécommunication ou sections de station spatiale, une géométrie plane simple en triangle est retenue afin de pouvoir être assemblée en différents types de surfaces. Les configurations à membrures rigides proposées dans la littérature pour le déploiement de solides symétriques sont optimisées et adaptées à l’expansion d’une géométrie ouverte, telle une coupole. L’optimisation permet d’atteindre un ratio d’expansion plan pour une seule unité de plus de 5, mais présente des instabilités lors de l’actionnement d’un prototype. Le principe de transmission du mouvement d’un étage à l’autre du mécanisme est revu afin de diminuer la sensibilité des performances du mécanisme à la géométrie de ses membrures internes. Le nouveau modèle, basé sur des courroies crantées, permet d’atteindre des ratios d’expansion plans supérieurs à 20 dans certaines configurations. L’effet des principaux facteurs géométriques de conception est étudié afin d’obtenir une relation simple d’optimisation du mécanisme plan pour adapter ce dernier à différents contextes d’applications. La géométrie identique des faces triangulaires de chaque surface déployée permet aussi l’empilement de ces faces pour augmenter la compacité du mécanisme. Une articulation spécialisée est conçue afin de permettre le dépliage des faces puis leur déploiement successivement. Le déploiement de grandes surfaces ne se fait pas sans influencer lourdement l’orientation et potentiellement la trajectoire de l’engin spatial, aussi, différentes stratégies de contrôle de l’orientation novatrices sont proposées. Afin de tirer profit d’une grande surface, l’actionnement par masses ponctuelles en périphérie du mécanisme est présentée, ses équations dynamiques sont dérivées et simulées pour en observer les performances. Celles-ci démontrent le potentiel de cette stratégie de réorientation, sans obstruction de l’espace central du satellite de base, mais les performances restent en deçà de l’effet d’une roue d’inertie de masse équivalente. Une stratégie d’actionnement redondant par roue d’inertie est alors présentée pour différents niveaux de complexité de mécanismes dont toutes les articulations sont passives, c’est-à-dire non actionnées. Un mécanisme à quatre barres plan est simulé en boucle fermée avec un contrôleur simple pour valider le contrôle d’un mécanisme ciseau commun. Ces résultats sont étendus à la dérivation des équations dynamiques d’un mécanisme sphérique à quatre barres, qui démontre le potentiel de l’actionnement par roue d’inertie pour le contrôle de la configuration et de l’orientation spatiale d’un tel mécanisme. Un prototype à deux corps ayant chacun une roue d’inertie et une seule articulation passive les reliant est réalisé et contrôlé grâce à un suivi par caméra des modules. Le banc d’essai est détaillé, ainsi que les défis que l’élimination des forces externes ont représenté dans sa conception. Les résultats montrent que le système est contrôlable en orientation et en configuration. La thèse se termine par une étude de cas pour l’application des principaux systèmes développés dans cette recherche. La collecte de débris orbitaux de petite et moyenne taille est présentée comme un problème n’ayant pas encore eu de solution adéquate et posant un réel danger aux missions spatiales à venir. L’unité déployable triangulaire entraînée par courroies est dupliquée de manière à former une coupole de plusieurs centaines de mètres de diamètre et est proposée comme solution pour capturer et ralentir ces catégories de débris. Les paramètres d’une mission à cette fin sont détaillés, ainsi que le potentiel de réorientation que les roues d’inertie permettent en plus du contrôle de son déploiement. Près de 2000 débris pourraient être retirés en moins d’un an en orbite basse à 819 km d’altitude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans une courte revue de la littérature, nous avons vu que les enfants issus de milieux socio-économiquement défavorisés possèdent des caractéristiques linguistiques propres, définies surtout par un manque de spécification dans les termes et les structures sémantiques utilisées. Nous nous sommes donc demandé si un programme approprié de stimulation du langage aurait des conséquences heureuses sur le développement de la spécificité sémantique des jeunes enfants. À partir d'un questionnaire permettant d'évaluer le statut socio-économique familial, nous avons défini deux groupes d'enfants de niveau maternelle issus de milieux défavorisés. Un de ces groupes équivalents fut soumis â un programme spécifique d'intervention au niveau du langage, en l'occurrence le programme Peabody. Visant la stimulation de l'expression orale et le développement de l'intelligence verbale, le Peabody misait surtout sur l'entraînement global du langage oral plutôt qu'un entraînement spécifique dans des processus psycho-linguistiques déterminés. Notre objectif initial visait l'administration de 120 leçons sur une possibilité de 180. Néanmoins, cet objectif ne s'est pas réalisé puisqu'une moyenne de 50 leçons seulement furent couvertes par chaque jardinière. [...]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En Guyane française , le vivaneau rouge (Lutjanus purpureus) est capturé par 3 flottilles, les ligneurs vénézuéliens, les caseyeurs antillais et les chalutiers crevettiers guyanais. Pour les crevettiers, il s'agit d'une capture accessoire inévitable, mais qui ne semble pas sans conséquences, puisque, si l'on tient compte de l'effectif total de la flottille, c'est 1 million à 1.5 millions de juvéniles qui sont pêchés (et souvent rejetés à la mer) annuellement par les crevettiers. Pour les ligneurs vénézuéliens qui pêchent 1200 tonnes, les individus de petite taille sont devenus prépondérants dans leurs captures. Ainsi dans la gamme de taille 20-30cm (125-425 grammes), on est passé, entre 1990 et 1998, de 37 000 poissons débarqués (6% de la capture) à 616 500 poissons (56% de la capture). La taille moyenne du vivaneau rouge débarqué est passée de 45 à 35 cm et son poids moyen de 1600 grammes à 700 grammes. Pour les caseyeurs, seuls deux armements (un du Larivot, l'autre du Robert), nous ont fourni quelques renseignements sur les activités et les débarquements de leurs navires. Les premières observations montrent que la composition de leurs captures en vivaneaux rouges ressemble à celle des ligneurs avec une tendance vers les petites tailles. Cependant cette tendance n'est pas aussi systématique que veulent bien le dire les détracteurs de la nasse à poissons. Leurs débarquements sont composés en nombre, pour moitié, de "vivaneaux tête ronde" (Rhomboplites aurorubens). On notera également que les caseyeurs rentabilisent leurs captures accessoires de mérous sur le marché antillais, alors que les ligneurs les rapatrient vers le Venezuela. Il existe une troisième espèce de vivaneau, le vivaneau rayé, Lutjanus synagris, capturé surtout par les chalutiers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet de recherche a été réalisé dans le but premier de mettre à niveau, d’adapter et de rendre opérationnelle la méthode de Newmark pour les types de barrages et les types de séismes habituellement rencontrés au Québec. Pour ce faire, une Banque de Signaux Sismiques pour l’Est du Canada (BDSSEC), contenant 451 accélérogrammes, a été produite de même qu’un code de calcul permettant de calculer les déplacements permanents, par double intégration numérique, selon la méthode de Newmark. À partir d’analyses statistiques, des modèles prédictifs applicables au contexte sismologique de l’Est canadien ont été développés en considérant un comportement rigide-plastique (méthode dite du « bloc rigide ») et un comportement viscoélastique linéaire équivalent (méthode dite « flexible »). La comparaison entre le nouveau modèle rigide-plastique pour l’Est avec ceux existants développés à partir de signaux de l’Ouest américain a montré que les déplacements permanents évalués pour l’Est peuvent être significativement inférieurs à ceux de l’Ouest pour des magnitudes et des distances épicentrales comparables compte tenu de leur contenu fréquentiel plus fort en hautes fréquences. Le modèle prédictif flexible a montré qu’il pouvait prédire des déplacements permanents du même ordre de grandeur que Makdisi et Seed (1977) et de Rathje et Antonakos (2011). Les déplacements permanents sont amplifiés par la méthode flexible comparativement à la méthode rigide principalement lorsque le ratio entre la période prédominante de l’ouvrage et la période moyenne de la sollicitation se situe autour de 1. Le second but consistait à tester l’applicabilité de la méthode du bruit de fond ambiant (H/V) comme outil expérimental pour estimer la période prédominante des barrages en remblai et en enrochement (Tp). Les études comparatives ont montré, de façon générale, une bonne concordance entre les calculs analytiques et les mesures expérimentales tant et aussi longtemps que les hypothèses à la base des modèles sont respectées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente l’étude expérimentale de l’écoulement d’entrée d’un aspirateur d’une turbine bulbe présentant une chute abrupte de performance. Des mesures par vélocimétrie laser à effet Doppler (LDV) ont été réalisées sur deux axes soit en aval des pales de la roue et en aval du moyeu de la roue. Une particularité de cette étude est la conception d’un montage permettant de mesurer la vitesse axiale proche de la paroi du cône. De plus, une méthode d’estimation de la vitesse radiale moyenne a été développée. Ces mesures ont permis de caractériser l’écoulement primaire et les écoulements secondaires et d’analyser leur évolution entre les deux axes. De plus, l’évolution de ces écoulements est analysée en fonction de la chute de performance de la turbine. Les principales particularités de l’écoulement sont la présence d’une recirculation sous le moyeu, d’une zone contrarotative, des sillages des directrices et des tourbillons de bout de pale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work presents interactions between quantitative and qualitative river freshwater inputs and the shellfish farming (oyster and mussel) in the Pertuis Charentais. The quantity of freshwater (i.e. salinity) seems to have a weak influence on the shellfish farming contrarily to its quality determined by particulate and dissolved matters contained in the water. In autumn and winter, large precipitations have a "globally positive" effect amending the coastal ecosystem. Associated dissolved nutriments and the organic matter largely determine the quality of the coming spring growth for bred shellfish, itself controlling in turn the annual yield efficiencies. However, in winter their effects are postponed because of strong mineral load, low luminosity and temperature, then limiting the primary production. The spring contributions, directly linked to territorial practices, agriculture and tourism are more variable in quantity and quality from one year to another. They often correspond to high-risk inflows since numerous substances from anthropogenic watersheds can be found diluted in the coastal zone as in the Pertuis Charentais. Their impacts on in situ estuarine ecosystems are still poorly known since these substances are mainly studied and estimated in laboratory in controlled conditions. Several studies showed anthropogenic contaminations (i.e. cadmium, pesticides) could have significant direct or indirect effects on shellfish farming. For instance, the "summer" mortalities between 1990 and 2000 in the South of the Marennes-Oléron bay (MOB), that induced environmental and physiological oyster disorders, could be linked to pesticide effects, measured during consecutive years on the oyster bed of Ronce Perquis in the South of the MOB. The weak results from the spring larval rearing of the IFREMER experimental hatchery in the South of the bay, and chromosomal abnormalities measured on the stocks of wild oysters of the Pertuis could confirm a high-risk spring environment for the shellfish farming. In summer terrestrial inputs are reduced by low precipitations, anthropogenic water removals (drinking water, irrigation) and by plant evapotranspiration. Consequently certain years, a significant salinity increase in water masses of the Pertuis Charentais is observed. However, based on long-term observations, the significant interannual variability noticed in freshwater contributions constitutes one of the most important facts of these last years. When contributions are weak (i.e. 1991 and 2011), the mean annual salinity is 34.5 in the MOB. To the contrary, other years (i.e. 1977, 1981, 1983 and 1988), the mean salinity reduced to 30.5 shows the significant freshwater contributions to the bay. Elsewhere, particularly in the mediterranean region, oyster breeding water conditions characterized by high salinity values show the freshwater does not seem to be necessary for biological functions of the Pacific oyster Crassostrea gigas. Indeed, the oyster embryonic life in particular is well adapted to high salinity values as long as trophic resources are substantial and temperatures remain high. These two factors firstly condition the embryonic survival before the water salinity. Besides, in the Pertuis Charentais, wind conditions and the geographical bloodstock position rather determine the success of the larvae capture than seawater physic-chemical conditions. Finally, a misunderstanding still remains on summer freshwater contributions to the oyster larvae food supply.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les enjeux hydrologiques modernes, de prévisions ou liés aux changements climatiques, forcent l’exploration de nouvelles approches en modélisation afin de combler les lacunes actuelles et d’améliorer l’évaluation des incertitudes. L’approche abordée dans ce mémoire est celle du multimodèle (MM). L’innovation se trouve dans la construction du multimodèle présenté dans cette étude : plutôt que de caler individuellement des modèles et d’utiliser leur combinaison, un calage collectif est réalisé sur la moyenne des 12 modèles globaux conceptuels sélectionnés. Un des défis soulevés par cette approche novatrice est le grand nombre de paramètres (82) qui complexifie le calage et l’utilisation, en plus d’entraîner des problèmes potentiels d’équifinalité. La solution proposée dans ce mémoire est une analyse de sensibilité qui permettra de fixer les paramètres peu influents et d’ainsi réduire le nombre de paramètres total à caler. Une procédure d’optimisation avec calage et validation permet ensuite d’évaluer les performances du multimodèle et de sa version réduite en plus d’en améliorer la compréhension. L’analyse de sensibilité est réalisée avec la méthode de Morris, qui permet de présenter une version du MM à 51 paramètres (MM51) tout aussi performante que le MM original à 82 paramètres et présentant une diminution des problèmes potentiels d’équifinalité. Les résultats du calage et de la validation avec le « Split-Sample Test » (SST) du MM sont comparés avec les 12 modèles calés individuellement. Il ressort de cette analyse que les modèles individuels, composant le MM, présentent de moins bonnes performances que ceux calés indépendamment. Cette baisse de performances individuelles, nécessaire pour obtenir de bonnes performances globales du MM, s’accompagne d’une hausse de la diversité des sorties des modèles du MM. Cette dernière est particulièrement requise pour les applications hydrologiques nécessitant une évaluation des incertitudes. Tous ces résultats mènent à une amélioration de la compréhension du multimodèle et à son optimisation, ce qui facilite non seulement son calage, mais également son utilisation potentielle en contexte opérationnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche a pour objectif de mesurer la valeur marginale estimée par les investisseurs canadiens à la suite de l’ajout de 1 dollar d’encaisse, pour la période trimestrielle s’étalant de 2001 à 2013. Autrement dit, nous tentons d’évaluer si l’investisseur déprécie, estime à sa juste valeur nominale ou apprécie la valeur de 1 dollar de trésorerie, et ce à travers son impact sur la valeur marchande de l’équité. Parallèlement, nous tentons d’analyser l’influence des variables liées à la rentabilité, le financement, la croissance et le risque sur la valeur que place l’investisseur à l’ajout de 1 dollar d’encaisse. L’effet sectoriel sera notamment exploré sur l’ensemble de ces périodes. Des études passées ont démontré qu’il existe une asymétrie entre la valeur nominale de 1 dollar d’encaisse et celle estimée par les investisseurs. Plus précisément que l’ajout de 1 dollar de liquidité est évalué à prime. Somme toute, ces analyses affinent leurs résultats en tenant compte de l’influence des autres variables telles que mentionnées plus haut, afin de déterminer celles qui entraînent une appréciation de l’encaisse de celles qui conduisent à sa dépréciation. Nous avons conclu qu’en moyenne la valeur marginale de 1 dollar de liquidité est évaluée à 2,13$ par les investisseurs. Nous avons également pu prouver que les anticipations des investisseurs et le risque total influencent significativement cette estimation. Pour tenter de mesurer la valeur que place l’investisseur à l’ajout de 1 dollar d’encaisse, nous avons utilisé la méthodologie de Pinkowitz et Williamson (2002). Ce faisant, nous avons dans un premier temps mesuré l’impact net de l’encaisse sur la valeur marchande de l’équité en élimant du modèle les variables tenant compte des variations trimestrielles t-2 et t+2. L’hypothèse à vérifier en ce qui concerne l’impact net de l’encaisse est qu’il existe une asymétrie significative entre la valeur de 1 dollar et celle estimée par l’investisseur qui n’est pas uniquement provoquée par l’influence des variations passées et futures de l’encaisse. Les résultats obtenus nous ont permis de prouver que la valeur de 1 dollar d’encaisse est appréciée par l’investisseur, et ce malgré la suppression ou la présence des variables tenant compte des variations. Dans la même ligné, nous avons pu démontrer que, conjointement à l’encaisse au temps t, seules les variations liées aux anticipations des investisseurs impactaient significativement la valeur marchande de l’équité. En ce qui concerne le risque dont l’analyse s’est effectuée en dissociant le risque systématique du risque systémique. L’hypothèse à vérifier est qu’une augmentation du risque systématique entraîne une augmentation de la valeur de l’encaisse estimée par l’investisseur. Les résultats obtenus viennent appuyer cette affirmation. Quant au risque systémique, l’hypothèse à vérifier tente à affirmer qu’en période de crise l’encaisse est sous-estimée par l’investisseur et son impact sur la VME non significatif. Nos résultats nous conduisent à démontrer que pour la crise financière de 2006, cette hypothèse est justifiée, mais nous ne permettent pas de la vérifier pour chaque crise. Finalement, nous tenions à vérifier que dépendamment du secteur étudié, l’encaisse pouvait être plus appréciée par les investisseurs. Or, nos résultats ont montré qu’en présence de la liquidité aucun secteur ne se distingue significativement de ses pairs.