641 resultados para Taille d’échantillon
Resumo:
Cette étude examine les liens entre la participation au budget et la performance managériale avec la motivation comme variable intervenante. La motivation est décomposée en plusieurs facteurs dont les gratifications intrinsèques et extrinsèques. L'effet des variables de la complexité de l'environnement technologique et de la gestion par exceptions (GPE) est aussi examiné. L'étude est menée auprès de contremaîtres affectés à la production d'entreprises manufacturières de taille moyenne. Les contremaîtres montrent une nette préférence aux gratifications intrinsèques, suggérant leur insatisfaction face au système de récompenses en place. Cette insatisfaction semble s'exprimer dans le lien négatif entre la motivation et la participation. De plus, l'engagement personnel des contremaîtres face aux objectifs de l'organisation semble les rendre plus critiques dans l'évaluation de leur performance managériale. Le phénomène est accentué chez les contremaîtres des entreprises avec un niveau de GPE faible puisqu'ils ne perçoivent pas le système de contrôle de gestion comme un outil de répression. Il est aussi accentué, mais dans une moindre mesure, chez les contremaîtres des entreprises hautement technologiques. Cependant, l'effet de la participation au budget pour ces derniers semble favoriser la performance managériale. La plus grande sensibilité des gestionnaires aux valences intrinsèques et leur réticence à attribuer aux autres l'insuccès face à l'atteinte des objectifs pourraient être une des caractéristiques des moyennes entreprises. Les résultats de cette étude suggèrent aussi que, pour une entreprise de taille moyenne, un style de gestion non perçu comme répressif améliore la participation, la motivation et la performance des gestionnaires. Enfin, la participation semble avoir un effet positif sur la performance managériale dans un environnement technologique plus complexe seulement.
Resumo:
L'objet de ce mémoire est de mesurer l'efficacité des programmes d'aide aux employés (PAE). Dans un deuxième temps, nous cherchons à identifier les facteurs explicatifs du succès des PAE. Nous avons conceptualisé ces interrogations autour d'un modèle théorique qui découpe le concept de succès des PAE en trois variables dépendantes soit, la résolution de la situation problématique, la satisfaction des usagers envers le PAE et l'amélioration de la performance au travail grâce et à la suite des consultations au PAE. De même, nous avons identifié quatre groupes de variables indépendantes susceptibles d'expliquer les variations dans le succès des PAE soit: le profil des usagers, les caractéristiques de la situation problématique, les caractéristiques de la consultation et finalement les caractéristiques de l'organisation à laquelle appartiennent les usagers. Pour évaluer ce modèle et afin de répondre à ces interrogations nous avons sondé par questionnaire vingt-deux usagers cliniques d'un PAE externe. L'échantillon était composé majoritairement de femmes âgées entre 30 et 49 ans, travaillant principalement dans des emplois professionnels. L'analyse quantitative des réponses nous a permis de conclure que généralement le PAE est assez efficace pour résoudre les situations problématiques vécues par ses usagers. Les résultats tendent aussi à montrer que les usagers du PAE sont très satisfaits des services dispensés. Il ressort finalement que, grâce aux consultations au PAE, l'impact négatif de la situation problématique sur la performance au travail de l'usager disparaît et même qu'en moyenne la performance au travail s'améliore légèrement. Suite aux analyses bi-variées, nous pouvons identifier certains facteurs explicatifs du succès des PAE. Les principales variables pour lesquelles le succès des PAE variait significativement étaient le sexe, l'âge, la catégorie d'emploi, le type de difficultés, l'urgence de la situation problématique, le motif de cessation des services, la taille de l'entreprise et la présence ou non d'un syndicat dans l'entreprise du répondant.
Resumo:
La culture sous abris avec des infrastructures de type grands tunnels est une nouvelle technologie permettant d’améliorer la production de framboises rouges sous des climats nordiques. L’objectif principal de ce projet de doctorat était d’étudier les performances de ces technologies (grands tunnels vs. abris parapluie de type Voen, en comparaison à la culture en plein champ) et leur effets sur le microclimat, la photosynthèse, la croissance des plantes et le rendement en fruits pour les deux types de framboisiers non-remontants et remontants (Rubus idaeus, L.). Puisque les pratiques culturales doivent être adaptées aux différents environnements de culture, la taille d’été (pour le cultivar non-remontant), l’optimisation de la densité des tiges (pour le cultivar remontant) et l’utilisation de bâches réfléchissantes (pour les deux types des framboisiers) ont été étudiées sous grands tunnels, abris Voen vs. en plein champ. Les plants cultivés sous grands tunnels produisent en moyenne 1,2 et 1,5 fois le rendement en fruits commercialisables que ceux cultivés sous abri Voen pour le cv. non-remontant ‘Jeanne d’Orléans’ et le cv. remontant ‘Polka’, respectivement. Comparativement aux framboisiers cultivés aux champs, le rendement en fruits des plants sous grands tunnels était plus du double pour le cv. ‘Jeanne d’Orléans’ et près du triple pour le cv. ‘Polka’. L’utilisation de bâches réfléchissantes a entrainé un gain significatif sur le rendement en fruits de 12% pour le cv. ‘Jeanne d’Orléans’ et de 17% pour le cv. ‘Polka’. La taille des premières ou deuxièmes pousses a significativement amélioré le rendement en fruits du cv. ‘Jeanne d’Orléans’ de 26% en moyenne par rapport aux framboisiers non taillés. Des augmentations significatives du rendement en fruits de 43% et 71% du cv. ‘Polka’ ont été mesurées avec l’accroissement de la densité à 4 et 6 tiges par pot respectivement, comparativement à deux tiges par pot. Au cours de la période de fructification du cv. ‘Jeanne d’Orléans’, les bâches réfléchissantes ont augmenté significativement la densité de flux photonique photosynthétique (DFPP) réfléchie à la canopée inférieure de 80% en plein champ et de 60% sous grands tunnels, comparativement à seulement 14% sous abri Voen. Durant la saison de fructification du cv. ‘Polka’, un effet positif de bâches sur la lumière réfléchie (jusqu’à 42%) a été mesuré seulement en plein champ. Dans tous les cas, les bâches réfléchissantes n’ont présenté aucun effet significatif sur la DFPP incidente foliaire totale et la photosynthèse. Pour le cv. ‘Jeanne d’Orléans’, la DFPP incidente sur la feuille a été atténuée d’environ 46% sous le deux types de revêtement par rapport au plein champ. Par conséquent, la photosynthèse a été réduite en moyenne de 43% sous grands tunnels et de 17% sous abris Voen. Des effets similaires ont été mesurés pour la DFPP incidente et la photosynthèse avec le cv. Polka. En dépit du taux de photosynthèse des feuilles individuelles systématiquement inférieur à ceux mesurés pour les plants cultivés aux champs, la photosynthèse de la plante entière sous grands tunnels était de 51% supérieure à celle observée au champ pour le cv. ‘Jeanne d’Orléans’, et 46% plus élevée pour le cv. ‘Polka’. Ces résultats s’expliquent par une plus grande (près du double) surface foliaire pour les plants cultivés sous tunnels, qui a compensé pour le plus faible taux de photosynthèse par unité de surface foliaire. Les températures supra-optimales des feuilles mesurées sous grands tunnels (6.6°C plus élevé en moyenne que dans le champ), ainsi que l’atténuation de la DFPP incidente (env. 43%) par les revêtements de tunnels ont contribué à réduire le taux de photosynthèse par unité de surface foliaire. La photosynthèse de la canopée entière était étroitement corrélée avec le rendement en fruits pour les deux types de framboisiers rouges cultivés sous grands tunnels ou en plein champ.
Resumo:
Cette thèse examine le rôle du pouvoir de marché dans le marché bancaire. L’emphase est mis sur la prise de risque, les économies d’échelle, l’efficacité économique du marché et la transmission des chocs. Le premier chapitre présente un modèle d’équilibre général dynamique stochastique en économie ouverte comprenant un marché bancaire en concurrence monopolistique. Suivant l’hypothèse de Krugman (1979, 1980) sur la relation entre les économies d’échelle et les exportations, les banques doivent défrayer un coût de transaction pour échanger à l’étranger qui diminue à mesure que le volume de leurs activités locales augmente. Cela incite les banques à réduire leur marge locale afin de profiter davantage du marché extérieur. Le modèle est solutionné et simulé pour divers degrés de concentration dans le marché bancaire. Les résultats obtenus indiquent que deux forces contraires, les économies d’échelle et le pouvoir de marché, s’affrontent lorsque le marché se concentre. La concentration permet aussi aux banques d’accroître leurs activités étrangères, ce qui les rend en contrepartie plus vulnérables aux chocs extérieurs. Le deuxième chapitre élabore un cadre de travail semblable, mais à l’intérieur duquel les banques font face à un risque de crédit. Celui-ci est partiellement assuré par un collatéral fourni par les entrepreneurs et peut être limité à l’aide d’un effort financier. Le modèle est solutionné et simulé pour divers degrés de concentration dans le marché bancaire. Les résultats montrent qu’un plus grand pouvoir de marché réduit la taille du marché financier et de la production à l’état stationnaire, mais incite les banques à prendre moins de risques. De plus, les économies dont le marché bancaire est fortement concentré sont moins sensibles à certains chocs puisque les marges plus élevés donnent initialement de la marge de manoeuvre aux banques en cas de chocs négatifs. Cet effet modérateur est éliminé lorsqu’il est possible pour les banques d’entrer et de sortir librement du marché. Une autre extension avec économies d’échelle montre que sous certaines conditions, un marché moyennement concentré est optimal pour l’économie. Le troisième chapitre utilise un modèle en analyse de portefeuille de type Moyenne-Variance afin de représenter une banque détenant du pouvoir de marché. Le rendement des dépôts et des actifs peut varier selon la quantité échangée, ce qui modifie le choix de portefeuille de la banque. Celle-ci tend à choisir un portefeuille dont la variance est plus faible lorsqu’elle est en mesure d’obtenir un rendement plus élevé sur un actif. Le pouvoir de marché sur les dépôts amène un résultat sembable pour un pouvoir de marché modéré, mais la variance finit par augmenter une fois un certain niveau atteint. Les résultats sont robustes pour différentes fonctions de demandes.
Resumo:
Dans ce mémoire, nous expliquons d'abord que les principaux critères d'évaluation d'un plan-média qui sont utilisés en pratique sont inappropriés parce qu'ils reposent sur des hypothèses irréalistes concernant le comportement des rendements marginaux des expositions à la publicité. Les distributions d'exposition à la publicité sont ensuite utilisées pour modéliser l'impact de différents plans-média en assumant l'existence de rendements marginaux décroissants en publicité. La performance de ce premier modèle est comparée à celle d'un autre modèle où l'impact est fonction de la taille de l'auditoire-cible des différents supports publicitaires et du nombre d'insertions dans chacun de ceux-ci. Nous trouvons une forte relation entre les deux modèles, ce qui suggère que les données qui alimentent le deuxième modèle et qui sont immédiatement disponibles pour tous les types de médias peuvent remplacer les distributions d'exposition dont l'estimation est beaucoup plus complexe. Nous dérivons enfin une règle de répartition du budget de publicité qui permet de déterminer de façon analytique le meilleur plan-média sans avoir recours à la procédure exhaustive d'essai et erreur qui est utilisée dans la plupart des modèles-média.
Resumo:
Les propriétés hydrauliques d’un till du Nord du Québec en condition saturée et non saturée ont été étudiées en laboratoire à l’aide de l’essai de conductivité hydraulique et l’essai de succion qui permet d’obtenir la courbe de rétention d’eau. Les essais ont été réalisés avec des échantillons compactés sous différentes conditions de teneur en eau et de masse volumique sèche, de manière à évaluer l’influence de ces conditions sur les propriétés hydrauliques. Les études précédentes ont montré qu’une structure agrégée se développe dans le till lorsqu’il est compacté de côté sec de l’optimum Proctor, c’est-à-dire à un degré de saturation de compactage inférieur au degré de saturation optimum (Sr0 < Sr-opt). Le till étudié dans le cadre de cette étude diffère de ceux utilisés dans les études précédentes par son très faible pourcentage de particules argileuses (< 2 μm) de 0,7%. L’objectif principal de cette étude est d’évaluer l’influence des conditions de compactage sur la conductivité hydraulique et la courbe de rétention d’eau et de déterminer si une structure agrégée se développe lorsque le till est compacté du côté sec de l’optimum. Les résultats expérimentaux typiques de la conductivité hydraulique saturée obtenus pour les échantillons compactés du côté humide de l’optimum (Sr0 > Sr-opt) avec un indice des vides de 0,328 varient de 2,6 x 10-7 à 8,6 x 10-7 m/s. Les conductivités hydrauliques typiques obtenues pour les échantillons compactés du côté sec de l’optimum (Sr0 < Sr-opt) avec le même indice des vides étaient très similaires, variant entre 2,4 x 10-7 et 9,1 x 10-7 m/s. Les courbes de rétention d’eau mesurées en laboratoire sont très semblables entre elles, présentant toutes une structure de sol homogène, peu importe si l’échantillon a été compacté du côté sec ou du côté humide. Il apparait que la conductivité hydraulique et la courbe de rétention d’eau de ce till sont très peu influencées par le degré de saturation de compactage. Ceci peut être expliqué par le très faible pourcentage de particules argileuses, qui prévient la formation d’agrégations de particules dans la structure du till lorsqu’il est compacté du côté sec de l’optimum Proctor. Plusieurs modèles d’estimation de la conductivité hydraulique sont utilisés. Cette étude propose trois nouveaux modèles d’estimation de la conductivité hydraulique saturée pour les tills du Nord du Québec. Le premier modèle met en relation la conductivité hydraulique saturée avec le diamètre des grains de la fraction fine (d50 FF) et le deuxième modèle est une équation modifiée de Kozeny-Carman et Hazen basée sur la porosité et une taille de particule effective (d10). Finalement, un modèle permettant d’évaluer l’effet de l’agrégation avec l’équation de Kozeny-Carman modifiée dans les tills compactés est proposé.
Resumo:
Les lacs de thermokarst (lacs peu profonds créés par le dégel et l’érosion du pergélisol riche en glace) sont un type unique d’écosystèmes aquatiques reconnus comme étant de grands émetteurs de gaz à effet de serre vers l’atmosphère. Ils sont abondants dans le Québec subarctique et ils jouent un rôle important à l’échelle de la planète. Dans certaines régions, les lacs de thermokarst se transforment rapidement et deviennent plus grands et plus profonds. L’objectif de cette étude était d’améliorer la compréhension et d’évaluer quelles variables sont déterminantes pour la dynamique de l’oxygène dans ces lacs. C’est pourquoi j’ai examiné les possibles changements futurs de la dynamique de l’oxygène dans ces lacs dans un contexte de réchauffement climatique. Une grande variété de méthodes ont été utilisées afin de réaliser cette recherche, dont des analyses in situ et en laboratoire, ainsi que la modélisation. Des capteurs automatisés déployés dans cinq lacs ont mesuré l’oxygène, la conductivité et la température de la colonne d’eau en continu de l’été 2012 jusqu’à l’été 2015, à des intervalles compris entre 10 à 60 minutes. Des analyses en laboratoire ont permis de déterminer la respiration et les taux de production bactériens, les variables géochimiques limnologiques, ainsi que la distribution de la production bactérienne entre les différentes fractions de taille des communautés. La température de l’eau et les concentrations d’oxygène dissous d’un lac de thermokarst ont été modélisées avec des données du passé récent (1971) au climat futur (2095), en utilisant un scénario modéré (RCP 4.5) et un scénario plus extrême (RCP 8.5) de réchauffement climatique. Cette recherche doctorale a mis en évidence les conditions anoxiques fréquentes et persistantes présentes dans de nombreux lacs de thermokarst. Aussi, ces lacs sont stratifiés pendant l’hiver comme des concentrations élevées d’ions s’accumulent dans leurs hypolimnions à cause de la formation du couvert de glace (cryoconcentration) et de la libération des ions avec la respiration bactérienne. Les différences de température contribuent également à la stabilité de la stratification. La dynamique de mélange des lacs de thermokarst étudiés était contrastée : la colonne d’eau de certains lacs se mélangeait entièrement deux fois par année, d’autres lacs se mélangeaient qu’une seule fois en automne, alors que certains lacs ne se mélangeaient jamais entièrement. Les populations bactériennes étaient abondantes et très actives, avec des taux respiratoires comparables à ceux mesurés dans des écosystèmes méso-eutrophes ou eutrophes des zones tempérées de l’hémisphère nord. L’érosion des matériaux contenus dans le sol des tourbières pergélisolées procure un substrat riche en carbone et en éléments nutritifs aux populations bactériennes, et ils constituent des habitats propices à la colonisation par des populations de bactéries associées aux particules. Le modèle de la concentration d’oxygène dissous dans un lac a révélé que le réchauffement des températures de l’air pourrait amincir le couvert de glace et diminuer sa durée, intensifiant le transfert de l’oxygène atmosphérique vers les eaux de surface. Ainsi, la concentration en oxygène dissous dans la colonne d’eau de ce lac augmenterait et les périodes de conditions anoxiques pourraient devenir plus courtes. Finalement, cette thèse doctorale insiste sur le rôle des lacs de thermokarst comme des réacteurs biogéochimiques pour la dégradation du carbone organique, qui était retenu dans les sols gelés, en gaz à effet de serre libérés dans l’atmosphère. L’oxygène est un indicateur sensible du mélange de la colonne d’eau et de la dynamique chimique des lacs, en plus d’être une variable clé des processus métaboliques.
Resumo:
Cette étude examine l'impact de la révision du chapitre 3480 de l'I.C.C.A., survenue en décembre 1989, sur le comportement des gestionnaires des entreprises canadiennes dans le traitement des éléments extraordinaires. L'ajout d'un troisième critère à la définition, relatif à l'absence de contrôle de la direction ou de ses dirigeants dans l'appréciation des éléments extraordinaires, semble avoir pour objectif d'uniformiser la classification et la présentation des différentes composantes de l'état des résultats. Cette uniformisation permettrait potentiellement d'éliminer les manipulations comptables par l'utilisation de certains éléments extraordinaires pour lisser les bénéfices. L'analyse de trois modèles de régression, pour la première période (trois ans pré-révision) suggère que l'ancienne définition des éléments extraordinaires a permis à certains gestionnaires canadiens d'utiliser les éléments extraordinaires discrétionnaires et semi-discrétionnaires pour lisser leurs bénéfices dans le temps. Par contre, son resserrement (trois ans post-révision) a contribué à une réduction importante du nombre des éléments extraordinaires dans les états financiers. La limitation de ces éléments aux seuls événements fortuits et hors du contrôle de la direction semble enrayé les latitudes discrétionnaires observées auparavant. En outre, l'association entre la présence de lissage et les caractéristiques financières de l'entreprise (pour la première période) suggèrent que la variabilité des bénéfices ainsi que la taille sont les deux indicateurs de lissage, en ce sens qu'ils incitent les gestionnaires à lisser leurs bénéfices par l'utilisation d'éléments extraordinaires. Il ressort de cette étude que les objectifs recherchés par la révision du chapitre 3480 de l'I.C.C.A. semblent atteints. Dorénavant, les éléments extraordinaires ne peuvent plus faire l'objet de manipulations pour lisser les bénéfices.
Resumo:
Le contenu de ce mémoire traite du problème de gestion des stocks dans un réseau constitué de plusieurs sites de stockage de produits. Chaque site i gère son stock de manière autonome pour satisfaire une demande déterministe sur un horizon donné. Un stock maximum Si est tenu à chaque site i. Lorsque le point de commande si est atteint, une commande de taille Qi est placée au centre de distribution qui alimente tous les sites. Qi est telle que Qi = Si - si. La quantité Qi est livrée dans un délai connu Li. Si, à un instant donné, la demande Di au site i excède la quantité en main, le site i fait appel à un ou à plusieurs autres sites du réseau pour le transfert d’une quantité Xji (j = 1, 2, …, n). Ce transfert s’effectue selon un certain nombre de règles de jeu qui tiennent compte des coûts de transfert, de stockage, d’approvisionnement et de pénurie. Ce mémoire examine six principales contributions publiées dans la littérature pour évaluer les contributions d’un modèle collaboratif aux performances, en termes de coûts et de niveau de service, de chaque site du réseau. Cette investigation se limite à une configuration du réseau à deux échelons : un entrepôt central et n (n > 2) sites de stockage. Le cas des pièces de rechange, caractérisé par une demande aléatoire, est examiné dans trois chapitres de ce mémoire. Une autre application de ces stratégies à la collaboration entre n centres hospitaliers (n > 2) est également examinée dans ce travail.
Resumo:
La caractérisation détaillée de vastes territoires pose un défi de taille et est souvent limitée par les ressources disponibles et le temps. Les travaux de cette maîtrise s’incorporent au projet ParaChute qui porte sur le développement d’une Méthode québécoise d’Évaluation du Danger des Chutes de Pierres (MEDCP) le long d’infrastructures linéaires. Pour optimiser l’utilisation des ressources et du temps, une méthode partiellement automatisée facilitant la planification des travaux de terrain a été développée. Elle se base principalement sur la modélisation des trajectoires de chutes de pierres 3D pour mieux cibler les falaises naturelles potentiellement problématiques. Des outils d’automatisation ont été développés afin de permettre la réalisation des modélisations sur de vastes territoires. Les secteurs où l’infrastructure a le plus de potentiel d’être atteinte par d’éventuelles chutes de pierres sont identifiés à partir des portions de l’infrastructure les plus traversées par les trajectoires simulées. La méthode a été appliquée le long du chemin de fer de la compagnie ArcelorMittal Infrastructures Canada. Le secteur couvert par l’étude débute à une dizaine de kilomètres au nord de Port-Cartier (Québec) et s’étend sur 260 km jusqu’au nord des monts Groulx. La topographie obtenue de levés LiDAR aéroportés est utilisée afin de modéliser les trajectoires en 3D à l’aide du logiciel Rockyfor3D. Dans ce mémoire, une approche facilitant la caractérisation des chutes de pierres le long d’un tracé linéaire est présentée. Des études de trajectoires préliminaires sont réalisées avant les travaux sur le terrain. Les informations tirées de ces modélisations permettent de cibler les secteurs potentiellement problématiques et d’éliminer ceux qui ne sont pas susceptibles de générer des chutes de pierres avec le potentiel d’atteindre les éléments à risque le long de l’infrastructure linéaire.
Resumo:
Dans les pays développés, la prévalence des démences est de 5% chez les plus de 65ans et doublerait pour chaque tranche d'âge de 10 ans. Avec le vieillissement de la population, le nombre de personnes atteintes de démence augmente chaque année, ce qui pose le problème de trouver rapidement des thérapies et mesures de prévention efficaces. Il est connu que l'hypertension artérielle (HTA) est un facteur de risque pour certaines démences. De plus, de récentes études démontrent que la pression artérielle centrale serait un marqueur hémodynamique plus représentatif des lésions causées au cerveau, dues à une HTA, que la pression périphérique usuellement mesurée. Il serait donc intéressant d'évaluer si la démence est associée à une augmentation de la pression artérielle centrale, en comparaison avec des patients hypertendus non déments. But de l'étude : Cette étude a pour but de quantifier l'apport de la mesure de la pression artérielle centrale ambulatoire dans la caractérisation des patients avec une démence de type Alzheimer. L'objectif principal est de déterminer la taille de la différence de pression artérielle centrale et son écart-‐type entre les patients hypertendus avec ou sans démence de type Alzheimer afin de pouvoir calculer le nombre de patients nécessaire pour montrer une différence significative. Dans cette étude, nous allons tester l'hypothèse que la pression artérielle centrale (moyenne, systolique et diastolique) est plus élevée chez les patients atteints de troubles cognitifs et/ou qu'ils présentent des perturbations du rythme circadien plus marquées, notamment pour les valeurs durant le sommeil, (non-‐dipping, reverse dipping, extreme dipping).
Resumo:
Les déficits cognitifs sont présents chez les patients atteints de cancer. Les tests cognitifs tels que le Montreal Cognitive Assessment se sont révélés peu spécifiques, incapables de détecter des déficits légers et ne sont pas linéaires. Pour suppléer à ces limitations nous avons développé un questionnaire cognitif simple, bref et adapté aux dimensions cognitives atteintes chez les patients avec un cancer, le FaCE « The Fast Cognitif Evaluation », en utilisant la modélisation Rasch (MR). La MR est une méthode mathématique probabiliste qui détermine les conditions pour qu’un outil soit considéré une échelle de mesure et elle est indépendante de l’échantillon. Si les résultats s’ajustent au modèle, l’échelle de mesure est linéaire avec des intervalles égaux. Les réponses sont basées sur la capacité des sujets et la difficulté des items. La carte des items permet de sélectionner les items les plus adaptés pour l’évaluation de chaque aspect cognitif et d’en réduire le nombre au minimum. L’analyse de l’unidimensionnalité évalue si l’outil mesure une autre dimension que celle attendue. Les résultats d’analyses, conduites sur 165 patients, montrent que le FaCE distingue avec une excellente fiabilité et des niveaux suffisamment différents les compétences des patients (person-reliability-index=0.86; person-separation-index=2.51). La taille de la population et le nombre d’items sont suffisants pour que les items aient une hiérarchisation fiable et précise (item-reliability=0.99; item-séparation-index=8.75). La carte des items montre une bonne dispersion de ceux-ci et une linéarité du score sans effet plafond. Enfin, l’unidimensionnalité est respectée et le temps d’accomplissement moyen est d’environ 6 minutes. Par définition la MR permet d’assurer la linéarité et la continuité de l’échelle de mesure. Nous avons réussi à développer un questionnaire bref, simple, rapide et adapté aux déficits cognitifs des patients avec un cancer. Le FaCE pourrait, aussi, servir de mesure de référence pour les futures recherches dans le domaine.
Resumo:
Cette thèse propose de développer des mécanismes déployables pour applications spatiales ainsi que des modes d’actionnement permettant leur déploiement et le contrôle de l’orientation en orbite de l’engin spatial les supportant. L’objectif étant de permettre le déploiement de surfaces larges pour des panneaux solaires, coupoles de télécommunication ou sections de station spatiale, une géométrie plane simple en triangle est retenue afin de pouvoir être assemblée en différents types de surfaces. Les configurations à membrures rigides proposées dans la littérature pour le déploiement de solides symétriques sont optimisées et adaptées à l’expansion d’une géométrie ouverte, telle une coupole. L’optimisation permet d’atteindre un ratio d’expansion plan pour une seule unité de plus de 5, mais présente des instabilités lors de l’actionnement d’un prototype. Le principe de transmission du mouvement d’un étage à l’autre du mécanisme est revu afin de diminuer la sensibilité des performances du mécanisme à la géométrie de ses membrures internes. Le nouveau modèle, basé sur des courroies crantées, permet d’atteindre des ratios d’expansion plans supérieurs à 20 dans certaines configurations. L’effet des principaux facteurs géométriques de conception est étudié afin d’obtenir une relation simple d’optimisation du mécanisme plan pour adapter ce dernier à différents contextes d’applications. La géométrie identique des faces triangulaires de chaque surface déployée permet aussi l’empilement de ces faces pour augmenter la compacité du mécanisme. Une articulation spécialisée est conçue afin de permettre le dépliage des faces puis leur déploiement successivement. Le déploiement de grandes surfaces ne se fait pas sans influencer lourdement l’orientation et potentiellement la trajectoire de l’engin spatial, aussi, différentes stratégies de contrôle de l’orientation novatrices sont proposées. Afin de tirer profit d’une grande surface, l’actionnement par masses ponctuelles en périphérie du mécanisme est présentée, ses équations dynamiques sont dérivées et simulées pour en observer les performances. Celles-ci démontrent le potentiel de cette stratégie de réorientation, sans obstruction de l’espace central du satellite de base, mais les performances restent en deçà de l’effet d’une roue d’inertie de masse équivalente. Une stratégie d’actionnement redondant par roue d’inertie est alors présentée pour différents niveaux de complexité de mécanismes dont toutes les articulations sont passives, c’est-à-dire non actionnées. Un mécanisme à quatre barres plan est simulé en boucle fermée avec un contrôleur simple pour valider le contrôle d’un mécanisme ciseau commun. Ces résultats sont étendus à la dérivation des équations dynamiques d’un mécanisme sphérique à quatre barres, qui démontre le potentiel de l’actionnement par roue d’inertie pour le contrôle de la configuration et de l’orientation spatiale d’un tel mécanisme. Un prototype à deux corps ayant chacun une roue d’inertie et une seule articulation passive les reliant est réalisé et contrôlé grâce à un suivi par caméra des modules. Le banc d’essai est détaillé, ainsi que les défis que l’élimination des forces externes ont représenté dans sa conception. Les résultats montrent que le système est contrôlable en orientation et en configuration. La thèse se termine par une étude de cas pour l’application des principaux systèmes développés dans cette recherche. La collecte de débris orbitaux de petite et moyenne taille est présentée comme un problème n’ayant pas encore eu de solution adéquate et posant un réel danger aux missions spatiales à venir. L’unité déployable triangulaire entraînée par courroies est dupliquée de manière à former une coupole de plusieurs centaines de mètres de diamètre et est proposée comme solution pour capturer et ralentir ces catégories de débris. Les paramètres d’une mission à cette fin sont détaillés, ainsi que le potentiel de réorientation que les roues d’inertie permettent en plus du contrôle de son déploiement. Près de 2000 débris pourraient être retirés en moins d’un an en orbite basse à 819 km d’altitude.
Resumo:
Two oyster species are currently present along the French coasts : the indigenous European flat oyster (Ostrea edulis), and the Pacific cupped oyster (Crassostrea gigas), that has been introduced from Japan since the beginning of the 70ies. The flat oyster successively suffered from two protozoan diseases during the 60ies and its production decreased from 20 000 tons/year by that time to 1 500 tons/year nowadays. Consequently, the oyster production is principally (99%) based upon the Pacific oyster species with approximately 150 000 tons/year among which 90% are grown from the natural spat. However, the hatchery production of this species is developing and was estimated to 400 to 800 millions spat in 2002. Moreover, strengthened relationships between IFREMER and the 5 commercial hatcheries, that all joined the SYSAAF (Union of the French poultry, shellfish and fish farming selectors), allow to plan for new genetic breeding programs. At the end of the 80ies, IFREMER initiated a genetic breeding program for the resistance of the European flat oyster to the bonamiosis, and obtained strains more tolerant to this disease. After two generations of massal selection, molecular markers had identified a reduced genetic basis in this program. It was then reoriented to an intra-familial selection. However, we were confronted to a zootechnic problem to manage such a scheme and we compromised by an intra-cohorts of families selection scheme managed using molecular markers. The program has now reached the transfer level with experimentation at a professional scale. Concerning the Pacific cupped oyster, and in parallel with the obtaining and the study of polyploids, performance of different Asian cupped oyster strains were compared to the one introduced in France thirty years ago and currently suffering from summer mortalities. The local strain exhibited better performance, certainly based upon a good local adaptation. In other respects, although early growth is a relevant criteria for selection for growth to commercial stage, it is not to be privileged in the context of an oyster producing region with a limited food availability. Contrary, the spat summer mortality became a priority for numerous teams (genetic, physiology, pathology, ecology,...) joined in the MOREST program. The first results showed important survival differences between fullsib and halsib families. They indicate a genetic determinism to this character "survival" and promote for its selection.
Resumo:
En Guyane française , le vivaneau rouge (Lutjanus purpureus) est capturé par 3 flottilles, les ligneurs vénézuéliens, les caseyeurs antillais et les chalutiers crevettiers guyanais. Pour les crevettiers, il s'agit d'une capture accessoire inévitable, mais qui ne semble pas sans conséquences, puisque, si l'on tient compte de l'effectif total de la flottille, c'est 1 million à 1.5 millions de juvéniles qui sont pêchés (et souvent rejetés à la mer) annuellement par les crevettiers. Pour les ligneurs vénézuéliens qui pêchent 1200 tonnes, les individus de petite taille sont devenus prépondérants dans leurs captures. Ainsi dans la gamme de taille 20-30cm (125-425 grammes), on est passé, entre 1990 et 1998, de 37 000 poissons débarqués (6% de la capture) à 616 500 poissons (56% de la capture). La taille moyenne du vivaneau rouge débarqué est passée de 45 à 35 cm et son poids moyen de 1600 grammes à 700 grammes. Pour les caseyeurs, seuls deux armements (un du Larivot, l'autre du Robert), nous ont fourni quelques renseignements sur les activités et les débarquements de leurs navires. Les premières observations montrent que la composition de leurs captures en vivaneaux rouges ressemble à celle des ligneurs avec une tendance vers les petites tailles. Cependant cette tendance n'est pas aussi systématique que veulent bien le dire les détracteurs de la nasse à poissons. Leurs débarquements sont composés en nombre, pour moitié, de "vivaneaux tête ronde" (Rhomboplites aurorubens). On notera également que les caseyeurs rentabilisent leurs captures accessoires de mérous sur le marché antillais, alors que les ligneurs les rapatrient vers le Venezuela. Il existe une troisième espèce de vivaneau, le vivaneau rayé, Lutjanus synagris, capturé surtout par les chalutiers.