5 resultados para capacité optimale
Resumo:
La ventilation liquidienne totale (VLT) consiste à remplir les poumons d'un liquide perfluorocarbone (PFC). Un respirateur liquidien assure la ventilation par un renouvellement cyclique de volume courant de PFC oxygéné et à température contrôlée. Ayant une capacité thermique volumique 1665 fois plus élevée que l'air, le poumon rempli de PFC devient un échangeur de chaleur performant avec la circulation pulmonaire. La température du PFC inspiré permet ainsi de contrôler la température artérielle, et par le fait même, le refroidissement des organes et des tissus. Des résultats récents d'expérimentations animales sur petits animaux ont démontré que le refroidissement ultra-rapide par VLT hypothermisante (VLTh) avait d'importants effets neuroprotecteurs et cardioprotecteurs. Induire rapidement et efficacement une hypothermie chez un patient par VLTh est une technique émergente qui suscite de grands espoirs thérapeutiques. Par contre, aucun dispositif approuvé pour la clinique n'est disponible et aucun résultat de VLTh sur humain n'est encore disponible. Le problème se situe dans le fait de contrôler la température du PFC inspiré de façon optimale pour induire une hypothermie chez l'humain tout en s'assurant que la température cardiaque reste supérieure à 30 °C pour éviter tout risque d'arythmie. Cette thèse présente le développement d'un modèle thermique paramétrique d'un sujet en VLTh complètement lié à la physiologie. Aux fins de validation du modèle sur des ovins pédiatriques et adultes, le prototype de respirateur liquidien Inolivent pour nouveau-né a dû être reconçu et adapté pour ventiler de plus gros animaux. Pour arriver à contrôler de façon optimale la température du PFC inspiré, un algorithme de commande optimale sous-contraintes a été développé. Après la validation du modèle thermique du nouveau-né à l'adulte par expérimentations animales, celui-ci a été projeté à l'humain. Afin de réduire le temps de calcul, un passage du modèle thermique en temps continu vers un modèle discret cycle-par-cycle a été effectué. À l'aide de la commande optimale et du développement numérique d'un profil de ventilation liquidienne chez des patients humains, des simulations d'induction d'hypothermie par VLTh ont pu être réalisées. La validation expérimentale du modèle thermique sur ovins nouveau-nés (5 kg), juvéniles (22 kg) et adultes (61 kg) a montré que celui-ci permettait de prédire les températures artérielles systémiques, du retour veineux et rectales. La projection à l'humain a permis de démontrer qu'il est possible de contrôler la température du PFC de façon optimale en boucle ouverte si le débit cardiaque et le volume mort thermique sont connus. S'ils ne peuvent être mesurés, la commande optimale pour le pire cas peut être calculée rendant l'induction d'hypothermie par VLTh sécuritaire pour tous les patients, mais diminuant quelque peu les vitesses de refroidissement.
Resumo:
La relation entre l'espace tablette et les ventes a été l'une des toutes premières à être analysée dans la littérature traitant du commerce au détail. Cette relation tait aussi assez souvent les manchettes des journaux. Récemment, par exemple, on rapportait que Coke et Pepsi avaient "éliminé", à l'aide d'ententes à long terme avec les détaillants, l'espace accordé à tous les autres fabricants de boissons gazeuses. L'effet de l'espace tablette sur les ventes demeure donc un problème important et d'actualité…
Resumo:
Nombreuses sont les recherches qui traitent de la participation des membres en coopérative, tantôt du point de vue historique et sociologique, tantôt du point de vue économique. Parfois, on s'interroge sur l'effervescence de la participation, parfois on questionne l'affaissement de la participation chez les membres coopérateurs. Cette étude en sera donc une de plus, mais elle se veut différente car elle s'attaque aux racines mêmes du problème, soit l'opportunité de participation offerte aux membres par l'entreprise. Comme cette recherche se situe à l'ère de la carte de paiement, ceci nous &M'aime à justifier le choix de cette année précise, 1984, laquelle voit s'opérer l'action des guichets automatiques et les changements d'habitudes des membres à travers cette nouvelle technologie. Nous nous situons aujourd'hui à une époque charnière, celle qui tranche avec les services aux membres, dits de type conventionnel (épargne, crédit, services auxiliaires) et celle qui emprunte au développement informatique et qui transforme les services, les habitudes, la participation des membres. De nouveaux services permettent désormais au membre de la Caisse populaire d'opérer la plupart de ses transactions sept (7) jours par semaine et ce, hors caisse populaire, c'est-à-dire hors entreprise. Alors, que devient l'association dans ce contexte? Si on s'entend pour dire qu'une coopérative réunit deux (2) réalités, c'est-à-dire l'association et l'entreprise, comment peut-on parler de coopérative si l'association ne "s'exprime" plus, ne "s'articule" plus par rapport à l'entreprise? A notre avis, ces deux (2) réalités doivent toujours s'y retrouver, sans quoi on ne peut parler de véritable coopérative, les clients de banque en font autant. C'est dans cette optique donc, que nous abordons la problématique de la participation. Nous croyons en définitive, que si l'entreprise favorise l'intégration du membre et à sa structure et à son organisation, que ces nouveaux lieux pourront être source de participation nouvelle. Avant d'élaborer le profil des chapitres qui composeront cette étude, il nous apparaît important de signaler que lorsque nous parlerons de coopérative d'épargne et de crédit, de conseils, de commission, de dirigeants, membres, association et entreprise, nous ferons exclusivement référence au concept "Caisse populaire Desjardins". Ceci dit, au départ, nous tenterons un rapprochement entre la théorie et la réalité participative, puis nous considérerons la diversité du phénomène participatif et du développement possible dont il peut faire l'objet. Enfin, nous aborderons l'hypothèse avancée. Dans un second chapitre, nous examinerons la méthode utilisée, ce qui nous mènera au chapitre suivant qui lui traitera des résultats détaillés, venant vérifier la question du départ. Enfin, nous considérerons une dernière fois l'hypothèse et cette fois à la lueur de la caisse de demain.
Resumo:
Depuis le lancement du premier satellite Spoutnik 1 en 1957, l’environnement spatial est de plus en plus utilisé et le nombre de débris orbitaux se multiplie naturellement, soit par des explosions, des collisions ou tout simplement par les opérations normales des satellites. Au-delà d'un certain seuil, la densité des débris orbitaux risque de créer une réaction en chaîne incontrôlée : l’effet Kessler. L’élimination des débris orbitaux en basse altitude permettrait de limiter cette réaction et ainsi de préserver l’environnement spatial afin de pouvoir l’utiliser de façon sécuritaire. L’élimination des débris orbitaux est une opération complexe et coûteuse. Elle consiste à déplacer des objets spatiaux inactifs vers une orbite basse pour mener à leur désintégration dans la basse atmosphère terrestre. En utilisant les perturbations orbitales, il est possible de réduire le coût du carburant requis pour effectuer les manœuvres orbitales nécessaires à l’élimination de ces débris. L'objectif principal de cette étude consiste à développer une procédure et une stratégie de commande autonome afin de modifier l'orbite des satellites non opérationnels (débris) pour mener à leur désintégration naturelle tout en optimisant les facteurs carburant et temps. Pour ce faire, un modèle d’atmosphère basé sur le modèle de Jacchia (1977) est développé. Un modèle de la dynamique du satellite inclut aussi les perturbations principales, soit : traînée atmosphérique, non sphéricité et distribution non uniforme de la masse de la Terre. Ces modèles ainsi qu'un algorithme de commande optimale pour un propulseur électrique sont développés et le tout est validé par simulations numériques sur Matlab/Simulink. Au terme de cette étude, les conditions optimales dans lesquelles il faut laisser un débris afin qu'il se désintègre dans la basse atmosphère de la Terre en quelques semaines seront données (type d'orbite : altitude, inclinaison, etc.) ainsi que le coût en carburant pour une telle mission. Cette étude permettra de prouver qu'il est possible de réaliser des missions d'élimination des débris orbitaux tout en réduisant les coûts associés aux manœuvres orbitales par l'utilisation des perturbations naturelles de l'environnement.
Resumo:
L’objectif de l’essai est d’identifier la stratégie optimale de cotation énergétique des habitations au Québec. À partir des expériences internationales, l’essai évalue, à l’aide d’une analyse multicritère, s’il est plus optimal pour le Québec (scénario A) de continuer à coter la performance énergétique des habitations existantes dans le programme Rénoclimat actuellement en vigueur (hors transactions immobilières) ou (scénario B) d’implanter un système de cotation énergétique pour les habitations lors des transactions immobilières en mode volontaire ou (scénario C) de l’implanter en mode réglementaire. Pour réduire la consommation énergétique et les émissions de gaz à effet de serre des bâtiments, de plus en plus de pays adoptent des législations en matière de cotation énergétique lors des transactions immobilières. Or, au Québec, il existe seulement des programmes de cotation énergétique des habitations existantes hors transactions immobilières dont la participation se fait sur une base volontaire. De plus, des exigences minimales de performance énergétique réglementaires pour les habitations neuves sont en vigueur depuis 2012, mais peu de mécanismes de renforcement sont utilisés pour en assurer le respect. Globalement, selon l’analyse multicritère, dans le cas où un soutien politique est offert et où les ressources financières, techniques, humaines, informatiques et législatives sont disponibles, et ce, tout au long du développement du projet, mais aussi lors de la phase d’opération, le scénario C permet de rencontrer un maximum de bénéfices. Sinon, pour éviter d’investir des ressources humaines et financières supplémentaires, de modifier la législation et de gérer une mise en œuvre complexe, il est possible de continuer à opérer le scénario A. Par contre, ce scénario ne permet pas de développer le plein potentiel de la cotation énergétique. Pour optimiser ce scénario, il est suggéré de renforcir certains éléments du programme. Enfin, il est déconseillé d’implanter le scénario B, à moins qu’il soit temporaire et accompagné d’une annonce dès le début de l’arrivée du système de cotation énergétique en mode réglementaire. En effet, l’analyse multicritère a permis de faire ressortir que les très rares et faibles impacts positifs du scénario B ne font pas le poids face aux ressources requises pour le mettre en œuvre. Dans le cas où l’implantation du scénario C est envisagée, il importe de rappeler que pour profiter des bénéfices estimés, des ressources importantes doivent être investies afin de respecter les nombreux facteurs clés de réussite. Le potentiel du scénario C peut être déployé seulement si ces conditions sont réunies pour s’assurer de la fiabilité du système et, par conséquent, pour assurer l’acceptabilité du public.