610 resultados para prothèse totale de genou
Resumo:
Le Système Stockage de l’Énergie par Batterie ou Batterie de Stockage d’Énergie (BSE) offre de formidables atouts dans les domaines de la production, du transport, de la distribution et de la consommation d’énergie électrique. Cette technologie est notamment considérée par plusieurs opérateurs à travers le monde entier, comme un nouveau dispositif permettant d’injecter d’importantes quantités d’énergie renouvelable d’une part et d’autre part, en tant que composante essentielle aux grands réseaux électriques. De plus, d’énormes avantages peuvent être associés au déploiement de la technologie du BSE aussi bien dans les réseaux intelligents que pour la réduction de l’émission des gaz à effet de serre, la réduction des pertes marginales, l’alimentation de certains consommateurs en source d’énergie d’urgence, l’amélioration de la gestion de l’énergie, et l’accroissement de l’efficacité énergétique dans les réseaux. Cette présente thèse comprend trois étapes à savoir : l’Étape 1 - est relative à l’utilisation de la BSE en guise de réduction des pertes électriques ; l’Étape 2 - utilise la BSE comme élément de réserve tournante en vue de l’atténuation de la vulnérabilité du réseau ; et l’Étape 3 - introduit une nouvelle méthode d’amélioration des oscillations de fréquence par modulation de la puissance réactive, et l’utilisation de la BSE pour satisfaire la réserve primaire de fréquence. La première Étape, relative à l’utilisation de la BSE en vue de la réduction des pertes, est elle-même subdivisée en deux sous-étapes dont la première est consacrée à l’allocation optimale et le seconde, à l’utilisation optimale. Dans la première sous-étape, l’Algorithme génétique NSGA-II (Non-dominated Sorting Genetic Algorithm II) a été programmé dans CASIR, le Super-Ordinateur de l’IREQ, en tant qu’algorithme évolutionniste multiobjectifs, permettant d’extraire un ensemble de solutions pour un dimensionnement optimal et un emplacement adéquat des multiple unités de BSE, tout en minimisant les pertes de puissance, et en considérant en même temps la capacité totale des puissances des unités de BSE installées comme des fonctions objectives. La première sous-étape donne une réponse satisfaisante à l’allocation et résout aussi la question de la programmation/scheduling dans l’interconnexion du Québec. Dans le but de réaliser l’objectif de la seconde sous-étape, un certain nombre de solutions ont été retenues et développées/implantées durant un intervalle de temps d’une année, tout en tenant compte des paramètres (heure, capacité, rendement/efficacité, facteur de puissance) associés aux cycles de charge et de décharge de la BSE, alors que la réduction des pertes marginales et l’efficacité énergétique constituent les principaux objectifs. Quant à la seconde Étape, un nouvel indice de vulnérabilité a été introduit, formalisé et étudié ; indice qui est bien adapté aux réseaux modernes équipés de BES. L’algorithme génétique NSGA-II est de nouveau exécuté (ré-exécuté) alors que la minimisation de l’indice de vulnérabilité proposé et l’efficacité énergétique représentent les principaux objectifs. Les résultats obtenus prouvent que l’utilisation de la BSE peut, dans certains cas, éviter des pannes majeures du réseau. La troisième Étape expose un nouveau concept d’ajout d’une inertie virtuelle aux réseaux électriques, par le procédé de modulation de la puissance réactive. Il a ensuite été présenté l’utilisation de la BSE en guise de réserve primaire de fréquence. Un modèle générique de BSE, associé à l’interconnexion du Québec, a enfin été proposé dans un environnement MATLAB. Les résultats de simulations confirment la possibilité de l’utilisation des puissances active et réactive du système de la BSE en vue de la régulation de fréquence.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
L’ionomycine est un ionophore produit par la bactérie gram-positive streptomyces conglobatus. Sa synthèse représente un défi, car il possède plusieurs centres chiraux dans un motif polypropylène. De plus, la grande densité d’oxygène sur celui-ci oblige l’utilisation de plusieurs protections orthogonales. Notre stratégie divise l’ionomycine en quatre fragments, trois possédant le motif polypropylène, ainsi qu’un quatrième, bis-tétrahydrofuranne. Les trois premiers sont synthétisés en utilisant une méthodologie puissante développée dans le laboratoire du Pr Spino, qui utilise l’addition d’alkylcyanocuprates sur les carbonates allyliques dérivés de la menthone. Celle-ci permet l’introduction d’une unité propylène, avec un excellent contrôle du centre chiral introduit. Cette méthode est utilisée de manière itérative, afin d’introduire plusieurs unités propylènes. De plus, notre stratégie est hautement convergente, puisque des intermédiaires des fragments plus courts servent de produit de départ pour la synthèse des fragments plus longs. Le dernier fragment, bis-tétrahydrofuranne, a été fabriqué à partir de l’acétate de géranyle, par une polycyclisation d’un diépoxyde chiral, les époxydes ayant été introduits par une époxydation de Shi. Cette synthèse, si complétée, serait la plus courte publiée, avec 24 étapes pour la séquence linéaire la plus longue (51 au total).
Resumo:
Cet ouvrage comporte d'abords une mise en situation décrivant le contexte économique qui mena à la crise du début des années 1980 et à la mise sur pieds de nouveaux mécanismes financiers visant le ré-équilibre des économies en difficulté. Parmi l'ensemble des nouveaux types de transactions, les conversions de titres de dette en prise de participation (Debt for Equity Swaps: DES) sont étudiées en particulier à cause des nombreux avantages qu'elles comportent. Dans un contexte de déséquilibres interne et externe graves tel ceux vécus par certains pays d'Amérique latine, ces conversions semblent en effet très appropriées grâce à leur contribution à réduire l'encours de la dette extérieure et à augmenter le niveau des investissements, tout en limitant les pertes des banques prêteuses. L'analyse des programmes DES de l'Argentine, du Chili et du Mexique est faite à trois niveaux: le comportement des principaux indicateurs économiques est observé avant et après la mise en application des programmes, les avantages que les investisseurs et les pays débiteurs ont pu tirer des transactions sont ensuite mesurés en termes monétaires, et finalement, une étude des clauses particulières à chaque programme permet de terminer l'étude de l'efficacité des démarches de chaque pays pour retrouver un certain équilibre économique. Chacun des trois pays étudiés a démontré une certaine force en particulier. L'Argentine est le pays qui a le mieux profité de la décote de sa dette sur le marché secondaire et ainsi réussit à réduire son encours avec des escomptes considérables. Le volume des transactions fut cependant minime. C'est le Chili qui a pu radier la plus forte proportion de sa dette totale grâce aux transactions DES. Finalement, le Mexique s'est démarqué par l'importance des avantages qu'il a offerts aux investisseurs lors de la conversion des titres. L'étude permet de conclure que les transactions DES ont en effet un potentiel très intéressant comme outil de redressement pour un pays ne pouvant plus assumer le niveau de sa dette, mais ce, à condition que la mise sur pieds des programmes coïncide avec une prise en charge globale des économies. Le succès d'un programme dépend en grande partie de la confiance des investisseurs internationaux et des banques en la volonté de chaque état à adopter les mesures d'ajustement qu'impose leur situation critique.
Resumo:
L’utilisation des pesticides n’a cessé d’augmenter en particulier le glyphosate, herbicide utilisé principalement dans l’agriculture. Ses effets ont été démontrés néfastes sur l’environnement et sur la santé humaine. Bien que la plupart du glyphosate résiduel soit adsorbé par les constituants du sol, une partie peut être désorbée ou atteindre les eaux de surface par érosion. Le renforcement des normes de qualité de l’eau en milieu agricole et urbain entraîne le développement de nouveaux procédés. Les photocatalyseurs à base de TiO2 peuvent procurer une solution attrayante pour l’élimination de cet herbicide. Actif uniquement dans le domaine de l’UV qui représente 4% du rayonnement solaire, étendre cette réactivité photocatalytique dans le domaine du visible est un enjeu majeur. Le dopage du TiO2 à l’azote et au graphène a permis une élimination totale du glyphosate au bout de 30 minutes. Après sa synthèse, le photocatalyseur GR-N/TiO2 a été caractérisé par différentes techniques à savoir la diffraction des rayons X (DRX), l’infrarouge à transformée de Fourier (FTIR), la spectroscopie de photoélectrons X (XPS) et la microscopie électronique par transmission (TEM). L’activité photocatalytique est testée sur la dégradation du glyphosate sous irradiation de la lumière visible. Les résultats montrent que le composite GR-N/TiO2 peut effectivement photodégrader le glyphosate grâce à une amélioration impressionnante de l’activité photocatalytique due à une grande adsorption du glyphosate sur le nanomatériau synthétisé et à l’extension de l’absorption au domaine du visible.
Resumo:
La culture sous abris avec des infrastructures de type grands tunnels est une nouvelle technologie permettant d’améliorer la production de framboises rouges sous des climats nordiques. L’objectif principal de ce projet de doctorat était d’étudier les performances de ces technologies (grands tunnels vs. abris parapluie de type Voen, en comparaison à la culture en plein champ) et leur effets sur le microclimat, la photosynthèse, la croissance des plantes et le rendement en fruits pour les deux types de framboisiers non-remontants et remontants (Rubus idaeus, L.). Puisque les pratiques culturales doivent être adaptées aux différents environnements de culture, la taille d’été (pour le cultivar non-remontant), l’optimisation de la densité des tiges (pour le cultivar remontant) et l’utilisation de bâches réfléchissantes (pour les deux types des framboisiers) ont été étudiées sous grands tunnels, abris Voen vs. en plein champ. Les plants cultivés sous grands tunnels produisent en moyenne 1,2 et 1,5 fois le rendement en fruits commercialisables que ceux cultivés sous abri Voen pour le cv. non-remontant ‘Jeanne d’Orléans’ et le cv. remontant ‘Polka’, respectivement. Comparativement aux framboisiers cultivés aux champs, le rendement en fruits des plants sous grands tunnels était plus du double pour le cv. ‘Jeanne d’Orléans’ et près du triple pour le cv. ‘Polka’. L’utilisation de bâches réfléchissantes a entrainé un gain significatif sur le rendement en fruits de 12% pour le cv. ‘Jeanne d’Orléans’ et de 17% pour le cv. ‘Polka’. La taille des premières ou deuxièmes pousses a significativement amélioré le rendement en fruits du cv. ‘Jeanne d’Orléans’ de 26% en moyenne par rapport aux framboisiers non taillés. Des augmentations significatives du rendement en fruits de 43% et 71% du cv. ‘Polka’ ont été mesurées avec l’accroissement de la densité à 4 et 6 tiges par pot respectivement, comparativement à deux tiges par pot. Au cours de la période de fructification du cv. ‘Jeanne d’Orléans’, les bâches réfléchissantes ont augmenté significativement la densité de flux photonique photosynthétique (DFPP) réfléchie à la canopée inférieure de 80% en plein champ et de 60% sous grands tunnels, comparativement à seulement 14% sous abri Voen. Durant la saison de fructification du cv. ‘Polka’, un effet positif de bâches sur la lumière réfléchie (jusqu’à 42%) a été mesuré seulement en plein champ. Dans tous les cas, les bâches réfléchissantes n’ont présenté aucun effet significatif sur la DFPP incidente foliaire totale et la photosynthèse. Pour le cv. ‘Jeanne d’Orléans’, la DFPP incidente sur la feuille a été atténuée d’environ 46% sous le deux types de revêtement par rapport au plein champ. Par conséquent, la photosynthèse a été réduite en moyenne de 43% sous grands tunnels et de 17% sous abris Voen. Des effets similaires ont été mesurés pour la DFPP incidente et la photosynthèse avec le cv. Polka. En dépit du taux de photosynthèse des feuilles individuelles systématiquement inférieur à ceux mesurés pour les plants cultivés aux champs, la photosynthèse de la plante entière sous grands tunnels était de 51% supérieure à celle observée au champ pour le cv. ‘Jeanne d’Orléans’, et 46% plus élevée pour le cv. ‘Polka’. Ces résultats s’expliquent par une plus grande (près du double) surface foliaire pour les plants cultivés sous tunnels, qui a compensé pour le plus faible taux de photosynthèse par unité de surface foliaire. Les températures supra-optimales des feuilles mesurées sous grands tunnels (6.6°C plus élevé en moyenne que dans le champ), ainsi que l’atténuation de la DFPP incidente (env. 43%) par les revêtements de tunnels ont contribué à réduire le taux de photosynthèse par unité de surface foliaire. La photosynthèse de la canopée entière était étroitement corrélée avec le rendement en fruits pour les deux types de framboisiers rouges cultivés sous grands tunnels ou en plein champ.
Resumo:
Ce mémoire présente mon projet de maîtrise dont l’objectif était d’étudier les associations entre la récompense alimentaire à l’égard des aliments riches en gras et en sucres, le statut pondéral et les comportements alimentaires. Cent cinquante femmes de poids normal ou obèses ont été invitées à compléter deux questionnaires : un sur la récompense alimentaire (plaisir explicite, motivation explicite et motivation implicite) et l’autre sur les comportements alimentaires [restriction cognitive (totale, flexible et rigide), désinhibition (totale, habituelle, émotionnelle et situationnelle) et susceptibilité à la faim (totale, interne et externe)]. Aucune association n’a été observée entre la récompense alimentaire et le statut pondéral. Toutefois, un plaisir et une motivation explicites plus importants pour les aliments en général ont été notés chez les femmes avec un score plus élevé de restriction flexible. De plus, une motivation implicite plus importante pour les aliments riches en gras tendait à être associée avec un score plus élevé de susceptibilité émotionnelle à la désinhibition et a été associée significativement avec un score plus élevé de faim externe. Ces résultats suggèrent que les comportements alimentaires ont une plus grande influence sur la récompense alimentaire que le statut pondéral.
Resumo:
La programmation par contraintes est une technique puissante pour résoudre, entre autres, des problèmes d’ordonnancement de grande envergure. L’ordonnancement vise à allouer dans le temps des tâches à des ressources. Lors de son exécution, une tâche consomme une ressource à un taux constant. Généralement, on cherche à optimiser une fonction objectif telle la durée totale d’un ordonnancement. Résoudre un problème d’ordonnancement signifie trouver quand chaque tâche doit débuter et quelle ressource doit l’exécuter. La plupart des problèmes d’ordonnancement sont NP-Difficiles. Conséquemment, il n’existe aucun algorithme connu capable de les résoudre en temps polynomial. Cependant, il existe des spécialisations aux problèmes d’ordonnancement qui ne sont pas NP-Complet. Ces problèmes peuvent être résolus en temps polynomial en utilisant des algorithmes qui leur sont propres. Notre objectif est d’explorer ces algorithmes d’ordonnancement dans plusieurs contextes variés. Les techniques de filtrage ont beaucoup évolué dans les dernières années en ordonnancement basé sur les contraintes. La proéminence des algorithmes de filtrage repose sur leur habilité à réduire l’arbre de recherche en excluant les valeurs des domaines qui ne participent pas à des solutions au problème. Nous proposons des améliorations et présentons des algorithmes de filtrage plus efficaces pour résoudre des problèmes classiques d’ordonnancement. De plus, nous présentons des adaptations de techniques de filtrage pour le cas où les tâches peuvent être retardées. Nous considérons aussi différentes propriétés de problèmes industriels et résolvons plus efficacement des problèmes où le critère d’optimisation n’est pas nécessairement le moment où la dernière tâche se termine. Par exemple, nous présentons des algorithmes à temps polynomial pour le cas où la quantité de ressources fluctue dans le temps, ou quand le coût d’exécuter une tâche au temps t dépend de t.
Resumo:
L’objectif général des travaux présentes dans cette thèse de doctorat était d’établir la relation entre l’alimentation et la composition du lait des vaches laitières, en mettant l’emphase sur les teneurs en matières grasses (TMG), sur l’urée du lait et sur l’efficience d’utilisation de l’azote. Pour la TMG, c’est principalement la relation entre cette teneur et la différence alimentaire cations-anions (DACA) qui a été investiguée. Une base de données de 2 142 troupeaux québécois a été utilisée et la relation entre la composition de la ration, incluant la DACA, et la TMG du lait a été déterminée à l’aide de régressions multiples. Il a été possible de prédire entre 32 et 66 % de la variation de la TMG du lait en fonction du stade de lactation. Malgré plusieurs interactions trouvées, une augmentation de la DACA, une supplémentation avec de l’acide palmitique et une distribution des aliments en ration totale mélangée ont eu une relation positive avec la TMG du lait, tandis qu’une augmentation de la proportion de concentrés dans la ration a eu un effet négatif. Les modèles développés ont montré l’importance de la gestion de l’alimentation sur la TMG du lait. En plus, ils ont démontré l’intérêt de considérer la DACA dans la formulation de rations chez la vache laitière. Dans une deuxième étude, la même base des données a été utilisée pour identifier les facteurs nutritionnels qui peuvent faire varier la teneur en urée du lait. Contrairement à ce qui est mentionné dans la littérature, tant des corrélations positives et que négatives entre les teneurs en urée du lait et en protéines des rations à l’intérieur des troupeaux sur une période de 36 mois ont été obtenues. Pour mieux comprendre ces relations, les résultats de performances et d’alimentation de 100 troupeaux avec des corrélations positives (r > 0,69) et de 100 troupeaux avec des corrélations négatives (r < -0,44) entre la teneur en urée du lait et en protéine brute de la ration ont été comparés. Les résultats n’ont pas montré de différences entre les deux groupes ni pour la composition de la ration, ni pour l’urée du lait. Ces résultats ne permettent pas d’identifier le meilleur contexte pour l’utilisation de la teneur en urée du lait comme un outil de gestion de l’alimentation. Ces observations soulèvent des questions sur la validité de l’utilisation des statistiques d’alimentation provenant de la base de données utilisée pour des évaluations nutritionnelles plus spécifiques. Considérant les résultats du projet précédent, le dernier projet visait à mieux comprendre les caractéristiques des fermes avec différentes efficiences d’utilisation de l’azote en utilisant des données plus fiables. Ainsi, 100 fermes laitières au Québec ont été visitées pour recueillir les données de production, de consommation d’aliments et de gestion de leur troupeau. Ces fermes ont été divisées en quatre groupes par une analyse en grappes selon leur efficience d’utilisation de l’azote. La comparaison entre les groupes a montré que les fermes dans les groupes avec une plus haute efficience d’utilisation d’azote ont une production laitière moyenne par vache plus élevée. Pour les stratégies d’alimentation, les fermes plus efficientes donnent plus d’énergie, mais moins de protéines brutes que les fermes des groupes moins efficients. Les résultats ont également montré l’importance de la prise alimentaire des vaches sur l’efficience d’utilisation de l’azote puisque les fermes des groupes avec la plus grande efficience étaient également celles avec la plus faible prise alimentaire. Aussi, les résultats n’ont pas permis d’établir clairement la relation entre la teneur en urée du lait et l’efficience de l’utilisation de l’azote. En effet, des valeurs différentes pour l’urée du lait étaient obtenues entre le groupe plus efficient et le moins efficient, mais la faible ampleur de variation de l’efficience d’utilisation de l’azote des groupes intermédiaires n’a pas permis d’observer de différences pour l’urée du lait. Finalement, outre une réduction des risques de pollution, les fermes des groupes plus efficaces pour l’utilisation de l’azote étaient également celles avec la marge sur les coûts d’alimentation par les vaches plus élevées. Par conséquent, il y a aussi un intérêt économique à améliorer l’efficience de l’utilisation de l’azote sur les fermes.
Resumo:
Le processus de planification forestière hiérarchique présentement en place sur les terres publiques risque d’échouer à deux niveaux. Au niveau supérieur, le processus en place ne fournit pas une preuve suffisante de la durabilité du niveau de récolte actuel. À un niveau inférieur, le processus en place n’appuie pas la réalisation du plein potentiel de création de valeur de la ressource forestière, contraignant parfois inutilement la planification à court terme de la récolte. Ces échecs sont attribuables à certaines hypothèses implicites au modèle d’optimisation de la possibilité forestière, ce qui pourrait expliquer pourquoi ce problème n’est pas bien documenté dans la littérature. Nous utilisons la théorie de l’agence pour modéliser le processus de planification forestière hiérarchique sur les terres publiques. Nous développons un cadre de simulation itératif en deux étapes pour estimer l’effet à long terme de l’interaction entre l’État et le consommateur de fibre, nous permettant ainsi d’établir certaines conditions pouvant mener à des ruptures de stock. Nous proposons ensuite une formulation améliorée du modèle d’optimisation de la possibilité forestière. La formulation classique du modèle d’optimisation de la possibilité forestière (c.-à-d., maximisation du rendement soutenu en fibre) ne considère pas que le consommateur de fibre industriel souhaite maximiser son profit, mais suppose plutôt la consommation totale de l’offre de fibre à chaque période, peu importe le potentiel de création de valeur de celle-ci. Nous étendons la formulation classique du modèle d’optimisation de la possibilité forestière afin de permettre l’anticipation du comportement du consommateur de fibre, augmentant ainsi la probabilité que l’offre de fibre soit entièrement consommée, rétablissant ainsi la validité de l’hypothèse de consommation totale de l’offre de fibre implicite au modèle d’optimisation. Nous modélisons la relation principal-agent entre le gouvernement et l’industrie à l’aide d’une formulation biniveau du modèle optimisation, où le niveau supérieur représente le processus de détermination de la possibilité forestière (responsabilité du gouvernement), et le niveau inférieur représente le processus de consommation de la fibre (responsabilité de l’industrie). Nous montrons que la formulation biniveau peux atténuer le risque de ruptures de stock, améliorant ainsi la crédibilité du processus de planification forestière hiérarchique. Ensemble, le modèle biniveau d’optimisation de la possibilité forestière et la méthodologie que nous avons développée pour résoudre celui-ci à l’optimalité, représentent une alternative aux méthodes actuellement utilisées. Notre modèle biniveau et le cadre de simulation itérative représentent un pas vers l’avant en matière de technologie de planification forestière axée sur la création de valeur. L’intégration explicite d’objectifs et de contraintes industrielles au processus de planification forestière, dès la détermination de la possibilité forestière, devrait favoriser une collaboration accrue entre les instances gouvernementales et industrielles, permettant ainsi d’exploiter le plein potentiel de création de valeur de la ressource forestière.
Resumo:
The European contract PECOSUDE (Small inshore fisheries of the south of Europe) accepted in 2000 for 2 years concerns French, Spanish and Portuguese partners. The aim is to assess the inshore and estuarine fisheries from Loire estuary to Portugal. Three levels of study are considered : fisheries (data 1999), socioeconomy and marketing (data 1999 or 2000). Exploitation in the 12 miles area for France and on continental shelf for northern Spain and Portugal (within 1000 m depth), as well as the fishing period lower than 96 hours was determined as the definition of this fishery for the study. Socioeconomic analyses are made only on boats smaller than 15 m. The fisheries part analyses the activity of the fishing vessels taking into account gears used, landed species, areas and fishing seasons. Within the 39 harbours of the south Bay of Biscay 1 799 coastal or estuarine vessels with 3 580 fishermen are located. Statics gears are predominant, and more than half of the vessels are polyvalent (using several gears). In 1999, landings were 20 6441 weight for 84 M¿ value. The fishing activity of these boats was also analysed by typology of the fleet, based on fishing gears and/or species landed. These characterisations allowed the application of stratified sampling for the implementation of socioeconomic investigations. The analysis of the information received from the fishermen allow to describe the production factors, to estimate their costs, as well as the turnover, the richness creation and the efficiency of the production means. The capital value of the south Bay of Biscay " ship " is established about 94 k¿, the average turnover amount to 83 k¿ and the average rate of added value to 70%. Products commercialisation vary from component to component, the importance of the sells in auction places depends on the landed species. Some valuable species are directly sold to particular
Resumo:
La consommation d'alcool qu'elle soit abusive ou non prend aujourd'hui, une importance considérable tant par le nombre et la variété des alcools consommés que par les coûts sociaux entraînés. Ainsi, "Entre 1969-1970 et 1977-1978..., non seulement les Canadiens ont-ils consommé plus d'alcool mais ils ont consommé plus de boissons à plus forte teneur d'alcool."(1). Cette importante consommation d'alcool crée divers problèmes sociaux: pertes en temps travaillé, enfants maltraités, violence (physique ou psychique) conjugale... Il est déjà démontré que parmi les cas d'enfants placés en foyer de protection sociale, la majorité avaient un ou deux parents alcooliques. Ces diverses conséquences d'un comportement alcoolique coûtent cher tant en perte directe (heures de travail perdues, bris de matériel, voitures endommagées) qu'en traitements médicaux et/ou psychologiques pour l'alcoolique et son entourage. Ces coûts nous permettent d'affirmer qu'actuellement notre société reconnaît ces comportements comme négatifs et cherche à les éliminer. D'une part, les médias d'information valorisent socialement l'usage de l'alcool et ses effets bénéfiques (publicité de vente), d'autre part, les hôpitaux et les divers services d'aide psycho-sociaux connaissent quotidiennement des problèmes liés aux individus abusant de l'alcool. Cette ambiguïté dans l'usage de l'alcool et dans les valeurs qui lui sont attribués est actuellement le contexte social de l'émergence du comportement alcoolique. Notre propos n'est pas de nous intéresser de façon générale au phénomène de l'usage de l'alcool mais de tenter de cerner les conditions de l'émergence d'un comportement alcoolique. Toutefois cette émergence est liée à l'usage de l'alcool de façon générale. Mon expérience de travail au Service Social de l'hôpital St-Luc de Montréal, m'amène à traiter de ce sujet. Je suis, par ce travail, en contact depuis sept ans avec des alcooliques qui requièrent des traitements médicaux. Au cours de cette période, diverses interrogations ont surgi tant sur la connaissance de cette problématique que sur le mode d'intervention et la recherche d'une certaine adéquation entre ces deux composantes. Nous tenterons par la présente recherche de répondre ou argumenter ces interrogations et certaines intuitions. Nos interrogations portent surtout sur l'abstinence et ses conditions dans le contexte de la maladie (cirrhose du foie). Le postulat généralement admis est que pour l'alcoolique cirrhotique, la première médication serait l'arrêt total de l'ingestion d'alcool quel que soit le degré de détérioration physique, psychologique et social de la personne. Ayant une valeur de vie ou de mort pour l'alcoolique cirrhotique, ce postulat demeure applicable pour tout individu alcoolique: la seule solution est l'abstinence totale. Notre but est donc de cerner ce qu'est la "réhabilitation" d'un alcoolique et tenter d'évaluer son "bonheur". Ainsi, il est communément admis au sein des Alcooliques Anonymes que certains membres sont des alcooliques "secs"; ils ne consomment plus mais ils n'ont rien changé à leur mode de vie et ont ainsi, le caractère aigri et des réactions émotives incongrues. Pourtant, ces individus n'ont plus de problème d'alcool... Nous voulons donc davantage comprendre l'abstinence et ses conditions. Nous ne pouvons par ailleurs nous dissocier de notre rôle d'intervenant social auprès d'alcooliques. Ce rôle nous a permis d'entrer en contact avec ces individus et ainsi d'en posséder une connaissance plus relationnelle que théorique. Cette connaissance nous permettra d'aborder le sujet avec beaucoup de réalisme. Comme c'est bien souvent le cas dans l'intervention psycho-sociale, la définition du problème n'est pas toujours structurée. L'intervention est le plus souvent intuitive et se fixe pour objectifs ceux que le client poursuit. Cette condition de la pratique généralement admise et exercée limite ou du moins, ne favorise pas toutes les remises en question de l'intervention, de même que les réflexions sur la définition du problème. La situation se complique davantage lorsque la problématique, comme c'est la situation pour l'alcool, relève en même temps de plusieurs disciplines. (1) Bien-être Social Canada, Statistiques concernant l'alcool., p. 3
Resumo:
La campagna scientifica Medits, nell’ambito del Programma nazionale Italiano per la raccolta dei dati alieutici (Reg. CE n°199/2008 e n°665/2008), ha l’obiettivo generale di valutare la distribuzione, l’abbondanza e la composizione per taglia delle specie oggetto di pesca presenti nei mari Italiani. L’Istituto di ricerche per l’Ambiente Marino Costiero (IAMC), sede di Mazara del Vallo, del Consiglio nazionale delle Ricerche (CNR), effettua campagne di ricerca in mare nella GSA 16 (FAO, 2001) dello Stretto di Sicilia, tramite rete a strascico (trawl survey), sin dalla primavera del 1985, con l’obiettivo generale di studiare l’abbondanza ed i cicli vitali delle risorse demersali e di stimarne lo stato di sfruttamento. Sono di seguito riportate le informazioni relative alla campagna Medits 2009 (di seguito indicata come MedSp09) nei fondi ricadenti nella GSA 16 (Stretto di Sicilia) che comprendono buona parte dei fondali antistanti il litorale meridionale della Sicilia. La campagna si è svolta tra il 21 maggio ed il 16 giugno 2009 per un totale di 120 cale valide allocate nella GSA 16 (Stretto di Sicilia). Nel presente rapporto sono riportati i risultati sulle percentuali di presenza, sugli indici di abbondanza e sulle strutture di lunghezza degli stock demersali ottenuti nel corso della campagna MEDITS 2009 per le 39 specie bersaglio.
Resumo:
Le diocèse de Sherbrooke fut érigé par le Pape Pie IX. La bulle d'érection, datée de Rome le 28 août 1874, confirmait ainsi le voeu de l'épiscopat de la province ecclésiastique de Québec, émis au cinquième concile provincial du 23 mai 1873. Le nouveau diocèse comprenait un démembrement des diocèses de Québec, de St-Hyacinthe et des Trois-Rivières; Québec cédait trois cantons plus une paroisse; St-Hyacinthe, dix-huit cantons; et Trois-Rivières, vingt-quatre. Moins de la moitié de la population de ce territoire était catholique, soit seulement 30,255 sur une population totale de 68,283 habitants, d'après le recensement de 1870. Par une bulle romaine du premier septembre 1874, Antoine Racine, prêtre desservant de l'église Saint-Jean-Baptiste de Québec, était nommé premier évêque du nouveau diocèse. L'évêque élu avait été prévenu quelques jours auparavant par une lettre de Rome. Consacré à Québec, le 18 octobre 1874, des mains de Mgr Elzéar Alexandre Taschereau, archevêque de Québec, Mgr Antoine Racine prit possession du siège de Sherbrooke le 20 du même mois. Pendant dix-neuf ans, soit jusqu'à sa mort survenue le 17 juillet 1893, l'évêque de Sherbrooke conduisit son diocèse avec prudence, le dotant d'institutions stables. Ses nécrologistes et ses biographes le considèrent comme un des principaux artisans de la pénétration catholique et française dans les Cantons de l'Est. […]
Resumo:
Quando si parla di shelf life di un prodotto alimentare si fa riferimento al periodo di tempo durante il quale un prodotto mantiene le sue caratteristiche qualitative nelle normali condizioni di conservazione/utilizzo e di conseguenza può essere consumato in totale sicurezza. Gli alimenti, infatti, sono prodotti facilmente deperibili che subiscono modifiche a carico della loro composizione a causa dell’innesco di una serie di reazioni sia di tipo microbiologico che chimico-fisico, con i conseguenti rischi per la sicurezza igienico sanitaria del prodotto. Nei prodotti ittici la degradazione biologica risulta essere una delle prime cause di deterioramento dell’alimento ciò perché essi stessi sono caratterizzati dalla presenza di microrganismi provenienti principalmente dalle materie prime impiegate e dal processo di produzione/preparazione utilizzato. Durante la conservazione e lo stoccaggio del prodotto ittico, in particolare sono tre i meccanismi che determinano il deterioramento e quindi la riduzione della shelf life, ovvero: l’autolisi enzimatica (post mortem e che modifica la consistenza del tessuto muscolare favorendo inoltre la crescita microbica ed il rilascio di ammine biogene); l’ossidazione (che riduce le qualità organolettiche del prodotto alterando gli acidi grassi poliinsaturi); la crescita microbica (con produzione di metaboliti come ammine biogene, acidi organici, solfiti, alcool, aldeidi e chetoni che causano i cattivi odori) (Jiang et al. 1990, Koohmaraie M., 1996, Koutsoumanis& Nychas, 1999, Aoki et al., 1997; Bremner, 1992). Risulta quindi strategico, il poter determinare la conservabilità di un alimento verificando dal punto di vista quantitativo, come tutti i fattori che contribuiscono all’alterazione della qualità del prodotto e all’incremento del processo degradativo (popolazione microbica, attività enzimatiche, variazioni chimiche) varino nel tempo.