450 resultados para Coûts
Resumo:
Dans le contexte de la production d’éthanol cellulosique, la cellulose doit être hydrolysée par voie chimique ou enzymatique. Dans ce procédé d’hydrolyse, la partie cristalline de la cellulose est plus difficilement fragmentable, ce qui entraîne des coûts supplémentaires dues au temps de traitement plus élevé ou à la quantité supplémentaire de produits chimiques nécessaires. Dans l’optique de réduire les coûts de l’hydrolyse tout en recherchant une voie pour valoriser la cellulose cristalline, l’idée de fabriquer des composites polymères/cellulose est attrayante. L’objectif du présent travail a donc été de valider si la cellulose microcristalline tirée d’un processus d’hydrolyse acide pourrait mener à de nouveaux matériaux composites à valeur ajoutée. Un obstacle anticipé dans le projet a été la faible adhésion de la cellulose, hydrophile et polaire, aux polymères généralement beaucoup moins polaires. Le développement de composites performants et l’atteinte de teneurs élevés en cellulose microcristalline a donc inclus, sur le plan chimique, l’objectif de comparer divers traitements de surface de la cellulose qui permettrait de pallier aux défis anticipés. La méthodologie utilisée dans ce projet a consisté à développer et optimiser un protocole de modification chimique sur de la cellulose microcristalline commerciale à l’échelle laboratoire. Les celluloses modifiées ont été soumises à une caractérisation par analyse de l’angle de contact pour caractériser l’hydrophobicité des fibres, par spectrométrie photoélectronique X pour l’analyse de la composition chimique des fibres, par granulométrie laser pour mesurer la longueur des différentes fibres et microscopie optique pour l’observation de la longueur des fibres. Toutes les techniques ont été utilisées afin de comparer les propriétés des celluloses modifiées à celles de la cellulose de référence. La cellulose de référence et les celluloses modifiées chimiquement ont ensuite été mélangées à des concentrations de 0 à 50% avec du polyéthylène de basse densité à l’état fondu en utilisant un mélangeur interne de type Brabender®. Les composites ont été caractérisés par microscopie électronique à balayage pour analyser la morphologie de mélange sur les surfaces de rupture et l’homogénéité du mélange, par des analyses rhéologiques afin d’obtenir la viscosité en fonction du cisaillement et par des essais de traction afin de déterminer leur Module de Young, leur résistance à la traction et leur élongation à la rupture. Ces caractéristiques permettent de prévoir la performance des composites dans des applications structurales.
Resumo:
Les courriels Spams (courriels indésirables ou pourriels) imposent des coûts annuels extrêmement lourds en termes de temps, d’espace de stockage et d’argent aux utilisateurs privés et aux entreprises. Afin de lutter efficacement contre le problème des spams, il ne suffit pas d’arrêter les messages de spam qui sont livrés à la boîte de réception de l’utilisateur. Il est obligatoire, soit d’essayer de trouver et de persécuter les spammeurs qui, généralement, se cachent derrière des réseaux complexes de dispositifs infectés, ou d’analyser le comportement des spammeurs afin de trouver des stratégies de défense appropriées. Cependant, une telle tâche est difficile en raison des techniques de camouflage, ce qui nécessite une analyse manuelle des spams corrélés pour trouver les spammeurs. Pour faciliter une telle analyse, qui doit être effectuée sur de grandes quantités des courriels non classés, nous proposons une méthodologie de regroupement catégorique, nommé CCTree, permettant de diviser un grand volume de spams en des campagnes, et ce, en se basant sur leur similarité structurale. Nous montrons l’efficacité et l’efficience de notre algorithme de clustering proposé par plusieurs expériences. Ensuite, une approche d’auto-apprentissage est proposée pour étiqueter les campagnes de spam en se basant sur le but des spammeur, par exemple, phishing. Les campagnes de spam marquées sont utilisées afin de former un classificateur, qui peut être appliqué dans la classification des nouveaux courriels de spam. En outre, les campagnes marquées, avec un ensemble de quatre autres critères de classement, sont ordonnées selon les priorités des enquêteurs. Finalement, une structure basée sur le semiring est proposée pour la représentation abstraite de CCTree. Le schéma abstrait de CCTree, nommé CCTree terme, est appliqué pour formaliser la parallélisation du CCTree. Grâce à un certain nombre d’analyses mathématiques et de résultats expérimentaux, nous montrons l’efficience et l’efficacité du cadre proposé.
Resumo:
Résumé: Problématique : En réponse à la prévalence accrue de la maladie du diabète et au fardeau économique important que représente cette maladie sur le système de santé international, des programmes incitatifs pour les maladies chroniques furent instaurés à travers le monde. Ces programmes visent à inciter les médecins à appliquer les lignes directrices chez leurs patients avec besoin complexe en vue d’améliorer la santé des patients et par la suite de réduire les coûts incombés par le système de santé. Les programmes incitatifs étant nombreux et différents d’un pays à l’autre, les études actuelles ne semblent pas s’entendre sur les répercussions de tels programmes sur la santé des patients atteints de diabète. L’objectif de cette étude est d’évaluer les retombées d’un incitatif financier sur le contrôle glycémique de la population atteinte de diabète du Nouveau-Brunswick, au Canada. Méthodes : Cette étude transversale répétée et de cohorte a été menée grâce à des bases de données administratives du Nouveau-Brunswick contenant des données sur dix ans pour 83 580 patients adultes atteints de diabète et 583 médecins de famille éligibles. La santé des patients a été évaluée au niveau du contrôle glycémique, en mesurant les valeurs moyennes d’A1C annuelles à l’aide de régressions linéaires multivariées. Afin d’évaluer si les médecins changeaient leur pratique avec l’implantation du programme incitatif, nous regardions au niveau de la probabilité de recours annuel à au moins deux tests d’A1C en utilisant des régressions logistiques multivariées. Résultats : La probabilité de recours annuel à au moins deux tests d’A1C était plus élevée dans quatre sous-groupes étudiés : les patients nouvellement diagnostiqués après l’implantation du programme avaient des cotes plus élevées comparées aux nouveaux patients avant l’implantation du programme (OR=1.23 [1.18-1.28]); les patients pour lesquels un médecin avait réclamé l’incitatif comparés aux patients pour lesquels aucun médecin n’avait réclamé l’incitatif (OR=2.73 [2.64-2.81]); les patients pour lesquels un médecin avait réclamé l’incitatif avaient des cotes plus élevées après l’implantation du programme comparé à avant (OR=1.89 [1.80-1.98]); et finalement, les patients suivis par un médecin de famille qui a déjà réclamé l’incitatif avaient des cotes 24% plus élevées (OR=1.24 [1.15-1.34]). Il n’y avait pas de différence dans les valeurs d’A1C annuelles entre les 4 sous-groupes étudiés. Conclusion : L’implantation du programme incitatif a démontré que les médecins ont une meilleure probabilité de prescrire au moins deux tests d’A1C, ce qui suggère une meilleure prise en charge des patients. Cependant, le manque de changement au niveau du contrôle glycémique du patient suggère que l’étude des répercussions de l’incitatif devra être poursuivie afin de voir si elle mène à une amélioration d’issues cliniques chez les patients.
Resumo:
L'extension de marque est une stratégie de plus en plus utilisée par les compagnies. Plus de 40% des nouveaux produits lancés sur le marché nord-américain sont issus d'une stratégie d'extension de marque. Un exemple, Pepsi (appelée marque-mère) qui met sur le marché Pepsi Cristal (appelée extension). Notoriété immédiate du nouveau produit, coûts de publicité réduits et facilité d'accès aux canaux de distribution sont autant de raisons expliquant l'intérêt des firmes envers cette stratégie. L'extension de marque peut cependant avoir l'effet négatif d'atténuer les perceptions et l'évaluation de la marque-mère dans l'esprit des consommateurs. Plusieurs raisons laissent croire que cet effet négatif serait plus important chez les consommateurs fidèles à une marque que chez les consommateurs infidèles et les non-consommateurs. Une simulation de lancement du produit Coke Cristal a été réalisée dans le cadre d'un plan expérimental de type "avant-après" auprès de 189 étudiants afin d'examiner si l'effet négatif de cette extension de marque est effectivement plus important chez les consommateurs fidèles à une marque de boissons gazeuses que chez les consommateurs infidèles et les non-consommateurs. Les résultats démontrent l'impact du niveau de fidélité sur le changement des perceptions envers la marque-mère, mais ne démontrent pas son impact sur le changement d'évaluation de la marque-mère après extension. Les implications managériales de ces résultats sont discutées.
Resumo:
Les logiciels actuels sont de grandes tailles, complexes et critiques. Le besoin de qualité exige beaucoup de tests, ce qui consomme de grandes quantités de ressources durant le développement et la maintenance de ces systèmes. Différentes techniques permettent de réduire les coûts liés aux activités de test. Notre travail s’inscrit dans ce cadre, est a pour objectif d’orienter l’effort de test vers les composants logiciels les plus à risque à l’aide de certains attributs du code source. À travers plusieurs démarches empiriques menées sur de grands logiciels open source, développés avec la technologie orientée objet, nous avons identifié et étudié les métriques qui caractérisent l’effort de test unitaire sous certains angles. Nous avons aussi étudié les liens entre cet effort de test et les métriques des classes logicielles en incluant les indicateurs de qualité. Les indicateurs de qualité sont une métrique synthétique, que nous avons introduite dans nos travaux antérieurs, qui capture le flux de contrôle ainsi que différentes caractéristiques du logiciel. Nous avons exploré plusieurs techniques permettant d’orienter l’effort de test vers des composants à risque à partir de ces attributs de code source, en utilisant des algorithmes d’apprentissage automatique. En regroupant les métriques logicielles en familles, nous avons proposé une approche basée sur l’analyse du risque des classes logicielles. Les résultats que nous avons obtenus montrent les liens entre l’effort de test unitaire et les attributs de code source incluant les indicateurs de qualité, et suggèrent la possibilité d’orienter l’effort de test à l’aide des métriques.
Resumo:
Nous voilà rendus à l'aube du troisième millénaire. Que de changements se sont produits depuis la révolution industrielle. Selon plusieurs auteurs cités par Defrenne et Delvaux (1990), nous sommes maintenant arrivés à la société postindustrielle que certains appellent la société super-industrielle, la post-civilisation, la société technétronique, la société technicisée et, pour Defrenne et Delvaux (1990), il s'agit de la société de l'incertitude. Pour eux, elle est une réplique du chaos planétaire où l'organisation se fait, se défait et se refait, jamais tout à fait semblable. Il nous apparaît important de définir ce que nous entendons par "organisation". Il s'agit d'un «groupement, association en général d'une certaine ampleur, qui se propose des buts déterminés» (Dictionnaire Petit Larousse, 1993) comme les organisations privées, publiques et para-publiques. Dans les organisations, ce véritable chaos se traduit par des processus de restructuration où l'on accorde souvent davantage d'importance à l'organisation et ses structures, et ce au détriment des individus qui y travaillent. Il en résulte une perte du potentiel des travailleurs, ce qui occasionne un déficit au plan des ressources humaines dont on ne soupçonne pas les conséquences pour l'organisation et les individus. Les propos qu'entretiennent les deux auteurs sont assez éloquents à ce sujet: «Les points de repères disparaissent sans être remplacés par d'autres, imprévus et imprévisibles, ils s'avèrent impuissants à faire face au changement, dont les composantes non gérées deviennent synonymes de facteurs de désordre. C'est pourquoi l'univers professionnel et la vulnérabilité des travailleurs reproduisent la fragilité de l'organisation. Ce désordre se traduit à l'intérieur des entreprises par des vécus désadaptatifs et des conduites dysfonctionnelles, de tous genres au travail. Ils entraînent des coûts psychologiques, sociaux, financiers et économiques importants. Ils peuvent aller jusqu'à ruiner les politiques, les stratégies et détruire l'image de l'organisation. À l'extérieur, les faits divers rapportent des incidents qui témoignent de fautes de gestion ou de spéculations douteuses, dévoilent les carences en matière d'intervention efficace, placent l'ensemble des entreprises dans un environnement mouvant et mutant par rapport auquel elles sont sommées de se réajuster perpétuellement.» (Defrenne et Delvaux 1990, p. 23) Cette société de l'incertitude, que nous décrivent ces deux auteurs, n'est pas sans conséquences pour les différents acteurs des organisations face à de futurs scénarios multiples, irréversibles et imprévisibles, engendrant des coûts dont on ne peut soupçonner l'ampleur. Devant de tels changements, la plupart des travailleurs vivront des transitions au cours de leur vie personnelle et professionnelle. Le conseiller d'orientation, un travailleur faisant partie de ce monde en mutation, est lui aussi touché. Il voit sa pratique se modifier, ses champs d'intervention traditionnelle se transforment peu à peu et d'autres commencent à s'ouvrir. À la différence de bien des travailleurs, le conseiller d'orientation possède des compétences et des connaissances qui lui seront très utiles dans un tel contexte de changement. En outre, il pourra les mettre au service des organisations aux prises avec de nouveaux besoins organisationnels engendrés par la société postindustrielle. Comme il devient impératif de tenir compte de plus en plus des besoins de l'individu dans une nouvelle gestion des ressources humaines, on ne doit pas seulement gérer les effectifs mais l'on doit également les développer et les mobiliser autour d'objectifs communs que sont ceux de l'organisation et des individus. Pour en arriver à mobiliser les travailleurs et les gestionnaires autour d'une même vision de l'organisation, certaines pratiques dans la gestion des ressources humaines doivent être renouvelées et appuyées par des programmes de développement de carrière, de formation de la main-d'oeuvre, d'aide aux transitions personnelles et professionnelles et par le développement des politiques de gestion des ressources humaines. Un grand défi demeure pour les organisations: comment faire face à de tels changements qui affectent à la fois la culture de l'organisation, les politiques, les méthodes de travail, les relations entre les travailleurs et le personnel cadre. Tout se bouscule pour eux à une vitesse qui est hors de contrôle, d'où l'importance pour les dirigeants de s'ouvrir à de nouvelles formes de gestion et de s'entourer de professionnels spécialisés dans les problématiques de l'individu au travail. La présente étude vise à tracer le portrait de la situation actuelle au Québec concernant la pratique des conseillers d'orientation dans les organisations. Ce document se divise en trois parties. Dans un premier temps, vous prendrez connaissance au chapitre 1 de la problématique dans laquelle vous retrouverez des informations concernant l'historique et l'évolution de la profession de conseiller d'orientation au coeur des transformations du marché du travail. Au chapitre 2, nous abordons la méthodologie utilisée pour la réalisation de cette enquête. Au chapitre 3, nous terminons enfin par l'analyse des résultats et l'interprétation. Cette consultation menée auprès des conseillers pratiquant dans les organisations, à titre soit d'employé, soit de consultant, nous a permis de recueillir plusieurs données concernant leurs caractéristiques, leurs pratiques et leurs besoins. Pour terminer, nous vous faisons part de nos conclusions.
Resumo:
Le contenu de ce mémoire traite du problème de gestion des stocks dans un réseau constitué de plusieurs sites de stockage de produits. Chaque site i gère son stock de manière autonome pour satisfaire une demande déterministe sur un horizon donné. Un stock maximum Si est tenu à chaque site i. Lorsque le point de commande si est atteint, une commande de taille Qi est placée au centre de distribution qui alimente tous les sites. Qi est telle que Qi = Si - si. La quantité Qi est livrée dans un délai connu Li. Si, à un instant donné, la demande Di au site i excède la quantité en main, le site i fait appel à un ou à plusieurs autres sites du réseau pour le transfert d’une quantité Xji (j = 1, 2, …, n). Ce transfert s’effectue selon un certain nombre de règles de jeu qui tiennent compte des coûts de transfert, de stockage, d’approvisionnement et de pénurie. Ce mémoire examine six principales contributions publiées dans la littérature pour évaluer les contributions d’un modèle collaboratif aux performances, en termes de coûts et de niveau de service, de chaque site du réseau. Cette investigation se limite à une configuration du réseau à deux échelons : un entrepôt central et n (n > 2) sites de stockage. Le cas des pièces de rechange, caractérisé par une demande aléatoire, est examiné dans trois chapitres de ce mémoire. Une autre application de ces stratégies à la collaboration entre n centres hospitaliers (n > 2) est également examinée dans ce travail.
Resumo:
La Formule SAE (Society of Automotive Engineers) est une compétition étudiante consistant en la conception et la fabrication d’une voiture de course monoplace. De nombreux événements sont organisés à chaque année au cours desquels plusieurs universités rivalisent entre elles lors d’épreuves dynamiques et statiques. Celles-ci comprennent l’évaluation de la conception, l’évaluation des coûts de fabrication, l’accélération de la voiture, etc. Avec plus de 500 universités participantes et des événements annuels sur tous les continents, il s’agit de la plus importante compétition d’ingénierie étudiante au monde. L’équipe ULaval Racing a participé pendant plus de 20 ans aux compétitions annuelles réservées aux voitures à combustion. Afin de s’adapter à l’électrification des transports et aux nouvelles compétitions destinées aux voitures électriques, l’équipe a conçu et fabriqué une chaîne de traction électrique haute performance destinée à leur voiture 2015. L’approche traditionnelle employée pour concevoir une motorisation électrique consiste à imposer les performances désirées. Ces critères comprennent l’inclinaison maximale que la voiture doit pouvoir gravir, l’autonomie désirée ainsi qu’un profil de vitesse en fonction du temps, ou tout simplement un cycle routier. Cette approche n’est malheureusement pas appropriée pour la conception d’une traction électrique pour une voiture de type Formule SAE. Ce véhicule n’étant pas destiné à la conduite urbaine ou à la conduite sur autoroute, les cycles routiers existants ne sont pas représentatifs des conditions d’opération du bolide à concevoir. Ainsi, la réalisation de ce projet a nécessité l’identification du cycle d’opération routier sur lequel le véhicule doit opérer. Il sert de point de départ à la conception de la chaîne de traction composée des moteurs, de la batterie ainsi que des onduleurs de tension. L’utilisation d’une méthode de dimensionnement du système basée sur un algorithme d’optimisation génétique, suivie d’une optimisation locale couplée à une analyse par éléments-finis a permis l’obtention d’une solution optimale pour les circuits de type Formule SAE. La chaîne de traction conçue a été fabriquée et intégrée dans un prototype de voiture de l’équipe ULaval Racing lors de la saison 2015 afin de participer à diverses compétitions de voitures électriques.
Resumo:
Dans le contexte où les routes non revêtues sont susceptibles de subir des charges importantes, une méthode rigoureuse pour la conception de ces chaussées basée sur des principes mécanistes-empiriques et sur le comportement mécanique des sols support est souhaitable. La conception mécaniste combinée à des lois d’endommagement permet l’optimisation des structures de chaussées non revêtues ainsi que la réduction des coûts de construction et d’entretien. Le but de ce projet est donc la mise au point d’une méthode de conception mécaniste-empirique adaptée aux chaussées non revêtues. Il a été question tout d’abord de mettre au point un code de calcul pour la détermination des contraintes et des déformations dans la chaussée. Ensuite, des lois d’endommagement empiriques pour les chaussées non revêtues ont été développées. Enfin, les méthodes de calcul ont permis la création d’abaques de conception. Le développement du code de calcul a consisté en une modélisation de la chaussée par un système élastique multi-couches. La modélisation a été faite en utilisant la transformation d’Odemark et les équations de Boussinesq pour le calcul des déformations sous la charge. L’élaboration des fonctions de transfert empiriques adaptées aux chaussées non revêtues a également été effectuée. Le développement des fonctions de transfert s’est fait en deux étapes. Tout d’abord, l’établissement de valeurs seuil d’orniérage considérant des niveaux jugés raisonnables de conditions fonctionnelle et structurale de la chaussée. Ensuite, le développement de critères de déformation admissible en associant les déformations théoriques calculées à l’aide du code de calcul à l’endommagement observé sur plusieurs routes en service. Les essais ont eu lieu sur des chaussées typiques reconstituées en laboratoire et soumises à un chargement répété par simulateur de charge. Les chaussées ont été instrumentées pour mesurer la déformation au sommet du sol d’infrastructure et les taux d’endommagements ont été mesurés au cours des essais.
Resumo:
De plus en plus de partenaires socio-économiques de l'éducation reconnaissent que les besoins d'orientation sont flagrants, en particulier au niveau secondaire, et que les problèmes conséquents d'une orientation inadéquate engendrent des coûts sociaux aussi élevés que déplorables. Face au décrochage scolaire par exemple, Emploi et Immigration Canada (1990) dans son Projet national d'Incitation à la poursuite des études résume assez bien cette pensée générale en affirmant que: "Le taux actuel d'abandon scolaire entraîne une perte inacceptable de potentiel humain, un coût social élevé et une pénurie importante de travailleurs possédant les compétences nécessaires pour qu'augmentent les revenus de tous les Canadiens" ( E.I.C., 1990, p.7). […]Enfin, c'est la pertinence même de la formation prodiguée au secondaire en regard du projet d'avenir des jeunes qui serait remise en question par quelques-uns et quelques-unes, tel qu'en rend compte l'étude Quand les choix débutent menée par le Ministère de l'Éducation du Québec en 1992 auprès d'élèves de cinquième secondaire: "Un ou une élève sur cinq ne voit pas en quoi lui servira la formation reçue par rapport à ce qu'il veut faire plus tard" (M.E.Q, 1992a, p. 57). Cet état de fait témoigne d'une lacune certaine dans la cohérence du système éducatif dont les objectifs terminaux ne semblent pas se traduire dans le cheminement vocationnel des élèves. On reconnaît donc d'emblée le caractère alarmant des problèmes qui découlent de la crise en orientation. Mais qu'en est-il exactement de la situation actuelle de l'orientation dans les écoles secondaires du Québec?
Resumo:
Cette thèse est une contribution à la modélisation, la planification et l’optimisation du transport pour l’approvisionnement en bois de forêt des industries de première transformation. Dans ce domaine, les aléas climatiques (mise au sol des bois par les tempêtes), sanitaires (attaques bactériologiques et fongiques des bois) et commerciaux (variabilité et exigence croissante des marchés) poussent les divers acteurs du secteur (entrepreneurs et exploitants forestiers, transporteurs) à revoir l’organisation de la filière logistique d’approvisionnement, afin d’améliorer la qualité de service (adéquation offre-demande) et de diminuer les coûts. L’objectif principal de cette thèse était de proposer un modèle de pilotage améliorant la performance du transport forestier, en respectant les contraintes et les pratiques du secteur. Les résultats établissent une démarche de planification hiérarchique des activités de transport à deux niveaux de décision, tactique et opérationnel. Au niveau tactique, une optimisation multi-périodes permet de répondre aux commandes en minimisant l’activité globale de transport, sous contrainte de capacité agrégée des moyens de transport accessibles. Ce niveau permet de mettre en œuvre des politiques de lissage de charge et d’organisation de sous-traitance ou de partenariats entre acteurs de transport. Au niveau opérationnel, les plans tactiques alloués à chaque transporteur sont désagrégés, pour permettre une optimisation des tournées des flottes, sous contrainte des capacités physiques de ces flottes. Les modèles d’optimisation de chaque niveau sont formalisés en programmation linéaire mixte avec variables binaires. L’applicabilité des modèles a été testée en utilisant un jeu de données industrielles en région Aquitaine et a montré des améliorations significatives d’exploitation des capacités de transport par rapport aux pratiques actuelles. Les modèles de décision ont été conçus pour s’adapter à tout contexte organisationnel, partenarial ou non : la production du plan tactique possède un caractère générique sans présomption de l’organisation, celle-ci étant prise en compte, dans un deuxième temps, au niveau de l’optimisation opérationnelle du plan de transport de chaque acteur.
Resumo:
L’objectif général des travaux présentes dans cette thèse de doctorat était d’établir la relation entre l’alimentation et la composition du lait des vaches laitières, en mettant l’emphase sur les teneurs en matières grasses (TMG), sur l’urée du lait et sur l’efficience d’utilisation de l’azote. Pour la TMG, c’est principalement la relation entre cette teneur et la différence alimentaire cations-anions (DACA) qui a été investiguée. Une base de données de 2 142 troupeaux québécois a été utilisée et la relation entre la composition de la ration, incluant la DACA, et la TMG du lait a été déterminée à l’aide de régressions multiples. Il a été possible de prédire entre 32 et 66 % de la variation de la TMG du lait en fonction du stade de lactation. Malgré plusieurs interactions trouvées, une augmentation de la DACA, une supplémentation avec de l’acide palmitique et une distribution des aliments en ration totale mélangée ont eu une relation positive avec la TMG du lait, tandis qu’une augmentation de la proportion de concentrés dans la ration a eu un effet négatif. Les modèles développés ont montré l’importance de la gestion de l’alimentation sur la TMG du lait. En plus, ils ont démontré l’intérêt de considérer la DACA dans la formulation de rations chez la vache laitière. Dans une deuxième étude, la même base des données a été utilisée pour identifier les facteurs nutritionnels qui peuvent faire varier la teneur en urée du lait. Contrairement à ce qui est mentionné dans la littérature, tant des corrélations positives et que négatives entre les teneurs en urée du lait et en protéines des rations à l’intérieur des troupeaux sur une période de 36 mois ont été obtenues. Pour mieux comprendre ces relations, les résultats de performances et d’alimentation de 100 troupeaux avec des corrélations positives (r > 0,69) et de 100 troupeaux avec des corrélations négatives (r < -0,44) entre la teneur en urée du lait et en protéine brute de la ration ont été comparés. Les résultats n’ont pas montré de différences entre les deux groupes ni pour la composition de la ration, ni pour l’urée du lait. Ces résultats ne permettent pas d’identifier le meilleur contexte pour l’utilisation de la teneur en urée du lait comme un outil de gestion de l’alimentation. Ces observations soulèvent des questions sur la validité de l’utilisation des statistiques d’alimentation provenant de la base de données utilisée pour des évaluations nutritionnelles plus spécifiques. Considérant les résultats du projet précédent, le dernier projet visait à mieux comprendre les caractéristiques des fermes avec différentes efficiences d’utilisation de l’azote en utilisant des données plus fiables. Ainsi, 100 fermes laitières au Québec ont été visitées pour recueillir les données de production, de consommation d’aliments et de gestion de leur troupeau. Ces fermes ont été divisées en quatre groupes par une analyse en grappes selon leur efficience d’utilisation de l’azote. La comparaison entre les groupes a montré que les fermes dans les groupes avec une plus haute efficience d’utilisation d’azote ont une production laitière moyenne par vache plus élevée. Pour les stratégies d’alimentation, les fermes plus efficientes donnent plus d’énergie, mais moins de protéines brutes que les fermes des groupes moins efficients. Les résultats ont également montré l’importance de la prise alimentaire des vaches sur l’efficience d’utilisation de l’azote puisque les fermes des groupes avec la plus grande efficience étaient également celles avec la plus faible prise alimentaire. Aussi, les résultats n’ont pas permis d’établir clairement la relation entre la teneur en urée du lait et l’efficience de l’utilisation de l’azote. En effet, des valeurs différentes pour l’urée du lait étaient obtenues entre le groupe plus efficient et le moins efficient, mais la faible ampleur de variation de l’efficience d’utilisation de l’azote des groupes intermédiaires n’a pas permis d’observer de différences pour l’urée du lait. Finalement, outre une réduction des risques de pollution, les fermes des groupes plus efficaces pour l’utilisation de l’azote étaient également celles avec la marge sur les coûts d’alimentation par les vaches plus élevées. Par conséquent, il y a aussi un intérêt économique à améliorer l’efficience de l’utilisation de l’azote sur les fermes.
Resumo:
Si les normes n'étaient qu'une source d'entraves au commerce, on essayerait par tous les moyens d'arriver à les éliminer, comme on tente de le faire avec les tarifs douaniers. Mais ce n'est pas le cas. Les normes apportent des bienfaits. Nous savons qu'elles peuvent faciliter la production, la consommation et le commerce. S'il ne peut être question de les éliminer, il faut arriver à les utiliser de façon à pouvoir profiter des bienfaits qu'elles procurent tout en essayant d'éliminer les problèmes qu'elles peuvent aussi créer. L'objectif de cette recherche sera donc d'évaluer les effets de la normalisation sur les échanges du Canada avec ses partenaires commerciaux et leurs répercussions sur les différents agents économiques. Dans un premier temps, nous regarderons l'implication du Canada dans l'élaboration d'un système de normalisation qui se doit de répondre aux besoins des différents agents économiques. A l'intérieur de la présentation du cadre institutionnel, nous ferons la description des différents organismes visés par la normalisation. Que ce soit au niveau national ou international, des intervenants de plusieurs milieux participent aux diverses étapes de la normalisation (élaboration des normes, essais ou certification). Les responsabilités face à l'élaboration et au fonctionnement du système de normalisation ont, en général, été distribuées selon l'intérêt de ceux qui sentaient une carence dans ce domaine. Dans un deuxième temps, nous ferons état des principales études théoriques et empiriques qui ont traité des effets économiques de la normalisation. D'un côté, il est reconnu, par plusieurs auteurs, que les normes sont essentielles à toutes les activités économiques (production, consommation, échanges). Cependant, plusieurs faits, relevés par différents auteurs, révèlent également qu'elles peuvent nuire, entre autres, aux échanges commerciaux. La troisième étape aura pour objet, d'une part, d'estimer l'effet des normes étrangères pour les exportateurs canadiens et d'autre part, d'évaluer l'effet des normes canadiennes pour les exportateurs étrangers. Ces résultats seront tirés d'une enquête que nous avons réalisée auprès d'entreprises canadiennes et étrangères. Finalement, à partir des résultats de l'enquête, nous estimerons la valeur des exportations dans deux secteurs spécifiques qui ne se réalisent pas en raison de l'imposition de normes qui affectent les coûts de production.
Resumo:
Ce mémoire compte deux parties distinctes, chacune étant toutefois rattachée à une étude du régime des entreprises entièrement exportatrices de la Tunisie, à laquelle nous avons participé. Ce régime instauré en 1972, avec des modifications depuis, avait pour but d'établir des conditions favorables à la venue d'investissements étrangers dans les secteurs d'exportation. Ce type de régime correspond, dans ses grandes lignes, à ce qu'il est convenu d'appeler les zones industrielles d'exportation. La première partie de ce mémoire est une revue de la littérature sur le sujet, une étude du pour et du contre autant d'un point de vue théorique que pratique. Nous tenterons par la suite d'en dégager des points de réflexion sur l'expérience tunisienne. Celle-ci a-t-elle rencontré des conditions qui favorisait sa réussite? Toujours dans le cadre de l'étude du régime tunisien, il a été nécessaire d'utiliser le concept de "taux de change de référence"(TCR), afin d'évaluer les avantages et les coûts de l'établissement de tels incitatifs. Il s'agit en quelque sorte de calculer le prix de référence (shadow price) des devises utilisées dans ce régime ou générées par lui. La seconde partie de ce mémoire consiste, dans un premier temps, à expliquer les bases théoriques du taux de change de référence, c'est-à-dire à en établir la définition selon deux différentes approches, et à en donner les formes d'évaluation. Dans un deuxième temps, nous tentons d'estimer le TCR de la Tunisie. Cet exercice avait déjà été tenté par l'Institut d'Économie Quantitative de la Tunisie en 1988 sur la base de la protection commerciale existante en 1983. Cependant, la fiabilité du résultat pouvait être améliorée en ce qui concerne l'estimation de l'élasticité des demandes d'importation. Nous avons refait ces estimations en utilisant un plus grand nombre de données. De plus nous avons basé nos calculs du TCR sur la base de la protection existante en 1990.
Resumo:
The European contract PECOSUDE (Small inshore fisheries of the south of Europe) accepted in 2000 for 2 years concerns French, Spanish and Portuguese partners. The aim is to assess the inshore and estuarine fisheries from Loire estuary to Portugal. Three levels of study are considered : fisheries (data 1999), socioeconomy and marketing (data 1999 or 2000). Exploitation in the 12 miles area for France and on continental shelf for northern Spain and Portugal (within 1000 m depth), as well as the fishing period lower than 96 hours was determined as the definition of this fishery for the study. Socioeconomic analyses are made only on boats smaller than 15 m. The fisheries part analyses the activity of the fishing vessels taking into account gears used, landed species, areas and fishing seasons. Within the 39 harbours of the south Bay of Biscay 1 799 coastal or estuarine vessels with 3 580 fishermen are located. Statics gears are predominant, and more than half of the vessels are polyvalent (using several gears). In 1999, landings were 20 6441 weight for 84 M¿ value. The fishing activity of these boats was also analysed by typology of the fleet, based on fishing gears and/or species landed. These characterisations allowed the application of stratified sampling for the implementation of socioeconomic investigations. The analysis of the information received from the fishermen allow to describe the production factors, to estimate their costs, as well as the turnover, the richness creation and the efficiency of the production means. The capital value of the south Bay of Biscay " ship " is established about 94 k¿, the average turnover amount to 83 k¿ and the average rate of added value to 70%. Products commercialisation vary from component to component, the importance of the sells in auction places depends on the landed species. Some valuable species are directly sold to particular