972 resultados para Méthode de partage des coûts


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'un des facteurs nécessaires pour qu’une entreprise reste compétitive sur le marché est la création ou l'amélioration d'un produit afin qu’il réponde aux besoins et aux attentes des clients, ainsi, le Processus de Développement de Produits (PDP) est essentiel. Pour la réussite du PDP, il est souhaitable de suivre un système standard de gestion de projet. L'objectif de cette étude est d'analyser la gestion de projets dans le processus de développement de produits dans l'industrie automobile afin d'identifier les possibilités d’amélioration. Par conséquent, nous avons procédé à une revue de littérature sur le sujet, analysé les lignes directrices et les pratiques du processus de développement de produit dans l’entreprise. Comme résultat, il a été obtenu que le système de développement de produits créé par l’entreprise requiert la clarification des outils utiles à la gestion de projet. Un problème de communication et de gestion des coûts a également été constaté dans le domaine du développement du moteur lourd

Relevância:

100.00% 100.00%

Publicador:

Resumo:

What is known today as “Oral History” is a research methodology which, in Brazil, has been widely used in the field of cultural studies by sociologists, anthropologists, and historians. Oral History was first introduced in Brazil with studies in social psychology and then spread to many other academic spheres, with the field of mathematics education being one of the most recent to adopt this method as one of its theoretical-methodological references. Topics such “What Oral History is” and “How Oral History can be implemented in mathematics education” are the foci of this paper.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

AIM The autonomic innervation of the heart consists of sympathetic and parasympathetic nerve fibres, and fibres of the intrinsic ganglionated plexus with noradrenaline and acytylcholine as principal neurotransmitters. The fibres co-release neuropeptides to modulate intracardiac neurotransmission by specific presynaptic and postsynaptic receptors. The coexpression of angiotensin II in sympathetic fibres of the human heart and its role are not known so far. METHODS Autopsy specimens of human hearts were studied (n=3; ventricles). Using immunocytological methods, cryostat sections were stained by a murine monoclonal antibody (4B3) directed against angiotensin II and co-stained by polyclonal antibodies against tyrosine hydroxylase, a catecholaminergic marker. Visualisation of the antibodies was by confocal light microscopy or laser scanning microscopy. RESULTS Angiotensin II-positive autonomic fibres with and without a catecholaminergic cophenotype (hydroxylase-positive) were found in all parts of the human ventricles. In the epicardium, the fibres were grouped in larger bundles of up to 100 and more fibres. They followed the preformed anatomic septa and epicardial vessels towards the myocardium and endocardium where the bundles dissolved and the individual fibres spread between myocytes and within the endocardium. Generally, angiotensinergic fibres showed no synaptic enlargements or only a few if they were also catecholaminergic. The exclusively catechalominergic fibres were characterised by multiple beaded synapses. CONCLUSION The autonomic innervation of the human heart contains angiotensinergic fibres with a sympathetic efferent phenotype and exclusively angiotensinergic fibers representing probably afferents. Angiotensinergic neurotransmission may modulate intracardiac sympathetic and parasympathetic activity and thereby influence cardiac and circulatory function.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte: Les approches de synthèse exploratoire (ou scoping studies) font actuellement l’objet de confusion dans leur appellation, définition et but. Elles continuent aussi de manquer de description méthodologique suffisante ou de détails sur le processus de l’analyse de données. Objectif : Cette synthèse exploratoire fait le point des connaissances sur les approches de synthèse exploratoire utilisées en santé. Plus spécifiquement, ses objectifs sont : 1) d’examiner le volume et l’étendue des synthèses exploratoires ainsi que les domaines d’étude dans lesquels elles ont été conduites; 2) de faire l’inventaire de leurs définitions, buts, forces et faiblesses; et 3) et de faire l’inventaire des approches méthodologiques existantes. Méthodes : Une recherche systématique des synthèses exploratoires a été entreprise jusqu’en avril 2014 dans les bases de données Medline, PubMed, ERIC, PsycINFO, CINAHL, EMBASE, EBM Reviews/Cochrane. Des critères d’inclusion et d’exclusion ont été appliqués afin de ne retenir que des études de langue française et anglaise présentant des définitions, méthodes et écarts de connaissances sur les synthèses exploratoires, ainsi que celles les comparant à d’autres types de revues de littérature. Deux reviseurs ont examiné de façon indépendante les références pertinentes. Une grille d’extraction des données a été conçue afin de recueillir pour chacune des études, les données contextuelles, les étapes méthodologiques ainsi que les définitions, buts et limites des synthèses exploratoires. Les données ont été répertoriées et classées afin de dresser un portrait global des approches de synthèses exploratoires dans un format narratif et tabulaire. Résultats : Sur deux cent cinquante-deux références identifiées, quatre-vingt-douze références pertinentes ont été retenues. Les synthèses exploratoires ont été publiées par 6 pays dans 10 domaines d’études et 73 journaux. Elles ont pour finalité d’être à la fois un support aux connaissances, une aide à la décision et un préalable à une revue systématique de littérature. Cinq auteurs ont été cités en référence et huit autres ont publié sur leur méthodologie. Elles ont 3 étapes importantes de réalisation dont la revue de littérature, la consultation des parties prenantes et la synthèse globale avec ou sans validation des résultats. Les synthèses exploratoires utilisent une méthode systématique, pas toujours exhaustive et sans évaluation formelle des études incluses Des notions claires portant sur leur définition, buts, forces et faiblesses ont été identifiées. Conclusion : Nous suggérons que de nouvelles études soient entreprises afin d’asseoir complètement cette méthode et dégager des lignes directrices pour les chercheurs qui s’y intéresseront.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte: Les approches de synthèse exploratoire (ou scoping studies) font actuellement l’objet de confusion dans leur appellation, définition et but. Elles continuent aussi de manquer de description méthodologique suffisante ou de détails sur le processus de l’analyse de données. Objectif : Cette synthèse exploratoire fait le point des connaissances sur les approches de synthèse exploratoire utilisées en santé. Plus spécifiquement, ses objectifs sont : 1) d’examiner le volume et l’étendue des synthèses exploratoires ainsi que les domaines d’étude dans lesquels elles ont été conduites; 2) de faire l’inventaire de leurs définitions, buts, forces et faiblesses; et 3) et de faire l’inventaire des approches méthodologiques existantes. Méthodes : Une recherche systématique des synthèses exploratoires a été entreprise jusqu’en avril 2014 dans les bases de données Medline, PubMed, ERIC, PsycINFO, CINAHL, EMBASE, EBM Reviews/Cochrane. Des critères d’inclusion et d’exclusion ont été appliqués afin de ne retenir que des études de langue française et anglaise présentant des définitions, méthodes et écarts de connaissances sur les synthèses exploratoires, ainsi que celles les comparant à d’autres types de revues de littérature. Deux reviseurs ont examiné de façon indépendante les références pertinentes. Une grille d’extraction des données a été conçue afin de recueillir pour chacune des études, les données contextuelles, les étapes méthodologiques ainsi que les définitions, buts et limites des synthèses exploratoires. Les données ont été répertoriées et classées afin de dresser un portrait global des approches de synthèses exploratoires dans un format narratif et tabulaire. Résultats : Sur deux cent cinquante-deux références identifiées, quatre-vingt-douze références pertinentes ont été retenues. Les synthèses exploratoires ont été publiées par 6 pays dans 10 domaines d’études et 73 journaux. Elles ont pour finalité d’être à la fois un support aux connaissances, une aide à la décision et un préalable à une revue systématique de littérature. Cinq auteurs ont été cités en référence et huit autres ont publié sur leur méthodologie. Elles ont 3 étapes importantes de réalisation dont la revue de littérature, la consultation des parties prenantes et la synthèse globale avec ou sans validation des résultats. Les synthèses exploratoires utilisent une méthode systématique, pas toujours exhaustive et sans évaluation formelle des études incluses Des notions claires portant sur leur définition, buts, forces et faiblesses ont été identifiées. Conclusion : Nous suggérons que de nouvelles études soient entreprises afin d’asseoir complètement cette méthode et dégager des lignes directrices pour les chercheurs qui s’y intéresseront.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-dede 9.5%, qui est aussi très volatile, au-dede 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse examine l’investissement en capital humain au Canada en s’intéressant à la contribution de l’aide financière aux études, aux effets de la fiscalité, à la rentabilité de l’investissement en éducation postsécondaire et à la redistribution des revenus. Elle est subdivisée en cinq chapitres. Le premier chapitre présente une révue chronologique des études microéconomiques sur l’investissement en capital humain. Il présente également une synthèse des études canadiennes sur l’investissement en capital humain en insistant sur les limites portant essentiellement sur la non prise en compte de l’hétérogénéité des systèmes de prêts et bourses et des systèmes fiscaux à travers les provinces canadiennes et la faible analyse de la répartition des coûts et bénéfices de l’investissement en éducation au Canada. Le second chapitre présente la méthodologie de mesure des rendements de l’éducation et des gains issus des investissements en éducation. Il décrit les données utilisées et les résultats des régressions économetriques. Finalement, le chapitre présente SIMAID, un calculateur d’aide financière aux études élaboré pour les objectifs dans cette thèse et qui permet d’estimer le montant de l’aide financière devant être attribuée à chaque étudiant en fonction de ses caractéristiques personnelles et de celles de sa famille. Dans sa première section, le troisième chapitre présente les rendements sociaux, privés et publics de l’éducation et montre que les rendements de l’éducation varient selon les provinces, les filières de formation, le genre et les cohortes d’année de naissance et décroient avec le niveau d’éducation. Dans sa seconde section, le chapitre montre que l’aide financière aux études accroît le rendement des études du baccalauréat de 24.3% et 9.5% respectivement au Québec et en Ontario. Finalement, le chapitre indique qu’un changement du système d’aide financière aux études de Québec par celui de l’Ontario entraîne une baisse de 11.9% du rendement des études au baccalauréat alors qu’un changement du système fiscal québécois par celui ontarien entraine une hausse du rendement du baccalauréat de 4.5%. L’effet combiné du changement des systèmes d’aide financière et fiscal est une baisse du rendement du baccalauréat de 7.4%. Le quatrième chapitre fournit une décomposition comptable détaillée des gains sociaux, privés et publics des investissements en éducation. Le gain social de l’investissement au baccalauréat est de $738 384 au Québec et de $685 437 en Ontario. Ce gain varie selon les filières de formation avec un niveau minimal pour les études humanitaires et un niveau maximal pour les études en ingénierie. Le chapitre montre également que la répartition des bénéfices et des coûts de l’investissement en éducation entre les individus et le gouvernement est plus équitable en Ontario qu’à Québec. En effet, un individu qui investit à Québec supporte 51.6% du coût total et engrange 64.8% des gains alors que le même individu supporterait 62.9% des coûts sociaux et engrangerait 62.2% des gains en Ontario. Finalement, le cinquième chapitre présente et analyse les effets rédistributifs des transferts et des taxes suite à un investissement en éducation. Il examine aussi si l’aide financière aux études est effectivement allouée aux personnes les plus pauvres. L’argument selon lequel l’aide financière est destinée aux plus pauvres est rejeté en analysant la distribution du revenu permanent. En effet, il ressort que 79% des personnes bénéficiant de l’aide financière aux études se trouvent dans le cinquième quintile de la distribution des revenus permanents. Le chapitre montre également que l’investissement en éducation impacte positivement les effets rédistributifs en 2006, 2001 et 1996 et négativement en 1991 et 2011. L’impact est également perceptible sur les composantes de l’effet rédistributif. Toutefois, la sensibilité de l’impact au taux d’actualisation dépend de l’indice utilisé dans l’analyse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire présente deux algorithmes qui ont pour but d’améliorer la précision de l’estimation de la direction d’arrivée de sources sonores et de leurs échos. Le premier algorithme, qui s’appelle la méthode par élimination des sources, permet d’améliorer l’estimation de la direction d’arrivée d’échos qui sont noyés dans le bruit. Le second, qui s’appelle Multiple Signal Classification à focalisation de phase, utilise l’information dans la phase à chaque fréquence pour déterminer la direction d’arrivée de sources à large bande. La combinaison de ces deux algorithmes permet de localiser des échos dont la puissance est de -17 dB par rapport à la source principale, jusqu’à un rapport échoà- bruit de -15 dB. Ce mémoire présente aussi des mesures expérimentales qui viennent confirmer les résultats obtenus lors de simulations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Après une période où la valeur des quotas laitiers a été en forte croissance au Québec, un plafond à cette valeur a été fixé à compter de 2007. Ce plafond a eu pour effet de limiter l’offre de quota sur le marché et la croissance de la taille des entreprises laitières québécoises. Cette situation soulève un questionnement sur l’efficience économique, le blocage de la croissance des entreprises les empêchant de bénéficier d’économies de taille, si bien entendu il en existe. En conséquence, cette étude s’intéresse aux économies de taille en production laitière en Amérique du Nord. Les économies de taille des entreprises ont été mesurées à l’aide d’une régression linéaire multiple à partir de certains indicateurs de coût monétaire et non monétaire. Cette analyse comprend quatre strates de taille formées à partir d’un échantillon non aléatoire de 847 entreprises du Québec, de l’État de New York et de la Californie, ainsi qu’à partir d’un groupe d’entreprises efficientes (groupe de tête). Les résultats démontrent l’existence d’économies de taille principalement au niveau des coûts fixes et plus particulièrement des coûts fixes non monétaires. Ils révèlent aussi que les deux indicateurs où l’effet des économies de taille est le plus important sont le coût du travail non rémunéré et l’amortissement. Par ailleurs, lorsque la taille d’une entreprise augmente, les économies de taille supplémentaires réalisées deviennent de moins en moins importantes. Enfin, les résultats indiquent qu’il existe des déséconomies de taille au niveau des coûts d’alimentation. Les résultats obtenus au niveau du groupe de tête vont dans le même sens. Ils confirment également qu’il est possible pour les grandes entreprises efficientes de réaliser des économies de taille pour la plupart des indicateurs de coût. Toutefois, les économies additionnelles que ces entreprises peuvent réaliser sont moins importantes que celles obtenues par les petites entreprises efficientes. Mots clés : Agriculture, production laitière, Amérique du Nord, économies de taille, efficience économique, régression linéaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif de cet essai est de formuler des recommandations afin de diminuer le gaspillage alimentaire dans les épiceries québécoises. Le gaspillage alimentaire est une problématique mondiale de plus en plus considérée comme une préoccupation prioritaire par le public, les entreprises et les instances nationales et internationales. Les causes du gaspillage alimentaire sont multiples et le phénomène se produit dans toutes les régions du monde, à toutes les étapes de la chaîne agroalimentaire, de la production agricole à la consommation. Le gaspillage alimentaire engendre de lourdes conséquences environnementales, économiques et sociales. Il participe à l’insécurité alimentaire et contribue aux changements climatiques et à l’épuisement des ressources, en plus de générer des coûts économiques pour la production d’aliments qui ne seront pas consommés. S’attaquer à la problématique du gaspillage alimentaire signifie donc s’attaquer à tous ces impacts négatifs. Au Québec, l’intérêt envers le phénomène du gaspillage alimentaire s’accroît, mais les solutions structurées tardent à se mettre en place. Les épiceries ont un important rôle à jouer dans la réduction du gaspillage alimentaire puisqu’elles influencent, en amont et en aval, tous les acteurs de la chaîne agroalimentaire. L’étude du marché agroalimentaire québécois et des différentes initiatives locales et étrangères de lutte au gaspillage alimentaire met en évidence trois grandes solutions structurées de réduction du gaspillage dans les épiceries : le don alimentaire, la vente de produits déclassés et la révision du système de dates de péremption des aliments. L’analyse du fonctionnement de ces solutions et de leur mise en œuvre dans le contexte des épiceries québécoises permet d’identifier les contraintes et les éléments à considérer pour réduire le gaspillage alimentaire de façon concrète et efficace. Ainsi, en respect d’une hiérarchie des modes de gestion des aliments qui favorise la réduction à la source et le détournement avant l’élimination, les recommandations formulées suggèrent de : réviser le système des dates de péremption pour améliorer la distinction entre les notions de fraîcheur et de salubrité des aliments; promouvoir et faciliter la vente de fruits et légumes déclassés dans les épiceries en diminuant les critères esthétiques exigés qui conduisent à un important gaspillage de denrées comestibles; mettre en place des incitatifs économiques pour réduire les contraintes financières et logistiques reliées au don alimentaire pour les épiceries et les organismes de redistribution; et valoriser les résidus alimentaires par la biométhanisation ou le compostage pour limiter les impacts environnementaux du gaspillage alimentaire. Les recommandations soulignent également l’importance d’étudier le phénomène et de documenter la problématique, afin de suggérer des solutions toujours plus efficaces et adaptées à chaque groupe d’acteurs et chaque étape de la chaîne agroalimentaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le rapide déclin actuel de la biodiversité est inquiétant et les activités humaines en sont la cause directe. De nombreuses aires protégées ont été mises en place pour contrer cette perte de biodiversité. Afin de maximiser leur efficacité, l’amélioration de la connectivité fonctionnelle entre elles est requise. Les changements climatiques perturbent actuellement les conditions environnementales de façon globale. C’est une menace pour la biodiversité qui n’a pas souvent été intégrée lors de la mise en place des aires protégées, jusqu’à récemment. Le mouvement des espèces, et donc la connectivité fonctionnelle du paysage, est impacté par les changements climatiques et des études ont montré qu’améliorer la connectivité fonctionnelle entre les aires protégées aiderait les espèces à faire face aux impacts des changements climatiques. Ma thèse présente une méthode pour concevoir des réseaux d’aires protégées tout en tenant compte des changements climatiques et de la connectivité fonctionnelle. Mon aire d’étude est la région de la Gaspésie au Québec (Canada). La population en voie de disparition de caribou de la Gaspésie-Atlantique (Rangifer tarandus caribou) a été utilisée comme espèce focale pour définir la connectivité fonctionnelle. Cette petite population subit un déclin continu dû à la prédation et la modification de son habitat, et les changements climatiques pourraient devenir une menace supplémentaire. J’ai d’abord construit un modèle individu-centré spatialement explicite pour expliquer et simuler le mouvement du caribou. J’ai utilisé les données VHF éparses de la population de caribou et une stratégie de modélisation patron-orienté pour paramétrer et sélectionner la meilleure hypothèse de mouvement. Mon meilleur modèle a reproduit la plupart des patrons de mouvement définis avec les données observées. Ce modèle fournit une meilleure compréhension des moteurs du mouvement du caribou de la Gaspésie-Atlantique, ainsi qu’une estimation spatiale de son utilisation du paysage dans la région. J’ai conclu que les données éparses étaient suffisantes pour ajuster un modèle individu-centré lorsqu’utilisé avec une modélisation patron-orienté. Ensuite, j’ai estimé l’impact des changements climatiques et de différentes actions de conservation sur le potentiel de mouvement du caribou. J’ai utilisé le modèle individu-centré pour simuler le mouvement du caribou dans des paysages hypothétiques représentant différents scénarios de changements climatiques et d’actions de conservation. Les actions de conservation représentaient la mise en place de nouvelles aires protégées en Gaspésie, comme définies par le scénario proposé par le gouvernement du Québec, ainsi que la restauration de routes secondaires à l’intérieur des aires protégées. Les impacts des changements climatiques sur la végétation, comme définis dans mes scénarios, ont réduit le potentiel de mouvement du caribou. La restauration des routes était capable d’atténuer ces effets négatifs, contrairement à la mise en place des nouvelles aires protégées. Enfin, j’ai présenté une méthode pour concevoir des réseaux d’aires protégées efficaces et j’ai proposé des nouvelles aires protégées à mettre en place en Gaspésie afin de protéger la biodiversité sur le long terme. J’ai créé de nombreux scénarios de réseaux d’aires protégées en étendant le réseau actuel pour protéger 12% du territoire. J’ai calculé la représentativité écologique et deux mesures de connectivité fonctionnelle sur le long terme pour chaque réseau. Les mesures de connectivité fonctionnelle représentaient l’accès général aux aires protégées pour le caribou de la Gaspésie-Atlantique ainsi que son potentiel de mouvement à l’intérieur. J’ai utilisé les estimations de potentiel de mouvement pour la période de temps actuelle ainsi que pour le futur sous différents scénarios de changements climatiques pour représenter la connectivité fonctionnelle sur le long terme. Le réseau d’aires protégées que j’ai proposé était le scénario qui maximisait le compromis entre les trois caractéristiques de réseau calculées. Dans cette thèse, j’ai expliqué et prédit le mouvement du caribou de la Gaspésie-Atlantique sous différentes conditions environnementales, notamment des paysages impactés par les changements climatiques. Ces résultats m’ont aidée à définir un réseau d’aires protégées à mettre en place en Gaspésie pour protéger le caribou au cours du temps. Je crois que cette thèse apporte de nouvelles connaissances sur le comportement de mouvement du caribou de la Gaspésie-Atlantique, ainsi que sur les actions de conservation qui peuvent être prises en Gaspésie afin d’améliorer la protection du caribou et de celle d’autres espèces. Je crois que la méthode présentée peut être applicable à d’autres écosystèmes aux caractéristiques et besoins similaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé: Le développement de l’industrie des polymères fourni de plus en plus de choix pour la formulation de matériaux pour les couvre-planchers. Les caoutchoucs, le PVC et le linoleum sont les polymères habituellement utilisés dans l’industrie des couvre-planchers. Ce projet répond à un problème de facilité de nettoyage des couvre-planchers de caoutchouc qui sont reconnus pour être mous, collants et ayant une surface rugueuse. L’INTRODUCTION couvrira l’état actuel de la recherche sur les couvre-planchers, surtout en regard au problème de la «nettoyabilité». La théorie pertinente et les informations générales sur les polymères, les composites polymériques et la science des surfaces seront introduites au CHAPITRE 1. Ensuite, le CHAPITRE 2 couvrira la méthode utilisée pour déterminer la nettoyabilité, l’évaluation des résultats ainsi que l’équipement utilise. Le CHAPITRE 3, discutera des premières expériences sur l’effet de la mouillabilité, la rugosité et la dureté sur la facilité de nettoyage des polymères purs. Plusieurs polymères ayant des surfaces plus ou moins hydrophobes seront investigués afin d’observer leur effet sur la nettoyabilité. L’effet de la rugosité sur la nettoyabilité sera investigué en imprimant une rugosité définie lors du moulage des échantillons; l’influence de la dureté sera également étudiée. Ensuite, un modèle de salissage/nettoyage sera établi à partir de nos résultats et observations afin de rationaliser les facteurs, ou « règles », qui détrminent la facilité de nettoyage des surfaces. Finalement, la réticulation au peroxyde sera étudiée comme une méthode de modification des polymères dans le but d’améliorer leur nettoyabilité; un mécanisme découlant des résultats de ces études sera présenté. Le CHAPITRE 4 étendra cette recherche aux mélanges de polymères; ces derniers servent habituellement à optimiser la performance des polymères purs. Dans ce chapitre, les mêmes tests discutés dans le CHAPITRE 3 seront utilisés pour vérifier le modèle de nettoyabilité établi ci-haut. De plus, l’influence de la non-miscibilité des mélanges de polymères sera discutée du point de vue de la thermodynamique (DSC) et de la morphologie (MEB). L’utilisation de la réticulation par peroxyde sera étudié dans les mélanges EPDM/ (E-ran-MAA(Zn)-ran-BuMA) afin d’améliorer la compatibilité de ces polymères. Les effets du dosage en agent de réticulation et du temps de cuisson seront également examinés. Finalement, un compatibilisant pré-réticulé a été développé pour les mélanges ternaires EPDM/ (E-ran-MAA(Zn)-ran-BuMA)/ HSR; son effet sur la nettoyabilité et sur la morphologie du mélange sera exposé.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La mise en oeuvre de systèmes de détection de défauts à même les structures ou infrastructures en génie est le sujet d’étude du Structural Health Monitoring (SHM). Le SHM est une solution efficace à la réduction des coûts associés à la maintenance de structures. Une stratégie prometteuse parmi les technologies émergentes en SHM est fondée sur l’utilisation d’ondes ultrasonores guidées. Ces méthodes sont basées sur le fait que les structures minces agissent comme guides d’ondes pour les ondes ultrasonores. Puisque les structures aéronautiques sont majoritairement minces, les ondes guidées constituent une stratégie pertinente afin d’inspecter de grandes surfaces. Toutefois, les assemblages aéronautiques sont constitués de plusieurs éléments modifiant et compliquant la propagation des ondes guidées dans celles-ci. En effet, la présence de rivets, de raidisseurs, de joints ainsi que la variation de la nature des matériaux utilisés complexifie la propagation des ondes guidées. Pour envisager la mise en oeuvre de systèmes de détection basés sur les ondes guidées, une compréhension des interactions intervenant dans ces diverses structures est nécessaire. Un tel travail entre dans le cadre du projet de collaboration CRIAQ DPHM 501 dont l’objectif principal est de développer une banque de connaissances quant à la propagation d’ondes guidées dans les structures aéronautiques. Le travail de ce mémoire présente d’abord les résultats d’études paramétriques numériques obtenus dans le cadre de ce projet CRIAQ. Puis, afin de faciliter la caractérisation expérimentale de la propagation des ondes guidées, une seconde partie du travail a porté sur le développement d’un absorbant d’ondes guidées. Cet absorbant permet également d’envisager l’extension des régions observables par les systèmes SHM. Ce deuxième volet contribue donc également au projet CRIAQ par l’atténuation de réflexions non désirées dans l’étude menée sur les maintes structures aéronautiques nourrissant la banque de connaissances. La première partie de ce mémoire relève l’état des connaissances de la littérature sur la propagation d’ondes guidées dans les structures aéronautiques. La deuxième partie présente rapidement le formalisme derrière les ondes de Lamb ainsi que les différentes approches analytiques pour caractériser les interactions entre ondes guidées et discontinuités. Par la suite, les outils utilisés pour effectuer les simulations par éléments finis sont présentés et validés par le biais d’une phase expérimentale. La deuxième partie se termine avec la présentation des différentes structures et discontinuités étudiées dans le cadre du projet CRIAQ. Finalement, la troisième et dernière partie de ce mémoire présente les travaux numériques orientés vers la conception d’un absorbant idéal pour ondes guidées. Afin d’y parvenir, une étude paramétrique quant à la forme, les dimensions et les propriétés mécaniques de l’absorbant est entreprise. Enfin, une étude expérimentale permettant de valider les résultats numériques est présentée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La reconnaissance vocale est une technologie sujette à amélioration. Malgré 40 ans de travaux, de nombreuses applications restent néanmoins hors de portée en raison d'une trop faible efficacité. De façon à pallier à ce problème, l'auteur propose une amélioration au cadre conceptuel classique. Plus précisément, une nouvelle méthode d'entraînement des modèles markoviens cachés est exposée de manière à augmenter la précision dynamique des classificateurs. Le présent document décrit en détail le résultat de trois ans de recherche et les contributions scientifiques qui en sont le produit. L'aboutissement final de cet effort est la production d'un article de journal proposant une nouvelle tentative d'approche à la communauté scientifique internationale. Dans cet article, les auteurs proposent que des topologies finement adaptées de modèles markoviens cachés (HMMs) soient essentielles à une modélisation temporelle de haute précision. Un cadre conceptuel pour l'apprentissage efficace de topologies par élagage de modèles génériques complexes est donc soumis. Des modèles HMM à topologie gauche-à-droite sont d'abord entraînés de façon classique. Des modèles complexes à topologie générique sont ensuite obtenus par écrasement des modèles gauche-à-droite. Finalement, un enchaînement successif d'élagages et d'entraînements Baum-Welch est fait de manière à augmenter la précision temporelle des modèles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le contexte de la production d’éthanol cellulosique, la cellulose doit être hydrolysée par voie chimique ou enzymatique. Dans ce procédé d’hydrolyse, la partie cristalline de la cellulose est plus difficilement fragmentable, ce qui entraîne des coûts supplémentaires dues au temps de traitement plus élevé ou à la quantité supplémentaire de produits chimiques nécessaires. Dans l’optique de réduire les coûts de l’hydrolyse tout en recherchant une voie pour valoriser la cellulose cristalline, l’idée de fabriquer des composites polymères/cellulose est attrayante. L’objectif du présent travail a donc été de valider si la cellulose microcristalline tirée d’un processus d’hydrolyse acide pourrait mener à de nouveaux matériaux composites à valeur ajoutée. Un obstacle anticipé dans le projet a été la faible adhésion de la cellulose, hydrophile et polaire, aux polymères généralement beaucoup moins polaires. Le développement de composites performants et l’atteinte de teneurs élevés en cellulose microcristalline a donc inclus, sur le plan chimique, l’objectif de comparer divers traitements de surface de la cellulose qui permettrait de pallier aux défis anticipés. La méthodologie utilisée dans ce projet a consisté à développer et optimiser un protocole de modification chimique sur de la cellulose microcristalline commerciale à l’échelle laboratoire. Les celluloses modifiées ont été soumises à une caractérisation par analyse de l’angle de contact pour caractériser l’hydrophobicité des fibres, par spectrométrie photoélectronique X pour l’analyse de la composition chimique des fibres, par granulométrie laser pour mesurer la longueur des différentes fibres et microscopie optique pour l’observation de la longueur des fibres. Toutes les techniques ont été utilisées afin de comparer les propriétés des celluloses modifiées à celles de la cellulose de référence. La cellulose de référence et les celluloses modifiées chimiquement ont ensuite été mélangées à des concentrations de 0 à 50% avec du polyéthylène de basse densité à l’état fondu en utilisant un mélangeur interne de type Brabender®. Les composites ont été caractérisés par microscopie électronique à balayage pour analyser la morphologie de mélange sur les surfaces de rupture et l’homogénéité du mélange, par des analyses rhéologiques afin d’obtenir la viscosité en fonction du cisaillement et par des essais de traction afin de déterminer leur Module de Young, leur résistance à la traction et leur élongation à la rupture. Ces caractéristiques permettent de prévoir la performance des composites dans des applications structurales.