891 resultados para Qualité du logiciel
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Les convertisseurs de longueur d’onde sont essentiels pour la réalisation de réseaux de communications optiques à routage en longueur d’onde. Dans la littérature, les convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur constituent une solution extrêmement intéressante, et ce, en raison de leurs nombreuses caractéristiques nécessaires à l’implémentation de tels réseaux de communications. Avec l’émergence des systèmes commerciaux de détection cohérente, ainsi qu’avec les récentes avancées dans le domaine du traitement de signal numérique, il est impératif d’évaluer la performance des convertisseurs de longueur d’onde, et ce, dans le contexte des formats de modulation avancés. Les objectifs de cette thèse sont : 1) d’étudier la faisabilité des convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur pour les formats de modulation avancés et 2) de proposer une technique basée sur le traitement de signal numérique afin d’améliorer leur performance. En premier lieu, une étude expérimentale de la conversion de longueur d’onde de formats de modulation d’amplitude en quadrature (quadrature amplitude modulation - QAM) est réalisée. En particulier, la conversion de longueur d’onde de signaux 16-QAM à 16 Gbaud et 64-QAM à 5 Gbaud dans un amplificateur optique à semi-conducteur commercial est réalisée sur toute la bande C. Les résultats démontrent qu’en raison des distorsions non-linéaires induites sur le signal converti, le point d’opération optimal du convertisseur de longueur d’onde est différent de celui obtenu lors de la conversion de longueur d’onde de formats de modulation en intensité. En effet, dans le contexte des formats de modulation avancés, c’est le compromis entre la puissance du signal converti et les non-linéarités induites qui détermine le point d’opération optimal du convertisseur de longueur d’onde. Les récepteurs cohérents permettent l’utilisation de techniques de traitement de signal numérique afin de compenser la détérioration du signal transmis suite à sa détection. Afin de mettre à profit les nouvelles possibilités offertes par le traitement de signal numérique, une technique numérique de post-compensation des distorsions induites sur le signal converti, basée sur une analyse petit-signal des équations gouvernant la dynamique du gain à l’intérieur des amplificateurs optiques à semi-conducteur, est développée. L’efficacité de cette technique est démontrée à l’aide de simulations numériques et de mesures expérimentales de conversion de longueur d’onde de signaux 16-QAM à 10 Gbaud et 64-QAM à 5 Gbaud. Cette méthode permet d’améliorer de façon significative les performances du convertisseur de longueur d’onde, et ce, principalement pour les formats de modulation avancés d’ordre supérieur tel que 64-QAM. Finalement, une étude expérimentale exhaustive de la technique de post-compensation des distorsions induites sur le signal converti est effectuée pour des signaux 64-QAM. Les résultats démontrent que, même en présence d’un signal à bruité à l’entrée du convertisseur de longueur d’onde, la technique proposée améliore toujours la qualité du signal reçu. De plus, une étude du point d’opération optimal du convertisseur de longueur d’onde est effectuée et démontre que celui-ci varie en fonction des pertes optiques suivant la conversion de longueur d’onde. Dans un réseau de communication optique à routage en longueur d’onde, le signal est susceptible de passer par plusieurs étages de conversion de longueur d’onde. Pour cette raison, l’efficacité de la technique de post-compensation est démontrée, et ce pour la première fois dans la littérature, pour deux étages successifs de conversion de longueur d’onde de signaux 64-QAM à 5 Gbaud. Les résultats de cette thèse montrent que les convertisseurs de longueur d’ondes basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur, utilisés en conjonction avec des techniques de traitement de signal numérique, constituent une technologie extrêmement prometteuse pour les réseaux de communications optiques modernes à routage en longueur d’onde.
Resumo:
Les procédures appliquées avant l’abattage des animaux influencent directement la qualité de la viande en modulant l’état physiologique des porcs; ainsi, l’augmentation de la température corporelle, les taux élevés de lactate sanguin et l’épuisement des réserves de glycogène entre autres, occasionnent la majorité des baisses de qualité. L’objectif de cette thèse était de valider des outils indicateurs de stress porcin pour les fermes et les abattoirs. Ceux-ci seraient appliqués à la surveillance du bien-être animal et à la prédiction de variation de qualité de la viande porcine au niveau commercial. Premierement, les résultats de la thèse ont permis de conclure qu’un des outils développés (analyseur portatif de lactate) mesure la variation du niveau de lactate sanguin associé à l’état physiologique des porcs dans la phase péri-mortem et aide à expliquer la variation de la qualité de la viande chez le porc à l’abattoir, en particulier dans les muscles du jambon. Deuxièmement, les résultats des audits du bien-être animal appliqués de la ferme à l’abattoir ont démontré que la qualité du système d’élevage à la ferme d’origine et les compétences du chauffeur de camion sont d’importants critères affectant la réponse comportementale des porcs à la manipulation avant l’abattage. Ces résultats ont également démontré que les conditions de logement à la ferme (la faible densité et l’enrichissement dans les enclos), le comportement des porcs en période pré-abattage (glissade), ainsi que les interventions du manipulateur (utilisation du bâton électrique) dans la zone d’étourdissement de l’abattoir affectent négativement la variation de la qualité de la viande. L’application des protocoles d’audits dans la filière porcine a également démontré que le respect des critères de bien-être animal fixés par un outil de vérification est primordiale et permet de contrôler les conditions de bien-être des porcs à chaque étape de la période pré-abattage, de produire une viande de qualité supérieure et de réduire les pertes. Les audits de bien-être animal sont donc un outil qui apporte des resultats très pertinents pour aider a éviter les variations de la qualité de la viande chez le porc. Troisièmement, la thermographie infrarouge s’est avéré être une technique prometteuse permettant d’évaluer la variation de température corporelle de l’animal pendant et après un stress physique, en particulier lorsque cette mesure est prise derrière les oreilles. En conclusion, les outils validés à travers cette thèse représentent des méthodologies non invasives et potentiellement complémentaires à d’autres approches d’évaluation de l’état physiologique et du bien-être animal par rapport au stress, permettant de réduire les pertes de qualité de viande (par exemple en utilisation conjointe avec le niveau de lactate sanguin et les indicateurs de stress comportemental, entre autres).
Resumo:
Dans cette étude, nous nous sommes intéressé à l’utilisation des TIC, plus précisément du Tableau Numérique Interactif (TNI), en géométrie, par des groupes d’élèves de deux classes du primaire en pédagogie Freinet. S’inspirant d’une revue de littérature concernant la pédagogie dialogique, qui se rapproche de la pédagogie Freinet, trois unités d’observation, qui se rapportent aux trois types de discussion (cumulatif, disputationnel et exploratoire) au sein des groupes, ont été analysées. Le but de l’étude est de comprendre en quoi les discussions des groupes d’élèves autour du TNI, dans un contexte dit dialogique, peuvent être exploratoires (un type de discussion qui favoriserait les apprentissages). Pour cela, une activité d’apprentissage, appelée situation-problème, impliquant six groupes d’élèves autour du TNI, a été créée en collaboration avec les enseignants en géométrie. Nos résultats indiquent, entres autres, que les aspects pédagogiques de la technologie en question, ici le TNI, sont à différencier des aspects pédagogiques du logiciel utilisé, ici Tinkercad en mathématiques. Ce mémoire remet en relief toute la complexité de prendre en compte un unique facteur (l’analyse des discussions) pour discuter des apprentissages des élèves autour du TNI.
Resumo:
L’annonce d’un diagnostic de cancer a un impact important sur l’individu. En se basant sur des informations sociales, environnementales et personnelles, celui-ci tentera de se représenter la maladie. Cette représentation constitue une grille d’informations cognitives et émotionnelles servant à donner un sens à la maladie et y réagir. Le modèle d’autorégulation de Leventhal propose qu’en fonction de sa représentation de la maladie, un individu mettra de l’avant différentes stratégies d’adaptation; ultimement, ces stratégies auront un impact sur l’issue de la maladie dont le niveau de bien-être. La présente recherche propose de considérer l’avenue tant hédonique qu’eudémonique du bien-être, en y incluant le bien-être subjectif, correspondant aux affects positifs et négatifs et à la satisfaction de vie et le bien-être psychologique correspondant à un état d’épanouissement personnel. L’étude a pour objectif principal de documenter les liens entre les dimensions cognitives et émotionnelles de la représentation de la maladie et les dimensions du bien-être subjectif (avenue hédonique) et le bien-être psychologique (avenue eudémonique). Plus précisément, les hypothèses postulent qu’une représentation plus positive de la maladie a pour effet d’augmenter le bien-être subjectif et psychologique. Les hypothèses postulent que la dimension de la représentation émotionnelle de la maladie joue un rôle médiateur entre les dimensions cognitives de la représentation de la maladie et le bien-être subjectif et psychologique. Pour atteindre ces objectifs, 70 participants âgés entre 31 et 75 ans ayant été atteints de cancer dans les cinq dernières années ont été recrutés. Les données ont été recueillies à l’aide de questionnaires autorapportés : un questionnaire sociodémographique, les versions francophones du Revised Illness Perception Questionnaire (IPQ-R : Moss-Morris et al., 2002), du Positive and Negative Affect Scale (PANAS ; Watson, Clark, & Tellegen, 1988), du Satisfaction with Life Scale (Diener, Emmons, Larsen, & Griffin, 1985) et du The Scales of Psychological Well-Being (Ryff & Essex, 1992). Des analyses statistiques de régressions multiples et de médiation ont été réalisées à l’aide du logiciel Statistical Package for Social Sciences (SPSS). Les résultats indiquent que seulement certaines dimensions de la représentation de la maladie exercent un effet unique sur le bien-être subjectif et/ou psychologique soit le contrôle personnel perçu, la représentation émotionnelle de la maladie, les conséquences perçues de la maladie et le cours aigu/chronique de la maladie. La représentation émotionnelle de la maladie semble exercer un effet médiateur complet entre certaines dimensions cognitives de la représentation de la maladie et les niveaux de bien-être. C’est le cas pour l’identité, le cours aigu/chronique de la maladie, le cours cyclique de la maladie, les conséquences perçues de la maladie et l’efficacité perçue du traitement, lorsque mis en lien avec les affects négatifs. C’est aussi le cas pour l’identité et le cours cyclique de la maladie, lorsque mis en lien avec la satisfaction de vie, et pour le cours cyclique de la maladie et les conséquences perçues de la maladie, lorsque mis en lien avec le bien-être psychologique. Les affects positifs associés au volet affectif du bien-être subjectif ne sont pas affectés par la représentation de la maladie.
Resumo:
Dans l’industrie de l’aluminium, le coke de pétrole calciné est considéré comme étant le composant principal de l’anode. Une diminution dans la qualité du coke de pétrole a été observée suite à une augmentation de sa concentration en impuretés. Cela est très important pour les alumineries car ces impuretés, en plus d’avoir un effet réducteur sur la performance des anodes, contaminent le métal produit. Le coke de pétrole est aussi une source de carbone fossile et, durant sa consommation, lors du processus d’électrolyse, il y a production de CO2. Ce dernier est considéré comme un gaz à effet de serre et il est bien connu pour son rôle dans le réchauffement planétaire et aussi dans les changements climatiques. Le charbon de bois est disponible et est produit mondialement en grande quantité. Il pourrait être une alternative attrayante pour le coke de pétrole dans la fabrication des anodes de carbone utilisées dans les cuves d’électrolyse pour la production de l’aluminium. Toutefois, puisqu’il ne répond pas aux critères de fabrication des anodes, son utilisation représente donc un grand défi. En effet, ses principaux désavantages connus sont sa grande porosité, sa structure désordonnée et son haut taux de minéraux. De plus, sa densité et sa conductivité électrique ont été rapportées comme étant inférieures à celles du coke de pétrole. L’objectif de ce travail est d’explorer l’effet du traitement de chaleur sur les propriétés du charbon de bois et cela, dans le but de trouver celles qui s’approchent le plus des spécifications requises pour la production des anodes. L’évolution de la structure du charbon de bois calciné à haute température a été suivie à l’aide de différentes techniques. La réduction de son contenu en minéraux a été obtenue suite à des traitements avec de l’acide chlorhydrique utilisé à différentes concentrations. Finalement, différentes combinaisons de ces deux traitements, calcination et lixiviation, ont été essayées dans le but de trouver les meilleures conditions de traitement.
Resumo:
Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe.
Resumo:
Depuis les dernières années, on assiste à une croissance du taux de chômage. Le nombre de chercheurs d'emploi ne cesse d'augmenter et beaucoup d'entre eux sont confrontés à de longues périodes sans emploi. D'après un récent rapport publié par le Développement des ressources humaines Canada, le taux de chômage a affiché une moyenne de 12.2% au Québec en 1994. Le nombre de chercheurs d'emploi augmente considérablement et ceux-ci proviennent de différents domaines d'activités d'emploi. Plusieurs de ces personnes ont besoin de support pour réintégrer le marché du travail. Des organismes d'aide à l'employabilité permettent à cette clientèle d'identifier des objectifs pour faciliter leur insertion. Afin de bien répondre aux besoins des chercheurs d'emploi par des moyens rapides et utiles, un logiciel a été conçu par Dominique Clavier, chercheur et clinicien Français. Ce logiciel s'appelle le Copilote insertion. Il permet aux usagers d'avoir un diagnostic complet des difficultés à trouver un emploi. Ce diagnostic donne aussi des recommandations conformes à la situation de la personne. Étant donné que cet outil a été d'abord conçu pour les Européens, on peut s'attendre que les énoncés formulés dans le Copilote présentent des difficultés pour les québécois. L'objet de cet essai est de ressortir les problèmes de compréhension pour ensuite faire l'adaptation culturelle du Copilote insertion. Dans le premier chapitre de cet ouvrage, nous nous attarderons à définir les enjeux du travail et la notion de l'employabilité. Nous aborderons par la suite deux modèles qui traitent des stratégies d'insertion : celui de Dominique Clavier auteur du logiciel Copilote insertion et celui de Jacques Limoges auteur du Trèfle chanceux. Il sera question par la suite de l'intégration de ces deux approches et de l'adaptation culturelle de ce logiciel. Le deuxième chapitre présentera la méthodologie qui indiquera la conduite de l'expérimentation auprès d'un échantillon de chercheurs d'emploi québécois. Un dernier chapitre permettra, suite à l'analyse des données, de présenter les résultats et de proposer des correctifs pour la refonte des énoncés du Copilote insertion.
Resumo:
Il est bien établi que le thalamus joue un rôle crucial dans la génération de l’oscillation lente synchrone dans le cortex pendant le sommeil lent. La puissance des ondes lente / delta (0.2-4 Hz) est un indicateur quantifiable de la qualité du sommeil. La contribution des différents noyaux thalamiques dans la génération de l’activité à ondes lentes et dans sa synchronisation n’est pas connue. Nous émettons l’hypothèse que les noyaux thalamiques de premier ordre (spécifiques) influencent localement l’activité à ondes lentes dans les zones corticales primaires, tandis que les noyaux thalamiques d’ordre supérieur (non spécifiques) synchronisent globalement les activités à ondes lentes à travers de larges régions corticales. Nous avons analysé les potentiels de champ locaux et les activités de décharges de différentes régions corticales et thalamiques de souris anesthésiées alors qu’un noyau thalamique était inactivé par du muscimol, un agoniste des récepteurs GABA. Les enregistrements extracellulaires multi-unitaires dans les noyaux thalamiques de premier ordre (VPM) et d’ordre supérieur (CL) montrent des activités de décharges considérablement diminuées et les décharges par bouffées de potentiels d’action sont fortement réduites après inactivation. Nous concluons que l’injection de muscimol réduit fortement les activités de décharges et ne potentialise pas la génération de bouffées de potentiel d’action à seuil bas. L’inactivation des noyaux thalamiques spécifiques avec du muscimol a diminué la puissance lente / delta dans la zone corticale primaire correspondante. L’inactivation d’un noyau non spécifique avec le muscimol a significativement réduit la puissance delta dans l’ensemble du cortex étudié. Nos expériences démontrent que le thalamus a un rôle crucial dans la génération de l’oscillation lente corticale.
Resumo:
D’abord, nous présentons les principes physiques nous permettant de modéliser et comprendre le phénomène de propagation linéaire des impulsions lumineuses dans un milieu homogène, dans les guides d’ondes planaires et enfin dans les fibres optiques microstructurées. Ensuite, nous faisons une analyse mathématique rigoureuse des équations linéaires de propagation et posons le problème comme celui de la recherche de valeurs propres d’opérateurs auto-adjoints dans un espace de Hilbert. On verra que ces résultats théoriques s’appliquent aux équations simulées dans le logiciel Comsol Multiphysics. Enfin, nous recensons et proposons différentes façons de prédire les valeurs de dispersion chromatique et d’atténuation dans les fibres microstructurées à coeur suspendu en utilisant les notions et équations discutés dans les deux premiers chapitres. Le choix de la géométrie, du matériau et de la longueur d’onde de la lumière transmise sont parmi les variables étudiées numériquement. Nous ferons également un exemple détaillé d’utilisation du logiciel Comsol Multiphysics pour construire un modèle de fibre optique microstructurée.
Resumo:
La caractérisation détaillée de vastes territoires pose un défi de taille et est souvent limitée par les ressources disponibles et le temps. Les travaux de cette maîtrise s’incorporent au projet ParaChute qui porte sur le développement d’une Méthode québécoise d’Évaluation du Danger des Chutes de Pierres (MEDCP) le long d’infrastructures linéaires. Pour optimiser l’utilisation des ressources et du temps, une méthode partiellement automatisée facilitant la planification des travaux de terrain a été développée. Elle se base principalement sur la modélisation des trajectoires de chutes de pierres 3D pour mieux cibler les falaises naturelles potentiellement problématiques. Des outils d’automatisation ont été développés afin de permettre la réalisation des modélisations sur de vastes territoires. Les secteurs où l’infrastructure a le plus de potentiel d’être atteinte par d’éventuelles chutes de pierres sont identifiés à partir des portions de l’infrastructure les plus traversées par les trajectoires simulées. La méthode a été appliquée le long du chemin de fer de la compagnie ArcelorMittal Infrastructures Canada. Le secteur couvert par l’étude débute à une dizaine de kilomètres au nord de Port-Cartier (Québec) et s’étend sur 260 km jusqu’au nord des monts Groulx. La topographie obtenue de levés LiDAR aéroportés est utilisée afin de modéliser les trajectoires en 3D à l’aide du logiciel Rockyfor3D. Dans ce mémoire, une approche facilitant la caractérisation des chutes de pierres le long d’un tracé linéaire est présentée. Des études de trajectoires préliminaires sont réalisées avant les travaux sur le terrain. Les informations tirées de ces modélisations permettent de cibler les secteurs potentiellement problématiques et d’éliminer ceux qui ne sont pas susceptibles de générer des chutes de pierres avec le potentiel d’atteindre les éléments à risque le long de l’infrastructure linéaire.
Resumo:
Afin d’améliorer nos pratiques agricoles dans le contexte d’une agriculture durable, plusieurs agents de lutte biologique (ALB) ont été développés, testés et sont maintenant utilisés dans le monde pour combattre les pertes de rendements causées par les maladies. Blumeria graminis f. sp. hordei ( Bgh) est l’agent pathogène responsable du blanc de l’orge et peut réduire les rendements de cette culture jusqu’à 40%. Un champignon épiphyte, Pseudozyma flocculosa, a été découvert et identifié en 1987 en association étroite avec le blanc du trèfle. Les chercheurs ont alors remarqué que ce champignon exhibait une forte activité antagoniste contre le blanc en détruisant les structures de l’agent pathogène. Suite à d’autres travaux, il est apparu que ce comportement antagoniste était dirigé contre tous les membres des Erysiphales et semblait lié à la synthèse d’un glycolipide antifongique soit la flocculosine. Toutefois, on n’est toujours pas parvenus à associer l’efficacité de l’ALB avec la production de ce glycolipide. Ces observations suggèrent que d’autres facteurs seraient impliqués lorsque les deux protagonistes, l’ALB et le blanc, sont en contact. L’objectif principal de ce projet était donc de chercher d’autres mécanismes moléculaires pouvant expliquer l’interaction P. flocculosa-blanc et orge, en faisant une analyse transcriptomique complète des trois protagonistes en même temps. L’interaction tripartite a été échantillonnée à différents temps suivant l’inoculation de P. flocculosa sur des feuilles d’orge présentant déjà une intensité de blanc d’environ 50%. Les échantillons de feuilles prélevés ont ensuite été utilisés pour l’extraction de l’ARN qui ont été ensuite transformés en ADNc pour la préparation des librairies. Cinq répliquats ont été effectués pour chaque temps et le tout a été séquencé à l’aide de séquençage par synthèse Illumina HiSeq. Les séquences obtenues (reads) ont ensuite été analysées à l’aide du logiciel CLC Genomics Workbench. Brièvement, les séquences obtenues ont été cartographiées sur les trois génomes de référence. Suite à la cartographie, les analyses d’expression ont été conduites et les gènes exprimés de façon différentielle ont été recherchés. Cette étape a été conduite en portant une attention particulière aux gènes codant pour un groupe de protéines appelées CSEP pour “candidate secreted effector proteins” qui seraient possiblement impliquées dans l’interaction tripartite. Parmi les protéines exprimées de façon différentielle en présence du blanc ou en absence de ce dernier, nous avons pu constater que certaines CSEP étaient fortement exprimées en présence du blanc. Ces résultats sont prometteurs et nous offrent une piste certaine pour l’élucidation des mécanismes impliqués dans cette interaction tripartite.
Resumo:
Cette recherche présente la problématique de la conciliation des charges familiales et professionnelles et ses effets sur le projet professionnel des femmes. Des entrevues semidirectives, réalisées selon une approche qualitative, montrent que les mères travailleuses utilisent une logique instrumentale dans l'harmonisation de leurs rôles multiples. L'analyse de leurs témoignages indique également que leurs stratégies sont articulées à partir des facteurs de réalité suivants: l'engagement ou le désengagement du conjoint face à la situation, la présence ou l'absence de ressources ménagères et le temps disponible une fois les charges de travail complétées. Par ailleurs, la qualité du projet professionnel pré-conciliatoire apparaît fortement déterminée par la stratégie adoptée par la mère travailleuse. Ces résultats confirment l'importance d'aborder le thème de la conciliation dans le cadre d'un processus d'orientation et de considérer l'insertion professionnelle et sociale des jeunes femmes avec une perspective holistique.
Resumo:
[…] Depuis le succès, parfois trop galvaudé, de la Banque Grameen au Bengladesh, la microfinance est de plus en plus vue comme un des outils privilégiés de développement dans les pays où les capitaux sont rares. L'intérêt pour la microfinance a cumulé au Sommet sur le microcrédit tenu à Washington en février 1997. Le sommet a réuni une pléiade d'acteurs parmi les plus importants de la planète. Un objectif a fait consensus : atteindre 100 millions de familles pauvres de la planète d'ici 2005 et beaucoup d'argent en jeux. D'un autre côté, certains disent qu'il y a un danger à vouloir tourner un outil en une panacée et doutent de ce genre de déclaration typique des grands sommets. L'expansion de la microfinance serait trop rapide et aléatoire et «jeter» trop d'argent aux pauvres est la meilleure recette pour en assurer l'échec D'autres opposants disent également que la microfinance est en train de drainer beaucoup d'argent et d'efforts vers des programmes dont la viabilité est douteuse au détriment des programmes essentiels de santé et d'éducation. Cet essai vise essentiellement à dresser un portrait général de la microfinance dans le contexte du développement international. L'accent est mis sur l'évaluation de la performance de la microfinance sous deux angles : [1] Les performances financières et opérationnelles des institutions de microfinance (IMF). Ici, on considère l'institution comme l'objet de l'évaluation. L'objectif est d'évaluer la pérennité de l'institution, laquelle peut être estimée à travers des indicateurs (ratios) de viabilité financière, de la qualité du portefeuille, de la productivité et d'efficacité dans l'utilisation des actifs immobiles et des capitaux, etc. Plus précisément, on s'intéressera au rendement ajusté sur l'actif, au portefeuille à risque, à l'autosuffisance financière et opérationnelle. [2] Les impacts socio-économiques de la microfinance. Une des prétentions des adeptes de la microfinance est qu'elle puisse contribuer à réduire la pauvreté ou du moins à améliorer le sort des bénéficiaires de crédits. Dans cette optique, l'objet de l'évaluation n'est plus seulement l'institution, il devra aussi englober les effets sur les clients et parfois même sur l'environnement financier si l'objectif est d'amener les clients à intégrer éventuellement le marché financier formel. Or, il n'est pas aisé d'évaluer tous ces impacts de la microfinance. L'essai exposera la problématique entourant ces évaluations d'impacts. Les évaluations de la performance et des impacts sont devenues incontournables. Sans trop entrer en détails sur l'importance de ces évaluations, on peut relever au passage les éléments suivants : - Les bailleurs de fonds veulent savoir si leurs fonds sont utilisés efficacement et s'ils ont des impacts en fonction des objectifs fixés. - Les gestionnaires veulent mieux gérer leurs institutions et satisfaire les bailleurs. - Les organisations d'appuis techniques veulent mieux servir les IMF et avancer les connaissances. - Quant aux clients, on ne leur demande pas souvent leurs avis. Pourtant, ils sont les mieux placés pour connaître les impacts des crédits sur leurs conditions de vie. Les clients informés veulent aussi connaître les risques qu'ils encourent sur les prêts. Certains placent leurs épargnes dans les EMF, ils veulent donc connaître les rendements et les risques de leurs placements. […]
Resumo:
La tendance internationale du commerce est actuellement basée sur une libéralisation et une ouverture des échanges entre les États. Pour faire suite à cette ouverture commerciale des frontières, plusieurs centaines d’accords de libre-échange sont ratifiés afin de réduire davantage les différents obstacles au commerce dans tous les secteurs. L’étude présente a pour objectif d’évaluer le libre-échange et plus particulièrement l’Accord de libre-échange nord-américain (ALENA) pour déterminer si les ententes commerciales sont de facto compatibles avec les objectifs environnementaux du développement durable, tout particulièrement dans le secteur agricole. L’analyse des théories du libre-échange démontre que la libéralisation du commerce mène généralement à la spécialisation et à un changement dans la composition des activités d’un pays. Cette hypothèse se concrétise dans le secteur agricole par une transition vers de grandes cultures d’une seule espèce, hautement mécanisées et dépendantes en intrants chimiques. Il résulte de ce changement de pratiques de multiples impacts environnementaux tels que la pollution de l’eau, de l’air et des sols, la perte de biodiversité, la propagation de ravageurs ainsi que la détérioration de la qualité du sol. Tous ces impacts environnementaux négatifs indiquent le manque de soutenabilité de ce modèle agricole. L’étude de cas de l’ALENA, un accord particulièrement intéressant à étudier vu son rôle décisif sur la scène des ententes commerciales, confirme ces résultats. Malgré les intentions louables d’intégrer un accord environnemental parallèle, les clauses établies ne sont pas suffisantes pour contrer les problématiques environnementales que la libéralisation des échanges a engendrées. En effet, un déplacement majeur de la production du Mexique vers les États-Unis a été constaté. Cela a entraîné une transition vers une production industrielle plus polluante. De multiples causes sont à la source de ce changement dans la production agricole, tel que le non-respect des clauses, l’asymétrie du pouvoir entre les membres, la privatisation et le pouvoir des lobbys, ainsi que le manque de pouvoir discrétionnaire des clauses environnementales. À partir de l’analyse de l’ALENA, des recommandations ont finalement été formulées afin d’offrir des pistes de solutions pour les prochains accords qui entreront en vigueur. D’abord, il est conseillé d’encourager la participation citoyenne dans le processus de négociation des accords. Ensuite, le processus d’évaluation des répercussions des accords pourrait être révisé pour obtenir des études plus détaillées. Il est aussi suggéré que le gouvernement porte une attention particulière à la production agricole de subsistance. Il est de plus proposé de se questionner collectivement sur la vision à long terme et sur le modèle de développement agricole désiré. Ensuite, il est suggéré d’analyser plus en profondeur la place du libre-échange particulièrement dans le secteur agricole. Finalement, il serait pertinent d’étudier des alternatives telles que l’économie écologique et le coopérativisme.