182 resultados para Chaînes logistiques
Resumo:
L’objectif de cet essai est de formuler des recommandations afin de diminuer le gaspillage alimentaire dans les épiceries québécoises. Le gaspillage alimentaire est une problématique mondiale de plus en plus considérée comme une préoccupation prioritaire par le public, les entreprises et les instances nationales et internationales. Les causes du gaspillage alimentaire sont multiples et le phénomène se produit dans toutes les régions du monde, à toutes les étapes de la chaîne agroalimentaire, de la production agricole à la consommation. Le gaspillage alimentaire engendre de lourdes conséquences environnementales, économiques et sociales. Il participe à l’insécurité alimentaire et contribue aux changements climatiques et à l’épuisement des ressources, en plus de générer des coûts économiques pour la production d’aliments qui ne seront pas consommés. S’attaquer à la problématique du gaspillage alimentaire signifie donc s’attaquer à tous ces impacts négatifs. Au Québec, l’intérêt envers le phénomène du gaspillage alimentaire s’accroît, mais les solutions structurées tardent à se mettre en place. Les épiceries ont un important rôle à jouer dans la réduction du gaspillage alimentaire puisqu’elles influencent, en amont et en aval, tous les acteurs de la chaîne agroalimentaire. L’étude du marché agroalimentaire québécois et des différentes initiatives locales et étrangères de lutte au gaspillage alimentaire met en évidence trois grandes solutions structurées de réduction du gaspillage dans les épiceries : le don alimentaire, la vente de produits déclassés et la révision du système de dates de péremption des aliments. L’analyse du fonctionnement de ces solutions et de leur mise en œuvre dans le contexte des épiceries québécoises permet d’identifier les contraintes et les éléments à considérer pour réduire le gaspillage alimentaire de façon concrète et efficace. Ainsi, en respect d’une hiérarchie des modes de gestion des aliments qui favorise la réduction à la source et le détournement avant l’élimination, les recommandations formulées suggèrent de : réviser le système des dates de péremption pour améliorer la distinction entre les notions de fraîcheur et de salubrité des aliments; promouvoir et faciliter la vente de fruits et légumes déclassés dans les épiceries en diminuant les critères esthétiques exigés qui conduisent à un important gaspillage de denrées comestibles; mettre en place des incitatifs économiques pour réduire les contraintes financières et logistiques reliées au don alimentaire pour les épiceries et les organismes de redistribution; et valoriser les résidus alimentaires par la biométhanisation ou le compostage pour limiter les impacts environnementaux du gaspillage alimentaire. Les recommandations soulignent également l’importance d’étudier le phénomène et de documenter la problématique, afin de suggérer des solutions toujours plus efficaces et adaptées à chaque groupe d’acteurs et chaque étape de la chaîne agroalimentaire.
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
Il a été avancé que des apprenants expérimentés développeraient des niveaux élevés de conscience métalinguistique (MLA), ce qui leur faciliterait l’apprentissage de langues subséquentes (p.ex., Singleton & Aronin, 2007). De plus, des chercheurs dans le domaine de l’acquisition des langues tierces insistent sur les influences positives qu’exercent les langues précédemment apprises sur l’apprentissage formel d’une langue étrangère (p.ex., Cenoz & Gorter, 2015), et proposent de délaisser le regard traditionnel qui mettait l’accent sur l’interférence à l’origine des erreurs des apprenants pour opter pour une vision plus large et positive de l’interaction entre les langues. Il a été démontré que la similarité typologique ainsi que la compétence dans la langue source influence tous les types de transfert (p.ex., Ringbom, 1987, 2007). Cependant, le défi méthodologique de déterminer, à la fois l’usage pertinent d’une langue cible en tant que résultat d’une influence translinguistique (p.ex., Falk & Bardel, 2010) et d’établir le rôle crucial de la MLA dans l’activation consciente de mots ou de constructions reliés à travers différentes langues, demeure. La présente étude avait pour but de relever ce double défi en faisant appel à des protocoles oraux (TAPs) pour examiner le transfert positif de l’anglais (L2) vers l’allemand (L3) chez des Québécois francophones après cinq semaines d’enseignement formel de la L3. Les participants ont été soumis à une tâche de traduction développée aux fins de la présente étude. Les 42 items ont été sélectionnés sur la base de jugements de similarité et d’imagibilité ainsi que de fréquence des mots provenant d’une étude de cognats allemands-anglais (Friel & Kennison, 2001). Les participants devaient réfléchir à voix haute pendant qu’ils traduisaient des mots inconnus de l’allemand (L3) vers le français (L1). Le transfert positif a été opérationnalisé par des traductions correctes qui étaient basées sur un cognat anglais. La MLA a été mesurée par le biais du THAM (Test d’habiletés métalinguistiques) (Pinto & El Euch, 2015) ainsi que par l’analyse des TAPs. Les niveaux de compétence en anglais ont été établis sur la base du Michigan Test (Corrigan et al., 1979), tandis que les niveaux d’exposition ainsi que l’intérêt envers la langue et la culture allemandes ont été mesurés à l’aide d’un questionnaire. Une analyse fine des TAPs a révélé de la variabilité inter- et intra-individuelle dans l’activation consciente du vocabulaire en L2, tout en permettant l’identification de niveaux distincts de prise de conscience. Deux modèles indépendants de régressions logistiques ont permis d’identifier les deux dimensions de MLA comme prédicteurs de transfert positif. Le premier modèle, dans lequel le THAM était la mesure exclusive de MLA, a déterminé cette dimension réflexive comme principal prédicteur, suivie de la compétence en anglais, tandis qu’aucune des autres variables indépendantes pouvait prédire le transfert positif de l’anglais. Dans le second modèle, incluant le THAM ainsi que les TAPs comme mesures complémentaires de MLA, la dimension appliquée de MLA, telle que mesurée par les TAPs, était de loin le prédicteur principal, suivie de la dimension réflexive, telle que mesurée par le THAM, tandis que la compétence en anglais ne figurait plus parmi les facteurs ayant une influence significative sur la variable réponse. Bien que la verbalisation puisse avoir influencé la performance dans une certaine mesure, nos observations mettent en évidence la contribution précieuse de données introspectives comme complément aux résultats basés sur des caractéristiques purement linguistiques du transfert. Nos analyses soulignent la complexité des processus métalinguistiques et des stratégies individuelles, ce qui reflète une perspective dynamique du multilinguisme (p.ex., Jessner, 2008).
Resumo:
L’objectif de cet essai est d’analyser les forces, faiblesses, menaces et opportunités des systèmes d’élevage du Maghreb en territoire steppique, afin de proposer des pistes d’évolution vers un système durable. Le pastoralisme en steppe, comme ailleurs, repose sur la disponibilité fourragère des pâturages, qui permet de nourrir les animaux. Or, le Maroc, l’Algérie et la Tunisie rencontrent actuellement des difficultés pour exercer cette pratique : les ressources naturelles des parcours diminuent à la fois en surface et en productivité, tandis que le cheptel augmente pour répondre à la demande alimentaire des populations grandissantes. La pâture ne permet plus de satisfaire les besoins des troupeaux. Les éleveurs sont donc obligés d’apporter des complémentations alimentaires au cheptel, notamment de l’orge en grain. De ce fait, les systèmes d’élevage sont devenus dépendants du marché des compléments. Dans ces conditions, comment assurer une activité d’élevage en steppe sur le long terme ? Les pratiques de restauration et de réhabilitation des parcours dégradés, comme la mise en défens, le pâturage différé ou les plantations pastorales, ainsi que d’autres modes de conduite des animaux peuvent limiter la diminution du couvert végétal. Aussi, les sous-produits agro-industriels tels que les grignons d’olives ou la pulpe de tomates semblent offrir une certaine alternative pour nourrir les animaux. Ils peuvent remplacer les apports en orge et différentes techniques permettent leur conservation. Il est également important de renforcer la synergie entre les acteurs pour amener à une gestion durable du territoire steppique. Diverses actions de lutte contre la pauvreté, la désertification, la contrebande et la course à l’appropriation foncière vont également dans le sens de la préservation de l’environnement et du bien-être des sociétés de ces territoires d’élevage. Il s’agit d’un défi de taille, dont les enjeux sont primordiaux pour les populations du Maghreb. Les systèmes pastoraux s’intensifient et les inégalités foncières issues des jeux de pouvoir sociaux creusent la pauvreté en steppe. La complémentation animale est telle qu’on ne peut d’ailleurs plus vraiment parler de pastoralisme. De nos jours, les produits des terres cultivées du monde servent en grande partie à nourrir les animaux d’élevage au lieu d’utiliser les ressources naturelles disponibles de manière raisonnée. Il y a là une incohérence flagrante dans les chaînes de production de viande et les habitudes de consommation. Il serait donc intéressant pour l’avenir des populations de repenser ces mécanismes afin d’aller vers une solidarité socioécologique, au niveau du Maghreb comme au niveau mondial.
Resumo:
Résumé: Problématique : En réponse à la prévalence accrue de la maladie du diabète et au fardeau économique important que représente cette maladie sur le système de santé international, des programmes incitatifs pour les maladies chroniques furent instaurés à travers le monde. Ces programmes visent à inciter les médecins à appliquer les lignes directrices chez leurs patients avec besoin complexe en vue d’améliorer la santé des patients et par la suite de réduire les coûts incombés par le système de santé. Les programmes incitatifs étant nombreux et différents d’un pays à l’autre, les études actuelles ne semblent pas s’entendre sur les répercussions de tels programmes sur la santé des patients atteints de diabète. L’objectif de cette étude est d’évaluer les retombées d’un incitatif financier sur le contrôle glycémique de la population atteinte de diabète du Nouveau-Brunswick, au Canada. Méthodes : Cette étude transversale répétée et de cohorte a été menée grâce à des bases de données administratives du Nouveau-Brunswick contenant des données sur dix ans pour 83 580 patients adultes atteints de diabète et 583 médecins de famille éligibles. La santé des patients a été évaluée au niveau du contrôle glycémique, en mesurant les valeurs moyennes d’A1C annuelles à l’aide de régressions linéaires multivariées. Afin d’évaluer si les médecins changeaient leur pratique avec l’implantation du programme incitatif, nous regardions au niveau de la probabilité de recours annuel à au moins deux tests d’A1C en utilisant des régressions logistiques multivariées. Résultats : La probabilité de recours annuel à au moins deux tests d’A1C était plus élevée dans quatre sous-groupes étudiés : les patients nouvellement diagnostiqués après l’implantation du programme avaient des cotes plus élevées comparées aux nouveaux patients avant l’implantation du programme (OR=1.23 [1.18-1.28]); les patients pour lesquels un médecin avait réclamé l’incitatif comparés aux patients pour lesquels aucun médecin n’avait réclamé l’incitatif (OR=2.73 [2.64-2.81]); les patients pour lesquels un médecin avait réclamé l’incitatif avaient des cotes plus élevées après l’implantation du programme comparé à avant (OR=1.89 [1.80-1.98]); et finalement, les patients suivis par un médecin de famille qui a déjà réclamé l’incitatif avaient des cotes 24% plus élevées (OR=1.24 [1.15-1.34]). Il n’y avait pas de différence dans les valeurs d’A1C annuelles entre les 4 sous-groupes étudiés. Conclusion : L’implantation du programme incitatif a démontré que les médecins ont une meilleure probabilité de prescrire au moins deux tests d’A1C, ce qui suggère une meilleure prise en charge des patients. Cependant, le manque de changement au niveau du contrôle glycémique du patient suggère que l’étude des répercussions de l’incitatif devra être poursuivie afin de voir si elle mène à une amélioration d’issues cliniques chez les patients.
Resumo:
L'économie mondiale actuelle est caractérisée par une grande concurrence entre les entreprises internationales. Dans ce contexte, les politiques de globalisation sont devenues des armes stratégiques pour les dirigeants d'entreprises internationales. L'un des principaux obstacles à une politique globale est la culture dans les pays étrangers. Les dirigeants d'entreprises internationales seront donc amenés à prendre une décision quant à la standardisation ou l'adaptation de leurs messages publicitaires. L'objectif principal de cette étude est d'examiner la présence de la culture dans les messages publicitaires télévisés marocains et québécois. Les dimensions culturelles retenues dans cette étude sont: la langue, les orientations des valeurs culturelles, les productions culturelles et les normes. 71 messages télévisés marocains et 72 messages québécois ont été enregistrés sur deux chaînes, l'une privée et l'autre publique. Ces messages ont été analysés par quatre juges: deux Marocains, un Québécois et un Français. Les juges connaissent les deux cultures marocaine et québécoise. Les résultats indiquent que les orientations de valeurs culturelles ne sont pas très présentes dans les messages marocains et québécois, à l'exception des deux dimensions: individualisme-collectivisme et masculinité-féminité. On a aussi trouvé qu'en général les produits non durables, les produits adressés à une cible âgée, les détergents et les produits de cuisine reflètent plus les productions culturelles et les normes traditionnelles marocaines et québécoises que les produits durables, les produits adressés à une cible jeune et les shampooings.
Resumo:
Les protéines existent sous différents états fonctionnels régulés de façon précise par leur environnement afin de maintenir l‘homéostasie de la cellule et de l‘organisme vivant. La prévalence de ces états protéiques est dictée par leur énergie libre de Gibbs alors que la vitesse de transition entre ces états biologiquement pertinents est déterminée par le paysage d‘énergie libre. Ces paramètres sont particulièrement intéressants dans un contexte thérapeutique et biotechnologique, où leur perturbation par la modulation de la séquence protéique par des mutations affecte leur fonction. Bien que des nouvelles approches expérimentales permettent d‘étudier l‘effet de mutations en haut débit pour une protéine, ces méthodes sont laborieuses et ne couvrent qu‘une fraction de l‘ensemble des structures primaires d‘intérêt. L‘utilisation de modèles bio-informatiques permet de tester et générer in silico différentes hypothèses afin d‘orienter les approches expérimentales. Cependant, ces méthodes basées sur la structure se concentrent principalement sur la prédiction de l‘enthalpie d‘un état, alors que plusieurs évidences expérimentales ont démontré l‘importance de la contribution de l‘entropie. De plus, ces approches ignorent l‘importance de l‘espace conformationnel protéique dicté par le paysage énergétique cruciale à son fonctionnement. Une analyse des modes normaux peut être effectuée afin d‘explorer cet espace par l‘approximation que la protéine est dans une conformation d‘équilibre où chaque acide aminé est représenté par une masse régie par un potentiel harmonique. Les approches actuelles ignorent l‘identité des résidus et ne peuvent prédire l‘effet de mutations sur les propriétés dynamiques. Nous avons développé un nouveau modèle appelé ENCoM qui pallie à cette lacune en intégrant de l‘information physique et spécifique sur les contacts entre les atomes des chaînes latérales. Cet ajout permet une meilleure description de changements conformationnels d‘enzymes, la prédiction de l‘effet d‘une mutation allostérique dans la protéine DHFR et également la prédiction de l‘effet de mutations sur la stabilité protéique par une valeur entropique. Comparativement à des approches spécifiquement développées pour cette application, ENCoM est plus constant et prédit mieux l‘effet de mutations stabilisantes. Notre approche a également été en mesure de capturer la pression évolutive qui confère aux protéines d‘organismes thermophiles une thermorésistance accrue.
Resumo:
Résumé : PROBLÉMATIQUE: L’exposition résidentielle à l’humidité excessive ou aux moisissures est maintenant reconnue comme un facteur important influençant la santé respiratoire. Cette problématique a été peu étudiée chez les étudiants universitaires, bien que vulnérables par leur faible revenu et leur statut de locataire. OBJECTIFS: Cette maîtrise vise à décrire la prévalence (a) de l’exposition résidentielle à l’humidité excessive ou aux moisissures et (b) des maladies respiratoires chez les étudiants universitaires, ainsi qu’à (c) examiner l’association entre l’exposition résidentielle à l’humidité excessive ou aux moisissures et ces maladies. MÉTHODES: En 2014, une enquête électronique a été réalisée auprès de 2097 étudiants enregistrés à l’Université de Sherbrooke (Québec, Canada). Lorsque possible, des questions et des scores validés ont été utilisés pour estimer les prévalences des maladies respiratoires (rhinite allergique, asthme et infections respiratoires), de l’exposition résidentielle à l’humidité excessive ou aux moisissures et des covariables (ex. : revenu annuel familial, statut tabagique, atopie familiale, caractéristiques de l’étudiant). Les associations entre cette exposition et ces maladies ont d’abord été examinées par des tests de chi-carré en utilisant un seuil alpha de 0,05. Des régressions logistiques multivariées ont ensuite été utilisées pour déterminer les associations brutes et ajustée entre cette exposition et les maladies respiratoires. Les analyses descriptives ont été pondérées pour le sexe, l’âge et le campus d’étude. RÉSULTATS: L’exposition à l’humidité excessive ou aux moisissures était fréquente parmi les participants (36,0%; Intervalle de confiance (IC)95% : 33,9-38,1). Ceux-ci ont également été nombreux à rapporter une rhinite allergique (23,9%; IC95% :22,0-25,8), de l’asthme (32,6%; IC95% : 30,5-34,7) et des infections respiratoires (19,4%; IC95% :17,7-21,2) au cours de la dernière année. Après ajustement, les associations demeuraient significatives entre l’exposition à l’humidité excessive ou aux moisissures et la rhinite allergique (Rapport de cote (RC) : 1,30; IC95% : 1.05-1.60), l’asthme RC : 1,75; IC95% : 1,42-2,16), mais pas les infections respiratoires (RC : 1,07; IC95% : 0,85-1.35). CONCLUSIONS: La prévalence élevée de l’exposition résidentielle des étudiants universitaires à l’humidité excessive ou aux moisissures, de même que son association avec l’asthme et la rhinite allergique, mettent en lumière sa contribution potentielle à la forte prévalence des maladies respiratoires ayant une composante allergique dans cette population. Cette étude fournit un nouveau levier pour les organisations de santé publique et leurs partenaires afin d’adapter les stratégies préventives ciblant les logements insalubres, particulièrement chez les populations vulnérables.
Resumo:
Introduction : Un hypométabolisme du glucose au cerveau peut apparaître des décennies avant le diagnostic de maladie d’Alzheimer. Pourtant, le métabolisme des cétones, le carburant alternatif principal au glucose, n’est pas altéré, autant chez les personnes plus âgées que chez les personnes atteintes de la maladie d’Alzheimer. Les méthodes connues (diète cétogène, jeûne, huile de triglycérides de moyennes chaînes) pour augmenter la production de cétones comportent leurs inconvénients. L’objectif de ces projets était de vérifier l’efficacité de produits commerciaux vendus à cet effet et d’évaluer d’autres molécules qui pourraient être utilisées pour leur propriété cétogène. Ce sont des suppléments alimentaires pouvant servir de substrat pour la cétogenèse (butyrate, monoglycéride d’octanoate (O-MAG), leucine) ou de facilitateur du transport des acides gras (carnitine). Méthodes : Pour ce faire, les participants devaient se présenter au laboratoire pour plusieurs demi-journées d’étude d’une durée de 4 heures. Lors de ces journées, un des suppléments leur était servi avec un déjeuner et des prises de sang étaient effectuées toutes les 30 minutes. Résultats : Le produit commercial contenant des MCT, le butyrate, l’O-MAG et la leucine ont permis d’augmenter respectivement les concentrations maximales en cétones plasmatiques de 568, 226, 67 et 70 µmol/L (p≤0,05) par rapport au contrôle. De plus, la concentration plasmatique en octanoate était corrélée significativement avec la concentration sanguine d’acétoacétate (r=0,85 ; p <0,0001) et de β-hydroxybutyrate (r=0,58 ; p=0,01). L’aire sous la courbe par gramme de produit ingéré montre que le butyrate était le supplément cétogène le plus efficace et était plus cétogène que le produit commercial, l’O-MAG et la leucine (p=0,009). Discussion : Le butyrate était 3 fois plus cétogène que tous les autres suppléments testés. Par contre, son ingestion a causé quelques effets secondaires à certains participants. La leucine a été le seul supplément à ne créer aucun inconfort chez les participants. Il faudrait donc étudier la possibilité de combiner plusieurs molécules dans un supplément chimiquement pensé pour être le plus efficace possible et pour être intéressant lors d’une utilisation quotidienne.
Resumo:
Objectif : Examiner la relation entre l’accès aux ressources alimentaires et le degré de l’insécurité alimentaire du ménage parmi les nouveaux utilisateurs des organismes communautaires d’intervention en sécurité alimentaire de Montréal. Méthode : Étude observationnelle transversale. Elle consiste en une analyse secondaire de données (n=785) qui proviennent du premier temps de mesure de l’enquête sur les effets des interventions en sécurité alimentaire à Montréal menée entre 2011 et 2012. La variable dépendante a été l’insécurité alimentaire. Les variables indépendantes ont été le mode de transport utilisé pour transporter les aliments, l’emplacement de l’épicerie la plus fréquentée par le participant, la distance entre l’organisme communautaire fréquenté par le participant et son domicile, la proximité de l’épicerie la plus fréquentée, la satisfaction quant à l’acceptabilité et le caractère abordable des aliments dans l’épicerie la plus fréquentée, et les difficultés d’accès aux aliments. Des régressions logistiques furent effectuées afin d’évaluer la relation entre les variables indépendantes et le degré de l’insécurité alimentaire, en utilisant l’insécurité sévère comme catégorie de référence. Résultats : Nos données suggèrent que la sévérité de l’insécurité alimentaire est associée à la difficulté d’accès aux aliments à cause de la cherté des aliments (pour la sécurité alimentaire, OR=0.13; CI : 0.07-0.25 et pour l’insécurité alimentaire modérée, OR=0.42; CI : 0.28-0.63), au fait de faire l’épicerie à l’extérieur du quartier ou de faire rarement l’épicerie (pour l’insécurité alimentaire modérée, OR=0.50, CI : 0.30-0.84), au fait d’avoir accès au transport collectif (pour l’insécurité alimentaire modérée, OR=1.73; CI : 1.09-2.73), au fait de résider à une distance moyenne (soit entre 1000 et 2000 mètres) d’un organisme communautaire en sécurité alimentaire (pour l’insécurité alimentaire modérée, OR=1.83; CI : 1.14-2.92), et à la difficulté d’accès aux aliments à cause de contraintes de transport (pour la sécurité alimentaire, OR=0.18, CI : 0.06-0.52). Conclusion : L’accès aux ressources alimentaires est associé au degré de l’insécurité alimentaire des nouveaux ménages participant aux interventions en sécurité alimentaire à Montréal.
Resumo:
Les modèles incrémentaux sont des modèles statistiques qui ont été développés initialement dans le domaine du marketing. Ils sont composés de deux groupes, un groupe contrôle et un groupe traitement, tous deux comparés par rapport à une variable réponse binaire (le choix de réponses est « oui » ou « non »). Ces modèles ont pour but de détecter l’effet du traitement sur les individus à l’étude. Ces individus n’étant pas tous des clients, nous les appellerons : « prospects ». Cet effet peut être négatif, nul ou positif selon les caractéristiques des individus composants les différents groupes. Ce mémoire a pour objectif de comparer des modèles incrémentaux d’un point de vue bayésien et d’un point de vue fréquentiste. Les modèles incrémentaux utilisés en pratique sont ceux de Lo (2002) et de Lai (2004). Ils sont initialement réalisés d’un point de vue fréquentiste. Ainsi, dans ce mémoire, l’approche bayésienne est utilisée et comparée à l’approche fréquentiste. Les simulations sont e ectuées sur des données générées avec des régressions logistiques. Puis, les paramètres de ces régressions sont estimés avec des simulations Monte-Carlo dans l’approche bayésienne et comparés à ceux obtenus dans l’approche fréquentiste. L’estimation des paramètres a une influence directe sur la capacité du modèle à bien prédire l’effet du traitement sur les individus. Nous considérons l’utilisation de trois lois a priori pour l’estimation des paramètres de façon bayésienne. Elles sont choisies de manière à ce que les lois a priori soient non informatives. Les trois lois utilisées sont les suivantes : la loi bêta transformée, la loi Cauchy et la loi normale. Au cours de l’étude, nous remarquerons que les méthodes bayésiennes ont un réel impact positif sur le ciblage des individus composant les échantillons de petite taille.
Resumo:
Les peptides et protéines extracteurs de lipides (PEL) se lient aux membranes lipidiques puis en extraient des lipides en formant de plus petits auto-assemblages, un phénomène qui peut aller jusqu'à la fragmentation des membranes. Dans la nature, cette extraction se produit sur une gamme de cellules et entraîne des conséquences variées, comme la modification de la composition de la membrane et la mort de la cellule. Cette thèse se penche sur l’extraction lipidique, ou fragmentation, induite par le peptide mélittine et la protéine Binder-of-SPerm 1 (BSP1) sur des membranes lipidiques modèles. Pour ce faire, des liposomes de différentes compositions sont préparés et incubés avec la mélittine ou la BSP1. L'association aux membranes est déterminée par la fluorescence intrinsèque des PEL, tandis que l'extraction est caractérisée par une plateforme analytique combinant des tests colorimétriques et des analyses en chromatographie en phase liquide et spectrométrie de masse (LCMS). La mélittine fait partie des peptides antimicrobiens cationiques, un groupe de PEL très répandu chez les organismes vivants. Ces peptides sont intéressants du point du vue médical étant donné leur mode d’action qui vise directement les lipides des membranes. Plusieurs de ceux-ci agissent sur les membranes des bactéries selon le mécanisme dit « en tapis », par lequel ils s’adsorbent à leur surface, forment des pores et ultimement causent leur fragmentation. Dans cette thèse, la mélittine est utilisée comme peptide modèle afin d’étudier le mécanisme par lequel les peptides antimicrobiens cationiques fragmentent les membranes. Les résultats montrent que la fragmentation des membranes de phosphatidylcholines (PC) est réduite par une déméthylation graduelle de leur groupement ammonium. L'analyse du matériel fragmenté révèle que les PC sont préférentiellement extraites des membranes, dû à un enrichissement local en PC autour de la mélittine à l'intérieur de la membrane. De plus, un analogue de la mélittine, dont la majorité des résidus cationiques sont neutralisés, est utilisé pour évaluer le rôle du caractère cationique de la mélittine native. La neutralisation augmente l'affinité du peptide pour les membranes neutres et anioniques, réduit la fragmentation des membranes neutres et augmente la fragmentation des membranes anioniques. Malgré les interactions électrostatiques entre le peptide cationique et les lipides anioniques, aucune spécificité lipidique n'est observée dans l'extraction. La BSP1 est la protéine la plus abondante du liquide séminal bovin et constitue un autre exemple de PEL naturel important. Elle se mélange aux spermatozoïdes lors de l’éjaculation et extrait des lipides de leur membrane, notamment le cholestérol et les phosphatidylcholines. Cette étape cruciale modifie la composition lipidique de la membrane du spermatozoïde, ce qui faciliterait par la suite la fécondation de l’ovule. Cependant, le contact prolongé de la protéine avec les spermatozoïdes endommagerait la semence. Cette thèse cherche donc à approfondir notre compréhension de ce délicat phénomène en étudiant le mécanisme moléculaire par lequel la protéine fragmente les membranes lipidiques. Les résultats des présents travaux permettent de proposer un mécanisme d’extraction lipidique en 3 étapes : 1) L'association à l’interface des membranes; 2) La relocalisation de l’interface vers le cœur lipidique; 3) La fragmentation des membranes. La BSP1 se lie directement à deux PC à l'interface; une quantité suffisante de PC dans les membranes est nécessaire pour permettre l'association et la fragmentation. Cette liaison spécifique ne mène généralement pas à une extraction lipidique sélective. L'impact des insaturations des chaînes lipidiques, de la présence de lysophosphatidylcholines, de phosphatidyléthanolamine, de cholestérol et de lipides anioniques est également évalué. Les présentes observations soulignent la complexe relation entre l'affinité d'un PEL pour une membrane et le niveau de fragmentation qu'il induit. L'importance de la relocalisation des PEL de l'interface vers le cœur hydrophobe des membranes pour permettre leur fragmentation est réitérée. Cette fragmentation semble s'accompagner d'une extraction lipidique préférentielle seulement lorsqu'une séparation de phase est induite au niveau de la membrane, nonobstant les interactions spécifiques PEL-lipide. Les prévalences des structures amphiphiles chez certains PEL, ainsi que de la fragmentation en auto-assemblages discoïdaux sont discutées. Finalement, le rôle des interactions électrostatiques entre les peptides antimicrobiens cationiques et les membranes bactériennes anioniques est nuancé : les résidus chargés diminueraient l'association des peptides aux membranes neutres suite à l'augmentation de leur énergie de solvatation.
Resumo:
Bien que le travail soit bénéfique et souhaité par une majorité de personnes aux prises avec un trouble mental grave (TMG), les études réalisées auprès de cette clientèle montrent des taux d’emploi d’environ 10 à 20%. Parmi les services visant le retour au travail, les programmes de soutien à l’emploi (PSE) se sont montrés les plus efficaces avec des taux de placement en emploi standard oscillant entre 50 et 60%, sans toutefois garantir le maintien en emploi. Plusieurs études ont tenté de cerner les déterminants de l’obtention et du maintien en emploi chez cette population sans toutefois s’intéresser à la personnalité, et ce, bien qu’elle soit reconnue depuis toujours comme un déterminant important du fonctionnement des individus. De plus, peu de questionnaires d’évaluation de la personnalité selon le modèle de la personnalité en cinq facteurs (FFM) ont été utilisés auprès d’une clientèle avec un TMG et ceux-ci ont montré des propriétés psychométriques ne respectant pas des normes reconnues et acceptées. Cette thèse porte sur les liens entre la personnalité et l’intégration au travail chez les personnes avec un TMG. La première partie vise la validation d’un outil de mesure de la personnalité selon le FFM afin de répondre aux objectifs de la deuxième partie de la thèse. À cet effet, deux échantillons ont été recrutés, soit 259 étudiants universitaires et 141 personnes avec un TMG. Des analyses factorielles confirmatoires ont mené au développement d’un nouveau questionnaire à 15 items (NEO-15) dont les indices d’ajustement, de cohérence interne et de validité convergente respectent les normes établies, ce qui en fait un questionnaire bien adapté à la mesure de la personnalité normale dans des contextes où le temps d’évaluation est limité. La deuxième partie présente les résultats d’une étude réalisée auprès de 82 personnes aux prises avec un TMG inscrites dans un PSE et visant à identifier les facteurs d’obtention et de maintien en emploi chez cette clientèle, particulièrement en ce qui concerne la contribution des éléments normaux et pathologiques de la personnalité. Les résultats de régressions logistiques et de régressions de Cox (analyses de survie) ont démontré que l’historique d’emploi, les symptômes négatifs et le niveau de pathologie de la personnalité étaient prédictifs de l’obtention d’un emploi standard et du délai avant l’obtention d’un tel emploi. Une autre série de régressions de Cox a pour sa part démontré que l’esprit consciencieux était le seul prédicteur significatif du maintien en emploi. Malgré certaines limites, particulièrement des tailles d’échantillons restreintes, ces résultats démontrent la pertinence et l’importance de tenir compte des éléments normaux et pathologiques de la personnalité dans le cadre d’études portant sur l’intégration au travail de personnes avec un TMG. De plus, cette thèse a permis de démontrer l’adéquation d’un nouvel instrument de mesure de la personnalité auprès de cette clientèle. Des avenues futures concernant la réintégration professionnelle et le traitement des personnes avec un TMG sont discutées à la lumière de ces résultats.
Resumo:
La possibilité de programmer une cellule dans le but de produire une protéine d’intérêt est apparue au début des années 1970 avec l’essor du génie génétique. Environ dix années plus tard, l’insuline issue de la plateforme de production microbienne Escherichia coli, fut la première protéine recombinante (r-protéine) humaine commercialisée. Les défis associés à la production de r-protéines plus complexes et glycosylées ont amené l’industrie biopharmaceutique à développer des systèmes d’expression en cellules de mammifères. Ces derniers permettent d’obtenir des protéines humaines correctement repliées et de ce fait, biologiquement actives. Afin de transférer le gène d’intérêt dans les cellules de mammifères, le polyéthylènimine (PEI) est certainement un des vecteurs synthétiques le plus utilisé en raison de son efficacité, mais aussi sa simplicité d’élaboration, son faible coût et sa stabilité en solution qui facilite son utilisation. Il est donc largement employé dans le contexte de la production de r-protéines à grande échelle et fait l’objet d’intenses recherches dans le domaine de la thérapie génique non virale. Le PEI est capable de condenser efficacement l’ADN plasmidique (vecteur d’expression contenant le gène d’intérêt) pour former des complexes de petites tailles appelés polyplexes. Ces derniers doivent contourner plusieurs étapes limitantes afin de délivrer le gène d’intérêt au noyau de la cellule hôte. Dans les conditions optimales du transfert de gène par le PEI, les polyplexes arborent une charge positive nette interagissant de manière électrostatique avec les protéoglycanes à héparane sulfate (HSPG) qui décorent la surface cellulaire. On observe deux familles d’HSPG exprimés en abondance à la surface des cellules de mammifères : les syndécanes (4 membres, SDC1-4) et les glypicanes (6 membres, GPC1-6). Si l’implication des HSPG dans l’attachement cellulaire des polyplexes est aujourd’hui largement acceptée, leur rôle individuel vis-à-vis de cet attachement et des étapes subséquentes du transfert de gène reste à confirmer. Après avoir optimisées les conditions de transfection des cellules de mammifères CHO et HEK293 dans le but de produire des r-protéines secrétées, nous avons entrepris des cinétiques de capture, d’internalisation des polyplexes et aussi d’expression du transgène afin de mieux comprendre le processus de transfert de gène. Nous avons pu observer des différences au niveau de ces paramètres de transfection dépendamment du système d’expression et des caractéristiques structurelles du PEI utilisé. Ces résultats présentés sous forme d’articles scientifiques constituent une base solide de l’enchaînement dans le temps des évènements essentiels à une transfection efficace des cellules CHO et HEK293 par le PEI. Chaque type cellulaire possède un profil d’expression des HSPG qui lui est propre, ces derniers étant plus ou moins permissifs au transfert de gène. En effet, une étude menée dans notre laboratoire montre que les SDC1 et SDC2 ont des rôles opposés vis-à-vis du transfert de gène. Alors que tous deux sont capables de lier les polyplexes, l’expression de SDC1 permet leur internalisation contrairement à l’expression de SDC2 qui l’inhibe. De plus, lorsque le SDC1 est exprimé à la surface des cellules HEK293, l’efficacité de transfection est augmentée de douze pourcents. En utilisant la capacité de SDC1 à induire l’internalisation des polyplexes, nous avons étudié le trafic intracellulaire des complexes SDC1 / polyplexes dans les cellules HEK293. De plus, nos observations suggèrent une nouvelle voie par laquelle les polyplexes pourraient atteindre efficacement le noyau cellulaire. Dans le contexte du transfert de gène, les HSPG sont essentiellement étudiés dans leur globalité. S’il est vrai que le rôle des syndécanes dans ce contexte est le sujet de quelques études, celui des glypicanes est inexploré. Grâce à une série de traitements chimiques et enzymatiques visant une approche « perte de fonction », l’importance de la sulfatation comme modification post-traductionnelle, l’effet des chaînes d’héparanes sulfates mais aussi des glypicanes sur l’attachement, l’internalisation des polyplexes, et l’expression du transgène ont été étudiés dans les cellules CHO et HEK293. L’ensemble de nos observations indique clairement que le rôle des HSPG dans le transfert de gène devrait être investigué individuellement plutôt que collectivement. En effet, le rôle spécifique de chaque membre des HSPG sur la capture des polyplexes et leur permissivité à l’expression génique demeure encore inconnu. En exprimant de manière transitoire chaque membre des syndécanes et glypicanes à la surface des cellules CHO, nous avons déterminé leur effet inhibiteur ou activateur sur la capture des polyplexes sans pouvoir conclure quant à l’effet de cette surexpression sur l’efficacité de transfection. Par contre, lorsqu’ils sont présents dans le milieu de culture, le domaine extracellulaire des HSPG réduit l’efficacité de transfection des cellules CHO sans induire la dissociation des polyplexes. Curieusement, lorsque chaque HSPG est exprimé de manière stable dans les cellules CHO, seulement une légère modulation de l’expression du transgène a pu être observée. Ces travaux ont contribué à la compréhension des mécanismes d'action du vecteur polycationique polyéthylènimine et à préciser le rôle des protéoglycanes à héparane sulfate dans le transfert de gène des cellules CHO et HEK293.
Resumo:
Dietary studies of marine species constitute an important key to improve the understanding of its biology and of its role in the ecosystem. Thus, prey-predator relationships structure and determine population dynamics and the trophic network at the ecosystem scale. Among the major study sites, the marine ecosystem is submitted to natural and anthropogenic constraints. In the North-Eastern part of the Atlantic Ocean, the Bay of Biscay is a large open area surrounded South by Spain and East by France. This bay is an historic place of intense fishery activities for which the main small pelagic species targeted are the pilchard, Sardina pilchardus and the anchovy, Engraulis encrasicolus. The aim of this work is to analyze the trophic ecology of these two small pelagic fish in spring in the Bay of Biscay. To do this, a first section is devoted to their prey composed by the mesozooplanktonic compartment, through a two-fold approach: the characterization of their spatio-temporal dynamics during the decade 2003-2013 and the measurement of their energetic content in spring. For this season, it appears that all prey types are not worth energetically and that the Bay of Biscay represents a mosaic of dietary habitat. Moreover, the spring mesozooplankton community presents a strong spatial structuration, a temporal evolution marked by a major change in abundance and a control by the microphytoplankton biomass. The second section of this work is relative to a methodological approach of the trophic ecology of S. pilchardus and E. encrasicolus. Three different trophic tracers have been used: isotopic ratios of carbon and nitrogen, parasitological fauna and mercury contamination levels. To improve the use of the first of these trophic tracers, an experimental approach has been conducted with S. pilchardus to determine a trophic discrimination factor. Finally, it appears that the use of these three trophic tracers has always been permitted to highlight a temporal variability of the relative trophic ecology of these fish. However, no spatial dynamics could be identified through these three trophic tracers.