478 resultados para COT
Resumo:
Les maladies cardiovasculaires sont la première cause de mortalité dans le monde et les anévrismes de l’aorte abdominale (AAAs) font partie de ce lot déplorable. Un anévrisme est la dilatation d’une artère pouvant conduire à la mort. Une rupture d’AAA s’avère fatale près de 80% du temps. Un moyen de traiter les AAAs est l’insertion d’une endoprothèse (SG) dans l’aorte, communément appelée la réparation endovasculaire (EVAR), afin de réduire la pression exercée par le flux sanguin sur la paroi. L’efficacité de ce traitement est compromise par la survenue d’endofuites (flux sanguins entre la prothèse et le sac anévrismal) pouvant conduire à la rupture de l’anévrisme. Ces flux sanguins peuvent survenir à n’importe quel moment après le traitement EVAR. Une surveillance par tomodensitométrie (CT-scan) annuelle est donc requise, augmentant ainsi le coût du suivi post-EVAR et exposant le patient à la radiation ionisante et aux complications des contrastes iodés. L’endotension est le concept de dilatation de l’anévrisme sans la présence d’une endofuite apparente au CT-scan. Après le traitement EVAR, le sang dans le sac anévrismal coagule pour former un thrombus frais, qui deviendra progressivement un thrombus plus fibreux et plus organisé, donnant lieu à un rétrécissement de l’anévrisme. Il y a très peu de données dans la littérature pour étudier ce processus temporel et la relation entre le thrombus frais et l’endotension. L’étalon d’or du suivi post-EVAR, le CT-scan, ne peut pas détecter la présence de thrombus frais. Il y a donc un besoin d’investir dans une technique sécuritaire et moins coûteuse pour le suivi d’AAAs après EVAR. Une méthode récente, l’élastographie dynamique, mesure l’élasticité des tissus en temps réel. Le principe de cette technique repose sur la génération d’ondes de cisaillement et l’étude de leur propagation afin de remonter aux propriétés mécaniques du milieu étudié. Cette thèse vise l’application de l’élastographie dynamique pour la détection des endofuites ainsi que de la caractérisation mécanique des tissus du sac anévrismal après le traitement EVAR. Ce projet dévoile le potentiel de l’élastographie afin de réduire les dangers de la radiation, de l’utilisation d’agent de contraste ainsi que des coûts du post-EVAR des AAAs. L’élastographie dynamique utilisant le « Shear Wave Imaging » (SWI) est prometteuse. Cette modalité pourrait complémenter l’échographie-Doppler (DUS) déjà utilisée pour le suivi d’examen post-EVAR. Le SWI a le potentiel de fournir des informations sur l’organisation fibreuse du thrombus ainsi que sur la détection d’endofuites. Tout d’abord, le premier objectif de cette thèse consistait à tester le SWI sur des AAAs dans des modèles canins pour la détection d’endofuites et la caractérisation du thrombus. Des SGs furent implantées dans un groupe de 18 chiens avec un anévrisme créé au moyen de la veine jugulaire. 4 anévrismes avaient une endofuite de type I, 13 avaient une endofuite de type II et un anévrisme n’avait pas d’endofuite. Des examens échographiques, DUS et SWI ont été réalisés à l’implantation, puis 1 semaine, 1 mois, 3 mois et 6 mois après le traitement EVAR. Une angiographie, un CT-scan et des coupes macroscopiques ont été produits au sacrifice. Les régions d’endofuites, de thrombus frais et de thrombus organisé furent identifiées et segmentées. Les valeurs de rigidité données par le SWI des différentes régions furent comparées. Celles-ci furent différentes de façon significative (P < 0.001). Également, le SWI a pu détecter la présence d’endofuites où le CT-scan (1) et le DUS (3) ont échoué. Dans la continuité de ces travaux, le deuxième objectif de ce projet fut de caractériser l’évolution du thrombus dans le temps, de même que l’évolution des endofuites après embolisation dans des modèles canins. Dix-huit anévrismes furent créés dans les artères iliaques de neuf modèles canins, suivis d’une endofuite de type I après EVAR. Deux gels embolisants (Chitosan (Chi) ou Chitosan-Sodium-Tetradecyl-Sulfate (Chi-STS)) furent injectés dans le sac anévrismal pour promouvoir la guérison. Des examens échographiques, DUS et SWI ont été effectués à l’implantation et après 1 semaine, 1 mois, 3 mois et 6 mois. Une angiographie, un CT-scan et un examen histologique ont été réalisés au sacrifice afin d’évaluer la présence, le type et la grosseur de l’endofuite. Les valeurs du module d’élasticité des régions d’intérêts ont été identifiées et segmentées sur les données pathologiques. Les régions d’endofuites et de thrombus frais furent différentes de façon significative comparativement aux autres régions (P < 0.001). Les valeurs d’élasticité du thrombus frais à 1 semaine et à 3 mois indiquent que le SWI peut évaluer la maturation du thrombus, de même que caractériser l’évolution et la dégradation des gels embolisants dans le temps. Le SWI a pu détecter des endofuites où le DUS a échoué (2) et, contrairement au CT-scan, détecter la présence de thrombus frais. Finalement, la dernière étape du projet doctoral consistait à appliquer le SWI dans une phase clinique, avec des patients humains ayant déjà un AAA, pour la détection d’endofuite et la caractérisation de l’élasticité des tissus. 25 patients furent sélectionnés pour participer à l’étude. Une comparaison d’imagerie a été produite entre le SWI, le CT-scan et le DUS. Les valeurs de rigidité données par le SWI des différentes régions (endofuite, thrombus) furent identifiées et segmentées. Celles-ci étaient distinctes de façon significative (P < 0.001). Le SWI a détecté 5 endofuites sur 6 (sensibilité de 83.3%) et a eu 6 faux positifs (spécificité de 76%). Le SWI a pu détecter la présence d’endofuites où le CT-scan (2) ainsi que le DUS (2) ont échoué. Il n’y avait pas de différence statistique notable entre la rigidité du thrombus pour un AAA avec endofuite et un AAA sans endofuite. Aucune corrélation n’a pu être établie de façon significative entre les diamètres des AAAs ainsi que leurs variations et l’élasticité du thrombus. Le SWI a le potentiel de détecter les endofuites et caractériser le thrombus selon leurs propriétés mécaniques. Cette technique pourrait être combinée au suivi des AAAs post-EVAR, complémentant ainsi l’imagerie DUS et réduisant le coût et l’exposition à la radiation ionisante et aux agents de contrastes néphrotoxiques.
Resumo:
Les protéines membranaires intégrales jouent un rôle indispensable dans la survie des cellules et 20 à 30% des cadres de lectures ouverts codent pour cette classe de protéines. La majorité des protéines membranaires se trouvant sur la Protein Data Bank n’ont pas une orientation et une insertion connue. L’orientation, l’insertion et la conformation que les protéines membranaires ont lorsqu’elles interagissent avec une bicouche lipidique sont importantes pour la compréhension de leur fonction, mais ce sont des caractéristiques difficiles à obtenir par des méthodes expérimentales. Des méthodes computationnelles peuvent réduire le temps et le coût de l’identification des caractéristiques des protéines membranaires. Dans le cadre de ce projet de maîtrise, nous proposons une nouvelle méthode computationnelle qui prédit l’orientation et l’insertion d’une protéine dans une membrane. La méthode est basée sur les potentiels de force moyenne de l’insertion membranaire des chaînes latérales des acides aminés dans une membrane modèle composèe de dioléoylphosphatidylcholine.
Resumo:
Les gènes, qui servent à encoder les fonctions biologiques des êtres vivants, forment l'unité moléculaire de base de l'hérédité. Afin d'expliquer la diversité des espèces que l'on peut observer aujourd'hui, il est essentiel de comprendre comment les gènes évoluent. Pour ce faire, on doit recréer le passé en inférant leur phylogénie, c'est-à-dire un arbre de gènes qui représente les liens de parenté des régions codantes des vivants. Les méthodes classiques d'inférence phylogénétique ont été élaborées principalement pour construire des arbres d'espèces et ne se basent que sur les séquences d'ADN. Les gènes sont toutefois riches en information, et on commence à peine à voir apparaître des méthodes de reconstruction qui utilisent leurs propriétés spécifiques. Notamment, l'histoire d'une famille de gènes en terme de duplications et de pertes, obtenue par la réconciliation d'un arbre de gènes avec un arbre d'espèces, peut nous permettre de détecter des faiblesses au sein d'un arbre et de l'améliorer. Dans cette thèse, la réconciliation est appliquée à la construction et la correction d'arbres de gènes sous trois angles différents: 1) Nous abordons la problématique de résoudre un arbre de gènes non-binaire. En particulier, nous présentons un algorithme en temps linéaire qui résout une polytomie en se basant sur la réconciliation. 2) Nous proposons une nouvelle approche de correction d'arbres de gènes par les relations d'orthologie et paralogie. Des algorithmes en temps polynomial sont présentés pour les problèmes suivants: corriger un arbre de gènes afin qu'il contienne un ensemble d'orthologues donné, et valider un ensemble de relations partielles d'orthologie et paralogie. 3) Nous montrons comment la réconciliation peut servir à "combiner'' plusieurs arbres de gènes. Plus précisément, nous étudions le problème de choisir un superarbre de gènes selon son coût de réconciliation.
Resumo:
Chaque année le feu brûle quelques dizaines de milliers d’hectares de forêts québécoises. Le coût annuel de prévention et de lutte contre les feux de forêts au Québec est de l’ordre de plusieurs dizaines de millions de dollars. Le présent travail contribue à la réduction de ces coûts à travers l’automatisation du processus de planification des opérations de suppression des feux de forêts majeurs. Pour ce faire, un modèle mathématique linéaire en nombres entiers a été élaboré, résolu et testé; introduisant un nouveau cas particulier à la littérature des Problèmes de Tournées de Véhicules (VRP). Ce modèle mathématique concerne le déploiement aérien des ressources disponibles pour l’extinction des incendies. Le modèle élaboré a été testé avec CPLEX sur des cas tirés de données réelles. Il a permis de réduire le temps de planification des opérations d’extinction des feux de forêts majeurs de 75% dans les situations courantes.
Resumo:
Le but de cette recherche est d’évaluer l’importance du paysage culturel dans la résilience des communautés urbaines post-catastrophes. Ce travail se concentre sur le quartier du Lower Ninth Ward dans la ville de La Nouvelle-Orléans (États-Unis) après le passage de l’ouragan Katrina en 2005. Les catastrophes naturelles prennent une envergure et causent des dommages considérables lorsqu’elles touchent des villes. La reconstruction post -désastre est donc très dispendieuse pour les villes et les gouvernements, d’autant que certaines régions sont dévastées au point qu’elles doivent être reconstruites au complet. Cependant, le coût le plus lourd à assumer reste celui en vies humaines et si rebâtir les éléments concrets d’une ville est une tâche difficile à entreprendre, reconstruire une communauté est considérablement plus complexe. Dans le but de comprendre une telle démarche, cette recherche se concentre sur les éléments intangibles, comme l’attachement au lieu et les réseaux sociaux, dont une communauté a besoin pour se reconstituer de façon durable et résiliente. Le concept de résilience est très contesté dans la littérature et plusieurs chercheurs se sont essayés à le mesurer. Cette recherche adopte une perspective critique sur le concept et le revisite d’un point de vue holistique pour mettre en lumière sa complexité. Cette démarche permet de remettre en question l’importance de mesurer un concept finalement en perpétuelle redéfinition dans le temps et selon les échelles géographiques. De plus, en établissant une relation entre résilience et paysage culturel, il a été possible de mieux comprendre la complexité de la résilience. Touchant à plusieurs disciplines (architecture de paysage, urbanisme et sociologie), cette recherche utilise une méthodologie qui reflète son aspect multidisciplinaire : les méthodes mixtes. Ces dernières permettent la collecte de données quantitatives et qualitatives qui produisent une vue globale de la situation post-Katrina à travers le regroupement de recensions statistiques, d’observations de terrain et d’articles de journaux. Parallèlement, des entretiens ont été réalisés avec des résidents du quartier ainsi qu’avec des professionnels pour mieux comprendre les différents points de vue. Cette méthodologie a permis de produire des résultats au niveau du cas d’étude autant qu’au niveau théorique. La recherche valide l’importance de prendre en compte le paysage culturel dans les situations post-catastrophes, (en particulier) dans la mesure où il s’agit d’un élément souvent négligé par les urbanistes et les acteurs locaux. En effet, les éléments constitutifs du paysage culturel tels que l’attachement au lieu et les réseaux sociaux, participent d’un sentiment d'appartenance (« home ») et d’une volonté, pour les résidents, de reconstruire leurs habitations, leur communauté ainsi que leur quartier. Toutefois, il faut reconnaître que ces éléments ne suffisent pas à retrouver ce qu’ils ont perdu. Ainsi, l’étude du paysage culturel permet non seulement de mieux comprendre la complexité de la résilience, mais démontre également que cette dernière est une construction sociale.
Resumo:
L’Internet Physique (IP) est une initiative qui identifie plusieurs symptômes d’inefficacité et non-durabilité des systèmes logistiques et les traite en proposant un nouveau paradigme appelé logistique hyperconnectée. Semblable à l’Internet Digital, qui relie des milliers de réseaux d’ordinateurs personnels et locaux, IP permettra de relier les systèmes logistiques fragmentés actuels. Le but principal étant d’améliorer la performance des systèmes logistiques des points de vue économique, environnemental et social. Se concentrant spécifiquement sur les systèmes de distribution, cette thèse remet en question l’ordre de magnitude du gain de performances en exploitant la distribution hyperconnectée habilitée par IP. Elle concerne également la caractérisation de la planification de la distribution hyperconnectée. Pour répondre à la première question, une approche de la recherche exploratoire basée sur la modélisation de l’optimisation est appliquée, où les systèmes de distribution actuels et potentiels sont modélisés. Ensuite, un ensemble d’échantillons d’affaires réalistes sont créé, et leurs performances économique et environnementale sont évaluées en ciblant de multiples performances sociales. Un cadre conceptuel de planification, incluant la modélisation mathématique est proposé pour l’aide à la prise de décision dans des systèmes de distribution hyperconnectée. Partant des résultats obtenus par notre étude, nous avons démontré qu’un gain substantiel peut être obtenu en migrant vers la distribution hyperconnectée. Nous avons également démontré que l’ampleur du gain varie en fonction des caractéristiques des activités et des performances sociales ciblées. Puisque l’Internet physique est un sujet nouveau, le Chapitre 1 présente brièvement l’IP et hyper connectivité. Le Chapitre 2 discute les fondements, l’objectif et la méthodologie de la recherche. Les défis relevés au cours de cette recherche sont décrits et le type de contributions visés est mis en évidence. Le Chapitre 3 présente les modèles d’optimisation. Influencés par les caractéristiques des systèmes de distribution actuels et potentiels, trois modèles fondés sur le système de distribution sont développés. Chapitre 4 traite la caractérisation des échantillons d’affaires ainsi que la modélisation et le calibrage des paramètres employés dans les modèles. Les résultats de la recherche exploratoire sont présentés au Chapitre 5. Le Chapitre 6 décrit le cadre conceptuel de planification de la distribution hyperconnectée. Le chapitre 7 résume le contenu de la thèse et met en évidence les contributions principales. En outre, il identifie les limites de la recherche et les avenues potentielles de recherches futures.
Resumo:
Cette thèse examine l’investissement en capital humain au Canada en s’intéressant à la contribution de l’aide financière aux études, aux effets de la fiscalité, à la rentabilité de l’investissement en éducation postsécondaire et à la redistribution des revenus. Elle est subdivisée en cinq chapitres. Le premier chapitre présente une révue chronologique des études microéconomiques sur l’investissement en capital humain. Il présente également une synthèse des études canadiennes sur l’investissement en capital humain en insistant sur les limites portant essentiellement sur la non prise en compte de l’hétérogénéité des systèmes de prêts et bourses et des systèmes fiscaux à travers les provinces canadiennes et la faible analyse de la répartition des coûts et bénéfices de l’investissement en éducation au Canada. Le second chapitre présente la méthodologie de mesure des rendements de l’éducation et des gains issus des investissements en éducation. Il décrit les données utilisées et les résultats des régressions économetriques. Finalement, le chapitre présente SIMAID, un calculateur d’aide financière aux études élaboré pour les objectifs dans cette thèse et qui permet d’estimer le montant de l’aide financière devant être attribuée à chaque étudiant en fonction de ses caractéristiques personnelles et de celles de sa famille. Dans sa première section, le troisième chapitre présente les rendements sociaux, privés et publics de l’éducation et montre que les rendements de l’éducation varient selon les provinces, les filières de formation, le genre et les cohortes d’année de naissance et décroient avec le niveau d’éducation. Dans sa seconde section, le chapitre montre que l’aide financière aux études accroît le rendement des études du baccalauréat de 24.3% et 9.5% respectivement au Québec et en Ontario. Finalement, le chapitre indique qu’un changement du système d’aide financière aux études de Québec par celui de l’Ontario entraîne une baisse de 11.9% du rendement des études au baccalauréat alors qu’un changement du système fiscal québécois par celui ontarien entraine une hausse du rendement du baccalauréat de 4.5%. L’effet combiné du changement des systèmes d’aide financière et fiscal est une baisse du rendement du baccalauréat de 7.4%. Le quatrième chapitre fournit une décomposition comptable détaillée des gains sociaux, privés et publics des investissements en éducation. Le gain social de l’investissement au baccalauréat est de $738 384 au Québec et de $685 437 en Ontario. Ce gain varie selon les filières de formation avec un niveau minimal pour les études humanitaires et un niveau maximal pour les études en ingénierie. Le chapitre montre également que la répartition des bénéfices et des coûts de l’investissement en éducation entre les individus et le gouvernement est plus équitable en Ontario qu’à Québec. En effet, un individu qui investit à Québec supporte 51.6% du coût total et engrange 64.8% des gains alors que le même individu supporterait 62.9% des coûts sociaux et engrangerait 62.2% des gains en Ontario. Finalement, le cinquième chapitre présente et analyse les effets rédistributifs des transferts et des taxes suite à un investissement en éducation. Il examine aussi si l’aide financière aux études est effectivement allouée aux personnes les plus pauvres. L’argument selon lequel l’aide financière est destinée aux plus pauvres est rejeté en analysant la distribution du revenu permanent. En effet, il ressort que 79% des personnes bénéficiant de l’aide financière aux études se trouvent dans le cinquième quintile de la distribution des revenus permanents. Le chapitre montre également que l’investissement en éducation impacte positivement les effets rédistributifs en 2006, 2001 et 1996 et négativement en 1991 et 2011. L’impact est également perceptible sur les composantes de l’effet rédistributif. Toutefois, la sensibilité de l’impact au taux d’actualisation dépend de l’indice utilisé dans l’analyse.
Resumo:
Après une période où la valeur des quotas laitiers a été en forte croissance au Québec, un plafond à cette valeur a été fixé à compter de 2007. Ce plafond a eu pour effet de limiter l’offre de quota sur le marché et la croissance de la taille des entreprises laitières québécoises. Cette situation soulève un questionnement sur l’efficience économique, le blocage de la croissance des entreprises les empêchant de bénéficier d’économies de taille, si bien entendu il en existe. En conséquence, cette étude s’intéresse aux économies de taille en production laitière en Amérique du Nord. Les économies de taille des entreprises ont été mesurées à l’aide d’une régression linéaire multiple à partir de certains indicateurs de coût monétaire et non monétaire. Cette analyse comprend quatre strates de taille formées à partir d’un échantillon non aléatoire de 847 entreprises du Québec, de l’État de New York et de la Californie, ainsi qu’à partir d’un groupe d’entreprises efficientes (groupe de tête). Les résultats démontrent l’existence d’économies de taille principalement au niveau des coûts fixes et plus particulièrement des coûts fixes non monétaires. Ils révèlent aussi que les deux indicateurs où l’effet des économies de taille est le plus important sont le coût du travail non rémunéré et l’amortissement. Par ailleurs, lorsque la taille d’une entreprise augmente, les économies de taille supplémentaires réalisées deviennent de moins en moins importantes. Enfin, les résultats indiquent qu’il existe des déséconomies de taille au niveau des coûts d’alimentation. Les résultats obtenus au niveau du groupe de tête vont dans le même sens. Ils confirment également qu’il est possible pour les grandes entreprises efficientes de réaliser des économies de taille pour la plupart des indicateurs de coût. Toutefois, les économies additionnelles que ces entreprises peuvent réaliser sont moins importantes que celles obtenues par les petites entreprises efficientes. Mots clés : Agriculture, production laitière, Amérique du Nord, économies de taille, efficience économique, régression linéaire.
Resumo:
Résumé : Les photodiodes à avalanche monophotonique (SPAD) sont d'intérêts pour les applications requérant la détection de photons uniques avec une grande résolution temporelle, comme en physique des hautes énergies et en imagerie médicale. En fait, les matrices de SPAD, souvent appelés photomultiplicateurs sur silicium (SiPM), remplacent graduellement les tubes photomultiplicateurs (PMT) et les photodiodes à avalanche (APD). De plus, il y a une tendance à utiliser les matrices de SPAD en technologie CMOS afin d'obtenir des pixels intelligents optimisés pour la résolution temporelle. La fabrication de SPAD en technologie CMOS commerciale apporte plusieurs avantages par rapport aux procédés optoélectroniques comme le faible coût, la capacité de production, l'intégration d'électronique et la miniaturisation des systèmes. Cependant, le défaut principal du CMOS est le manque de flexibilité de conception au niveau de l'architecture du SPAD, causé par le caractère fixe et standardisé des étapes de fabrication en technologie CMOS. Un autre inconvénient des matrices de SPAD CMOS est la perte de surface photosensible amenée par la présence de circuits CMOS. Ce document présente la conception, la caractérisation et l'optimisation de SPAD fabriqués dans une technologie CMOS commerciale (Teledyne DALSA 0.8µm HV CMOS - TDSI CMOSP8G). Des modifications de procédé sur mesure ont été introduites en collaboration avec l'entreprise CMOS pour optimiser les SPAD tout en gardant la compatibilité CMOS. Les matrices de SPAD produites sont dédiées à être intégrées en 3D avec de l'électronique CMOS économique (TDSI) ou avec de l'électronique CMOS submicronique avancée, produisant ainsi un SiPM 3D numérique. Ce SiPM 3D innovateur vise à remplacer les PMT, les APD et les SiPM commerciaux dans les applications à haute résolution temporelle. L'objectif principal du groupe de recherche est de développer un SiPM 3D avec une résolution temporelle de 10 ps pour usage en physique des hautes énergies et en imagerie médicale. Ces applications demandent des procédés fiables avec une capacité de production certifiée, ce qui justifie la volonté de produire le SiPM 3D avec des technologies CMOS commerciales. Ce mémoire étudie la conception, la caractérisation et l'optimisation de SPAD fabriqués en technologie TDSI-CMOSP8G.
Resumo:
Résumé : La capacité de décider parmi plusieurs possibilités d'actions, grâce à l'information sensorielle disponible, est essentielle à un organisme interagissant avec un environnement complexe. Les modèles actuels de sélection d'une action soutiennent que le cerveau traite continuellement l'information sensorielle afin de planifier plusieurs possibilités d'action en parallèle. Dans cette perspective, ces représentations motrices, associées à chaque possibilité d'action, sont en constante compétition entre elles. Afin qu'une alternative puisse être sélectionnée pour le mouvement, une valeur de pondération, intégrant une multitude de facteurs, doit être associée à chacun des plans moteurs afin de venir moduler la compétition. Plusieurs études se sont intéressées aux différents facteurs modulant la sélection de l'action, tels que la disposition de l'environnement, le coût des actions, le niveau de récompense, etc. Par contre, il semble qu'aucune étude n'ait rapporté ce qu'il advient lorsque la valeur de pondération de chacune des actions possibles est identique. Dans ce contexte, quel est l'élément permettant de venir moduler la sélection de l'action? De ce fait, l'objectif principal de mon projet de maitrise est d'investiguer le facteur permettant au cerveau de sélectionner une action lorsque tous les facteurs rapportés dans la littérature sont contrôlés. De récentes données ont montré que les oscillations corticales lentes dans la bande delta peuvent servir d'instrument de sélection attentionnelle en modulant l'amplitude de la réponse neuronale. Ainsi, les stimuli arrivant dans le cortex pendant une phase en delta de forte excitabilité sont amplifiés, tandis que ceux arrivant lors d'une phase en delta de faible excitabilité sont atténués. Ceci dit, il est possible que la phase en delta dans laquelle se trouve le cerveau au moment d'effectuer la sélection d'une action puisse influencer la décision. Utilisant une tâche de sélection de main, cette étude teste l'hypothèse que la sélection de la main est associée à la phase en delta des ensembles neuronaux codant le mouvement de chacune des mains, lorsque tous les facteurs connus influençant la décision sont contrôlés. L'électroencéphalographie (EEG) fut utilisée afin d'enregistrer les signaux corticaux pendant que les participants effectuaient une tâche de sélection de main dans laquelle ils devaient, à chaque essai, atteindre une cible visuelle aussi rapidement que possible en utilisant la main de leur choix. La tâche fut conçue de façon à ce que les facteurs spatiaux et biomécaniques soient contrôlés. Ceci fut réalisé enidentifiant premièrement, sur une base individuelle, l'emplacement de la cible pour laquelle les mains droite et gauche avaient une probabilité équivalente d'être choisies (point d'égalité subjective, PSE). Ensuite, dans l'expérience principale, les participants effectuaient plusieurs mouvements d'atteinte vers des cibles positionnées près et loin du PSE, toujours avec la main de leur choix. L'utilisation de cinq cibles très près du PSE a permis de collecter de nombreux essais dans lesquels la main droite et la main gauche furent sélectionnées en réponse à un même stimulus visuel. Ceci a ainsi permis d'analyser les signaux des deux cortex dans des conditions d'utilisation de la main droite et gauche, tout en contrôlant pour les autres facteurs pouvant moduler la sélection de la main. Les résultats de cette recherche révèlent que l'hémisphère cortical se trouvant dans la phase la plus excitable en delta (près du pic négatif), lors de l'apparition du stimulus, est associé à la fois à la main qui sera sélectionnée ainsi qu'au temps de réaction. Ces résultats montrent que l'excitabilité corticale momentanée (phase du signal) pourrait agir comme un facteur modulant la sélection d'une action. Dans cette optique, ces données élargissent considérablement les modèles actuels en montrant que la sélection d'une action est en partie déterminée par l'état du cerveau au moment d'effectuer un choix, d'une manière qui est indépendante de toutes les variables de décision connues.
Resumo:
Les caractéristiques physiques d’un site de nidification peuvent influencer la probabilité qu’il soit utilisé et l’issue des tentatives de nidification. La buse pattue (Buteo lagopus) construit un imposant nid, qui peut être réutilisé plusieurs années, en bordure des falaises et des versants en Arctique. Ces habitats escarpés sont perturbés par des mouvements de masse pouvant entraîner la destruction de sites critiques pour la reproduction des buses. Nous avons d’abord examiné l’effet de plusieurs variables environnementales et de la réutilisation d’un nid sur la reproduction de la buse pattue. Ensuite, nous avons évalué la vulnérabilité des nids aux mouvements de masse et identifié les facteurs environnementaux associés à la persistance des nids. L’étude s’est déroulée à l’île Bylot (Nunavut) de 2007 à 2015. La probabilité qu’un nid soit utilisé par un couple augmentait avec la distance du nid actif le plus proche, la présence d’un surplomb au-dessus du nid et la densité des lemmings. Les nids accessibles aux renards et orientés vers le nord étaient associés à un moins bon succès reproducteur. Celui-ci était aussi positivement relié à la densité estivale de lemmings et négativement relié aux précipitations. Nos résultats suggèrent que les caractéristiques physiques du site de nidification offrant un microclimat favorable et une protection contre les prédateurs reflètent des sites de haute qualité. Le succès reproducteur était similaire entre les nouveaux nids et ceux préexistants, suggérant que la construction d’un nid n’entraîne pas de coût sur la reproduction à court terme. Parmi les 82 nids connus, près du tiers ont été détruits par des mouvements de masse et parmi ceux encore intacts, la majorité sont à risque modéré et haut de l’être. La probabilité de destruction était élevée pour les nids construits sur des sédiments non consolidés et positivement associée aux fortes précipitations. La hausse anticipée des précipitations due aux changements climatiques est susceptible d’augmenter la vulnérabilité des nids aux mouvements de masse ce qui pourrait ultimement réduire la disponibilité de sites appropriés pour la reproduction de ce rapace.
Resumo:
Abstract : The use of social media tools to support small and medium-sized enterprises (SME) to support their business activities throughout the product life cycle (PLC) phases represents an interesting opportunity. SMEs operate in very competitive environments, and face significant challenges primarily caused by their size disadvantage. By nature, social media tools and platforms can enable them to overcome some of these challenges, as they are often very inexpensive, familiar and easy to use, allowing them to reach large audiences they would not be able to reach with traditional and expensive marketing initiatives. To provide solutions to this problem, this research identified three main objectives. The first objective was to draw a picture of the existing academic literature on the use of social media tools in the PLC context to better understand how these tools were studied and used in businesses, and for what purpose. Second, this research aimed at understanding how SMEs actually use social media tools to support their different business activities to identify the gap between academic research and actual business practices. Finally, based on the findings highlighted from the previous objectives, this research aimed at developing theory on this topic by proposing a conceptual framework of customer engagement enabled by social media. The conceptual framework aimed at answering general questions that emerged from the initial two objectives: Why do some SMEs use social media to support customer engagement, while others do not? Why do firms use different social media tools to support their customer engagement initiatives? Why does the scope of customer engagement initiatives (i.e., across different PLC phases) vary between SMEs? What are the potential outcomes of conducting customer engagement initiatives for the organizing firms? In order to achieve these research objectives, the methodology employed for this research is threefold. First, a systematic literature review was performed in order to properly understand how the use of social media tools in the PLC context had been studied. The final results consisted of 78 academic articles which were analyzed based on their bibliometric information and their content. Second, in order to draw the contrast between the academic publications and managerial reality of SMEs, six semi-structured interviews were conducted to understand how these firms actually use social media to support different activities in each of the PLC phases. Third, five additional semi-structured interviews were performed to gather a deeper understanding of this phenomenon and generate theory to support the proposed conceptual framework. The conceptual framework focuses on the degree of customer engagement, which is comprised of the scope (PLC phases) of customer engagement and the technology (social media tools) employed to support these initiatives. Two sets of antecedents were examined, firm motivators and firm impediments, as they could both potentially affect the scope and the social media tools used to support customer engagement initiatives. Finally, potential customer engagement outcomes for SMEs developing these initiatives were also examined. The semi-structured interviews lasted approximately 25-35 minutes, and were performed using an interview grid consisting of 24 open-ended questions. The interview grid was developed based on the findings of the systematic literature review, and this qualitative approach allowed for a rich understanding of the interviewed SMEs’ use of social media tools to support and engage customers in their different PLC activities. The main results highlighted by this project demonstrate that this field is relatively recent and sees constant increase in research interest since 2008. However, most of the academic research focuses on the use of social media tools to support innovation activities during the new product development process, while the interviewed firms almost exclusively used the tools to engage customers in the later phases of the PLC, primarily for promotion, customer service support, and business development activities. Interestingly, the interviewed firms highlighted several benefits of using social media tools to engage customers, some of which could help them overcome certain size disadvantages previously mentioned. These firms are in need of further guidelines to properly implement such initiatives and reap the expected benefits. Results suggest that SMEs are far behind both large companies and academic research in their use of social media to engage customers in different business activities. The proposed conceptual framework serves as a great tool to better understand their reality and eventually better support them in their social media and customer engagement efforts. However, this framework needs to be further developed and improved. This research project provides a 360-degree view of the phenomenon of the use of social media to support customer engagement for SMEs, by providing both a thorough systematic review of the academic research and an understanding of the managerial reality of SMEs behind this phenomenon. From this analysis, a conceptual framework is then proposed and serves as a stepping stone for future researchers who are interested in developing theory in this field.
Resumo:
Pour ce projet, nous avons développé une plateforme pour l’analyse pangénomique de la méthylation de l’ADN chez le bovin qui est compatible avec des échantillons de petites tailles. Cet outil est utilisé pour étudier les caractéristiques génétiques et épigénétiques (méthylation de l’ADN) des gamètes soumis aux procédures de procréation médicalement assisitée et des embryons précoces. Dans un premier temps, une plateforme d’analyse de biopuces spécifiques pour l’étude de la méthylation de l’ADN chez l’espèce bovine a été développée. Cette plateforme a ensuite été optimisée pour produire des analyses pangénomiques de méthylation de l’ADN fiables et reproductibles à partir d’échantillons de très petites tailles telle que les embryons précoces (≥ 10 ng d’ADN a été utilisé, ce qui correspond à 10 blastocystes en expansion). En outre, cet outil a permis d’évaluer de façon simultanée la méthylation de l’ADN et le transcriptome dans le même échantillon, fournissant ainsi une image complète des profils génétiques et épigénétiques (méthylation de l’ADN). Comme preuve de concept, les profils comparatifs de méthylation de l’ADN spermatique et de blastocystes bovins ont été analysés au niveau de l’ensemble du génome. Dans un deuxième temps, grâce à cette plateforme, les profils globaux de méthylation de l’ADN de taureaux jumeaux monozygotes (MZ) ont été analysés. Malgré qu’ils sont génétiquement identiques, les taureaux jumeaux MZ ont des descendants avec des performances différentes. Par conséquent, l’hypothèse que le profil de méthylation de l’ADN spermatique de taureaux jumeaux MZ est différent a été émise. Dans notre étude, des différences significatives entre les jumeaux MZ au niveau des caractéristiques de la semence ainsi que de la méthylation de l’ADN ont été trouvées, chacune pouvant contribuer à l’obtention de performances divergentes incongrues des filles engendrées par ces jumeaux MZ. Dans la troisième partie de ce projet, la même plateforme a été utilisée pour découvrir les impacts d’une supplémentation à forte concentration en donneur de méthyle universel sur les embryons précoces bovins. La supplémentation avec de grandes quantités d’acide folique (AF) a été largement utilisée et recommandée chez les femmes enceintes pour sa capacité bien établie à prévenir les malformations du tube neural chez les enfants. Cependant, plus récemment, plusieurs études ont rapporté des effets indésirables de l’AF utilisé à des concentrations élevées, non seulement sur le développement de l’embryon, mais aussi chez les adultes. Au niveau cellulaire, l’AF entre dans le métabolisme monocarboné, la seule voie de production de S-adénosyl méthionine (SAM), un donneur universel de groupements méthyles pour une grande variété de biomolécules, y compris l’ADN. Par conséquent, pour résoudre cette controverse, une forte dose de SAM a été utilisée pour traiter des embryons produits in vitro chez le bovin. Ceci a non seulement permis d’influencer le phénotype des embryons précoces, mais aussi d’avoir un impact sur le transcriptome et le méthylome de l’ADN. En somme, le projet en cours a permis le développement d’une plateforme d’analyse de la méthylation de l’ADN à l’échelle du génome entier chez le bovin à coût raisonnable et facile à utiliser qui est compatible avec les embryons précoces. De plus, puisque c’est l’une des premières études de ce genre en biologie de la reproduction bovine, ce projet avait trois objectifs qui a donné plusieurs nouveaux résultats, incluant les profils comparatifs de méthylation de l’ADN au niveau : i) blastocystes versus spermatozoïdes ; ii) semence de taureaux jumeaux MZ et iii) embryons précoces traités à de fortes doses de SAM versus des embryons précoces non traités.
Resumo:
De par leurs activités, les aéroports engendrent des impacts environnementaux non négligeables. Un des moyens utilisés pour diminuer leurs impacts environnementaux et sociaux est de réévaluer les exigences dans les appels d’offres et contrats lors de l’acquisition d’un bien ou d’un service pour y intégrer des clauses liées au développement durable. L’approvisionnement responsable est récent en milieu aéroportuaire et possède beaucoup de potentiel compte tenu de l’ampleur et de la diversité des achats qui y sont effectués. Afin de permettre une amélioration continue dans ce domaine, des lignes directrices pour l’élaboration d’un plan d’action d’approvisionnement responsable sont développées. Pour ce faire, un portrait de la situation du développement durable, et plus particulièrement de l’approvisionnement responsable, effectué en analysant le cas de différents aéroports, notamment celui d’Aéroports de Montréal, indique que la responsabilité sociétale d’entreprise est de plus en plus présente et qu’ils sont donc plus conscients de l’importance de connaitre leurs diverses parties prenantes. En ayant connaissance de ses forces et faiblesses en développement durable, grâce à une évaluation BNQ 21000, un plan d’action d’approvisionnement responsable adapté à la réalité d’Aéroports de Montréal est élaboré. Pour ce faire, trois stratégies sont retenues : promouvoir les pratiques d'approvisionnement responsable, favoriser l’implantation de nouvelles pratiques et responsabiliser l'entièreté de la chaîne d'approvisionnement. La première orientation vise principalement à augmenter la communication des efforts et progrès accomplis, la deuxième consiste à apporter quelques ajustements organisationnels pour optimiser les possibilités et la troisième permet d’influencer les fournisseurs à considérer l’approvisionnement responsable dans leur gestion. Néanmoins, certaines pratiques recensées et jugées applicables au sein d’Aéroports de Montréal requièrent plus de temps ou de ressources que sur une période de cinq ans. Ainsi, une stratégie à plus long terme est nécessaire pour assurer une amélioration continue dans le temps. Pour ce faire, il est recommandé de constituer un comité d’approvisionnement responsable pour favoriser une multidisciplinarité et une progression plus rapide. Des pratiques telles que le calcul de coût de propriété, les audits des fournisseurs et de la sensibilisation dans le but de favoriser une plus grande collaboration, nécessitent d’être planifiées dans la stratégie pour optimiser leur implantation avec succès. Le plan d’action intègre les ressources humaines et financières devant être mobilisées afin de préparer les différents départements à la mise en œuvre des pratiques d’approvisionnement proposées.
Resumo:
Les matériaux composites sont utilisés dans beaucoup de domaines pour leurs propriétés mécaniques spécifiques, leur mise en forme facile et leur bas coût. Cependant, lorsque les composites pétro-sourcées sont en fin de vie, le traitement des déchets a un fort impact environnemental. C’est pour cette raison que les industriels se tournent vers des matériaux bio-sourcés. Ils souhaitent ainsi abaisser le coût des matières premières mais aussi se donner une image plus « verte » grâce à l’utilisation de matériaux renouvelables et/ou compostables. Le projet présenté s’inscrit dans dans cette optique où il est question d’élaborer de nouveaux composites à renfort et matrices bio-sourcés et tout particulièrement des composites fibre de lin/acide polylactique (PLA). Ces derniers sont généralement appelés bio-composites. L’originalité de cette étude réside dans le traitement des fibres de lin afin de les compatibilité avec la matrice PLA. Le traitement consiste au greffage de dioxyde de titane sur la surface de fibres de lin fonctionnalisée par oxydation au TEMPO. Ces fibres longues sont ensuite utilisées comme renfort sous forme de tissu unidirectionnel dans la matrice PLA. Le comportement mécanique en traction, flexion et la résistance à l’impact de ces biocomposites sont étudiés afin d’analyser l’influence du traitement des fibres sur leur performances.