47 resultados para Problème de conception de réseaux à un seul produit
Resumo:
La photocatalyse est un procédé d’oxydation avancé très intéressant puisqu’il ne nécessite l’ajout d’aucun réactif chimique. Beaucoup de compagnies souhaitent utiliser ce procédé pour le traitement des gaz et des eaux. Les services Exp inc. est une compagnie qui s’intéresse à la dégradation des composés organiques volatils en milieu aqueux. Ils ont comme objectif d’améliorer leurs technologies et d’en développer de nouvelles comme la photocatalyse. L’objectif ce de projet de maîtrise est de développer un matériau capable d‘oxyder le méthanol en phase aqueuse. Le développement d’un tel photocatalyseur permet d’évaluer systématiquement l’impact de toutes les modifications apportées à un matériau de base et d’en comprendre les bénéfices. Le matériau préparé est basé sur des nanotiges de WO3 synthétisées par voie hydrothermale où l’on ajoute des nanoparticules de TiO2 pour former un composé mixte. Un co-catalyseur de réduction, le platine, est ajouté par photodéposition sur le composé TiO2/WO3. Le produit est finalement traité à l’hydrogène pour en augmenter l’activité catalytique. Pour tester les matériaux, un réacteur photocatalytique a été conçu. Le réacteur possède deux configurations, soit une avec une lampe ultraviolette plongée dans l’eau et une avec une bande de diodes électroluminescentes bleues autour du réacteur. Les modifications, telles que le traitement sous hydrogène et l’ajout de platine, augmentent considérablement l’activité des photocatalyseurs. Les nanotiges de WO3 possèdent une faible surface spécifique offrant donc une activité inférieure à un autre composé avec plus de surface. L’activité des photocatalyseurs est plus faible que celles desprocédés utilisant du peroxyde. Cependant, plusieurs avantages sont remarqués. La photocatalyse se fait à pH neutre et il est possible d’utiliser de la lumière visible. Un matériau photocatalytique basé sur des nanoparticules de WO3 à haute surface spécifique avec du TiO2, du platine et traité à l’hydrogène pourrait offrir une avenue intéressante pour Exp inc.
Resumo:
Cette thèse propose de développer des mécanismes déployables pour applications spatiales ainsi que des modes d’actionnement permettant leur déploiement et le contrôle de l’orientation en orbite de l’engin spatial les supportant. L’objectif étant de permettre le déploiement de surfaces larges pour des panneaux solaires, coupoles de télécommunication ou sections de station spatiale, une géométrie plane simple en triangle est retenue afin de pouvoir être assemblée en différents types de surfaces. Les configurations à membrures rigides proposées dans la littérature pour le déploiement de solides symétriques sont optimisées et adaptées à l’expansion d’une géométrie ouverte, telle une coupole. L’optimisation permet d’atteindre un ratio d’expansion plan pour une seule unité de plus de 5, mais présente des instabilités lors de l’actionnement d’un prototype. Le principe de transmission du mouvement d’un étage à l’autre du mécanisme est revu afin de diminuer la sensibilité des performances du mécanisme à la géométrie de ses membrures internes. Le nouveau modèle, basé sur des courroies crantées, permet d’atteindre des ratios d’expansion plans supérieurs à 20 dans certaines configurations. L’effet des principaux facteurs géométriques de conception est étudié afin d’obtenir une relation simple d’optimisation du mécanisme plan pour adapter ce dernier à différents contextes d’applications. La géométrie identique des faces triangulaires de chaque surface déployée permet aussi l’empilement de ces faces pour augmenter la compacité du mécanisme. Une articulation spécialisée est conçue afin de permettre le dépliage des faces puis leur déploiement successivement. Le déploiement de grandes surfaces ne se fait pas sans influencer lourdement l’orientation et potentiellement la trajectoire de l’engin spatial, aussi, différentes stratégies de contrôle de l’orientation novatrices sont proposées. Afin de tirer profit d’une grande surface, l’actionnement par masses ponctuelles en périphérie du mécanisme est présentée, ses équations dynamiques sont dérivées et simulées pour en observer les performances. Celles-ci démontrent le potentiel de cette stratégie de réorientation, sans obstruction de l’espace central du satellite de base, mais les performances restent en deçà de l’effet d’une roue d’inertie de masse équivalente. Une stratégie d’actionnement redondant par roue d’inertie est alors présentée pour différents niveaux de complexité de mécanismes dont toutes les articulations sont passives, c’est-à-dire non actionnées. Un mécanisme à quatre barres plan est simulé en boucle fermée avec un contrôleur simple pour valider le contrôle d’un mécanisme ciseau commun. Ces résultats sont étendus à la dérivation des équations dynamiques d’un mécanisme sphérique à quatre barres, qui démontre le potentiel de l’actionnement par roue d’inertie pour le contrôle de la configuration et de l’orientation spatiale d’un tel mécanisme. Un prototype à deux corps ayant chacun une roue d’inertie et une seule articulation passive les reliant est réalisé et contrôlé grâce à un suivi par caméra des modules. Le banc d’essai est détaillé, ainsi que les défis que l’élimination des forces externes ont représenté dans sa conception. Les résultats montrent que le système est contrôlable en orientation et en configuration. La thèse se termine par une étude de cas pour l’application des principaux systèmes développés dans cette recherche. La collecte de débris orbitaux de petite et moyenne taille est présentée comme un problème n’ayant pas encore eu de solution adéquate et posant un réel danger aux missions spatiales à venir. L’unité déployable triangulaire entraînée par courroies est dupliquée de manière à former une coupole de plusieurs centaines de mètres de diamètre et est proposée comme solution pour capturer et ralentir ces catégories de débris. Les paramètres d’une mission à cette fin sont détaillés, ainsi que le potentiel de réorientation que les roues d’inertie permettent en plus du contrôle de son déploiement. Près de 2000 débris pourraient être retirés en moins d’un an en orbite basse à 819 km d’altitude.
Resumo:
Les réseaux véhiculaires mobiles, ou Vehicular Ad-hoc NETworks (VANETs), existent depuis les années 80, mais sont de plus en plus développés depuis quelques années dans différentes villes à travers le monde. Ils constituent un apport d’informations aux réseaux routiers grâce à la mise en place de communications entre ses constituants : principalement les véhicules, mais aussi certaines infrastructures de bords de routes liées directement aux automobilistes (feux de circulation, parcomètres, infrastructures spécialisées pour les VANETs et bien d’autres). L’ajout des infrastructures apporte un support fixe à la dissémination des informations dans le réseau. Le principal objectif de ce type de réseau est d’améliorer la sécurité routière, les conditions de circulations, et d’apporter aux conducteurs et aux passagers quelques applications publicitaires ou de divertissement. Pour cela, il est important de faire circuler l’information de la manière la plus efficace possible entre les différents véhicules. L’utilisation des infrastructures pour la simulation de ces réseaux est bien souvent négligée. En effet, une grande partie des protocoles présentés dans la littérature simulent un réseau ad-hoc avec des noeuds se déplaçant plus rapidement et selon une carte définie. Cependant, ils ne prennent pas en compte les spécificités même d’un réseau véhiculaire mobile. Le routage de l’information dans les réseaux véhiculaires mobiles utilise les infrastructures de façon certes opportuniste, mais à terme, les infrastructures seront très présentes dans les villes et sur les autoroutes. C’est pourquoi nous nous sommes concentrés dans ce mémoire à l’étude des variations des différentes métriques du routage de l’information lors de l’ajout d’infrastructures sur une autoroute avec l’utilisation du protocole de routage AODV. De plus, nous avons modifié le protocole AODV afin d’obliger les messages à emprunter le chemin passant par les infrastructures si celles-ci sont disponibles. Les résultats présentés sont encourageants, et nous montrent qu’il est important de simuler les réseaux VANETs de manière complète, en considérant les infrastructures.
Resumo:
Cette recherche, de nature exploratoire et descriptive, s’intéresse à la trajectoire de recherche d’aide chez les parents vivant des difficultés avec leur adolescent. Cette recherche utilise une méthodologie qualitative et vise à améliorer la compréhension actuelle des processus de recherche d’aide des parents et à identifier l’influence des dynamiques relationnelles et de la réponse sociale obtenue. Notre échantillon est composé de dix parents ayant eu recours à une aide professionnelle concernant des difficultés avec leur adolescent. Notre cueillette de données s’est faite à l’aide d’une entrevue semi-structurée à questions ouvertes et nous avons procédé à une analyse thématique de celles-ci. Les résultats révèlent la complexité derrière les comportements de recherches d’aide et les différentes difficultés rencontrées. Dans leurs trajectoires, trois principaux moments-clés sont distinguables : la reconnaissance du problème, la recherche de solutions et la réponse à la demande d’aide. Les différentes influences et interactions des membres du réseau d’aide informelle, du milieu scolaire et du système de services sont également détaillées. Les résultats mettent en lumière l’importance des dynamiques de négociation au sein du couple parental et l’impact des listes d’attente et des interruptions dans les services d’aide. Les résultats exposent que cette expérience est assez éprouvante pour les parents. Bien qu’elle ne permette pas de résoudre tous les problèmes rencontrés, elle se révèle avec le recul être salutaire, pour la plupart des parents.
Resumo:
L’antibiorésistance est un problème de santé publique majeur, causé principalement par l’usage abusif d’antibiotiques dans les élevages. Les probiotiques sont une alternative potentielle aux antibiotiques. Cependant, acheminer ces microorganismes vivants et fonctionnels jusqu’au côlon est un grand défi, à cause du pH et des sels biliaires à affronter lors du passage gastro-intestinal. L’objectif de ce travail était de développer une matrice prébiotique capable de maintenir la survie et l’activité des probiotiques pendant le transit gastro-intestinal et de permettre leur libération dans le côlon. Pour atteindre cet objectif, cinq types de matrices sphériques (A, AI5, AI10, AI15, AI20) à base d’inuline (0 %, 5 %, 10 %, 15 % et 20 %) et d’alginate (2 %) ont été préparés par la méthode d’extrusion/gélification ionotropique. Trois souches probiotiques ont été utilisées au cours du développement des billes : Pediococcus acidilactici UL5 (UL5), Lactobacillus reuteri (LR) et Lactobacillus salivarius (LS). Dans un premier temps, toutes les formulations ont été caractérisées d’un point de vue physicochimique et microbiologique. Ces analyses ont permis de révéler une distribution homogène de l’inuline et de l’alginate au sein des matrices et ont démontré que la viabilité et la capacité antimicrobienne des souches utilisées n’étaient pas affectées par l’encapsulation. À la lumière de ces résultats, trois formulations A, AI5 et AI20 ont été sélectionnées pour la suite de l’étude. Dans un deuxième temps, la mucoadhésion et le comportement des billes A, AI5 et AI20 ont été étudiés dans les parties supérieures du tractus gastro-intestinal. Ces études ont démontré que la présence de l’inuline améliore les propriétés mucoadhésives des billes. Elles ont également établi que seule la formulation AI5 résiste jusqu’à la fin de la digestion. Ce comportement est expliqué en partie par l’interaction alginate-inuline décelée par spectroscopie infrarouge à transformée de Fourier (FTIR). Cette interaction était stable pour les billes AI5 au pH 6,8 mais instable pour la formulation AI20. Enfin, le comportement et la dynamique bactérienne de la formulation AI5 dans les milieux coliques fermenté et non fermenté ont été étudiés. Cette étude a révélé que les billes AI5 se dégradent et libèrent la totalité des bactéries après environ 4 heures d’incubation dans le milieu fermenté. Cette dégradation est due aux enzymes très abondantes dans ce milieu. En conclusion, la formulation AI5 s’est avérée être un très bon véhicule pour protéger les bactéries dans les parties supérieures du tube digestif et favoriser leur libération dans le côlon. Elle pourrait donc, être utilisée pour une application en alimentation animale.
Resumo:
Depuis longtemps, le Soleil est vu comme une source renouvelable d’intérêt pour combler nos besoins en énergie. Or, le coût prohibitif de l’énergie solaire a jusqu’à maintenant rendu celle-ci peu utilisée. Pour accroître son adoption, il faut absolument rendre son coût concurrentiel avec celui des énergies fossiles. Pour cela, plusieurs possibilités existent. L’une d’elles est l’utilisation d’un système optique pour concentrer la lumière. Cette thèse présente donc une solution basée sur la conception d’un nouveau type de concentrateur solaire de basse-moyenne concentration fait de polymère dans le but de réduire son coût de fabrication. Les performances de ce système compact utilisant des microlentilles ont ensuite été améliorées par l’ajout d’un gradient d’indice de réfraction dans la matrice polymérique. Une analyse sommaire du coût de l’énergie produite par de tels dispositifs permet ensuite de conclure que les systèmes développés dans le cadre de ce projet de recherche ont un potentiel commercial. Pour cette raison, le concept le plus prometteur basé sur l’utilisation d’un gradient d’indice afin d’accroître les performances a fait état du dépôt d’une demande de brevet.
Resumo:
Chaque année le feu brûle quelques dizaines de milliers d’hectares de forêts québécoises. Le coût annuel de prévention et de lutte contre les feux de forêts au Québec est de l’ordre de plusieurs dizaines de millions de dollars. Le présent travail contribue à la réduction de ces coûts à travers l’automatisation du processus de planification des opérations de suppression des feux de forêts majeurs. Pour ce faire, un modèle mathématique linéaire en nombres entiers a été élaboré, résolu et testé; introduisant un nouveau cas particulier à la littérature des Problèmes de Tournées de Véhicules (VRP). Ce modèle mathématique concerne le déploiement aérien des ressources disponibles pour l’extinction des incendies. Le modèle élaboré a été testé avec CPLEX sur des cas tirés de données réelles. Il a permis de réduire le temps de planification des opérations d’extinction des feux de forêts majeurs de 75% dans les situations courantes.
Resumo:
Ce mémoire intitulé « Maternité en exil : la construction d’un réseau de soutien à Montréal » propose de documenter les réseaux de soutien des femmes immigrantes d’origine maghrébine. Plus précisément, il aborde l’aide attendue et reçue lors de leur expérience de maternité. Sur la base d’entrevues qualitatives menées dans deux quartiers Montréalais auprès de femmes immigrantes et d’intervenantes du milieu communautaire, le mémoire s’articule autour de plusieurs catégories d’aidants issus de réseaux différents : de la famille, de connaissances, du milieu du travail, d’organismes communautaires ou d’établissements de santé publique. Il a notamment été observé que le réseau féminin entourant les mères immigrantes est très important et que ces femmes mettent en place des stratégies afin de combler leurs attentes.
Resumo:
Les besoins toujours croissants en terme de transfert de données numériques poussent au développement de nouvelles technologies pour accroître la capacité des réseaux, notamment en ce qui concerne les réseaux de fibre optique. Parmi ces nouvelles technologies, le multiplexage spatial permet de multiplier la capacité des liens optiques actuels. Nous nous intéressons particulièrement à une forme de multiplexage spatial utilisant le moment cinétique orbital de la lumière comme base orthogonale pour séparer un certain nombre de canaux. Nous présentons d’abord les notions d’électromagnétisme et de physique nécessaires à la compréhension des développements ultérieurs. Les équations de Maxwell sont dérivées afin d’expliquer les modes scalaires et vectoriels de la fibre optique. Nous présentons également d’autres propriétés modales, soit la coupure des modes, et les indices de groupe et de dispersion. La notion de moment cinétique orbital est ensuite introduite, avec plus particulièrement ses applications dans le domaine des télécommunications. Dans une seconde partie, nous proposons la carte modale comme un outil pour aider au design des fibres optiques à quelques modes. Nous développons la solution vectorielle des équations de coupure des modes pour les fibres en anneau, puis nous généralisons ces équations pour tous les profils de fibres à trois couches. Enfin, nous donnons quelques exemples d’application de la carte modale. Dans la troisième partie, nous présentons des designs de fibres pour la transmission des modes avec un moment cinétique orbital. Les outils développés dans la seconde partie sont utilisés pour effectuer ces designs. Un premier design de fibre, caractérisé par un centre creux, est étudié et démontré. Puis un second design, une famille de fibres avec un profil en anneau, est étudié. Des mesures d’indice effectif et d’indice de groupe sont effectuées sur ces fibres. Les outils et les fibres développés auront permis une meilleure compréhension de la transmission dans la fibre optique des modes ayant un moment cinétique orbital. Nous espérons que ces avancements aideront à développer prochainement des systèmes de communications performants utilisant le multiplexage spatial.
Resumo:
Ma thèse s’intéresse aux politiques de santé conçues pour encourager l’offre de services de santé. L’accessibilité aux services de santé est un problème majeur qui mine le système de santé de la plupart des pays industrialisés. Au Québec, le temps médian d’attente entre une recommandation du médecin généraliste et un rendez-vous avec un médecin spécialiste était de 7,3 semaines en 2012, contre 2,9 semaines en 1993, et ceci malgré l’augmentation du nombre de médecins sur cette même période. Pour les décideurs politiques observant l’augmentation du temps d’attente pour des soins de santé, il est important de comprendre la structure de l’offre de travail des médecins et comment celle-ci affecte l’offre des services de santé. Dans ce contexte, je considère deux principales politiques. En premier lieu, j’estime comment les médecins réagissent aux incitatifs monétaires et j’utilise les paramètres estimés pour examiner comment les politiques de compensation peuvent être utilisées pour déterminer l’offre de services de santé de court terme. En second lieu, j’examine comment la productivité des médecins est affectée par leur expérience, à travers le mécanisme du "learning-by-doing", et j’utilise les paramètres estimés pour trouver le nombre de médecins inexpérimentés que l’on doit recruter pour remplacer un médecin expérimenté qui va à la retraite afin de garder l’offre des services de santé constant. Ma thèse développe et applique des méthodes économique et statistique afin de mesurer la réaction des médecins face aux incitatifs monétaires et estimer leur profil de productivité (en mesurant la variation de la productivité des médecins tout le long de leur carrière) en utilisant à la fois des données de panel sur les médecins québécois, provenant d’enquêtes et de l’administration. Les données contiennent des informations sur l’offre de travail de chaque médecin, les différents types de services offerts ainsi que leurs prix. Ces données couvrent une période pendant laquelle le gouvernement du Québec a changé les prix relatifs des services de santé. J’ai utilisé une approche basée sur la modélisation pour développer et estimer un modèle structurel d’offre de travail en permettant au médecin d’être multitâche. Dans mon modèle les médecins choisissent le nombre d’heures travaillées ainsi que l’allocation de ces heures à travers les différents services offerts, de plus les prix des services leurs sont imposés par le gouvernement. Le modèle génère une équation de revenu qui dépend des heures travaillées et d’un indice de prix représentant le rendement marginal des heures travaillées lorsque celles-ci sont allouées de façon optimale à travers les différents services. L’indice de prix dépend des prix des services offerts et des paramètres de la technologie de production des services qui déterminent comment les médecins réagissent aux changements des prix relatifs. J’ai appliqué le modèle aux données de panel sur la rémunération des médecins au Québec fusionnées à celles sur l’utilisation du temps de ces mêmes médecins. J’utilise le modèle pour examiner deux dimensions de l’offre des services de santé. En premierlieu, j’analyse l’utilisation des incitatifs monétaires pour amener les médecins à modifier leur production des différents services. Bien que les études antérieures ont souvent cherché à comparer le comportement des médecins à travers les différents systèmes de compensation,il y a relativement peu d’informations sur comment les médecins réagissent aux changementsdes prix des services de santé. Des débats actuels dans les milieux de politiques de santé au Canada se sont intéressés à l’importance des effets de revenu dans la détermination de la réponse des médecins face à l’augmentation des prix des services de santé. Mon travail contribue à alimenter ce débat en identifiant et en estimant les effets de substitution et de revenu résultant des changements des prix relatifs des services de santé. En second lieu, j’analyse comment l’expérience affecte la productivité des médecins. Cela a une importante implication sur le recrutement des médecins afin de satisfaire la demande croissante due à une population vieillissante, en particulier lorsque les médecins les plus expérimentés (les plus productifs) vont à la retraite. Dans le premier essai, j’ai estimé la fonction de revenu conditionnellement aux heures travaillées, en utilisant la méthode des variables instrumentales afin de contrôler pour une éventuelle endogeneité des heures travaillées. Comme instruments j’ai utilisé les variables indicatrices des âges des médecins, le taux marginal de taxation, le rendement sur le marché boursier, le carré et le cube de ce rendement. Je montre que cela donne la borne inférieure de l’élasticité-prix direct, permettant ainsi de tester si les médecins réagissent aux incitatifs monétaires. Les résultats montrent que les bornes inférieures des élasticités-prix de l’offre de services sont significativement positives, suggérant que les médecins répondent aux incitatifs. Un changement des prix relatifs conduit les médecins à allouer plus d’heures de travail au service dont le prix a augmenté. Dans le deuxième essai, j’estime le modèle en entier, de façon inconditionnelle aux heures travaillées, en analysant les variations des heures travaillées par les médecins, le volume des services offerts et le revenu des médecins. Pour ce faire, j’ai utilisé l’estimateur de la méthode des moments simulés. Les résultats montrent que les élasticités-prix direct de substitution sont élevées et significativement positives, représentant une tendance des médecins à accroitre le volume du service dont le prix a connu la plus forte augmentation. Les élasticitésprix croisées de substitution sont également élevées mais négatives. Par ailleurs, il existe un effet de revenu associé à l’augmentation des tarifs. J’ai utilisé les paramètres estimés du modèle structurel pour simuler une hausse générale de prix des services de 32%. Les résultats montrent que les médecins devraient réduire le nombre total d’heures travaillées (élasticité moyenne de -0,02) ainsi que les heures cliniques travaillées (élasticité moyenne de -0.07). Ils devraient aussi réduire le volume de services offerts (élasticité moyenne de -0.05). Troisièmement, j’ai exploité le lien naturel existant entre le revenu d’un médecin payé à l’acte et sa productivité afin d’établir le profil de productivité des médecins. Pour ce faire, j’ai modifié la spécification du modèle pour prendre en compte la relation entre la productivité d’un médecin et son expérience. J’estime l’équation de revenu en utilisant des données de panel asymétrique et en corrigeant le caractère non-aléatoire des observations manquantes à l’aide d’un modèle de sélection. Les résultats suggèrent que le profil de productivité est une fonction croissante et concave de l’expérience. Par ailleurs, ce profil est robuste à l’utilisation de l’expérience effective (la quantité de service produit) comme variable de contrôle et aussi à la suppression d’hypothèse paramétrique. De plus, si l’expérience du médecin augmente d’une année, il augmente la production de services de 1003 dollar CAN. J’ai utilisé les paramètres estimés du modèle pour calculer le ratio de remplacement : le nombre de médecins inexpérimentés qu’il faut pour remplacer un médecin expérimenté. Ce ratio de remplacement est de 1,2.
Resumo:
Avec le vieillissement des infrastructures routières au Québec, plusieurs ponts de courte portée devront être reconstruits à neuf au cours des prochaines années. La pratique usuelle est de les concevoir entièrement en béton ou en systèmes mixtes acier-béton. Toutefois, avec l’avancement de la recherche dans le domaine du bois, le système hybride bois-béton est envisageable. Le but est de tirer profit des avantages de chaque matériau en les disposant aux endroits appropriés. Le tablier du pont est constitué d’une dalle de béton qui agit en compression et protège des intempéries les poutres en bois lamellé-collé qui résistent en traction. L’enjeu est la capacité de lier efficacement ces deux matériaux pour qu’ils puissent reprendre les efforts dus aux charges de conception avec un glissement d’interface minimal. De nombreux chercheurs ont proposé diverses méthodes pour répondre à cette problématique. Les connecteurs locaux (vis, clous) sont moins rigides et se déforment beaucoup à l’ultime. À l’inverse, les connecteurs continus offrent une rigidité très élevée, de petits déplacements à rupture sans négliger la plasticité du système. Pour cette raison, le connecteur choisi est le HBV Shear, une mince bande d’acier de 90mm de hauteur perforée de trous de 10mm. Sa moitié inférieure est collée dans une fente pratiquée dans la poutre et la partie supérieure est immergée dans le béton. Pour caractériser le comportement du connecteur, dix essais en cisaillement simple ont été effectués. Ils ont permis de quantifier la rigidité et d’apprécier la ductilité qui s’installe dans le système par l’ajout de l’acier. Par la suite, six poutres hybrides simple de 4 m, deux systèmes à poutres double de 4m et deux poutres hybrides de 12m de portée ont été amenées à la rupture en flexion. Ces essais ont montré que le connecteur se brisait sous l’effort de manière ductile avant la rupture fragile de la poutre en bois. Les résultats ont aussi prouvé que les méthodes de calculs utilisées estiment correctement la séquence de rupture ainsi que le comportement du système avec une très grande efficacité. Finalement, un tablier de pont composite a été conçu pour résister aux efforts à l’ultime, en service et à long terme.
Resumo:
Les substituts valvulaires disponibles actuellement comportent encore plusieurs lacunes. La disponibilité restreinte des allogreffes, les risques de coagulation associés aux valves mécaniques et la durabilité limitée des bioprothèses en tissu animal sont toutes des problématiques que le génie tissulaire a le potentiel de surmonter. Avec la méthode d’auto-assemblage, le seul support des cellules consiste en leur propre matrice extracellulaire, permettant la fabrication d’un tissu entièrement libre de matériau exogène. Ce projet a été précédé par ceux des doctorantes Catherine Tremblay et Véronique Laterreur, ayant respectivement développé une méthode de fabrication de valves moulées par auto-assemblage et une nouvelle version de bioréacteur. Au cours de cette maîtrise, le nouveau bioréacteur a été adapté à une utilisation stérile avec des tissus vivants et la méthode de fabrication de valves moulées a été modifiée puis éprouvée avec la production de 4 prototypes. Ces derniers n’ont pas permis d’obtenir des performances satisfaisantes en bioréacteur, motivant la conception d’une nouvelle méthode. Plutôt que de tenter de répliquer la forme native des valves cardiaques, des études récentes ont suggéré une géométrie tubulaire. Cela permettrait une fabrication simplifiée, une implantation rapide, et un encombrement minimal en vue d’opérations percutanées. Cette approche minimaliste s’accorde bien avec la méthode d’auto-assemblage, qui a déjà été utilisée pour la production de vaisseaux de petits diamètres. Un total de 11 tubes ont été produits par l’enroulement de feuillets fibroblastiques auto-assemblés, puis ont été transférés sur des mandrins de diamètre inférieur, leur permettant de se contracter librement. La caractérisation de deux tubes contrôles a démontré que cette phase de précontraction était bénéfique pour les propriétés du tissu en plus de prévenir la contraction en bioréacteur. Les prototypes finaux pouvaient supporter un écoulement physiologique pulmonaire. Cette nouvelle méthode montre que le procédé d’auto-assemblage a le potentiel d’être utilisé pour fabriquer des valves cardiaques tubulaires.
Resumo:
Le bois subit une demande croissante comme matériau de construction dans les bâtiments de grandes dimensions. Ses qualités de matériau renouvelable et esthétique le rendent attrayant pour les architectes. Lorsque comparé à des produits fonctionnellement équivalents, il apparait que le bois permet de réduire la consommation d’énergie non-renouvelable. Sa transformation nécessite une quantité d’énergie inférieure que l’acier et le béton. Par ailleurs, par son origine biologique, une structure en bois permet de stocker du carbone biogénique pour la durée de vie du bâtiment. Maintenant permis jusqu’à six étages de hauteur au Canada, les bâtiments de grande taille en bois relèvent des défis de conception. Lors du dimensionnement des structures, les zones des connecteurs sont souvent les points critiques. Effectivement, les contraintes y sont maximales. Les structures peuvent alors apparaitre massives et diminuer l’innovation architecturale. De nouvelles stratégies doivent donc être développées afin d’améliorer la résistance mécanique dans les zones de connecteurs. Différents travaux ont récemment porté sur la création ou l’amélioration de types d’assemblage. Dans cette étude, l’accent est mis sur le renforcement du bois utilisé dans la région de connexion. L’imprégnation a été choisie comme solution de renfort puisque la littérature démontre qu’il est possible d’augmenter la dureté du bois avec cette technique. L’utilisation de cette stratégie de renfort sur l’épinette noire (Picea Mariana (Mill.) BSP) pour une application structurale est l’élément de nouveauté dans cette recherche. À défaut d’effectuer une imprégnation jusqu’au coeur des pièces, l’essence peu perméable de bois employée favorise la création d’une mince couche en surface traitée sans avoir à utiliser une quantité importante de produits chimiques. L’agent d’imprégnation est composé de 1,6 hexanediol diacrylate, de triméthylopropane tricacrylate et d’un oligomère de polyester acrylate. Une deuxième formulation contenant des nanoparticules de SiO2 a permis de vérifier l’effet des nanoparticules sur l’augmentation de la résistance mécanique du bois. Ainsi, dans ce projet, un procédé d’imprégnation vide-pression a servi à modifier un nouveau matériau à base de bois permettant des assemblages plus résistants mécaniquement. Le test de portance locale à l’enfoncement parallèle au fil d’un connecteur de type tige a été réalisé afin de déterminer l’apport du traitement sur le bois utilisé comme élément de connexion. L’effet d’échelle a été observé par la réalisation du test avec trois diamètres de boulons différents (9,525 mm, 12,700 mm et 15,875 mm). En outre, le test a été effectué selon un chargement perpendiculaire au fil pour le boulon de moyen diamètre (12,700 mm). La corrélation d’images numériques a été utilisée comme outil d’analyse de la répartition des contraintes dans le bois. Les résultats ont démontré une portance du bois plus élevée suite au traitement. Par ailleurs, l’efficacité est croissante lorsque le diamètre du boulon diminue. C’est un produit avec une valeur caractéristique de la portance locale parallèle au fil de 79% supérieure qui a été créé dans le cas du test avec le boulon de 9,525 mm. La raideur du bois a subi une augmentation avoisinant les 30%. Suite au traitement, la présence d’une rupture par fissuration est moins fréquente. Les contraintes se distribuent plus largement autour de la région de connexion. Le traitement n’a pas produit d’effet significatif sur la résistance mécanique de l’assemblage dans le cas d’un enfoncement du boulon perpendiculairement au fil du bois. De même, l’effet des nanoparticules en solution n’est pas ressorti significatif. Malgré une pénétration très faible du liquide à l’intérieur du bois, la couche densifiée en surface créée suite au traitement est suffisante pour produire un nouveau matériau plus résistant dans les zones de connexion. Le renfort du bois dans la région des connecteurs doit influencer le dimensionnement des structures de grande taille. Avec des éléments de connexion renforcés, il sera possible d’allonger les portées des poutres, multipliant ainsi les possibilités architecturales. Le renfort pourra aussi permettre de réduire les sections des poutres et d’utiliser une quantité moindre de bois dans un bâtiment. Cela engendrera des coûts de transport et des coûts reliés au temps d’assemblage réduits. De plus, un connecteur plus résistant permettra d’être utilisé en moins grande quantité dans un assemblage. Les coûts d’approvisionnement en éléments métalliques et le temps de pose sur le site pourront être revus à la baisse. Les avantages d’un nouveau matériau à base de bois plus performant utilisé dans les connexions permettront de promouvoir le bois dans les constructions de grande taille et de réduire l’impact environnemental des bâtiments.
Resumo:
L’ingénierie des biomatériaux a connu un essor prodigieux ces dernières décennies passant de matériaux simples à des structures plus complexes, particulièrement dans le domaine cardiovasculaire. Cette évolution découle de la nécessité des biomatériaux de permettre la synergie de différentes propriétés, dépendantes de leurs fonctions, qui ne sont pas forcément toutes compatibles. Historiquement, les premiers matériaux utilisés dans la conception de dispositifs médicaux étaient ceux présentant le meilleur compromis entre les propriétés physico-chimiques, mécaniques et biologiques que nécessitait leur application. Cependant, il se peut qu’un tel dispositif possède les bonnes propriétés physico-chimiques ou mécaniques, mais que sa biocompatibilité soit insuffisante induisant ainsi des complications cliniques. Afin d’améliorer ces propriétés biologiques tout en conservant les propriétés de volume du matériau, une solution est d’en modifier la surface. L’utilisation d’un revêtement permet alors de moduler la réponse biologique à l’interface biomatériau-hôte et de diminuer les effets indésirables. Ces revêtements sont optimisés selon deux critères principaux : la réponse biologique et la réponse mécanique. Pour la réponse biologique, les deux approches principales sont de mettre au point des revêtements proactifs qui engendrent l’adhérence, la prolifération ou la migration cellulaire, ou passifs, qui, principalement, sont inertes et empêchent l’adhérence de composés biologiques. Dans certains cas, il est intéressant de pouvoir favoriser certaines cellules et d’en limiter d’autres, par exemple pour lutter contre la resténose, principalement due à la prolifération incontrôlée de cellules musculaires lisses qui conduit à une nouvelle obstruction de l’artère, suite à la pose d’un stent. La recherche sur les revêtements de stents vise, alors, à limiter la prolifération de ces cellules tout en facilitant la ré-endothélialisation, c’est-à-dire en permettant l’adhérence et la prolifération de cellules endothéliales. Dans d’autres cas, il est intéressant d’obtenir des surfaces limitant toute adhérence cellulaire, comme pour l’utilisation de cathéter. Selon leur fonction, les cathéters doivent empêcher l’adhérence cellulaire, en particulier celle des bactéries provoquant des infections, et être hémocompatibles, principalement dans le domaine vasculaire. Il a été démontré lors d’études précédentes qu’un copolymère à base de dextrane et de poly(méthacrylate de butyle) (PBMA) répondait aux problématiques liées à la resténose et qu’il possédait, de plus, une bonne élasticité, propriété mécanique importante due à la déformation que subit le stent lors de son déploiement. L’approche de ce projet était d’utiliser ce copolymère comme revêtement de stents et d’en améliorer l’adhérence à la surface en formant des liens covalents avec la surface. Pour ce faire, cela nécessitait l’activation de la partie dextrane du copolymère afin de pouvoir le greffer à la surface aminée. Il était important de vérifier pour chaque étape l’influence des modifications effectuées sur les propriétés biologiques et mécaniques des matériaux obtenus, mais aussi d’un point de vue de la chimie, l’influence que cette modification pouvait induire sur la réaction de copolymérisation. Dans un premier temps, seul le dextrane est considéré et est modifié par oxydation et carboxyméthylation puis greffé à des surfaces fluorocarbonées aminées. L’analyse physico-chimique des polymères de dextrane modifiés et de leur greffage permet de choisir une voie de modification préférentielle qui n’empêchera pas ultérieurement la copolymérisation. La carboxyméthylation permet ainsi d’obtenir un meilleur recouvrement de la surface tout en conservant la structure polysaccharidique du dextrane. Le greffage du dextrane carboxyméthylé (CMD) est ensuite optimisé selon différents degrés de modification, tenant compte aussi de l’influence que ces modifications peuvent induire sur les propriétés biologiques. Finalement, les CMD précédemment étudiés, avec des propriétés biologiques définies, sont copolymérisés avec des monomères de méthacrylate de butyle (BMA). Les copolymères ainsi obtenus ont été ensuite caractérisés par des analyses physico-chimiques, biologiques et mécaniques. Des essais préliminaires ont montrés que les films de copolymères étaient anti-adhérents vis-à-vis des cellules, ce qui a permis de trouver de nouvelles applications au projet. Les propriétés élastiques et anti-adhérentes présentées par les films de copolymères CMD-co-PBMA, les rendent particulièrement intéressants pour des applications comme revêtements de cathéters.
Resumo:
Les systèmes de communication optique avec des formats de modulation avancés sont actuellement l’un des sujets de recherche les plus importants dans le domaine de communication optique. Cette recherche est stimulée par les exigences pour des débits de transmission de donnée plus élevés. Dans cette thèse, on examinera les techniques efficaces pour la modulation avancée avec une détection cohérente, et multiplexage par répartition en fréquence orthogonale (OFDM) et multiples tonalités discrètes (DMT) pour la détection directe et la détection cohérente afin d’améliorer la performance de réseaux optiques. Dans la première partie, nous examinons la rétropropagation avec filtre numérique (DFBP) comme une simple technique d’atténuation de nonlinéarité d’amplificateur optique semiconducteur (SOA) dans le système de détection cohérente. Pour la première fois, nous démontrons expérimentalement l’efficacité de DFBP pour compenser les nonlinéarités générées par SOA dans un système de détection cohérente porteur unique 16-QAM. Nous comparons la performance de DFBP avec la méthode de Runge-Kutta quatrième ordre. Nous examinons la sensibilité de performance de DFBP par rapport à ses paramètres. Par la suite, nous proposons une nouvelle méthode d’estimation de paramètre pour DFBP. Finalement, nous démontrons la transmission de signaux de 16-QAM aux taux de 22 Gbaud sur 80km de fibre optique avec la technique d’estimation de paramètre proposée pour DFBP. Dans la deuxième partie, nous nous concentrons sur les techniques afin d’améliorer la performance des systèmes OFDM optiques en examinent OFDM optiques cohérente (CO-OFDM) ainsi que OFDM optiques détection directe (DDO-OFDM). Premièrement, nous proposons une combinaison de coupure et prédistorsion pour compenser les distorsions nonlinéaires d’émetteur de CO-OFDM. Nous utilisons une interpolation linéaire par morceaux (PLI) pour charactériser la nonlinéarité d’émetteur. Dans l’émetteur nous utilisons l’inverse de l’estimation de PLI pour compenser les nonlinéarités induites à l’émetteur de CO-OFDM. Deuxièmement, nous concevons des constellations irrégulières optimisées pour les systèmes DDO-OFDM courte distance en considérant deux modèles de bruit de canal. Nous démontrons expérimentalement 100Gb/s+ OFDM/DMT avec la détection directe en utilisant les constellations QAM optimisées. Dans la troisième partie, nous proposons une architecture réseaux optiques passifs (PON) avec DDO-OFDM pour la liaison descendante et CO-OFDM pour la liaison montante. Nous examinons deux scénarios pour l’allocations de fréquence et le format de modulation des signaux. Nous identifions la détérioration limitante principale du PON bidirectionnelle et offrons des solutions pour minimiser ses effets.