9 resultados para Capacità teorica, Capacità pratica, Blocco fisso, Blocco mobile, Qualità della circolazione, Velocità
em Université Laval Mémoires et thèses électroniques
Resumo:
Cette étude visait à caractériser la croissance, la capacité photosynthétique, la concentration en azote et protéines totales solubles, la production de protéines recombinantes (HA) ainsi que la quantité de lumière interceptée à différents stades de développement de plants de Nicotiana benthamiana afin d’optimiser la production de vaccins. L’évolution des réponses physiologiques étudiées fut similaire chez toutes les feuilles primaires, suggérant que le processus de sénescence s’initie et progresse de façon semblable indépendamment de leur ordre d’initiation. Toutefois, la superposition des patrons temporels de sénescence et de croissance foliaire a mené à un rendement HA maximal se situant invariablement dans la partie médiane du plant lorsqu’exprimé sur une base foliaire. À l’échelle du plant entier, nos résultats suggèrent qu’il est possible d’augmenter la production de vaccins en récoltant les plants à un stade de développement plus tardif, ou en augmentant la densité de culture et en récoltant ces plants plus tôt.
Resumo:
Actuellement au Québec, le contexte d’insertion professionnelle en enseignement représente plusieurs défis pour les enseignants débutants, et ce, en raison de multiples causes (p.ex. la précarité et le manque de soutien). Résultat : près de 15 % à 20 % d’entre eux quitteront la profession dans les cinq premières années de leur carrière et cette statistique ne cesse d’augmenter. Pour remédier à la situation, l’une des solutions envisagées est la mise en place de programmes d’insertion professionnelle (PIP) par les commissions scolaires, lesquels offrent différentes mesures de soutien telles que du mentorat, des ateliers de formation et des réseaux d’entraide en ligne. Cela dit, les modalités de mise en place de ces programmes varient grandement d’un milieu à l’autre, et ce, autant en ce qui a trait aux services offerts qu’à l’admission des candidats. De plus, ceux-ci ne sont généralement évalués que de façon informelle par le milieu. On ne sait donc pas si les enseignants débutants qui y participent se distinguent réellement quant à leur persévérance dans le métier, laquelle repose notamment sur leur motivation au travail, leur capacité de résilience et leur sentiment d’efficacité personnelle (SEP) en classe et à l’école (Bandura, 1997, 2007; Bélair & Lebel, 2007; Deci & Ryan, 1985, 2002; Fernet, Sénécal, Guay, Marsh, & Dowson, 2008; Zacharyas & Brunet, 2012). Ce projet de recherche vise d’une part à mesurer les différences sur le plan de ces variables chez les enseignants débutants participant ou non à un PIP. D’autre part, il vise également à mesurer la prédiction de ces variables par les différentes mesures de soutien offertes dans les PIP chez ceux qui y participent pour constater leur contribution respective dans un PIP. Pour ce faire, une étude préexpérimentale a été menée auprès de 86 participants. À l’aide d’un questionnaire, la motivation au travail, la capacité de résilience et le SEP en classe et à l’école ont été mesurés afin de comparer les résultats du groupe d’enseignants participant à un programme à ceux n’y participant pas. Une MANCOVA a d’abord été conduite avec ces variables et trois variables contrôles « avoir pensé quitter » le milieu d’enseignement, « ordre d’enseignement » et « expérience d’enseignement » comme covariables. Des régressions linéaires multivariées ont ensuite été menées à partir des mesures de soutien. Aucun résultat significatif n’a été obtenu quant aux différences entre les participants en fonction de la participation à un PIP ce qui est représentatif des résultats obtenus dans d’autres recherches sur le sujet (Ingersoll & Strong, 2011). Aucun résultat significatif n’a été obtenu concernant la prédiction des variables d’intérêt par les mesures de soutien.
Resumo:
Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs.
Resumo:
Les techniques des directions d’arrivée (DOA) sont une voie prometteuse pour accroitre la capacité des systèmes et les services de télécommunications en permettant de mieux estimer le canal radio-mobile. Elles permettent aussi de suivre précisément des usagers cellulaires pour orienter les faisceaux d’antennes dans leur direction. S’inscrivant dans ce contexte, ce présent mémoire décrit étape par étape l’implémentation de l’algorithme de haut niveau MUSIC (MUltiple SIgnal Classification) sur une plateforme FPGA afin de déterminer en temps réel l’angle d’arrivée d’une ou des sources incidentes à un réseau d’antennes. Le concept du prototypage rapide des lois de commande (RCP) avec les outils de XilinxTM System generator (XSG) et du MBDK (Model Based Design Kit) de NutaqTM est le concept de développement utilisé. Ce concept se base sur une programmation de code haut niveau à travers des modèles, pour générer automatiquement un code de bas niveau. Une attention particulière est portée sur la méthode choisie pour résoudre le problème de la décomposition en valeurs et vecteurs propres de la matrice complexe de covariance par l’algorithme de Jacobi. L’architecture mise en place implémentant cette dernière dans le FPGA (Field Programmable Gate Array) est détaillée. Par ailleurs, il est prouvé que MUSIC ne peut effectuer une estimation intéressante de la position des sources sans une calibration préalable du réseau d’antennes. Ainsi, la technique de calibration par matrice G utilisée dans ce projet est présentée, en plus de son modèle d’implémentation. Enfin, les résultats expérimentaux du système mis à l’épreuve dans un environnement réel en présence d’une source puis de deux sources fortement corrélées sont illustrés et analysés.
Resumo:
Bien qu’ils soient exposés tous deux aux rayons ultraviolets (UVR) solaires, cette exposition génotoxique n’entraîne pas les mêmes conséquences dans l’oeil et la peau. Le rôle des rayons UV dans l’induction et la progression des cancers cutanés est bien démontré. Ces rayons génotoxiques sont absorbés par l’ADN. Ils y induisent ainsi des changements conformationnels pouvant mener à la formation de différents dommages. On retrouve de façon prédominante la liaison de pyrimidines adjacentes en dimères cyclobutyliques de pyrimidines (CPD). Ceux-ci causent les mutations signatures responsables des cancers de la peau induits par les UVR. Cependant, aucune évidence ne démontre l’existence de cancer induit par les UVR dans la cornée. Nous avons donc tenté de découvrir les mécanismes permettant à la cornée d’éviter la transformation tumorale induite par les UVR. L’irradiation d’yeux de lapins aux rayons UVB a permis de prouver la capacité de ces rayons à induire la formation de CPD, et ce, de la cornée jusqu’au cristallin. Par la suite, l’irradiation d’yeux humains aux trois types de rayons UV (UVA, B et C) a permis d’y établir leur patron d’induction de CPD. Nous avons ainsi démontré que l’épithélium cornéen est particulièrement sensible à l’induction de CPD, tous types de rayons UV confondus. Enfin, la comparaison de la quantité de dommages présents dans des échantillons de peaux et de cornées irradiées à la même dose d’UVB a permis de démontrer que l’épithélium cornéen est 3.4 fois plus sensible à l’induction de CPD que l’épiderme. Nous avons par la suite étudié les mécanismes de réponse à ce stress. L’analyse de la viabilité cellulaire à la suite d’irradiations à différentes doses d’UVB a révélé que les cellules de la cornée et de la peau ont la même sensibilité à la mort cellulaire induite par les UVR. Nous avons alors analysé la vitesse de réparation des dommages induits par les UVR. Nos résultats démontrent que les CPD sont réparés 4 fois plus rapidement dans les cellules de la cornée que de la peau. L’analyse des protéines de reconnaissance des dommages a révélé que les cellules de la cornée possèdent plus de protéines DDB2 que les cellules de la peau, et ce, surtout liées à la chromatine. Nous avons alors tenté d’identifier la cause de cette accumulation. Nos analyses révèlent que la cornée possède une moins grande quantité d’ARNm DDB2, mais que la demi-vie de la protéine y est plus longue. Enfin, nos résultats suggèrent que l’accumulation de DDB2 dans les cellules de la cornée est entre autres due à une demi-vie plus longue de la protéine. Cette forte présence de DDB2 dans les cellules de la cornée permettrait un meilleur balayage de l’ADN, faciliterait de ce fait la détection de CPD ainsi que leur réparation et contribuerait donc à la capacité de la cornée à éviter la transformation tumorale induite par les UVR.
Resumo:
Cette thèse s’intéresse à la manière dont des étudiants de l’Université Laval, à Québec, engagés dans différents programmes de mobilité pendant leur formation, donnent un sens à leur expérience et, ainsi, permettent pour une majorité d’entre eux l’émergence d’un cosmopolitisme. J’explore ces expériences de mobilité en plaçant l’étudiant au centre de ma réflexion. Ceci m’amène à analyser le sens profond de leur récit, dans le contexte de l’éducation supérieure et des enjeux de l’éducation au XXIe siècle. Mon analyse débouche sur trois parcours types d’étudiants, qui peuvent servir de guide pour faire émerger une pratique cosmopolite. À la suite d’une enquête ethnologique, j’ai analysé les données découlant de plus de 80 entrevues menées auprès de 53 étudiants inscrits dans une quarantaine de programmes d’études des trois cycles universitaires et ayant participé à l’un des dix programmes de mobilité offerts par le Bureau international. Un groupe de discussion a permis de compléter ces données et de valider un premier examen des diverses politiques en internationalisation de la formation (UNESCO, BCEI, MELS, UL) qui m’ont aidée à comprendre et à problématiser les données de la mobilité étudiante. Mon analyse s’appuie sur deux champs théoriques : d’une part, elle interpelle la théorie de la structuration d’Anthony Giddens (1987) et s’intéresse aux motivations, aux positionnements et à la capacité réflexive qui débouchent sur les interprétations qui structurent les pratiques liées à ces séjours. D’autre part, elle s’ancre dans une conceptualisation du cosmopolitisme proposée par Ulf Hannerz (2010). J’ai ainsi adopté une approche contemporaine du phénomène dans le cadre des études supérieures et construit les trois parcours types basés sur une approche anthropologique de la réflexivité de l’acteur en situation, en tenant compte de la complexité des expériences et des cheminements vécus lors d’une pratique de mobilité. Cette étude s’inscrit dans une anthropologie du chez-soi, et explore ainsi de nouveaux sentiers de recherche à considérer pour mieux saisir la construction du cosmopolitisme contemporain.
Resumo:
La plupart des processus cellulaires et biologiques reposent, à un certain niveau, sur des interactions protéine-protéine (IPP). Leur manipulation avec des composés chimiques démontre un grand potentiel pour la découverte de nouveaux médicaments. Malgré la demande toujours croissante en molécules capables d’interrompre sélectivement des IPP, le développement d’inhibiteurs d’IPP est fortement limité par la grande taille de la surface d’interaction. En considérant la nature de cette surface, la capacité à mimer des structures secondaires de protéines est très importante pour lier une protéine et inhiber une IPP. Avec leurs grandes capacités peptidomimétiques et leurs propriétés pharmacologiques intéressan-tes, les peptides cycliques sont des prototypes moléculaires de choix pour découvrir des ligands de protéines et développer de nouveaux inhibiteurs d’IPP. Afin d’exploiter pleinement la grande diversité accessible avec les peptides cycliques, l’approche combinatoire «one-bead-one-compound» (OBOC) est l’approche la plus accessible et puissante. Cependant, l’utilisation des peptides cycliques dans les chimiothèques OBOC est limitée par les difficultés à séquencer les composés actifs après le criblage. Sans amine libre en N-terminal, la dégradation d’Edman et la spectrométrie de masse en tandem (MS/MS) ne peuvent pas être utilisées. À cet égard, nous avons développé de nouvelles approches par ouverture de cycle pour préparer et décoder des chimiothèques OBOC de peptides cycliques. Notre stratégie était d’introduire un résidu sensible dans le macrocycle et comme ancrage pour permettre la linéarisation des peptides et leur largage des billes pour le séquençage par MS/MS. Tout d’abord, des résidus sensibles aux nucléophiles, aux ultraviolets ou au bromure de cyanogène ont été introduits dans un peptide cyclique et leurs rendements de clivage évalués. Ensuite, les résidus les plus prometteurs ont été utilisés dans la conception et le développement d’approches en tandem ouverture de cycle / clivage pour le décodage de chimiothèques OBOC de peptides cycliques. Dans la première approche, une méthionine a été introduite dans le macrocycle comme ancrage pour simultanément permettre l’ouverture du cycle et le clivage des billes par traitement au bromure de cyanogène. Dans la seconde approche, un résidu photosensible a été utilisé dans le macrocycle comme ancrage pour permettre l’ouverture du cycle et le clivage suite à une irradiation aux ultraviolets. Le peptide linéaire généré par ces approches peut alors être efficacement séquencé par MS/MS. Enfin, une chimiothèque OBOC a été préparée et criblée la protéine HIV-1 Nef pour identifier des ligands sélectifs. Le développement de ces méthodologies permttra l’utilisation de composés macrocycliques dans les chimiothèques OBOC et constitue une contribution importante en chimie médicinale pour la découverte de ligands de protéines et le développement d’inhibiteurs d’IPP.
Resumo:
La compression des données est la technique informatique qui vise à réduire la taille de l’information pour minimiser l’espace de stockage nécessaire et accélérer la transmission des données dans les réseaux à bande passante limitée. Plusieurs techniques de compression telles que LZ77 et ses variantes souffrent d’un problème que nous appelons la redondance causée par la multiplicité d’encodages. La multiplicité d’encodages (ME) signifie que les données sources peuvent être encodées de différentes manières. Dans son cas le plus simple, ME se produit lorsqu’une technique de compression a la possibilité, au cours du processus d’encodage, de coder un symbole de différentes manières. La technique de compression par recyclage de bits a été introduite par D. Dubé et V. Beaudoin pour minimiser la redondance causée par ME. Des variantes de recyclage de bits ont été appliquées à LZ77 et les résultats expérimentaux obtenus conduisent à une meilleure compression (une réduction d’environ 9% de la taille des fichiers qui ont été compressés par Gzip en exploitant ME). Dubé et Beaudoin ont souligné que leur technique pourrait ne pas minimiser parfaitement la redondance causée par ME, car elle est construite sur la base du codage de Huffman qui n’a pas la capacité de traiter des mots de code (codewords) de longueurs fractionnaires, c’est-à-dire qu’elle permet de générer des mots de code de longueurs intégrales. En outre, le recyclage de bits s’appuie sur le codage de Huffman (HuBR) qui impose des contraintes supplémentaires pour éviter certaines situations qui diminuent sa performance. Contrairement aux codes de Huffman, le codage arithmétique (AC) peut manipuler des mots de code de longueurs fractionnaires. De plus, durant ces dernières décennies, les codes arithmétiques ont attiré plusieurs chercheurs vu qu’ils sont plus puissants et plus souples que les codes de Huffman. Par conséquent, ce travail vise à adapter le recyclage des bits pour les codes arithmétiques afin d’améliorer l’efficacité du codage et sa flexibilité. Nous avons abordé ce problème à travers nos quatre contributions (publiées). Ces contributions sont présentées dans cette thèse et peuvent être résumées comme suit. Premièrement, nous proposons une nouvelle technique utilisée pour adapter le recyclage de bits qui s’appuie sur les codes de Huffman (HuBR) au codage arithmétique. Cette technique est nommée recyclage de bits basé sur les codes arithmétiques (ACBR). Elle décrit le cadriciel et les principes de l’adaptation du HuBR à l’ACBR. Nous présentons aussi l’analyse théorique nécessaire pour estimer la redondance qui peut être réduite à l’aide de HuBR et ACBR pour les applications qui souffrent de ME. Cette analyse démontre que ACBR réalise un recyclage parfait dans tous les cas, tandis que HuBR ne réalise de telles performances que dans des cas très spécifiques. Deuxièmement, le problème de la technique ACBR précitée, c’est qu’elle requiert des calculs à précision arbitraire. Cela nécessite des ressources illimitées (ou infinies). Afin de bénéficier de cette dernière, nous proposons une nouvelle version à précision finie. Ladite technique devienne ainsi efficace et applicable sur les ordinateurs avec les registres classiques de taille fixe et peut être facilement interfacée avec les applications qui souffrent de ME. Troisièmement, nous proposons l’utilisation de HuBR et ACBR comme un moyen pour réduire la redondance afin d’obtenir un code binaire variable à fixe. Nous avons prouvé théoriquement et expérimentalement que les deux techniques permettent d’obtenir une amélioration significative (moins de redondance). À cet égard, ACBR surpasse HuBR et fournit une classe plus étendue des sources binaires qui pouvant bénéficier d’un dictionnaire pluriellement analysable. En outre, nous montrons qu’ACBR est plus souple que HuBR dans la pratique. Quatrièmement, nous utilisons HuBR pour réduire la redondance des codes équilibrés générés par l’algorithme de Knuth. Afin de comparer les performances de HuBR et ACBR, les résultats théoriques correspondants de HuBR et d’ACBR sont présentés. Les résultats montrent que les deux techniques réalisent presque la même réduction de redondance sur les codes équilibrés générés par l’algorithme de Knuth.
Resumo:
L’antibiorésistance est un problème de santé publique majeur, causé principalement par l’usage abusif d’antibiotiques dans les élevages. Les probiotiques sont une alternative potentielle aux antibiotiques. Cependant, acheminer ces microorganismes vivants et fonctionnels jusqu’au côlon est un grand défi, à cause du pH et des sels biliaires à affronter lors du passage gastro-intestinal. L’objectif de ce travail était de développer une matrice prébiotique capable de maintenir la survie et l’activité des probiotiques pendant le transit gastro-intestinal et de permettre leur libération dans le côlon. Pour atteindre cet objectif, cinq types de matrices sphériques (A, AI5, AI10, AI15, AI20) à base d’inuline (0 %, 5 %, 10 %, 15 % et 20 %) et d’alginate (2 %) ont été préparés par la méthode d’extrusion/gélification ionotropique. Trois souches probiotiques ont été utilisées au cours du développement des billes : Pediococcus acidilactici UL5 (UL5), Lactobacillus reuteri (LR) et Lactobacillus salivarius (LS). Dans un premier temps, toutes les formulations ont été caractérisées d’un point de vue physicochimique et microbiologique. Ces analyses ont permis de révéler une distribution homogène de l’inuline et de l’alginate au sein des matrices et ont démontré que la viabilité et la capacité antimicrobienne des souches utilisées n’étaient pas affectées par l’encapsulation. À la lumière de ces résultats, trois formulations A, AI5 et AI20 ont été sélectionnées pour la suite de l’étude. Dans un deuxième temps, la mucoadhésion et le comportement des billes A, AI5 et AI20 ont été étudiés dans les parties supérieures du tractus gastro-intestinal. Ces études ont démontré que la présence de l’inuline améliore les propriétés mucoadhésives des billes. Elles ont également établi que seule la formulation AI5 résiste jusqu’à la fin de la digestion. Ce comportement est expliqué en partie par l’interaction alginate-inuline décelée par spectroscopie infrarouge à transformée de Fourier (FTIR). Cette interaction était stable pour les billes AI5 au pH 6,8 mais instable pour la formulation AI20. Enfin, le comportement et la dynamique bactérienne de la formulation AI5 dans les milieux coliques fermenté et non fermenté ont été étudiés. Cette étude a révélé que les billes AI5 se dégradent et libèrent la totalité des bactéries après environ 4 heures d’incubation dans le milieu fermenté. Cette dégradation est due aux enzymes très abondantes dans ce milieu. En conclusion, la formulation AI5 s’est avérée être un très bon véhicule pour protéger les bactéries dans les parties supérieures du tube digestif et favoriser leur libération dans le côlon. Elle pourrait donc, être utilisée pour une application en alimentation animale.