986 resultados para Problème de Snell
Resumo:
L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.
Resumo:
Dans cette étude, nous nous sommes intéressé à l’utilisation des TIC, plus précisément du Tableau Numérique Interactif (TNI), en géométrie, par des groupes d’élèves de deux classes du primaire en pédagogie Freinet. S’inspirant d’une revue de littérature concernant la pédagogie dialogique, qui se rapproche de la pédagogie Freinet, trois unités d’observation, qui se rapportent aux trois types de discussion (cumulatif, disputationnel et exploratoire) au sein des groupes, ont été analysées. Le but de l’étude est de comprendre en quoi les discussions des groupes d’élèves autour du TNI, dans un contexte dit dialogique, peuvent être exploratoires (un type de discussion qui favoriserait les apprentissages). Pour cela, une activité d’apprentissage, appelée situation-problème, impliquant six groupes d’élèves autour du TNI, a été créée en collaboration avec les enseignants en géométrie. Nos résultats indiquent, entres autres, que les aspects pédagogiques de la technologie en question, ici le TNI, sont à différencier des aspects pédagogiques du logiciel utilisé, ici Tinkercad en mathématiques. Ce mémoire remet en relief toute la complexité de prendre en compte un unique facteur (l’analyse des discussions) pour discuter des apprentissages des élèves autour du TNI.
Resumo:
Abstract: Highway bridges have great values in a country because in case of any natural disaster they may serve as lines to save people’s lives. Being vulnerable under significant seismic loads, different methods can be considered to design resistant highway bridges and rehabilitate the existing ones. In this study, base isolation has been considered as one efficient method in this regards which in some cases reduces significantly the seismic load effects on the structure. By reducing the ductility demand on the structure without a notable increase of strength, the structure is designed to remain elastic under seismic loads. The problem associated with the isolated bridges, especially with elastomeric bearings, can be their excessive displacements under service and seismic loads. This can defy the purpose of using elastomeric bearings for small to medium span typical bridges where expansion joints and clearances may result in significant increase of initial and maintenance cost. Thus, supplementing the structure with dampers with some stiffness can serve as a solution which in turn, however, may increase the structure base shear. The main objective of this thesis is to provide a simplified method for the evaluation of optimal parameters for dampers in isolated bridges. Firstly, performing a parametric study, some directions are given for the use of simple isolation devices such as elastomeric bearings to rehabilitate existing bridges with high importance. Parameters like geometry of the bridge, code provisions and the type of soil on which the structure is constructed have been introduced to a typical two span bridge. It is concluded that the stiffness of the substructure, soil type and special provisions in the code can determine the employment of base isolation for retrofitting of bridges. Secondly, based on the elastic response coefficient of isolated bridges, a simplified design method of dampers for seismically isolated regular highway bridges has been presented in this study. By setting objectives for reduction of displacement and base shear variation, the required stiffness and damping of a hysteretic damper can be determined. By modelling a typical two span bridge, numerical analyses have followed to verify the effectiveness of the method. The method has been used to identify equivalent linear parameters and subsequently, nonlinear parameters of hysteretic damper for various designated scenarios of displacement and base shear requirements. Comparison of the results of the nonlinear numerical model without damper and with damper has shown that the method is sufficiently accurate. Finally, an innovative and simple hysteretic steel damper was designed. Five specimens were fabricated from two steel grades and were tested accompanying a real scale elastomeric isolator in the structural laboratory of the Université de Sherbrooke. The test procedure was to characterize the specimens by cyclic displacement controlled tests and subsequently to test them by real-time dynamic substructuring (RTDS) method. The test results were then used to establish a numerical model of the system which went through nonlinear time history analyses under several earthquakes. The outcome of the experimental and numerical showed an acceptable conformity with the simplified method.
Resumo:
Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.
Resumo:
La reconnaissance vocale est une technologie sujette à amélioration. Malgré 40 ans de travaux, de nombreuses applications restent néanmoins hors de portée en raison d'une trop faible efficacité. De façon à pallier à ce problème, l'auteur propose une amélioration au cadre conceptuel classique. Plus précisément, une nouvelle méthode d'entraînement des modèles markoviens cachés est exposée de manière à augmenter la précision dynamique des classificateurs. Le présent document décrit en détail le résultat de trois ans de recherche et les contributions scientifiques qui en sont le produit. L'aboutissement final de cet effort est la production d'un article de journal proposant une nouvelle tentative d'approche à la communauté scientifique internationale. Dans cet article, les auteurs proposent que des topologies finement adaptées de modèles markoviens cachés (HMMs) soient essentielles à une modélisation temporelle de haute précision. Un cadre conceptuel pour l'apprentissage efficace de topologies par élagage de modèles génériques complexes est donc soumis. Des modèles HMM à topologie gauche-à-droite sont d'abord entraînés de façon classique. Des modèles complexes à topologie générique sont ensuite obtenus par écrasement des modèles gauche-à-droite. Finalement, un enchaînement successif d'élagages et d'entraînements Baum-Welch est fait de manière à augmenter la précision temporelle des modèles.
Resumo:
Les prescrits didactiques et le programme d’Histoire et éducation à la citoyenneté (Gouvernement du Québec, 2007) défendent actuellement des pratiques d’enseignement visant l’apprentissage de la pensée historique. Un apprentissage qui est défini comme une activité intellectuelle inscrite dans une démarche de résolution de problème, permettant de développer une compréhension plus approfondie des réalités sociales dans la perspective du temps (Martineau, 2010). Toutefois, les recherches indiquent que cet apprentissage serait variablement intégré aux pratiques effectives dans les classes d’histoire (Levstik, 2008), notamment au Québec (Boutonnet, 2013; Moisan, 2010). À cet égard, il semblerait y avoir un écart entre les finalités auxquelles les enseignants adhèrent et les situations d’enseignement-apprentissage qu’ils mettent en œuvre. Pour mettre en lumière cette variabilité, nous avons réalisé une recherche exploratoire visant à décrire les pratiques d’enseignement en histoire en troisième et en quatrième années du secondaire. À cette fin, nous avons eu recours aux théories des représentations sociales (Moscovici, 1976) et de l’attribution (Deschamps, 1996) permettant de recenser, dans le savoir commun des enseignants d’histoire, des éléments relatifs à l’apprentissage de la pensée historique. Ce savoir a été analysé en fonction de quatre types de variables : l’opinion, les dispositifs d’enseignement, les attributions et les attitudes individuelles à l’égard de l’apprentissage de la pensée historique. Les données ont été recueillies auprès d’un échantillon de convenance de huit enseignants, et elles ont été analysées dans le cadre d’une approche lexicométrique. La procédure de cueillette a consisté à réaliser quatre entrevues auprès de chacun de ces enseignants, lors des phases préactive et postactive de trois situations d’enseignement-apprentissage, pour identifier par la récurrence des discours des propriétés invariantes. Les données ont été interprétées en fonction de deux types de fondement théorique, relatifs aux théories de l’apprentissage, illustrant différentes manières d’apprendre à penser historiquement, et aux modèles de pratique, décrivant des dispositifs séquencés d’enseignement associés à cet apprentissage. De manière générale, les résultats révèlent la prédominance des théories de l’apprentissage de sens commun, socioconstructiviste et cognitivo-rationaliste, ainsi que des modèles de pratique fondés sur la conceptualisation et le tâtonnement empirique. Même si cette recherche ne peut être considérée représentative, elle a comme principale retombée scientifique de livrer une description de pratiques nuancée, exprimant différentes modulations de l’apprentissage de la pensée historique au niveau des pratiques. Cette recherche contribue à alimenter la réflexion auprès des chercheurs, des formateurs et des enseignants qui pourront mettre en perspective les pratiques actuelles relatives à un apprentissage des plus importants en histoire.
Resumo:
Cette thèse propose une lecture anthropologique de la consommation d’alcool. Elle met de l’avant une approche novatrice qui repose sur le concept de « métaphysique du quasi- arrêt ». Cette approche a été développée à la suite d’une recherche ethnographique réalisée dans la région de la Beauce, au Québec. Au lieu de considérer la consommation d’alcool comme un problème social ou de santé publique, j’ai cherché à comprendre comment et pourquoi l’on boit, en Beauce, en me laissant guider par les buveurs et les buveuses côtoyés sur place. En prenant part à de nombreuses soirées où la bière est omniprésente, que ce soit dans les garages, les bars ou l’aréna local, je me suis laissé affecter par les sensations ressenties et par les paroles prononcées lorsque les buveurs éprouvent ce qu’ils appellent le « feeling du moment ». En prenant du recul, j’ai constaté que les Beaucerons qui boivent ont développé des stratégies défensives pour échapper à la tentative de contrôle de la société québécoise sur leurs conduites alcooliques et, plus largement, sur l’alcoolisme. En effet, dans la perspective de la « métaphysique du quasi-arrêt », la quantité de verres consommés n’a d’importance qu’eu égard au « feeling du moment »; les normes culturelles ou médicales liées à la consommation d’alcool ne tiennent pas, et c’est pourquoi cette approche permet d’expliquer des discours et des pratiques liés à la consommation d’alcool qui, à première vue, semblent paradoxaux, voire complètement absurdes. Pour bien montrer en quoi l’approche mise de l’avant se distingue, mais surtout pour expliquer comment la consommation excessive d’alcool en est venue à représenter, en anthropologie comme dans d’autres disciplines, une pratique problématique qu’il faut comprendre pour la combattre, une première partie de la thèse consiste en une mise en perspective historique de l’alcoolisme en tant que concept scientifique et enjeu de société. Y sont passées en revue les approches et concepts développés, depuis la fin du XVIIe siècle, par des médecins, des psychologues, des économistes, des sociologues et des anthropologues euro-américains pour aborder ce genre de consommation. Je suggère que ces scientifiques mènent, depuis plus de deux siècles, une véritable croisade contre les « buveurs excessifs ». Collaborant avec l’État, les mouvements de tempérance et les entreprises privées, ils ont contribué à contenir les abus d’alcool en Occident. Dans la seconde partie de la thèse, l’ethnographie sert de support au déploiement de la perspective théorique développée à l’issue du travail de terrain. Il s’agit d’analyser comment les buveurs d’alcool vivent et font durer le « feeling du moment » au cours du boire social. Sur le terrain, j’ai découvert que les buveurs d’alcool ont inventé onze stratégies pour vivre et faire durer le « feeling du moment » en consommant de l’alcool avec les autres. Ces stratégies constituent une forme de résistance face à une société qui cherche à contrôler les conduites alcooliques.
Resumo:
Abstract : Adverse drug reactions (ADRs) are undesirable effects caused after administration of a single dose or prolonged administration of drug or result from the combination of two or more drugs. Idiosyncratic drug reaction (IDR) is an adverse reaction that does not occur in most patients treated with a drug and does not involve the therapeutic effect of the drug. IDRs are unpredictable and often life-threatening. Idiosyncratic reaction is dependent on drug chemical characteristics or individual immunological response. IDRs are a major problem for drug development because they are usually not detected during clinical trials. In this study we focused on IDRs of Nevirapine (NVP), which is a non-nucleoside reverse transcriptase inhibitor used for the treatment of Human Immunodeficiency Virus (HIV) infections. The use of NVP is limited by a relatively high incidence of skin rash. NVP also causes a rash in female Brown Norway (BN) rats, which we use as animal model for this study. Our hypothesis is that idiosyncratic skin reactions associated with NVP treatment are due to post-translational modifications of proteins (e.g., glutathionylation) detectable by MS. The main objective of this study was to identify the proteins that are targeted by a reactive metabolite of Nevirapine in the skin. The specific objectives derived from the general objective were as follow: 1) To implement the click chemistry approach to detect proteins modified by a reactive NVP-Alkyne (NVP-ALK) metabolite. The purpose of using NVP-ALK was to couple it with Biotin using cycloaddition Click Chemistry reaction. 2) To detect protein modification using Western blotting and Mass Spectrometry techniques, which is important to understand the mechanism of NVP induced toxicity. 3) To identify the proteins using MASCOT search engine for protein identification, by comparing obtained spectrum from Mass Spectrometry with theoretical spectrum to find a matching peptide sequence. 4) To test if the drug or drug metabolites can cause harmful effects, as the induction of oxidative stress in cells (via protein glutathionylation). Oxidative stress causes cell damage that mediates signals, which likely induces the immune response. The results showed that Nevirapine is metabolized to a reactive metabolite, which causes protein modification. The extracted protein from the treated BN rats matched 10% of keratin, which implies that keratin was the protein targeted by the NVP-ALK.
Resumo:
L’objet de cette thèse est la « Responsabilité de protéger » (RdP), son émergence et les processus de légitimation qui ont contribué à son acceptation dans les arènes de la politique globale. Le principe d’une intervention militaire à des fins humanitaires gagne en légitimité dans les années 1990, bien qu’il soit marqué par d’intenses polémiques dans la pratique. Les situations de conflits où les civils sont brutalement persécutés et les interventions demandées et organisées pour y répondre sont maintenant largement justifiées dans les termes de la RdP. Est donc apparu d’abord un changement normatif. Ce changement s’est cristallisé dans le rapport de la Commission internationale sur l’intervention et la souveraineté des États (CIISE) qui a forgé l’expression « responsabilité de protéger ». Le point de départ ici est cependant que la RdP marque un changement discursif dans la manière de parler et de justifier ces pratiques. Je montre comment les termes de la RdP en sont venus à être ceux qui dégagent le plus large consensus autour de la question de l’intervention à des fins humanitaires. La thèse centrale de cette recherche est que le relatif succès de la RdP tient au fait que les architectes de la CIISE et les entrepreneurs de la RdP ont déployé un sens pratique aiguisé du champ de la politique globale. Le procédé principal employé est de mettre en lumière les processus de légitimation activement mis en oeuvre pour stimuler ce changement discursif. J’avance que les agents ont su placer la RdP, et par extension le principe de l’intervention à des fins humanitaires, dans le domaine du non problématique en déployant un langage et des pratiques vus comme ne posant pas problème. Concrètement, il s’est agi de choisir les agents à qui serait accordée la reconnaissance de parler, mais qui seraient aussi en mesure de proposer une solution d’une manière considérée comme légitime dans les arènes de la politique globale. Traquer les processus de légitimation est un procédé analytique qui permet de comprendre le succès de la RdP, mais qui révèle également des éléments fondamentaux du fonctionnement formel et informel de la politique globale.
Resumo:
Les élections post-conflit ou élections de sortie de crise organisées sous l’égide de la communauté internationale en vue de rétablir la paix dans les pays sortant de violents conflits armés ont un bilan mixte caractérisé par le succès ou l’échec selon les cas. Ce bilan mitigé représente le problème principal auquel cette recherche tente de répondre à travers les questions suivantes : l’assistance électorale étrangère est-elle efficace comme outil de rétablissement de la paix dans les sociétés post-conflit? Qu’est ce qui détermine le succès ou l’échec des élections post-conflit à contribuer efficacement au rétablissement de la paix dans les sociétés déchirées par la guerre? Pour résoudre cette problématique, cette thèse développe une théorie de l’assistance électorale en période post-conflit centrée sur les parties prenantes à la fois du conflit armé et du processus électoral. Cette théorie affirme que l’élément clé pour le succès des élections post-conflit dans le rétablissement de la paix est le renforcement de la capacité de négociation des parties prenantes à la fois dans le processus de paix et dans le processus électoral post-conflit. Dans les situations post-conflit, une assistance électorale qui se voudrait complète et efficace devra combiner à la fois le processus électoral et le processus de paix. L’assistance électorale sera inefficace si elle se concentre uniquement sur les aspects techniques du processus électoral visant à garantir des élections libres, transparentes et équitables. Pour être efficace, l’accent devra également être mis sur les facteurs supplémentaires qui peuvent empêcher la récurrence de la guerre, tels que l’habilité des individus et des groupes à négocier et à faire des compromis sur les grandes questions qui peuvent menacer le processus de paix. De fait, même des élections transparentes comme celles de 1997 au Liberia saluées par la communauté internationale n’avaient pas réussi à établir des conditions suffisantes pour éviter la reprise des hostilités. C’est pourquoi, pour être efficace, l’assistance électorale dans les situations de post-conflit doit prendre une approche globale qui priorise l’éducation civique, la sensibilisation sur les droits et responsabilités des citoyens dans une société démocratique, le débat public sur les questions qui divisent, la participation politique, la formation au dialogue politique, et toute autre activité qui pourrait aider les différentes parties à renforcer leur capacité de négociation et de compromis. Une telle assistance électorale fera une contribution à la consolidation de la paix, même dans le contexte des élections imparfaites, comme celles qui se sont détenues en Sierra Leone en 2002 ou au Libéria en 2005. Bien que la littérature sur l’assistance électorale n’ignore guère l’importance des parties prenantes aux processus électoraux post-conflit (K. Kumar, 1998, 2005), elle a fortement mis l’accent sur les mécanismes institutionnels. En effet, la recherche académique et professionnelle est abondante sur la réforme des lois électorales, la reforme constitutionnelle, et le développement des administrations électorales tels que les commissions électorales, ainsi que l’observation électorale et autres mécanismes de prévention de la fraude électorale, etc. (Carothers & Gloppen, 2007). En d’autres termes, les décideurs et les chercheurs ont attribué jusqu’à présent plus d’importance à la conception et au fonctionnement du cadre institutionnel et des procédures électorales. Cette thèse affirme qu’il est désormais temps de prendre en compte les participants eux-mêmes au processus électoral à travers des types d’assistance électorale qui favoriseraient leur capacité à participer à un débat pacifique et à trouver des compromis aux questions litigieuses. Cette approche plus globale de l’assistance électorale qui replace l’élection post-conflit dans le contexte plus englobant du processus de paix a l’avantage de transformer le processus électoral non pas seulement en une expérience d’élection de dirigeants légitimes, mais aussi, et surtout, en un processus au cours duquel les participants apprennent à régler leurs points de vue contradictoires à travers le débat politique dans un cadre institutionnel avec des moyens légaux et légitimes. Car, si le cadre institutionnel électoral est important, il reste que le résultat du processus électoral dépendra essentiellement de la volonté des participants à se conformer au cadre institutionnel et aux règles électorales.
Resumo:
Les courriels Spams (courriels indésirables ou pourriels) imposent des coûts annuels extrêmement lourds en termes de temps, d’espace de stockage et d’argent aux utilisateurs privés et aux entreprises. Afin de lutter efficacement contre le problème des spams, il ne suffit pas d’arrêter les messages de spam qui sont livrés à la boîte de réception de l’utilisateur. Il est obligatoire, soit d’essayer de trouver et de persécuter les spammeurs qui, généralement, se cachent derrière des réseaux complexes de dispositifs infectés, ou d’analyser le comportement des spammeurs afin de trouver des stratégies de défense appropriées. Cependant, une telle tâche est difficile en raison des techniques de camouflage, ce qui nécessite une analyse manuelle des spams corrélés pour trouver les spammeurs. Pour faciliter une telle analyse, qui doit être effectuée sur de grandes quantités des courriels non classés, nous proposons une méthodologie de regroupement catégorique, nommé CCTree, permettant de diviser un grand volume de spams en des campagnes, et ce, en se basant sur leur similarité structurale. Nous montrons l’efficacité et l’efficience de notre algorithme de clustering proposé par plusieurs expériences. Ensuite, une approche d’auto-apprentissage est proposée pour étiqueter les campagnes de spam en se basant sur le but des spammeur, par exemple, phishing. Les campagnes de spam marquées sont utilisées afin de former un classificateur, qui peut être appliqué dans la classification des nouveaux courriels de spam. En outre, les campagnes marquées, avec un ensemble de quatre autres critères de classement, sont ordonnées selon les priorités des enquêteurs. Finalement, une structure basée sur le semiring est proposée pour la représentation abstraite de CCTree. Le schéma abstrait de CCTree, nommé CCTree terme, est appliqué pour formaliser la parallélisation du CCTree. Grâce à un certain nombre d’analyses mathématiques et de résultats expérimentaux, nous montrons l’efficience et l’efficacité du cadre proposé.
Resumo:
Cette recherche de développement est née d'une préoccupation au sujet du manque d'intérêt d'un grand nombre de garçons pour la lecture. Le problème est complexe et, si les interventions sur le terrain sont nombreuses et variées, il nous semblait qu'il manquait un fil conducteur pour les unifier et partant de là, pour garantir leur efficacité. C'est de là qu'est née la proposition d'un modèle de médiation en lecture, modèle basé sur la compétence professionnelle de l'enseignant, à la fois passeur culturel et lecteur, et suscitant le désir (motivation) et le plaisir de lire de l'élève masculin du primaire.
Resumo:
Le Régime des Prêts et bourses donne lieu à de nombreuses révisions annuellement par un grand nombre de candidats désireux d'obtenir plus du Gouvernement. Ces nombreuses demandes de révision sont parfois incomplètes, injustifiées, mal documentées et, parfois, elles ne sont même pas présentées, faute d'information. Le projet «Un système expert pour les Prêts et Bourses» tente de résoudre une partie du problème en offrant aux candidats et aux conseillers en milieux scolaires un outil qui permettrait à tous de pouvoir déterminer, facilement et exactement, le montant d'aide espéré. De plus, le prototype présenté explique au candidat les démarches à suivre et les documents nécessaires à une demande de révision si les résultats de son analyse ne correspondent pas avec ceux emmagasinés à Québec. Le prototype utilise les plus récents développements dans le domaine des logiciels commercial sur micro-ordinateurs dans les domaines suivants: bases de données et systèmes experts. Grâce à un mariage de programmation conventionnelle et de règles d'expertise, le système permet de définir rapidement la situation d'un candidat et de lui indiquer exactement ce à quoi il peut s'attendre du gouvernement. Le prototype a atteint ses objectifs principaux et il est fonctionnel. Son sort, en fonction des perfectionnements qu'il nécessite, est maintenant lié aux développements technologiques dans le domaine du matériel et du logiciel. La volonté des intervenants du milieu à mettre à la disposition des candidats un système avant-gardiste, première pierre d'un ensemble intégré de gestion des Prêts et Bourses, influencera aussi son utilisation future. Chose certaine, il est maintenant pensable de mettre au point des applications pratiques relativement complexes grâce à la technologie des systèmes experts et des bases de données et ce, sur micro-ordinateurs.
Resumo:
La relation entre l'espace tablette et les ventes a été l'une des toutes premières à être analysée dans la littérature traitant du commerce au détail. Cette relation tait aussi assez souvent les manchettes des journaux. Récemment, par exemple, on rapportait que Coke et Pepsi avaient "éliminé", à l'aide d'ententes à long terme avec les détaillants, l'espace accordé à tous les autres fabricants de boissons gazeuses. L'effet de l'espace tablette sur les ventes demeure donc un problème important et d'actualité…
Resumo:
L’obésité est de nos jours un problème croissant à travers le monde. La morbidité qui y est associée est surtout reliée au développement des différentes composantes du syndrome métabolique (SMet), une constellation de facteurs de risque regroupant l’hypertension, la dyslipidémie (concentration faible de cholestérol des lipoprotéines à haute densité (C-HDL) et élevée de triglycérides (TG)), l’hyperglycémie et l’obésité. Cependant, certains sujets obèses demeurent métaboliquement sains. Les facteurs génétiques joueraient donc un rôle important dans le développement de l’obésité et de ses complications. Les facteurs épigénétiques semblent également y avoir des effets. L’analyse de tissu adipeux viscéral (TAV) a donc été réalisée pour mener à la découverte de plusieurs gènes différentiellement exprimés et méthylés entre les obèses atteints et non atteints par le SMet. Les deux gènes candidats NMT1 et DGKZ font partie de ce groupe et leurs associations avec les composantes du SMet ont été testées. Leurs niveaux de méthylation et d’expression génique ont aussi été analysés.