971 resultados para Routes en gravier--Conception et construction--Modèles mathématiques
Resumo:
Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.
Resumo:
La théologie catholique affirme que Jésus, médiateur par excellence, est la Révélation plénière de Dieu à son peuple. Cependant, il y a eu au fil des siècles des révélations dites «privées», dont certaines ont été reconnues par l’autorité de l’Église. Le cas des révélations privées non reconnues a toujours été générateur de malentendus et de conflits froids et parfois ouverts entre l’autorité de l’Église et certains fidèles. En contexte africain, où le christianisme se greffe sur la culture traditionnelle, cette question de révélations privées est importante car elle imprègne la religion ancestrale. Dans notre contexte où le Christianisme semble avoir le vent en poupe, on se demande quelque rapport y a-t-il entre foi et expérience individuelle de révélation privée; la révélation privée est-elle un couronnement d’une vie de foi bien menée sous le regard du Seigneur et des hommes? Comment Dieu se manifeste-t-il aux hommes et comment en rendre compte sans faire face à l’adversité? Avec l’étude de l’expérience de Paul en 2Co 12, 1-10, il y a lieu de revenir sur la théologie catholique au sujet de la Révélation en rapport avec les révélations pour voir comment elle s’est articulée, à partir de la Bible, au fil des temps, en fonction des cultures et des réalités sans cesse nouvelles. À la base de cette théologie, on peut trouver en bonne position l’influence herméneutique de l’expérience mystique de Paul. Une révélation privée comme celle qu’il vit, fait toujours face à des doutes ou des attitudes sceptiques parfois tenaces pour se préciser après coup et fonder en raison son apport par rapport au Christ et à la vie ecclésiale. Si le jugement de l’Église est important pour son insertion dans la vie des communautés, toutefois, il faut dire qu’il n’est pas déterminant. Tout se joue entre Dieu et la personne certes, mais la qualité des fruits de ce jeu spirituel étant garante de la crédibilité de la révélation. Dieu, qui sait toujours communiquer avec son peuple sous des formes variées, en est capable en tout temps et selon le mode qu’il se donne. Pour mieux parler de l’expérience de Paul en 2Co 12,1-10, les démarches historico-critique et narrative ont été d’une utilité complémentaire en vue d’authentifier dans la péricope ce qu’il convient d’appeler : la mystique de Paul. Le témoignage spirituel de Paul peut servir de paradigme pour les personnes et d’éclairage pour l’Église dans le discernement des phénomènes de révélation privée aujourd’hui. Paul vit une relation forte avec le Dieu de Jésus Christ, il la fait vivre à ses communautés; quoiqu’il advienne, il n’hésite pas à en rendre compte et à la communauté, et à Pierre et aux autres. Sa vie intensément mystique, ne le soustrait pas de la démarche ecclésiale pour défendre ses révélations.
Resumo:
L’objectif de cette étude est de déterminer certains paramètres respiratoires et cardiovasculaires chez des sujets de tous âges pour utilisation, à titre d’intrants physiologiques, en modélisation toxicocinétique et en analyse du risque toxique. La base de données utilisée est tirée de la littérature. Il s’agit de mesures portant sur la dépense d’énergie quotidienne de base et la dépense d’énergie quotidienne de totale obtenues, l’une par calorimétrie indirecte, l’autre par double marquage isotopique des molécules d’eau. Selon le type d’unité retenu, les valeurs les plus élevées au 99e centile des taux quotidiens d’inhalation sont obtenues chez des adolescentes et des femmes âgées de 11 à 55 ans souffrant d’embonpoint ou d’obésité, durant leur 36e semaine de grossesse (47,31 m³/jour), ainsi que chez des garçons de poids corporel normal âgés de 2,6 à moins de 6 mois (1,138 m³/kg-jour) et de 10 à moins de 16,5 ans (22,29 m³/m²-jour). Chez les enfants et les adolescents de poids corporel normal âgés de 5 à moins de 16.5 ans, les valeurs pour l’écart entre le 2,5e au 99e centile sont généralement plus élevées que celles obtenues chez les sujets plus âgés : taux de ventilation minute, 0,132 à 0,774 L/kg-min ou 4,42 à 21,69 L/m²-min versus 0,076 à 0,461 L/kg-min ou 2,80 à 16,99 L/m²-min; taux de ventilation alvéolaire, 0,093 à 0,553 L/kg-min ou 3,09 à 15,53 L/m²-min versus 0,047 à 0,312 L/kg-min ou 1,73 à 11,63 L/m²-min; débit cardiaque, 0,065 à 0,330 L/kg-min ou 2,17 à 9,46 L/m²-min versus 0,045 à 0,201 L/kg-min ou 1,63 à 7,24 L/m²-min; ratio de ventilation-perfusion, 1,12 à 2,16 versus 0,78 à 2,40. Il faut conclure que les apports inhalés en polluants, exprimés en ug/kg-min ou ug/m²-min sont plus élevés chez les enfants que chez les sujets plus âgés pour des concentrations d’exposition comparables. D’autres données montrent qu’il en est de même pour les apports inhalés par unité de poids corporel chez les femmes enceintes et les femmes qui allaitent par rapport à des sujets males d’âge comparable. L’ensemble des résultats obtenus suggère notamment que les valeurs des NOAELH de Santé Canada pourraient être abaissées par un facteur de 2,6 par utilisation du 99e centile le plus élevé des taux quotidiens d’inhalation chez les enfants; le taux de ventilation minute de 20,83 L/min approximé pour une journée de travail de 8 heures peut être considéré comme étant conservateur ; par contre, l’utilisation du taux quotidien d’inhalation de 0,286 m³/kg-jour (c.-à-d. 20 m³/jour pour un adulte de poids corporel de 70 kg) est inappropriée en analyse et gestion du risque lorsqu’appliquée à l’ensemble de la population.
Resumo:
L’objectif général de cette recherche doctorale est l’étude des déterminants de l’intégration pédagogique des technologies de l’information et de la communication (TIC) par les professeurs à l’Université de Ouagadougou (UO). Cela nous a conduit à étudier respectivement les compétences technologiques des professeurs, les facteurs de résistance contraignant l’intégration pédagogique des TIC par ces professeurs, l’acceptation et les usages spécifiques des TIC par les professeurs. Ce travail s’est bâti autour des concepts théoriques sur les usages éducatifs des TIC, les compétences technopédagogiques, les facteurs de résistance, l’acceptation des TIC et l’intégration pédagogique des TIC. Ces concepts se sont inscrits dans les cadres d’analyses des modèles d’intégration des TIC par les professeurs et des modèles d’acceptation et d’utilisation d’une nouvelle technologie. La stratégie d’analyse des données s’est construite autour des approches descriptives et analytiques notamment au moyen de l’utilisation de la psychométrie et/ou de l’économétrie des modèles à variables dépendantes limitées. Utilisant la recherche quantitative, le recrutement de 82 professeurs par avis de consentement à participer, a permis de collecter les données sur la base de questionnaires dont la majeure partie est bâtie autour de questions à échelle de Likert. L’étude des compétences technologiques des professeurs a permis d’une part, de dresser un portrait des usages des TIC par les professeurs. En effet, les usages les plus répandus des TIC dans cette université sont les logiciels de bureautique, les logiciels de messagerie électronique et de navigation dans Internet. Elle a aussi permis de faire un portrait des compétences technologiques des professeurs. Ceux-ci utilisent à la fois plusieurs logiciels et reconnaissent l’importance des TIC pour leurs tâches pédagogiques et de recherche même si leur degré de maîtrise perçue sur certaines des applications télématiques reste à des niveaux très bas. Par rapport à certaines compétences comme celles destinées à exploiter les TIC dans des situations de communication et de collaboration et celles destinée à rechercher et à traiter des informations à l’aide des TIC, les niveaux de maîtrise par les professeurs de ces compétences ont été très élevés. Les professeurs ont eu des niveaux de maîtrise très faibles sur les compétences destinées à créer des situations d’apprentissage à l’aide des TIC et sur celles destinées à développer et à diffuser des ressources d’apprentissage à l’aide des TIC malgré la grande importance que ceux-ci ont accordée à ces compétences avancées essentielles pour une intégration efficace et efficiente des TIC à leurs pratiques pédagogiques. L’étude des facteurs de résistance a permis d’ériger une typologie de ces facteurs. Ces facteurs vont des contraintes matérielles et infrastructurelles à celles liées aux compétences informatiques et à des contraintes liées à la motivation et à l’engagement personnel des professeurs, facteurs pouvant susciter des comportements de refus de la technologie. Ces facteurs sont entre autres, la compatibilité des TIC d’avec les tâches pédagogiques et de recherche des professeurs, l’utilité perçue des TIC pour les activités pédagogiques et de recherche, les facilités d’utilisation des TIC et la motivation ou l’engagement personnel des professeurs aux usages des TIC. Il y a aussi les coûts engendrés par l’accès aux TIC et le manque de soutien et d’assistance technique au plan institutionnel qui se sont révelés enfreindre le développement de ces usages parmi les professeurs. Les estimations des déterminants de l’acceptation et des usages éducatifs des TIC par les professeurs ont montré que c’est surtout « l’intention comportementale » d’aller aux TIC des professeurs, « l’expérience d’Internet » qui affectent positivement les usages éducatifs des TIC. Les « conditions de facilitation » qui représentent non seulement la qualité de l’infrastructure technologique, mais aussi l’existence d’un soutien institutionnel aux usages des TIC, ont affecté négativement ces usages. Des éléments de recommandation issus de ce travail s’orientent vers la formation des professeurs sur des compétences précises identifiées, l’amélioration de la qualité de l’infrastructure technologique existante, la création d’un logithèque, la mise en œuvre d’incitations institutionnelles adéquates telles que l’assistance technique régulière aux professeurs, l’allègement des volumes horaires statutaires des professeurs novateurs, la reconnaissance des efforts déjà réalisés par ces novateurs en matière d’usages éducatifs des TIC dans leur institution.
Resumo:
Les antibiotiques aminoglycosidiques sont des agents bactéricides de grande valeur et d’efficacité à large spectre contre les pathogènes Gram-positifs et Gram-négatifs, dont plusieurs membres naturels et semisynthétiques sont importants dans l’histoire clinique depuis 1950. Des travaux crystallographiques sur le ribosome, récompensés par le prix Nobel, ont démontré comment leurs diverses structures polyaminées sont adaptées pour cibler une hélice d’ARN dans le centre de codage de la sous-unité 30S du ribosome bactérien. Leur interférence avec l’affinité et la cinétique des étapes de sélection et vérification des tARN induit la synthèse de protéines à basse fidélité, et l’inhibition de la translocation, établissant un cercle vicieux d’accumulation d’antibiotique et de stress sur la membrane. En réponse à ces pressions, les pathogènes bactériens ont évolué et disséminé une panoplie de mécanismes de résistance enzymatiques et d’expulsion : tels que les N acétyltransférases, les O phosphotransférases et les O nucleotidyltransférases qui ciblent les groupements hydroxyle et amino sur le coeur des aminoglycosides; des méthyl-transférases, qui ciblent le site de liaison ribosomale; et des pompes d’expulsion actives pour l’élimination sélective des aminoglycosides, qui sont utilisés par les souches Gram-négatives. Les pathogènes les plus problématiques, qui présentent aujourd’hui une forte résilience envers la majorité des classes d’antibiotiques sur le bord de la pan-résistance ont été nommés des bactéries ESKAPE, une mnémonique pour Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumannii, Pseudomonas aeruginosa et Enterobacteriaceae. La distribution globale des souches avec des mécanismes de résistance envers les standards cliniques aminoglycosides, tels que la tobramycine, l’amikacine et la gentamicine, est comprise entre 20 et 60% des isolées cliniques. Ainsi, les aminoglycosides du type 4,6-disubstitués-2-deoxystreptamine sont inadéquats comme thérapies anti-infectieuses à large spectre. Cependant, la famille des aminoglycosides 4,5-disubstitués, incluant la butirosine, la neomycine et la paromomycine, dont la structure plus complexe, pourrait constituter une alternative. Des collègues dans le groupe Hanessian et collaborateurs d’Achaogen Inc. ont démontré que certains analogues de la paraomomycine et neomycine, modifiés par désoxygénation sur les positions 3’ et 4’, et par substitution avec la chaîne N1-α-hydroxy-γ-aminobutyramide (HABA) provenant de la butirosine, pourrait produire des antibiotiques très prometteurs. Le Chapitre 4 de cette dissertation présente la conception et le développement d’une stratégie semi-synthétique pour produire des nouveaux aminoglycosides améliorés du type 4,5 disubstitués, inspiré par des modifications biosynthétiques de la sisomicine, qui frustrent les mécanismes de résistance bactérienne distribuées globalement. Cette voie de synthèse dépend d’une réaction d’hydrogénolyse de type Tsuji catalysée par palladium, d’abord développée sur des modèles monosaccharides puis subséquemment appliquée pour générer un ensemble d’aminoglycosides hybrides entre la neomycine et la sisomicine. Les études structure-activité des divers analogues de cette nouvelle classe ont été évaluées sur une gamme de 26 souches bactériennes exprimant des mécanismes de résistance enzymatique et d’expulsion qui englobe l’ensemble des pathogènes ESKAPE. Deux des antibiotiques hybrides ont une couverture antibacterienne excellente, et cette étude a mis en évidence des candidats prometteurs pour le développement préclinique. La thérapie avec les antibiotiques aminoglycosidiques est toujours associée à une probabilité de complications néphrotoxiques. Le potentiel de toxicité de chaque aminoglycoside peut être largement corrélé avec le nombre de groupements amino et de désoxygénations. Une hypothèse de longue date dans le domaine indique que les interactions principales sont effectuées par des sels des groupements ammonium, donc l’ajustement des paramètres de pKa pourrait provoquer une dissociation plus rapide avec leurs cibles, une clairance plus efficace et globalement des analogues moins néphrotoxiques. Le Chapitre 5 de cette dissertation présente la conception et la synthèse asymétrique de chaînes N1 HABA β substitutées par mono- et bis-fluoration. Des chaînes qui possèdent des γ-N pKa dans l’intervalle entre 10 et 7.5 ont été appliquées sur une neomycine tétra-désoxygénée pour produire des antibiotiques avancés. Malgré la réduction considérable du γ N pKa, le large spectre bactéricide n’a pas été significativement affecté pour les analogues fluorés isosteriques. De plus, des études structure-toxicité évaluées avec une analyse d’apoptose propriétaire d’Achaogen ont démontré que la nouvelle chaîne β,β difluoro-N1-HABA est moins nocive sur un modèle de cellules de rein humain HK2 et elle est prometteuse pour le développement d’antibiotiques du type neomycine avec des propriétés thérapeutiques améliorées. Le chapitre final de cette dissertation présente la proposition et validation d’une synthèse biomimétique par assemblage spontané du aminoglycoside 66-40C, un dimère C2 symétrique bis-imine macrocyclique à 16 membres. La structure proposée du macrocycle a été affinée par spectroscopie nucléaire à un système trans,trans-bis-azadiène anti-parallèle. Des calculs indiquent que l’effet anomérique de la liaison α glycosidique entre les anneaux A et B fournit la pré-organisation pour le monomère 6’ aldéhydo sisomicine et favorise le produit macrocyclique observé. L’assemblage spontané dans l’eau a été étudié par la dimérisation de trois divers analogues et par des expériences d’entre croisement qui ont démontré la généralité et la stabilité du motif macrocyclique de l'aminoglycoside 66-40C.
Resumo:
Par cette recherche, nous voulons évaluer de manière exhaustive les bénéfices qu’apporte l’ExAO (Expérimentation Assistée par Ordinateur) dans les laboratoires scolaires de sciences et technologie au Liban. Nous aimerions aussi qu’elle contribue d’une manière tangible aux recherches du laboratoire de Robotique Pédagogique de l’Université de Montréal, notamment dans le développement du µlaboratoire ExAO. Nous avons voulu tester les capacités de l’ExAO, son utilisation en situation de classe comme : 1. Substitut d’un laboratoire traditionnel dans l’utilisation de la méthode expérimentale; 2. Outil d’investigation scientifique; 3. Outil d’intégration des sciences expérimentales et des mathématiques; 4. Outil d’intégration des sciences expérimentales, des mathématiques et de la technologie dans un apprentissage technoscientifique; Pour ce faire, nous avons mobilisé 13 groupe-classes de niveaux complémentaire et secondaire, provenant de 10 écoles libanaises. Nous avons désigné leurs enseignants pour expérimenter eux-mêmes avec leurs étudiants afin d’évaluer, de manière plus réaliste les avantages d’implanter ce micro laboratoire informatisé à l’école. Les différentes mise à l’essai, évaluées à l’aide des résultats des activités d’apprentissage réalisées par les étudiants, de leurs réponses à un questionnaire et des commentaires des enseignants, nous montrent que : 1. La substitution d’un laboratoire traditionnel par un µlaboratoire ExAO ne semble pas poser de problème; dix minutes ont suffi aux étudiants pour se familiariser avec cet environnement, mentionnant que la rapidité avec laquelle les données étaient représentées sous forme graphique était plus productive. 2. Pour l’investigation d’un phénomène physique, la convivialité du didacticiel associée à la capacité d’amplifier le phénomène avant de le représenter graphiquement a permis aux étudiants de concevoir et de mettre en œuvre rapidement et de manière autonome, une expérimentation permettant de vérifier leur prédiction. 3. L’intégration des mathématiques dans une démarche expérimentale permet d’appréhender plus rapidement le phénomène. De plus, elle donne un sens aux représentations graphiques et algébriques, à l’avis des enseignants, permettant d’utiliser celle-ci comme outil cognitif pour interpréter le phénomène. 4. La démarche réalisée par les étudiants pour concevoir et construire un objet technologique, nous a montré que cette activité a été réalisée facilement par l’utilisation des capteurs universels et des amplificateurs à décalage de l’outil de modélisation graphique ainsi que la capacité du didacticiel à transformer toute variable mesurée par une autre variable (par exemple la variation de résistance en variation de température, …). Cette activité didactique nous montre que les étudiants n’ont eu aucune difficulté à intégrer dans une même activité d’apprentissage les mathématiques, les sciences expérimentales et la technologie, afin de concevoir et réaliser un objet technologique fonctionnel. µlaboratoire ExAO, en offrant de nouvelles possibilités didactiques, comme la capacité de concevoir, réaliser et valider un objet technologique, de disposer pour ce faire, des capacités nouvelles pour amplifier les mesures, modéliser les phénomènes physiques, créer de nouveaux capteurs, est un ajout important aux expériences actuellement réalisées en ExAO.
Resumo:
Plusieurs travaux suggèrent que les personnes atteintes d’une maladie mentale grave représentent un risque plus élevé de passage à l’acte violent que les personnes de la population en générale. Les raisons pour lesquelles ces personnes seraient plus enclines à commettre des gestes violents restent toutefois souvent contradictoires. En 1994, Link et Stueve suggéraient qu’une personne atteinte de symptômes de type menace/atteintes aux mécanismes de contrôle (TCO), était significativement plus à risque de commettre un geste violent. Les résultats de ces travaux furent par la suite reproduits dans le cadre d’autres études. L’objectif de ce rapport de stage est de mieux comprendre la relation entre les symptômes TCO et le passage à l’acte agressif en cours d’hospitalisation. Pour ce faire, les informations concernant la symptomatologie et les passages à l’acte violents de deux résidents de l’Institut Philippe-Pinel de Montréal (IPPM) sont présentées sous forme d’études de cas. L’analyse du contenu clinique des études de cas suggère qu’une approche nomothétique ne permet de comprendre qu’en partie l’association entre le passage à l’acte agressif et les symptômes TCO. Une telle approche ne permet pas d’intégrer d’autres facteurs cliniques tels les hallucinations ou les idées de violence, à l’étude du passage à l’acte agressif. Une approche phénoménologique où l’on s’intéresse à la compréhension qu’a la personne de son environnement et aux moyens qu’elle envisage afin d’y répondre semble offrir davantage de pistes afin de comprendre le passage à l’acte violent chez la personne atteinte d’une maladie mentale grave.
Resumo:
La présente recherche vise à mieux comprendre, dans le contexte universitaire béninois, s’il peut exister un lien qualitatif entre TIC et rendement académique afin de pouvoir mettre les TIC à contribution pour améliorer significativement les mauvais résultats des apprenants, notamment au premier cycle universitaire. Cette étude est tout particulièrement importante dans notre contexte où les TIC font de plus en plus leur apparition en pédagogie universitaire et où les étudiants recourent aux TIC dans leur pratique plus que les formateurs dans la leur. Le cadre de référence retenu pour la recherche est structuré autour des concepts de l’apprentissage assisté par les TIC, de motivation en éducation et de rendement académique. Pour atteindre notre objectif de recherche, nous avons opté pour une démarche mixte : quantitative et qualitative. Il s’agit d’une étude descriptive/explicative. Nous avons mené une enquête par questionnaires auprès de 156 étudiants et 15 enseignants et fait des entrevues avec 11 étudiants et 6 enseignants. Les principaux résultats sont présentés sous forme d’articles respectivement en ce qui a trait à l’impact des TIC sur la motivation et la réussite, aux usages des TIC les plus fréquemment rencontrés chez les apprenants, et à la place des TIC dans la pratique pédagogique des enseignants de la faculté de droit de l’Université d’Abomey-Calavi. Plus précisément, il ressort des résultats que la majorité des participants ont une perception en général positive du potentiel motivationnel des TIC pour l’apprentissage. Cependant, sur une cote maximale de 7 (correspond très fortement), la perception des répondants relativement à l’impact positif de l’utilisation des TIC sur le rendement académique tourne autour d’une cote moyenne de 4 (correspond assez). D’où, une perception en général mitigée du lien entre l’apprentissage assisté par les TIC et la réussite. Le croisement des résultats des données quantitatives avec ceux de l’analyse qualitative induit, sur ce point, une perception positive prononcée des rapports entre TIC et rendement. Les résultats montrent également que les usages des TIC les plus fréquents chez ces apprenants sont le courriel (en tête), suivi de la recherche et du traitement de texte, avec une fréquence moyenne d’ « une fois par semaine ». Tous ces constats n’accréditent pas véritablement un usage académique des TIC. Chez les enseignants, les résultats ont montré aussi qu’il n’y a pas encore de réelles applications des TIC en situation d’enseignement : ils font plutôt un usage personnel des TIC et pas encore véritablement pédagogique. La conséquence logique de ces résultats est qu’il n’existe pas encore un lien qualitatif direct entre TIC et rendement académique en contexte universitaire béninois.
Resumo:
Cette thèse est constituée de trois articles. Le premier étudie le problème de pollution globale dans un contexte environnemental incertain. Le deuxième article traite des accords internationaux sur l'environnement. Le troisième article montre comment la libéralisation du commerce peut affecter le bien-être et les taxes sur la pollution dans un monde où les pays sont hétérogènes et la pollution transfrontalière. Dans le premier article, je considère un monde dans lequel les pays souffrent uniformément de la pollution globale. Ils font face à une menace continuelle de voir les dommages causés par cette pollution globale s'accroître subitement de façon irréversible. Je caractérise le niveau des émissions, le stock de pollution, et le niveau de bien-être actualisé en équilibres coopératif et non-coopératif. L'objectif visé est d'analyser l'impact de ce type d'incertitude sur les équilibres issus des comportements stratégiques des pays. Je trouve que cette incertitude peut avoir un effet significatif sur ces équilibres. Les pays réduisent leurs émissions pour atténuer leur exposition à cette menace. Plus la menace est grande, plus les pays ajustent leurs émissions afin de réduire le stock de pollution globale. Cependant, en dépit du fait que cette incertitude diminue le bien-être net initial, elle peut à long terme avoir un effet net positif sur le bien-être. Le deuxième article étend la classe des modèles dynamiques standards traitant des accords internationaux sur l'environnement au cas où la durée de la période d'engagement à de tels accords est un paramètre que l'on peut varier de façon exogène. Nous y étudions les évolutions dans le temps de la taille des coalitions stables, du stock de pollution et du taux d'émissions en fonction de la durée d'engagement. Nous montrons que la longueur de la période d'engagement a un effet très significatif sur l'équilibre. Trois intervalles de durée d'engagement sont identifiés pour lesquels l'équilibre et sa dynamique diffèrent considérablement. Alors que pour des durées de la période d'engagement très longues on observe des coalitions stables constituées d'un petit nombre de pays, si ces durées sont suffisamment courtes on peut observer un niveau de coopération élevé. Les durées d'engagement entre ces deux extrêmes sont caractérisées par une relation inverse entre la durée de la période d'engagement et la taille des coalitions stables. Ces faits portent à croire qu'il faudrait accorder une attention toute particulière au choix de la durée d'engagement lors de l'élaboration de tels accords internationaux. Le troisième article s'inscrit dans un contexte où les activités de production des pays potentiellement hétérogènes génèrent de la pollution qui peut traverser les frontières et nuire au bien-être des pays impliqués. Dans chacun de ces pays, l'état impose des taxes sur la pollution aux firmes polluantes et des tarifs à l'importation afin de corriger cette distorsion. Ce papier a pour but d'évaluer les effets que pourrait avoir une diminution des tarifs douaniers sur la production, les taxes sur la pollution et le bien-être de ces pays. La littérature existante a étudié ce problème, mais seulement dans le cadre d'un commerce bilatéral entre pays identiques. Cet article fournit un cadre d'analyse plus réaliste dans lequel les pays ne seront pas nécessairement identiques et où le commerce pourra être multilatéral. Il devient alors possible de mettre en évidence le biais introduit en négligeant ces deux facteurs. Dans ce nouveau contexte, je montre qu'une réduction des tarifs d'importation n'augmente pas nécessairement la production; elle peut aussi nuire au bien-être, même si la pollution est purement locale.
Resumo:
Plusieurs travaux de recherche indiquent que des personnes âgées peuvent vivre des situations d’exclusion sociale en raison de leur âge. Celles qui reçoivent des soins palliatifs peuvent de plus être affectées par des situations d’exclusion parce qu’elles sont malades et mourantes. On constate que leur accès à ce type de soins est limité et que certaines pratiques banalisent leur expérience de fin de vie et qu’elles tiennent difficilement compte des particularités du vieillissement. À partir d’une analyse secondaire qualitative de six entrevues, menées auprès de travailleuses sociales, ce mémoire vise à comprendre en quoi leurs pratiques de soins palliatifs gérontologiques engendrent des situations d’exclusion sociale ou encore, comment elles peuvent les éloigner. En plus de contribuer au savoir pratique, ce mémoire rend compte de la diversité des représentations dans ce contexte de pratique et leur influence sur l’intervention. Ainsi, des représentations positives envers les personnes âgées, de même que des pratiques qui considèrent les différenciations individuelles, éloignent des risques d’exclusion. Toutefois, quelques-uns des principes fondamentaux de l’approche des soins palliatifs et des modèles d’accompagnement peuvent contribuer à produire des situations d’exclusion. Ce mémoire identifie, par ailleurs, un ensemble de conditions, relevant ou non de l’exclusion sociale, liées à différents contextes, aux personnes soignées et la leur famille ainsi qu’aux travailleurs sociaux, qui peuvent nuire à l’intervention, ou encore, favoriser des pratiques inclusives. Il termine par quelques pistes d’action susceptibles de promouvoir l’inclusion sociale des personnes âgées en soins palliatifs.
Resumo:
Depuis ces deux dernières décennies, des efforts considérables en psychologie cognitive et neuropsychologie ont été déployés pour mieux comprendre les dynamiques entre les différents systèmes cognitifs (fonctions exécutives, mémoire, langage, etc.). L’observation d’une co-existence entre des atteintes en rétention à court terme verbale (RCTv) et en langage dans plusieurs pathologies a conduit certains chercheurs à concevoir une alternative à la conceptualisation classique de la RCTv, telle que proposée par le modèle initial de la mémoire de travail de Baddeley (1986). Particulièrement, les travaux sur l’aphasie ont conduit à l’émergence d’une approche psycholinguistique de la RCTv, postulant que le traitement et le maintien des mots font appel à des processus communs. Cette approche, et particulièrement le modèle d’activation interactive (N. Martin & Gupta, 2004; N. Martin & Saffran, 1997), prédit que les capacités en RCTv sont notamment modulées par les caractéristiques linguistiques engagées durant l’épreuve, variant selon la nature des items verbaux et la modalité de rappel, ainsi que par les compétences linguistiques des individus. L’objectif de la présente thèse était de tester ces prédictions à partir d’une exploration des relations entre le traitement sémantique des mots et la RCTv chez l’adulte sain (article 1) et dans la démence de type Alzheimer (DTA) (article 2). Dans le premier article, deux expériences mettent en évidence l’influence des liens associatifs entre les mots sur les capacités à maintenir temporairement des informations verbales. Les participants ont tendance à faussement reconnaître des mots associés aux mots de la liste, reflet d’une activation du réseau sémantique durant la rétention temporaire. Cette contribution sémantique est accentuée en situation de suppression articulatoire, une condition qui empêche le participant de répéter les listes durant la tâche. Les résultats du second article indiquent que la modalité de réponse module différemment la performance en RCTv chez les participants âgés sans atteinte neurologique et ceux atteints de la DTA. Ces données en RCTv sont compatibles avec les atteintes spécifiques du traitement du mot, également trouvées chez le groupe avec DTA. Les implications théoriques et cliniques de ces résultats sont discutées. Les limites et perspectives futures sont également abordées.
Resumo:
La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.
Resumo:
Le sujet principal de cette thèse est la distribution des nombres premiers dans les progressions arithmétiques, c'est-à-dire des nombres premiers de la forme $qn+a$, avec $a$ et $q$ des entiers fixés et $n=1,2,3,\dots$ La thèse porte aussi sur la comparaison de différentes suites arithmétiques par rapport à leur comportement dans les progressions arithmétiques. Elle est divisée en quatre chapitres et contient trois articles.
Le premier chapitre est une invitation à la théorie analytique des nombres, suivie d'une revue des outils qui seront utilisés plus tard. Cette introduction comporte aussi certains résultats de recherche, que nous avons cru bon d'inclure au fil du texte.
Le deuxième chapitre contient l'article \emph{Inequities in the Shanks-Rényi prime number
race: an asymptotic formula for the densities}, qui est le fruit de recherche conjointe avec le professeur Greg Martin. Le but de cet article est d'étudier un phénomène appelé le <
Resumo:
Dans un contexte social où se renégocie le contrat de genre, l’exploration des voies empruntées par les hommes pour (apprendre à) changer leur comportement, aussi bien que leurs croyances et leurs connaissances sur la masculinité, est particulièrement importante. Située dans le champ des études sur le genre masculin et de l’andragogie, l’étude explore le processus d’apprentissage d’adultes faisant partie du Réseau Hommes Québec (RHQ). En utilisant une méthodologie qualitative, des entretiens semi-dirigés ont été effectués auprès de 16 membres de cette organisation d’entraide visant la remise en question des rôles de genre traditionnels masculins et encourageant le développement personnel des hommes. Si la plupart des répondants n’ont pas transformé radicalement leur conception de la masculinité, qui demeure souvent abstraite, leur façon de se voir comme homme a changé radicalement. Les émotions et les relations ont joué un rôle prépondérant dans le développement d’une réflexion critique sur le genre, le leur comme celui des autres. Le plus souvent, ils ont eu le courage de sentir, d’être et d’agir de façon inédite avec d’autres hommes. Cela a représenté, pour pratiquement tous les répondants, une véritable révolution intérieure qui leur a fait prendre conscience qu’ils étaient sensibles, qu’ils avaient besoin d’autrui et qu’ils pouvaient approcher d’autres hommes sans que leur orientation (hétéro)sexuelle soit menacée. Cette thèse met également en perspective que le contexte de groupe est crucial dans l’évolution des hommes. La socialisation masculine inédite vécue dans le Réseau favorise chez tous les répondants la découverte de modèles de masculinité différents. En plus d’y vivre des occasions uniques de développer des compétences relationnelles, sociales et communicationnelles qui les rapprochent de leurs proches, les répondants éprouvent dans les groupes du RHQ un sentiment puissant de pouvoir partager de l’intimité masculine. Ce nouveau mode d’interaction s’appuie sur les règles de fonctionnement et les rituels en vigueur dans le Réseau. Ils mettent l’accent sur la nature personnelle et subjective de la communication, défiant en cela les préceptes de la masculinité traditionnelle. En mettant en évidence que les hommes développent une conscience critique permettant de reconnaître et de comprendre l’importance de la culture masculine hégémonique et son impact sur leur vie, cette recherche révèle le potentiel transformationnel des apprentissages effectués par les 16 répondants dans des groupes d’entraide du RHQ. De cette conscientisation résulte une nouvelle conceptualisation de ce que signifie être un homme qui mène les participants à se voir autrement, à croire en eux-mêmes et en leur capacité à prendre le contrôle de leur vie. Pour conclure cette thèse, quelques pistes de réflexion pour guider de futures recherches relatives à la transformation de perspective sont présentées. Il est notamment question, en plus d’avoir recours à des entretiens rétrospectifs semi-dirigés, de combiner les méthodologies qualitatives et quantitatives, de procéder à des observations systématiques des situations d’apprentissage (rencontres de groupe) et de ne pas se concentrer exclusivement sur ceux qui sont supposés vivre la transformation, mais d’élargir cette collecte à d’autres sources d’information (familles, collègues de travail, voisins, thérapeutes individuels), le tout dans une perspective longitudinale.
Resumo:
Cette étude de cas vise à comparer le modèle de soins implanté sur le territoire d’un centre de santé et des services sociaux (CSSS) de la région de Montréal aux modèles de soins en étapes et à examiner l’influence de facteurs contextuels sur l’implantation de ce modèle. Au total, 13 cliniciens et gestionnaires travaillant à l’interface entre la première et la deuxième ligne ont participé à une entrevue semi-structurée. Les résultats montrent que le modèle de soins hiérarchisés implanté se compare en plusieurs points aux modèles de soins en étapes. Cependant, certains éléments de ces derniers sont à intégrer afin d’améliorer l’efficience et la qualité des soins, notamment l’introduction de critères d’évaluation objectifs et la spécification des interventions démontrées efficaces à privilégier. Aussi, plusieurs facteurs influençant l’implantation d’un modèle de soins hiérarchisés sont dégagés. Parmi ceux-ci, la présence de concertation et de lieux d’apprentissage représente un élément clé. Néanmoins, certains éléments sont à considérer pour favoriser sa réussite dont l’uniformisation des critères et des mécanismes de référence, la clarification des rôles du guichet d’accès en santé mentale et l’adhésion des omnipraticiens au modèle de soins hiérarchisés. En somme, l’utilisation des cadres de référence et d’analyse peut guider les gestionnaires sur les enjeux à considérer pour favoriser l’implantation d’un modèle de soins basé sur les données probantes, ce qui, à long terme, devrait améliorer l’efficience des services offerts et leur adéquation avec les besoins populationnels.