302 resultados para Sol, Utilisation urbaine du


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Comme son titre l'indique, ce mémoire traite de la légitimité du recours à l'action déclaratoire en droit international privé québécois. L'action déclaratoire, qu'elle soit introduite par déclaration ou par requête, a pour but de faire prononcer un tribunal sur l'existence ou l'inexistence de droits et obligations des parties. Bien que très ancienne, l'action déclaratoire n'était que peu utilisée au Québec jusqu'à l'avènement en 1966 de la requête en jugement déclaratoire dans notre Code de procédure civile. Aujourd'hui, cette action est largement utilisée en droit public dans le cadre du pouvoir de surveillance et de contrôle de la Cour supérieure, mais aussi dans le contexte du droit international privé comme une stratégie de défense, ou parfois d'attaque, dans le cadre d'un litige international. Fondamentalement, la finalité de cette action est d'offrir un mécanisme de protection judiciaire des droits d'un individu lorsque les autres recours ne sont pas disponibles ou accessibles, et de permettre un recours efficace hors du cadre traditionnel de la procédure ordinaire. Dès lors, il semble contestable d'utiliser en droit international privé l'action en jugement déclaratoire pour bloquer les procédures ordinaires autrement applicables. L'objet de cette étude est ainsi de démontrer que bien que le recours à l'action déclaratoire soit légitime en droit international privé, son utilisation actuelle à des fins stratégiques en présence, ou en prévision, d'une action ordinaire intentée dans une autre juridiction, paraît difficilement justifiable. Ainsi, la première partie de ce mémoire est consacrée à l'étude de la légitimité de l'action déclaratoire en droit international privé québécois, et la seconde partie s'intéresse aux effets d'une requête en jugement déclaratoire étrangère sur la procédure internationale au Québec.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce projet découle du Canadian Sport Centre Dietary Study qui avait pour objectif d’évaluer les habitudes de consommation de suppléments alimentaires chez les athlètes canadiens et de déterminer si des différences régionales existaient. Un nombre de sujets était prédéterminé pour chaque province en considération du nombre d’athlètes identifiés comme Excellence, Élite ou Relève par les Centres d’entraînement nationaux et les organismes gouvernementaux. Pour ce mémoire, seules les données associées aux athlètes du Québec ont été considérées. Quarante-trois athlètes ont répondu à un questionnaire sur l’utilisation des suppléments alimentaires, 71 ont fourni un journal alimentaire de trois jours et 42 parmi ces derniers ont remis les deux documents. La prévalence d’utilisation des suppléments alimentaires était de 90,7%. Les utilisateurs consommaient en moyenne 3,35 produits différents, particulièrement des boissons énergétiques (48,8%), des multivitamines-minéraux (37,2%), des produits de santé naturels (37,2%) et des suppléments de protéines en poudre (34,9%). Les athlètes souhaitaient maintenir leur santé (27,9%) et améliorer leur niveau d’énergie (27,9%) ou leur récupération (25,6%). Les sources d’information citées étaient les entraîneurs physiques (25,6%), la famille ou les amis (16,3%) et les coéquipiers (16,3%). Les sujets se procuraient ces produits dans les épiceries (16,3%), les pharmacies (14,0%) et les magasins spécialisés (9,3%). Soixante-dix pour cent des sujets croyaient que l’arrêt de l’utilisation des suppléments alimentaires n’aurait aucun impact sur leurs performances ou ne savaient pas comment cela les influencerait. Ils démontraient un vif intérêt au sujet de l’efficacité (69,8%), la légalité (55,8%) et la sécurité (53,5%) de ces produits. Des sujets qui utilisaient un supplément de protéines, 81% présentaient un apport alimentaire supérieur à leurs besoins. L’utilisation de suppléments de multivitaminesminéraux permettait de combler l’apport insuffisant en calcium et en folate, mais pas en potassium. Nos résultats soulignent que ces utilisateurs présentaient des apports dépassant l’apport maximal tolérable pour le sodium, le magnésium, la niacine, le folate, la vitamine A et le fer. Nous pouvons donc conclure que ces deux types de suppléments alimentaires n’étaient pas utilisés d’une façon pertinente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les nombreux exemples réussis où l’aménagement du territoire intègre des milieux naturels nous ont amenée à nous questionner sur les techniques d’intégration des milieux naturels et les outils de planification disponibles au Québec. La présente recherche porte sur le volet environnemental du projet résidentiel le Faubourg de la Pointe-aux-Prairies à Montréal (FPP) situé dans l’Arrondissement Pointe-aux-Trembles/Rivière-des-Prairies/Montréal est. Un premier objectif relié aux résultats nous a permis d’analyser le taux de succès du quartier FPP à intégrer efficacement des préoccupations environnementales concernant la mise en valeur des milieux naturels. En nous basant sur le taux de conservation, l’intégrité écologique et les témoignages des intervenants de la Ville de Montréal, nous avons déterminé que le plan d’aménagement du projet présente un bilan environnemental mitigé. Un second objectif relié aux processus nous a permis de déterminer si les outils sollicités pendant la conception et la mise en œuvre du projet ont facilité l’intégration des milieux naturels. En nous basant sur les outils d’encadrement et proactifs utilisés tout au long de la mise en oeuvre, nous avons déterminé que ceux-ci sont inadaptés à certaines situations. La non intégration des milieux protégés dans les outils de planification, la destruction des milieux aquatiques avec l’accord du Ministère de l’environnement (MDDEP), le manque de vérification des ententes lors de l’attribution des certificats d’autorisation, l'absence de protection des milieux naturels terrestres et la difficulté d’évaluer les bénéfices économiques de l’intégration de la nature ont été les défis majeurs observés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans le contexte d’urbanisation fulgurante de l’Asie du sud-est, les zones périurbaines agricoles vietnamiennes subissent des pressions environnementales croissantes et sont loin d’être équipées en infrastructures. L’assainissement présente un important manque d’investissement. La thèse s’est intéressée aux stratégies et aux mécanismes de financement qui aideront à réduire l’écart entre l’offre et la demande d’assainissement. Deux hypothèses principales ont été posées. D’abord, des fonds supplémentaires doivent provenir des ressources nationales, locales et celles des utilisateurs. La seconde hypothèse pose qu’il faudra investir avantage dans des activités qui augmenteront la durabilité des services d’assainissement, comme l’éducation et la promotion, qui en plus favorisent les contributions locales. La thèse a tenté de répondre à la question suivante : Dans le contexte périurbain d’Hanoi, comment mettre à contribution les ressources locales pour améliorer l’accès et la durabilité de l’assainissement? L’étude de cas est un projet communautaire pilote de gestion des eaux usées en banlieue d’Hanoi. Les facteurs de demande pour de l’assainissement et leurs effets sur la durabilité du projet ont été analysés auprès des ménages, des acteurs du village et des acteurs nationaux liés à l’assainissement. La thèse a d’abord permis d’actualiser les connaissances sur deux aspects importants : le cadre institutionnel qui encadre le financement de l’assainissement et les coûts et bénéfices de l’assainissement alternatif au Vietnam. Ces deux sujets présentaient une lacune sérieuse au niveau de la documentation. Puis, malgré de faibles capacités au niveau local, la demande réelle pour de l’assainissement était beaucoup plus importante que celle relevée dans la littérature. La recherche a permis de conclure que les institutions gouvernementales pourraient compter sur une plus grande contribution du milieu local si la planification ciblait ces facteurs : l’éducation et promotion, une grande part de décision et de gestion au niveau local et des technologies plus simples.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il est très commun d’entendre dans les discussions sur l’urbanisme que la participation du public est nécessaire, mais la manière de faire participer reste encore sujette à énormément d’expérimentation et d’incertitudes. Cette étude s’intéresse au design institutionnel des processus de participation en urbanisme, sous l’angle de leurs effets de démocratisation. L’étude cherchera à identifier les aspects déterminants des processus de participation en urbanisme afin d’offrir, à ceux qui les conçoivent, un éclairage sur les implications des choix qu’ils effectuent. L’analyse se construira à partir de l’étude du fonctionnement concret d’une opération de planification concertée à Porto Alegre, dans le secteur Lomba do Pinheiro. Elle s’appuiera sur un découpage des modalités du processus élaboré à partir d’une revue des ouvrages techniques sur la participation en aménagement. Après avoir décrit la culture de la participation et de planification propre à Porto Alegre et comment celle-ci s’est construite, l’analyse décrira, à partir d’observations sur l’évolution du processus et de ses résultats, les effets du processus en termes d’impact sur l’espace bâti, de transformation des relations sociales et de possibilité de faire apparaître des conflits. Les conclusions feront voir l’importance des modalités plus informelles du travail des organisateurs, de même que la nécessité de mettre le projet au centre du processus afin d’établir un terrain commun. Le rôle crucial de la sélection des participants sera souligné. De fortes réserves seront exprimées quant à la pertinence de la transformation des relations sociales comme objectif pour les processus de planification concertée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire présente l’étude de cas de la ville de St George, ancienne capitale du protectorat britannique des Bermudes. Sa situation géographique particulière et la présence d’un ensemble architectural colonial britannique et d’ouvrages militaires lui ont récemment valu le titre de Site du patrimoine mondial de l’UNESCO, ce qui constitue une reconnaissance de la valeur exceptionnelle universelle de cet ensemble urbain. Cette inscription survient au moment où les autorités locales souhaitaient diversifier l’économie de l’archipel en misant davantage sur le tourisme culturel et patrimonial. L’hypothèse centrale de ce mémoire est que la ville St George se révèle, au sens où l’entendent G.J. Ashworth et J.E. Tunbridge dans leur ouvrage The tourist-historic city, un « joyau du patrimoine », ce dernier étant défini comme une petite collectivité territoriale recelant des ressources historiques exceptionnelles qui en définissent de manière notable la morphologie urbaine et l’identité paysagère et orientent les politiques municipales. La recherche, suite à la présentation d’un cadre théorique sur le patrimoine mondial et le tourisme patrimonial, a par ailleurs permis de montrer que le concept de « cité historico-touristique » développé par les mêmes auteurs s’applique aux Bermudes à la condition qu’un transfert d’échelle soit opéré. En effet, nous ne sommes pas en présence d’un espace touristique constitué de deux secteurs d’une même ville qui contribuent, chacun à sa façon, à la définition de l’attractivité touristique, mais plutôt de deux petites villes voisines – St-George et Hamilton, la capitale – qui constituent le substrat d’une cité historico-touristique éclatée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La maladie du greffon contre l’hôte (GvHD) est une complication majeure des greffes de cellules souches hématopoïétiques (HSCT) qui survient dans 30 à 70% des cas et peut causer la mort, malgré un traitement prophylactique bien conduit. Il existe donc une réelle demande clinique pour améliorer ces traitements prophylactiques. Parce que ces traitements prophylactiques reposent en général sur des agents immunosuppresseurs, ceux-ci contribuent à diminuer la reconstitution immunitaire du patient, ce qui a un impact défavorable sur les infections et les taux de rechute d’hémopathie maligne, et donc limite leur utilisation. Les immunoglobulines (IVIG) pourraient représenter une alternative intéressante puisqu’elles ont des propriétés immunomodulatrices et qu’elles sont de plus couramment utilisées en clinique pour traiter des patients ayant un déficit immunitaire. Leur capacité à réduire l’apparition et la sévérité de la GvHD, sans toutefois inhiber ou nuire à la reconstitution immunitaire chez le patient n’a néanmoins jamais été clairement démontrée. Les objectifs de ce projet sont donc d’évaluer l’efficacité des IVIG à réduire l’incidence et la sévérité de la GvHD dans un modèle murin humanisé de GvHD, ainsi que de déterminer le mécanisme d’action des IVIG. Ce modèle consiste à injecter des huPBMCs à des souris immunodéprimées ne pouvant les rejeter. Les résultats obtenus suggèrent que les IVIG possèdent un effet immunomodulateur permettant de réduire les signes cliniques et de retarder l’apparition de la GvHD, tout en permettant l’apparition de cellules NK. Les IVIG agiraient de façon indirecte sur les huPBMCs afin d’induire l’apparition des cellules NK.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette étude traite de la complexité des enjeux de la mise en lumière urbaine et de sa conception. Le but est de déceler les mécanismes opératoires du projet d’éclairage afin de générer une analyse et une compréhension de ce type d’aménagement. Cette recherche met à jour les enjeux lumineux à différents niveaux comme l’urbanisme, l’environnement, la culture, la communication, la vision et la perception mais aussi au niveau des acteurs et de leurs pratiques sur le terrain. En utilisant une approche qualitative déductive, cette recherche théorique cherche à mieux comprendre les différentes significations du phénomène lumineux : comment dans la réalité terrain ces enjeux de la lumière sont compris, interprétés et traduits au travers de la réalisation des projets et des processus mis en place pour répondre aux besoins d’éclairage ? La pertinence de cette recherche est de questionner les enjeux complexes de la mise en lumière afin de savoir comment concevoir un « bon éclairage ». Comment se déroule un projet d’éclairage de sa conception à sa réalisation ? Quels sont les différents acteurs, leurs modes d’intervention et leurs perceptions du projet d’éclairage ? Le but est de vérifier comment ces enjeux se concrétisent sur le terrain, notamment au travers de l’activité et de l’interprétation des professionnels. Nous souhaitons créer un modèle opératoire qui rende compte des enjeux et du processus de ce type de projet. Modèle qui servira alors de repère pour la compréhension des mécanismes à l’œuvre comme le contexte, les acteurs, les moyens et les finalités des projets. Une étude des recherches théoriques nous permettra de comprendre la polysémie du phénomène lumineux afin d’en déceler la complexité des enjeux et de créer une première interprétation de ce type de projet. Nous déterminerons théoriquement ce que recouvre la notion de « bon éclairage » qui nous permettra de créer une grille analytique pour comparer notre approche avec la réalité sur le terrain. Ces recherches seront ensuite confrontées au recueil des données des études de cas, des stages en urbanisme et en conception lumière, et des interviews de professionnels dans le domaine. Nous confronterons les enjeux définis théoriquement aux collectes de données issues du terrain. Ces données seront collectées à partir de projets réalisés avec les professionnels durant la recherche immersive. La recherche-action nous permettra de collaborer avec les professionnels pour comprendre comment ils sélectionnent, déterminent et répondent aux enjeux des projets d’éclairage. Nous verrons grâce aux entretiens semi-dirigés comment les acteurs perçoivent leurs propres activités et nous interprèterons les données à l’aide de la « théorisation ancrée » pour dégager le sens de leurs discours. Nous analyserons alors les résultats de ces données de manière interprétative afin de déterminer les points convergeant et divergent entre les enjeux théoriques définis en amont et les enjeux définis en aval par la recherche-terrain. Cette comparaison nous permettra de créer une interprétation des enjeux de la mise en lumière urbaine dans toutes leurs complexités, à la fois du point de vue théorique et pratique. Cette recherche qualitative et complexe s’appuie sur une combinaison entre une étude phénoménologique et les méthodologies proposées par la « théorisation ancrée ». Nous procéderons à une combinaison de données issues de la pratique terrain et de la perception de cette pratique par les acteurs de l’éclairage. La recherche d’un « bon éclairage » envisage donc par une nouvelle compréhension l’amélioration des outils de réflexion et des actions des professionnels. En termes de résultat nous souhaitons créer un modèle opératoire de la mise en lumière qui définirait quels sont les différents éléments constitutifs de ces projets, leurs rôles et les relations qu’ils entretiennent entre eux. Modèle qui mettra en relief les éléments qui déterminent la qualité du projet d’éclairage et qui permettra de fournir un outil de compréhension. La contribution de ce travail de recherche est alors de fournir par cette nouvelle compréhension un repère méthodologique et analytique aux professionnels de l’éclairage mais aussi de faire émerger l’importance du phénomène de mise en lumière en suscitant de nouveaux questionnements auprès des activités liées au design industriel, à l’architecture et à l’urbanisme.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les champignons mycorhiziens à arbuscules (CMA), classés dans le phylum Glomeromycota, ne peuvent pas être facilement identifiés par la morphologie de leurs spores et leurs mycélia à l'intérieur ou à l'extérieur des racines de leurs hôtes. Ce problème fondamental d'identification rend l'étude de leur diversité, en particulier dans leur habitat naturel (sol et racine) extrêmement difficile. Les gènes ribosomaux ont été largement utilisés pour développer des amorces spécifiques et en inférer des arbres phylogénétiques. Cependant, ces gènes sont très polymorphes et existent en plusieurs copies dans le génome des CMA, ce qui complique l’interprétation des résultats. Dans notre étude, nous avons étudié le polymorphisme intra- et inter-spécifique du gène β-tubuline, présent en faible nombre de copies dans le génome des CMA, afin d’obtenir de nouvelles séquences nucléotidiques pour développer des marqueurs moléculaires. Les gènes β-tubuline amplifiés à partir de l'ADN génomique de cinq espèces du genre Glomus ont été clonés et séquencés. L’analyse des séquences indique un polymorphisme intraspécifique chez trois espèces de CMA. Deux séquences paralogues très variables ont été nouvellement identifiées chez les G. aggregatum, G. fasciculatum et G. cerebriforme. Aucun polymorphisme n’a été détecté chez les G. clarum et G. etunicatum. Toutes les séquences montrent la présence de deux introns hautement variables. La majorité des substitutions ont été localisées dans les exons et sont synonymes à 90%. La conservation des acides aminés suggère un niveau élevé de sélection négative sur le gène β-tubuline et nous permet de confirmer que les CMA représentent un ancien groupe fongique (400 million d’années). L’analyse phylogénétique, réalisée avec vingt et une séquences nucléotidiques du gène β-tubuline, a révélé que les séquences des Glomaceae forment un groupe monophylétique bien supporté, avec les Acaulosporaceae et Gigasporaceae comme groupe frère. Les séquences paralogues nouvellement identifiées chez les G. aggregatum et G. fasciculatum n'ont pas été monophylétiques au sein de chaque espèce. Les oligonucléotides ont été choisis sur la base des régions variables et conservées du gène β-tubuline. Le test PCR des amorces β-Tub.cerb.F/ β-Tub.cerb.R a révélé des bandes spécifiques de 401 pb pour les séquences paralogues du G. cerebriforme. Deux paires d’amorces ont été développées afin d’identifier les séquences du groupe nommé Tub.1. Les tests PCR nous ont permis d’identifier certaines séquences du groupe Tub.1. Une paire d’amorce β-Tub.2.F/ β-Tub.2.R nous a permis d’identifier certaines séquences paralogues du groupe nommé Tub.2. L’analyse d’autres gènes combinée à celle du gène β-tubuline permettra le développement de marqueurs moléculaires plus spécifiques pour l’identification de CMA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Différentes méthodes ayant pour objectif une utilisation optimale d'antennes radio-fréquences spécialisées en imagerie par résonance magnétique sont développées et validées. Dans un premier temps, il est démontré qu'une méthode alternative de combinaison des signaux provenant des différents canaux de réception d'un réseau d'antennes mène à une réduction significative du biais causé par la présence de bruit dans des images de diffusion, en comparaison avec la méthode de la somme-des-carrés généralement utilisée. Cette réduction du biais engendré par le bruit permet une amélioration de l'exactitude de l'estimation de différents paramètres de diffusion et de diffusion tensorielle. De plus, il est démontré que cette méthode peut être utilisée conjointement avec une acquisition régulière sans accélération, mais également en présence d'imagerie parallèle. Dans une seconde perspective, les bénéfices engendrés par l'utilisation d'une antenne d'imagerie intravasculaire sont étudiés. Suite à une étude sur fantôme, il est démontré que l'imagerie par résonance magnétique intravasculaire offre le potentiel d'améliorer significativement l'exactitude géométrique lors de mesures morphologiques vasculaires, en comparaison avec les résultats obtenus avec des antennes de surface classiques. Il est illustré qu'une exactitude géométrique comparable à celle obtenue grâce à une sonde ultrasonique intravasculaire peut être atteinte. De plus, plusieurs protocoles basés sur une acquisition de type balanced steady-state free-precession sont comparés dans le but de mettre en évidence différentes relations entre les paramètres utilisés et l'exactitude géométrique obtenue. En particulier, des dépendances entre la taille du vaisseau, le rapport signal-sur-bruit à la paroi vasculaire, la résolution spatiale et l'exactitude géométrique atteinte sont mises en évidence. Dans une même optique, il est illustré que l'utilisation d'une antenne intravasculaire permet une amélioration notable de la visualisation de la lumière d'une endoprothèse vasculaire. Lorsque utilisée conjointement avec une séquence de type balanced steady-state free-precession utilisant un angle de basculement spécialement sélectionné, l'imagerie par résonance magnétique intravasculaire permet d'éliminer complètement les limitations normalement engendrées par l'effet de blindage radio-fréquence de l'endoprothèse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La ville de Liège, à la fin du Moyen Âge, fut le théâtre de l’affirmation de ses bourgeois par l’entremise des corporations de métier et des institutions communales. Le XIVe siècle fut en effet marqué par des gains communaux importants au détriment, d’une part, du patriciat urbain, d’autre part, du prince-évêque de Liège. À partir de 1384, le Conseil liégeois, entièrement entre les mains des artisans, possédait des prérogatives étendues dans l’administration et la gestion de la ville. Toutefois, la progression du pouvoir bourgeois se trouva brusquement stoppée, pour une dizaine d’années, lors de la défaite liégeoise d’Othée, en 1408. Ce mémoire porte sur l’évolution du pouvoir communal liégeois dans la première moitié du XVe siècle, moins bien connue des historiens. L’étude de la chronique de Jean de Stavelot permet de mettre en lumière cette période trouble. La défaite d’Othée de même que les réformes imposées par les princes-évêques causèrent notamment de grands bouleversements. Des partis politiques entrèrent aussi en scène et la présence voisine du puissant duc de Bourgogne influença la vie des Liégeois. Ces particularités issues du contexte politique et social sont autant d’éléments qui influèrent sur la volonté d’affirmation des bourgeois et l’exercice du pouvoir communal à Liège.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le programme -Une école adaptée à tous ses élèves-, qui s'inscrit dans la réforme actuelle de l'éducation au Québec, nous a amenée à nous intéresser aux représentations dans les grandeurs en mesure en mathématiques des élèves en difficulté d'apprentissage. Nous nous sommes proposés de reconduire plusieurs paramètres de la recherche de Brousseau (1987, 1992) auprès de cette clientèle. La théorie des champs conceptuels (TCC) de Vergnaud (1991), appliquée aux structures additives, a été particulièrement utile pour l'analyse et l'interprétation de leurs représentations. Comme méthode de recherche, nous avons utilisé la théorie des situations didactiques en mathématiques (TSDM), réseau de concepts et de méthode de recherche appuyé sur l'ingénierie didactique qui permet une meilleure compréhension de l'articulation des contenus à enseigner. Grâce à la TSDM, nous avons observé les approches didactiques des enseignants avec leurs élèves. Notre recherche est de type exploratoire et qualitatif et les données recueillies auprès de 26 élèves de deux classes spéciales du deuxième cycle du primaire ont été traitées selon une méthode d'analyse de contenu. Deux conduites ont été adoptées par les élèves. La première, de type procédural a été utilisée par presque tous les élèves. Elle consiste à utiliser des systèmes de comptage plus ou moins sophistiqués, de la planification aux suites d'actions. La deuxième consiste à récupérer directement en mémoire à long terme le résultat associé à un couple donné et au contrôle de son exécution. L'observation des conduites révèle que les erreurs sont dues à une rupture du sens. Ainsi, les difficultés d'ordre conceptuel et de symbolisation nous sont apparues plus importantes lorsque l'activité d'échange demandait la compétence "utilisation" et renvoyait à la compréhension de la tâche, soit les tâches dans lesquelles ils doivent eux-mêmes découvrir les rapports entre les variables à travailler et à simuler les actions décrites dans les énoncés. En conséquence, les problèmes d'échanges se sont révélés difficiles à modéliser en actes et significativement plus ardus que les autres. L'étude des interactions enseignants et élèves a démontré que la parole a été presque uniquement le fait des enseignants qui ont utilisé l'approche du contrôle des actes ou du sens ou les deux stratégies pour aider des élèves en difficulté. Selon le type de situation à résoudre dans ces activités de mesurage de longueur et de masse, des mobilisations plurielles ont été mises en oeuvre par les élèves, telles que la manipulation d'un ou des étalon(s) par superposition, par reports successifs, par pliage ou par coupure lorsque l'étalon dépassait; par retrait ou ajout d'un peu de sable afin de stabiliser les plateaux. Nous avons également observé que bien que certains élèves aient utilisé leurs doigts pour se donner une perception globale extériorisée des quantités, plusieurs ont employé des procédures très diverses au cours de ces mêmes séances. Les résultats présentés étayent l'hypothèse selon laquelle les concepts de grandeur et de mesure prennent du sens à travers des situations problèmes liées à des situations vécues par les élèves, comme les comparaisons directes. Eles renforcent et relient les grandeurs, leurs propriétés et les connaissances numériques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'amélioration de la maitrise du français langue première chez les élèves du primaire au Québec dépend de plusieurs facteurs. L'enseignant peut jouer un rôle dans ce processus, sa formation universitaire lui fournissant les connaissances nécessaires afin d'encadrer le développement des compétences langagières de l'élève. Une de ces compétences joue un rôle privilégié dans l'utilisation et la maitrise de la langue, il s'agit de la compétence lexicale, la capacité à comprendre et à utiliser les unités du lexique, aussi bien à l'oral qu'à l'écrit. Afin d'encadrer le développement de la compétence lexicale en français langue première des élèves du primaire, les enseignants doivent eux-mêmes posséder un bon niveau de compétence lexicale, mais aussi détenir un certain nombre de connaissances sur le fonctionnement du lexique lui-même, c'est-à-dire des connaissances métalexicales. Le référentiel québécois de la profession enseignante (MEQ, 2001b) ne détaille pas les connaissances métalexicales que doit posséder l'enseignant pour mener les tâches associées à ses activités d'enseignement/apprentissage du lexique. En outre, la plupart des universités québécoises n'offrent pas de cours dédiés explicitement à la didactique du lexique. Pourtant, ce sont dans les cours de didactique que sont dispensées les connaissances théoriques et pratiques nécessaires au futur enseignant pour assumer les tâches de planification et de pilotage des activités d'apprentissage et d'évaluation des compétences des élèves. La relative absence de cours de didactique du lexique en formation initiale pourrait s'expliquer par le fait qu'il s'agit d'une discipline encore jeune dont les fondements théoriques et pratiques sont en cours de développement. Cette thèse en didactique du français langue première s’intéresse donc aux contenus linguistiques de référence de la didactique du lexique, ainsi qu’à la formation des maitres au primaire dans cette même discipline. Le travail de recherche effectué afin de tenter de remédier au problème soulevé a permis la réalisation de deux objectifs complémentaires. Le premier a consisté en la construction d’une ontologie des savoirs lexicologiques, qui permet de représenter à l’intérieur d’une hiérarchie de notions l’ensemble des connaissances disciplinaires de référence de la didactique du lexique. Cette représentation a ensuite été utilisée pour spécifier et structurer les contenus d’un module de cours en didactique du lexique visant le développement des connaissances métalexicales chez les futurs enseignants du primaire au Québec. L’ontologie et le module de cours produits ont été évalués et validés par des experts de chacun des domaines concernés. L’évaluation de l’ontologie a permis de vérifier la méthode de construction de celle-ci, ainsi que différents aspects relatifs à la structuration des concepts dans l’ontologie. L’évaluation du module de cours a quant à elle montré que les contenus de cours étaient pertinents, les méthodes pédagogiques employées appropriées et le matériel de cours développé bien conçu. Cela nous permet d'affirmer que le module de cours en didactique du lexique se présente comme un apport intéressant à la formation des futurs enseignants du primaire en français langue première au Québec. La recherche dans son ensemble présente enfin une contribution pertinente à la didactique du lexique, son caractère original résidant entre autres dans le fait d’avoir développé un mécanisme d’exploitation d’une base de connaissances (ontologie des savoirs lexicologiques) pour la conception didactique (module de cours en didactique du lexique).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche porte sur le renforcement des sentiments de compétence professionnelle et d’auto-efficacité des enseignants du secondaire envers les habiletés techniques dans la formation aux TIC. Elle fait suite à un projet d’intégration pédagogique des TIC au lycée initié par le Campus numérique de Niamey. Après une formation des enseignants de lycée participant au projet d’alphabétisation informatique, notre étude est venue par la suite pour apprécier l’impact de cette formation aux TIC, via le CNF, sur le processus d’adoption de ces technologies par les enseignants. Les objectifs de la recherche sont les suivants : 1) évaluer l’impact de la formation aux TIC des enseignants du secondaire sur le processus d’adoption de ces technologies ; 2) décrire et analyser le cheminement parcouru par les enseignants ayant atteint un niveau élevé d’adoption des TIC ; 3) mieux comprendre l’impact de la formation aux TIC sur le sentiment de compétence professionnelle des enseignants (sentiments de compétence personnelle et générale) ; 4) Valider le Computer Self-Efficacy Scale (CSE) en français ; 5) Comprendre l’impact de la formation aux TIC sur le sentiment d’auto-efficacité à l’égard de l’utilisation de l’ordinateur des enseignants. Une enquête par questionnaires auprès de 69 enseignants représentant l’ensemble des enseignants de trois lycées de Niamey, et par des entrevues semi-dirigées auprès de six enseignants a permis de réaliser les objectifs de recherche. La thèse se fonde sur un mode de présentation par articles. Chaque article est en lien avec un ou deux objectifs de la recherche, suivant l’ordre précité. Les résultats révèlent une absence de relation entre la formation aux TIC des enseignants dispensée par le Campus numérique et les niveaux de l’innovation technologique en milieu scolaire de la typologie de Hall et Hord (1987). Les disparités dans les utilisations que font les enseignants des TIC témoignent de ce manque d’association. Par ailleurs, il apparaît que l’adoption des TIC dans l’éducation est embryonnaire au Niger. Cela fait que seuls quelques-uns de nos participants ont atteint les niveaux de sensibilisation et d’utilisation professionnelle constituant les deux premiers stades de l’usage pédagogique de la typologie de Raby (2005) qui en compte quatre. À la lumière des résultats, le sentiment de compétence personnelle est différent dans les deux groupes (enseignants formés et non formés), mais celui de compétence générale est apprécié de la même façon. Entre les enseignants formés aux TIC par les soins du campus numérique de Niamey et les autres, les résultats montrent une différence significative dans les niveaux d’habiletés techniques à l’égard de l’usage de l’ordinateur. Les forces et les limites de la recherche sont analysées et différentes recommandations sont proposées aux responsables éducatifs.