980 resultados para Principe de tolérance


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Full Text / Article complet

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Full Text / Article complet

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En 1994, le législateur québécois a transformé la fiducie en un patrimoine d’affectation, c’est-à-dire un ensemble de biens et d’obligations sans titulaire, administré par un tiers, pour une fin particulière. Cette nouvelle qualification remet en question l’assise classique du droit privé : le rapport inhérent entre un droit et son titulaire, le sujet de droit, dont le droit émane et pour qui il est, en principe, exercé. Cette thèse tente de comprendre quelles sont les conditions de possibilités des droits sans sujet en droit civil actuel. Mon objectif est de repenser la notion de droit subjectif de manière générale afin qu’elle prenne en considération l’existence et la pertinence de ces droits sans sujet. Pour ce faire, deux entreprises sont nécessaires : (i) comprendre le paradigme dominant afin de bien cerner l’ampleur de la nouveauté et la résistance qu’elle engendre ; (ii) mettre au jour les fondements et les limites des droits sans sujet afin d’évaluer, dans une prochaine étape, si cette manière de comprendre les droits ne serait pas une alternative intéressante aux droits subjectifs actuels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente la conception, le contrôle et la validation expérimentale d’une boussole haptique servant à diriger les utilisateurs aux prises avec une déficience visuelle, et ce, dans tous les environnements. La revue de littérature décrit le besoin pour un guidage haptique et permet de mettre en perspective cette technologie dans le marché actuel. La boussole proposée utilise le principe de couples asymétriques. Son design est basé sur une architecture de moteur à entraînement direct et un contrôle en boucle ouverte étalonné au préalable. Cette conception permet d’atteindre une vaste plage de fréquences pour la rétroaction haptique. Les propriétés mécaniques de l’assemblage sont évaluées. Puis, l’étalonnage des couples permet d’assurer que le contrôle en boucle ouverte produit des couples avec une précision suffisante. Un premier test avec des utilisateurs a permis d’identifier que les paramètres de fréquence entre 5 et 15 Hz combinés avec des couples au-dede 40 mNm permettent d’atteindre une efficacité intéressante pour la tâche. L’expérience suivante démontre qu’utiliser une rétroaction haptique proportionnelle à l’erreur d’orientation améliore significativement les performances. Le concept est ensuite éprouvé avec dix-neuf sujets qui doivent se diriger sur un parcours avec l’aide seule de cette boussole haptique. Les résultats montrent que tous les sujets ont réussi à rencontrer tous les objectifs de la route, tout en maintenant des déviations latérales relativement faibles (0:39 m en moyenne). Les performances obtenues et les impressions des utilisateurs sont prometteuses et plaident en faveur de ce dispositif. Pour terminer, un modèle simplifié du comportement d’un individu pour la tâche d’orientation est développé et démontre l’importance de la personnalisation de l’appareil. Ce modèle est ensuite utilisé pour mettre en valeur la stratégie d’horizon défilant pour le placement de la cible intermédiaire actuelle dans un parcours sur une longue distance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un premier chapitre, nous décrivons un modèle de formation d’image affichée sur un écran en revenant sur les concepts que sont la lumière, la géométrie et l’optique. Nous détaillons ensuite les différentes techniques d’affichage stéréoscopique utilisées à l’heure actuelle, en parcourant la stéréoscopie, l’autostéréoscopie et plus particulièrement le principe d’imagerie intégrale. Le deuxième chapitre introduit un nouveau modèle de formation d’image stéréoscopique. Ce dernier nous permet d’observer deux images d’une paire stéréoscopique soumises à des éventuelles transformations et à l’effet d’une ou de plusieurs optiques particulières, pour reproduire la perception de trois dimensions. Nous abordons l’aspect unificateur de ce modèle. En effet il permet de décrire et d’expliquer de nombreuses techniques d’affichage stéréoscopique existantes. Enfin, dans un troisième chapitre nous discutons d’une méthode particulière de création de paires d’images stéréoscopiques à l’aide d’un champ lumineux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Omnis definitio in jure civili periculosa est". Le principe selon lequel toute définition est périlleuse constitue l’une des idées séculaires véhiculées par la tradition de droit civil. Malgré cela, le Code civil français et, plus récemment, le "Code civil du Québec" contiennent tous deux un nombre important de définitions légales. Abordées du point de vue du lexicographe, ces définitions soulèvent la question de savoir à quel point elles doivent être prises en considération dans les dictionnaires juridiques : en présence d’une définition légale, le lexicographe devrait-il simplement la paraphraser ou devrait-il plutôt chercher à rendre compte du sens tel qu’il est véhiculé dans le discours juridique? En étudiant les enjeux soulevés par cette question, le présent texte propose une démarche lexicographique qui relativise l’influence des définitions légales sur le contenu des dictionnaires de droit civil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est constituée de deux parties : Dans la première partie nous étudions l’existence de solutions périodiques, de periode donnée, et à variations bornées, de l’équation de van der Pol en présence d’impulsions. Nous étudions, en premier, le cas où les impulsions ne dépendent pas de l’état. Ensuite, nous considèrons le cas où les impulsions dépendent de la moyenne de l’état et enfin, nous traitons le cas général où les impulsions dépendent de l’état. La méthode de résolution est basée sur le principe de point fixe de type contraction. Nous nous intéressons ensuite à l’étude d’un problème avec trois points aux limites, associé à certaines équations différentielles impulsives du second ordre. Nous obtenons un premier résultat d’existence de solutions en appliquant le théorème de point fixe de Schaefer. Un deuxième résultat est obtenu en utilisant le théorème de point fixe de Sadovskii. Pour le résultat d’unicité des solutions nous appliquons, enfin, un théorème de point fixe de type contraction. La deuxième partie est consacrée à la justification de la technique de moyennisation dans le cadre des équations différentielles floues. Les conditions sur les données que nous imposons sont moins restrictives que celles de la littérature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif général de cet essai est de développer une approche de consultation et de participation du public pour les projets d’exploitation des ressources naturelles, applicable au domaine minier. Cet objectif s’insère dans un contexte où l’importance de l’acceptabilité sociale des projets d’exploitation des ressources naturelles est grandissante. De plus, le récent ajout de nouvelles exigences de consultation dans le domaine minier suscite, pour les entreprises minières, un besoin de lignes directrices pour améliorer les modalités de consultation. L’analyse de la revue de littérature sur les stratégies de communication existantes identifie d’abord deux principes clés à suivre au cours du processus. Le premier principe est la participation réelle des parties prenantes, laquelle va au-delà du simple recueil des préoccupations en faisant participer les parties prenantes à la réalisation même du projet. Le second principe est la transparence de l’entreprise, laquelle permet d’assurer que les parties prenantes exercent leur droit de faire des choix libres et éclairés. De l’analyse résulte ensuite une stratégie de participation et de consultation simple résumée en sept grandes étapes. La première étape est de faire des recherches préalables sur le milieu récepteur, lesquelles sont suivies par leur analyse et une prise de décision (seconde étape) à savoir si l’entreprise va de l’avant ou non avec le projet en fonction des enjeux potentiels identifiés. Si le projet va de l’avant, la troisième étape est de rencontrer les communautés autochtones présentes sur le territoire. Cette étape est en fait le début de la consultation des communautés autochtones, qui se fait en parallèle avec la consultation régulière. Lorsque ce processus est enclenché, il est possible d’élaborer le plan de consultation (quatrième étape) qui sera par la suite proposé aux parties intéressées lors des premières rencontres publiques. La cinquième étape représente la tenue des premières séances d’information au cours desquelles les candidatures pour la mise en place d’un comité consultatif doivent être recueillies. Le comité consultatif est l’outil principal recommandé pour intégrer les parties prenantes à la planification de projet. Une fois le comité consultatif démarré, le reste des activités de consultation peuvent être enclenchées (sixième étape). Il est recommandé de tenir deux processus de consultation, un dans le cadre de l’étude de préfaisabilité en phase d’exploration, et un dans le cadre de l’étude d’impact sur l’environnement. Enfin, une fois le processus de consultation et la planification du projet terminés, les différents mécanismes de suivi choisis avec les parties prenantes sont mis en place (septième étape). Les principaux mécanismes recommandés dans le cadre de cet essai sont le comité de suivi et le comité « d’après-mine ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En 1980, la Cour suprême du Canada a rendu, dans l'arrêt Sellars, une décision qui a été interprétée par plusieurs juristes comme formulant un principe attribuant un effet contraignant à certains obiter dicta de la Cour. Autrefois limitée à la ratio decidendi, la portée obligatoire d'une décision de la Cour suprême s'étendrait dorénavant aux obiter dicta partagés par une majorité de juges. C'est, du moins, le principe qui a été reconnu et adopté par une majorité des cours d'appel canadiennes et par un nombre important de tribunaux inférieurs. Cette étude vise à retracer l'émergence de ce qu'on peut appeler «le principe Sellars». Ensuite, nous tentons d'isoler certains facteurs qui en expliqueraient l'apparition en droit canadien, pour, enfin, déterminer si, dorénavant, les obiter dicta de la Cour suprême doivent être traités comme des arguments d'autorité ou comme des diktats autoritaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’émergence du Web 2.0 se matérialise par de nouvelles technologies (API, Ajax…), de nouvelles pratiques (mashup, geotagging…) et de nouveaux outils (wiki, blog…). Il repose principalement sur le principe de participation et de collaboration. Dans cette dynamique, le Web à caractère spatial et cartographique c’est-à-dire, le Web géospatial (ou GéoWeb) connait lui aussi de fortes transformations technologiques et sociales. Le GéoWeb 2.0 participatif se matérialise en particulier par des mashups entre wikis et géobrowsers (ArgooMap, Geowiki, WikiMapia, etc.). Les nouvelles applications nées de ces mashups évoluent vers des formes plus interactives d’intelligence collective. Mais ces applications ne prennent pas en compte les spécificités du travail collaboratif, en particulier la gestion de traçabilité ou l’accès dynamique à l’historique des contributions. Le Geodesign est un nouveau domaine fruit de l’association des SIG et du design, permettant à une équipe multidisciplinaire de travailler ensemble. Compte tenu de son caractère émergent, le Geodesign n’est pas assez défini et il requiert une base théorique innovante, de nouveaux outils, supports, technologies et pratiques afin de s’adapter à ses exigences complexes. Nous proposons dans cette thèse de nouvelles fonctionnalités de type WikiSIG, bâties sur les principes et technologies du GéoWeb 2.0 et visant en particulier à supporter la dimension collaborative du processus de Geodesign. Le WikiSIG est doté de fonctionnalités wiki dédiées à la donnée géospatiale (y compris dans sa composante géométrique : forme et localisation) permettant d’assurer, de manière dynamique, la gestion documentée des versions des objets et l’accès à ces versions (et de leurs métadonnées), facilitant ainsi le travail collaboratif en Geodesign. Nous proposons également la deltification qui consiste en la capacité de comparer et d’afficher les différences entre deux versions de projets. Finalement la pertinence de quelques outils du géotraitement et « sketching » est évoquée. Les principales contributions de cette thèse sont d’une part d’identifier les besoins, les exigences et les contraintes du processus de Geodesign collaboratif, et d’autre part de proposer des nouvelles fonctionnalités WikiSIG répondant au mieux à la dimension collaborative du processus. Pour ce faire, un cadre théorique est dressé où nous avons identifié les exigences du travail collaboratif de Geodesign et proposé certaines fonctionnalités WikiSIG innovantes qui sont par la suite formalisés en diagrammes UML. Une maquette informatique est aussi développée de façon à mettre en oeuvre ces fonctionnalités, lesquelles sont illustrées à partir d’un cas d’étude simulé, traité comme preuve du concept. La pertinence de ces fonctionnalités développées proposées est finalement validée par des experts à travers un questionnaire et des entrevues. En résumé, nous montrons dans cette thèse l’importance de la gestion de la traçabilité et comment accéder dynamiquement à l’historique dans un processus de Geodesign. Nous proposons aussi d’autres fonctionnalités comme la deltification, le volet multimédia supportant l’argumentation, les paramètres qualifiant les données produites, et la prise de décision collective par consensus, etc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s’inscrit dans le contexte d’une optimisation industrielle et économique des éléments de structure en BFUP permettant d’en garantir la ductilité au niveau structural, tout en ajustant la quantité de fibres et en optimisant le mode de fabrication. Le modèle développé décrit explicitement la participation du renfort fibré en traction au niveau local, en enchaînant une phase de comportement écrouissante suivie d’une phase adoucissante. La loi de comportement est fonction de la densité, de l’orientation des fibres vis-à-vis des directions principales de traction, de leur élancement et d’autres paramètres matériaux usuels liés aux fibres, à la matrice cimentaire et à leur interaction. L’orientation des fibres est prise en compte à partir d’une loi de probabilité normale à une ou deux variables permettant de reproduire n’importe quelle orientation obtenue à partir d’un calcul représentatif de la mise en oeuvre du BFUP frais ou renseignée par analyse expérimentale sur prototype. Enfin, le modèle reproduit la fissuration des BFUP sur le principe des modèles de fissures diffuses et tournantes. La loi de comportement est intégrée au sein d’un logiciel de calcul de structure par éléments finis, permettant de l’utiliser comme un outil prédictif de la fiabilité et de la ductilité globale d’éléments en BFUP. Deux campagnes expérimentales ont été effectuées, une à l’Université Laval de Québec et l’autre à l’Ifsttar, Marne-la-Vallée. La première permet de valider la capacité du modèle reproduire le comportement global sous des sollicitations typiques de traction et de flexion dans des éléments structurels simples pour lesquels l’orientation préférentielle des fibres a été renseignée par tomographie. La seconde campagne expérimentale démontre les capacités du modèle dans une démarche d’optimisation, pour la fabrication de plaques nervurées relativement complexes et présentant un intérêt industriel potentiel pour lesquels différentes modalités de fabrication et des BFUP plus ou moins fibrés ont été envisagés. Le contrôle de la répartition et de l’orientation des fibres a été réalisé à partir d’essais mécaniques sur prélèvements. Les prévisions du modèle ont été confrontées au comportement structurel global et à la ductilité mis en évidence expérimentalement. Le modèle a ainsi pu être qualifié vis-à-vis des méthodes analytiques usuelles de l’ingénierie, en prenant en compte la variabilité statistique. Des pistes d’amélioration et de complément de développement ont été identifiées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’hypertension artérielle pulmonaire (HTAP) est une maladie caractérisée par l’augmentation progressive des résistances vasculaires pulmonaires causant une augmentation de la pression artérielle pulmonaire qui mène au décès prématuré des patients. Malgré une amélioration rapide ces dernières années des traitements spécifiques, les patients souffrant d’HTAP demeurent dyspnéiques et intolérants à l’effort. L’atteinte vasculaire pulmonaire est actuellement irréversible. Elle est également la source de plusieurs anomalies au niveau des systèmes cardiovasculaires, ventilatoires et musculaires constituant les principaux déterminants physiologiques de la capacité à l’effort des patients. Cette thèse a investigué différentes facettes de la tolérance à l’effort en HTAP : les différents mécanismes ayant un impact sur l’apport musculaire en oxygène, l’altération des voies de signalisation cellulaire impliquées dans l’angiogenèse musculaire et les mécanismes ayant un impact sur la régulation du débit sanguin et l’oxygénation cérébrale en HTAP. Nous avons premièrement documenté une diminution de l’apport en oxygène aux muscles squelettiques à l’effort des patients en relation avec une diminution de la densité capillaire musculaire. Ce défaut d’angiogenèse corrélait d’ailleurs avec la capacité à l’effort des sujets. Par la suite, nous avons étudié les voies de signalisations cellulaires de l’angiogenèse musculaire. Ces résultats ont permis de démontrer une diminution de l’expression de miR-126, unique aux patients HTAP, qui était responsable de la diminution de la densité capillaire et qui contribuait à leur intolérance à l’effort. De plus, il était possible de moduler in vivo l’expression de miR-126. L’expérimentation in vivo, à l’aide d’un modèle murin d’HTAP, a permis de rétablir l’expression de miR-126, d’augmenter la microcirculation musculaire et d’améliorer la tolérance à l’effort des animaux, ce qui met en lumière le potentiel thérapeutique de l’angiogenèse musculaire pour améliorer la capacité à l’effort en HTAP. Notre dernier projet a démontré que les patients HTAP présentaient une diminution de débit sanguin cérébral. Ce projet a également démontré que les changements de pression artérielle sont moins bien amortis par les vaisseaux cérébraux des patients et que leurs vaisseaux cérébraux étaient moins réactifs aux changements de CO2. Les patients présentaient aussi une augmentation de la sensibilité des chémorécepteurs centraux qui contribuait à augmenter leur ventilation au repos, mais aussi à l’exercice. Finalement, à l’effort, nous avons démontré que le débit sanguin cérébral des patients HTAP était principalement influencé par la pression artérielle alors que chez les sujets sains, le débit sanguin cérébral était influencé principalement par la PETCO2. Nous avons également démontré que les patients HTAP présentaient une diminution progressive de leur oxygénation cérébrale, qui corrélait avec leur capacité à l’effort. Les résultats obtenus au cours de ce doctorat démontrent bien que la capacité à l’effort en HTAP est aussi déterminée par plusieurs anomalies physiopathologiques périphériques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements climatiques récents ont mené à l’expansion de la répartition de plusieurs espèces méridionales, mais ont aussi causé l’extinction locale d’espèces se retrouvant à la limite de leur tolérance environnementale. Ces populations en expansion peuvent favoriser différentes stratégies d’histoire de vie en répondant à différents facteurs limitants. Dans cette thèse, je vise à déterminer et quantifier l’effet du climat et des évènements extrêmes sur le cycle de vie complet d’une espèce en expansion (le dindon sauvage) pour comprendre les changements au niveau populationnel ainsi que les mécanismes impliqués dans l’expansion de la distribution d’une espèce. J’ai défini les évènements extrêmes de pluie, d’épaisseur de neige au sol et de température, comme un évènement dont la fréquence est plus rare que le 10e et 90e percentile. En utilisant l’approche « Measure-Understand-Predict » (MUP), j’ai tout d’abord suivi trois populations le long d’un gradient latitudinal de sévérité hivernale pour mesurer l’effet de variables météorologiques sur la dynamique des populations. La survie des dindons sauvages diminuait drastiquement lorsque l’accumulation de neige au sol dépassait 30 cm pour une période de 10 jours et diminuait également avec la température. Au printemps, la persistance de la neige affectait négativement le taux d’initiation de la nidification et l’augmentation de la pluie diminuait la survie des nids. Dans une deuxième étape, j’ai examiné l’impact des évènements climatiques extrêmes et des processus démographiques impliqués dans l’expansion du dindon, liés à la théorie des histoires de vie pour comprendre la relation entre la dynamique de ces populations en expansions avec le climat. J’ai démontré que la fréquence des évènements extrêmes hivernaux et, d’une façon moins importante, les évènements extrêmes estivaux limitaient l’expansion nordique des dindons sauvages. J’ai appuyé, à l’aide de données empiriques et de modélisation, les hypothèses de la théorie classique des invasions biologiques en montrant que les populations en établissement priorisaient les paramètres reproducteurs tandis que la survie adulte était le paramètre démographique affectant le plus la dynamique des populations bien établies. De plus, les populations les plus au nord étaient composées d’individus plus jeunes ayant une espérance de vie plus faible, mais avaient un potentiel d’accroissement plus élevé que les populations établies, comme le suggère cette théorie. Finalement, j’ai projeté l’impact de la récolte sur la dynamique des populations de même que le taux de croissance de cette espèce en utilisant les conditions climatiques futures projetées par les modèles de l’IPCC. Les populations en établissement avaient un taux de récolte potentiel plus élevé, mais la proportion de mâles adultes, possédant des caractéristiques recherchées par les chasseurs, diminuait plus rapidement que dans les populations établies. Dans le futur, la fréquence des évènements extrêmes de pluie devrait augmenter tandis que la fréquence des évènements extrêmes de température hivernale et d’accumulation de neige au sol devraient diminuer après 2060, limitant probablement l’expansion nordique du dindon sauvage jusqu’en 2100. Cette thèse améliore notre compréhension des effets météorologiques et du climat sur l’expansion de la répartition des espèces ainsi que les mécanismes démographiques impliqués, et nous a permis de prédire la probabilité de l’expansion nordique de la répartition du dindon sauvage en réponse aux changements climatiques.