981 resultados para Théories de la quatrième dimension


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans l’hémiparésie consécutive à un AVC, une coactivation anormale des extenseurs du genou et de la cheville est souvent observée à la jambe atteinte lorsque la personne tente de bouger ou encore lors de la marche. Les mécanismes sous-jacents à cette coactivation sont mal compris. Bien que l’AVC entraîne une lésion supraspinale, des évidences démontrent le dysfonctionnement de certains circuits spinaux dans l’hémiparésie. Ce projet de doctorat visait à évaluer : 1) l’excitabilité des circuits spinaux intersegmentaires projetant des extenseurs du genou aux extenseurs de la cheville et 2) si un éventuel dysfonctionnement de ces circuits dans l’hémiparésie est associé à une coactivation anormale des extenseurs du genou et de la cheville lors de contractions statiques et au cours de la marche. La première étude compare la modulation de l’activité réflexe du soléaire suite à la stimulation du nerf fémoral entre des sujets hémiparétiques et sains. Une augmentation de la facilitation hétéronyme de courte latence et une diminution de l’inhibition ultérieure du réflexe H du soléaire ont été observées chez les sujets hémiparétiques. Ces résultats démontrent un dysfonctionnement des circuits intersegmentaires propriospinaux liant le quadriceps au soléaire suite à l’AVC. La deuxième étude démontre que ces changements dans la modulation hétéronyme des sujets hémiparétiques, évaluée au moyen de la méthode complexe basée sur l’activité réflexe du soléaire, sont similaires à ceux observés lorsque la modulation est évaluée en utilisant une méthode plus simple, soit celle de l’activité volontaire du soléaire. De plus, la modulation hétéronyme évaluée par les deux méthodes est corrélée avec l’atteinte motrice à la jambe parétique. La troisième étude a permis de quantifier une augmentation de la coactivation entre les extenseurs du genou et de la cheville lors de contractions volontaires statiques chez des personnes hémiparétiques par rapport à des personnes saines. De plus, le niveau accru de la coactivation involontaire des extenseurs de la cheville lors de l’activation volontaire des extenseurs du genou s’avère corrélé avec la modulation intersegmentaire du côté parétique. La quatrième étude a utilisé un indice temporel, soit l’intervalle entre les pics d’activation électromyographique (PAI), et un indice d’amplitude de coactivation (CAI) pour quantifier une augmentation de la coactivation entre les extenseurs du genou et de la cheville lors de la marche chez des personnes hémiparétiques par rapport à des personnes saines. Ces indices sont corrélés, pour certains groupes musculaires, avec la modulation intersegmentaire modifiée du côté parétique. Finalement, des résultats préliminaires montrent que la vibration mécanique du tendon rotulien (80 Hz) réduit la facilitation intersegmentaire accrue des sujets hémiparétiques. Ce projet doctoral a permis de mettre en lumière un dysfonctionnement de circuits spinaux liant le quadriceps et le soléaire dans l’hémiparésie consécutive à un AVC. Ce changement dans les mécanismes neurophysiologiques de la moelle épinière est corrélé avec des changements fonctionnels. Ainsi, ce dysfonctionnement pourrait contribuer à la coactivation involontaire entre les extenseurs du genou et de la cheville qui fait partie intégrante de la synergie pathologique en extension souvent rencontrée à la jambe parétique lors d’efforts en statique et pendant la marche. Finalement, une étude préliminaire suggère que la vibration mécanique serait une modalité sensorielle prometteuse pour réguler l’hyperexcitabilité des circuits spinaux qui contribuerait aux atteintes motrices chez les personnes hémiparétiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Édition épuisée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le commerce équitable s’est imposé sur la scène de la consommation responsable. Mais en quoi est-il plus équitable que le commerce conventionnel? Et dans quel sens doit-on entendre dans son cas le concept d’équité? Un détour par la philosophie morale et les théories de la justice d’Aristote, Hume et Rawls et une analyse de ses pratiques telles qu’elles ressortent de nombreuses études de terrain invitent à prendre ses prétentions à l’équité “cum grano salis”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse tente de réfléchir sur l’écriture de Boubacar Boris Diop. Les romans de cet écrivain doivent une grande part de leur originalité à la présence obsédante des discours de la mémoire et de l’histoire. Son esthétique s’inscrit dans une revisitation permanente des récits de l'historiographie. Cette écriture convoque le passé et l'investit comme matériau dans cette exploration des formes du roman. Une telle démarche scripturale semble être la pierre angulaire de cette fiction aux confluences desquelles se rencontrent et s'intègrent systématiquement, aussi bien les genres romanesques hétérogènes de l'oralité (contes, épopées, mythes...), que des disciplines non romanesques. Cette stratégie de construction romanesque traduit, au-delà d'une simple exploration formelle et innovatrice des possibles du roman, une esthétique de distanciation et d'hétérogénéité qui traverse en filigrane l'œuvre de Boubacar Boris Diop. Cette forme d’écriture singularise son esthétique et constitue une rupture épistémologique dans le champ littéraire africain, qui a été souvent caractérisé par des récits linéaires classiques. L’usage de ces discours de l’histoire et de la mémoire, dans l’esthétique romanesque de Boubacar Boris Diop, s’articule d’abord dans une démarche de renouvellement des habitudes dans le champ littéraire africain, et ouvre aussi cette «phase autoréférentielle» (Sob, 2007 : 8) du roman en inscrivant son discours dans la modernité. Ensuite, cette pratique scripturale se construit sur l’élaboration d’un style romanesque particulier, se déployant dans une mise en scène et une parodisation permanentes du fonctionnement et des modalités de l’écriture. Sur fond d’une déconstruction perpétuelle des procédés de composition romanesque, se dessinent les contours d’une esthétique qui promeut et institue l’ambivalence généralisée comme le mode principal de son déploiement. Une telle pratique intertextuelle permet à l’écriture romanesque de se construire en confrontant les discours officiels de l’historiographie en général et l’histoire africaine contemporaine en particulier. En légitimant la déconstruction systématique comme dispositif de la composition romanesque, l’écriture se place dans une dynamique de «soupçon» qui sous-tend l’esthétique romanesque de Boubacar Boris Diop. La présente étude a le dessein de répertorier et d'analyser d'abord l'intégration des discours de l'histoire et de la mémoire, dans leurs manifestations et configurations dans l'œuvre de Diop, et ensuite, d'étudier leurs modalités d'insertion et d'utilisation dans l’élaboration de la fiction. Il s'agira, dans un cadre intertextuel, de voir comment ces discours sont investis et retravaillés par la fiction et, au-delà, d’essayer de repérer les motifs et les modalités discursives qui gouvernent leur usage. Une telle approche nous permettra d’appréhender les dimensions significatives de cette démarche scripturale et de voir éventuellement, s’il existe une poétique de la mémoire chez Boubacar Boris Diop. Les différentes théories sur la fiction, la mémoire et le discours historiographique nous serviront de charpente théorique qui sous-tendra notre thèse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les caractéristiques de l’enfant à la maternelle prédisent le succès des transitions à travers les premières années scolaires ainsi que la poursuite académique à l’âge de 22 ans. Les habiletés en mathématiques et langagières à la maternelle sont étroitement liées au rendement scolaire. Cependant, il est également important de tenir compte du rôle de l’autocontrôle et de la maîtrise de soi dans la réussite académique. Spécifiquement, la capacité de suivre des instructions et travailler de manière autonome pourrait faciliter l’adaptation des enfants en milieu scolaire. La présente thèse examine la valeur potentielle de cibler l’engagement scolaire à la maternelle, sous forme d’orientation vers la tâche, pour améliorer l’ajustement académique des enfants au cours du primaire. Une première étude, a examiné si l’engagement scolaire à la maternelle est associé à un meilleur niveau de réussite scolaire et d’ajustement psychosocial à la quatrième année du primaire. Les résultats suggèrent que les habitudes de travail dès l’entrée à l’école représentent des prédicteurs robustes du rendement académique quatre ans plus tard. Un plus haut niveau d’engagement prédit également moins de comportements externalisés et de victimisation par les pairs en quatrième année. Ces résultats sont demeurés significatifs suite au contrôle statistique des habilités en mathématique, langagières et socio-émotionnelles des enfants ainsi que de facteurs de risques familiaux. Une deuxième étude a examiné l’origine de l’engagement scolaire au primaire. Cette étude a permis d’observer que le niveau de contrôle cognitif des enfants d’âge préscolaire représente un prédicteur significatif de l’engagement scolaire à la maternelle. Ces résultats suggèrent l’existence d’une continuité développementale du contrôle cognitif de la petite enfance à la maternelle, et que celle-ci pourrait servir de base pour le développement de bonnes habitudes de travail au primaire. Finalement dans une troisième étude, des analyses centrées sur la personne ont été effectués. Trois sous-groupes d’enfants ont été identifiés dans notre échantillon. Les résultats obtenus indiquent des trajectoires d’engagement bas, moyen et élevé respectivement, au primaire. Le faible contrôle cognitif et les facteurs de risques familiaux ont prédit l’appartenance à la trajectoire d’engagement faible. Dans l’ensemble, les résultats de ces trois études soulignent l’importance de tenir compte de l’engagement dans les évaluations de la maturité scolaire à la maternelle. Cette recherche pourrait également informer le développement de programmes d’interventions préscolaires visant à augmenter la préparation scolaire ainsi que la réduction des écarts au niveau de la réussite académique des enfants.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avec la montée en popularité d’Internet et des médias sociaux, de plus en plus d’organismes sociaux et publics, notamment, intègrent des plateformes Web à leurs volets traditionnels. La question d’Internet demeure toutefois peu étudiée eu égard à la publicité sociale. Ce mémoire porte donc sur la question du Web en relation avec les campagnes sociales adressées aux jeunes Québécois de 18 à 25 ans, une population particulièrement réceptive aux nouvelles technologies. Plus exactement, dans cette étude, nous avons analysé trois sites Web rattachés à des campagnes sociales (La vitesse, ça coûte cher de la SAAQ, Les ITSS se propagent du MSSS et 50 000 adeptes, 5 000 toutous de la Fondation CHU Sainte-Justine) dans l’objectif de déterminer leurs forces et leurs faiblesses pour ensuite proposer des pistes pour leur optimisation. C’est à l’aide d’une analyse critique de contenu suivie d’entrevues et d’observations individuelles auprès de 19 participants que nous sommes parvenue à suggérer des pistes pour l’optimisation des sites Web de campagnes sociales destinées aux jeunes adultes québécois. Une des plus grandes difficultés en ce qui a trait à leur conception consiste à choisir les stratégies les plus appropriées pour provoquer un changement d’attitude ou de comportement, a fortiori chez ceux qui adoptent des comportements à risque (fumer, conduire en état d’ébriété, avoir des relations sexuelles non protégées); des stratégies qui, pour être plus efficaces, devraient être adaptées en fonction des caractéristiques propres aux publics cibles et aux médias de diffusion. Afin d’analyser adéquatement les campagnes sociales, nous avons fait appel aux théories de la persuasion et aux théories sur l’influence des médias jugées pertinentes dans notre contexte puisqu’elles sont propres à ce type d’étude. Ces approches combinées nous ont permis d’intégrer à l’analyse d’une campagne donnée les contextes qui l’entourent et les pratiques dans lesquelles elle s’inscrit. Cette étude nous a, entre autres, permis de démontrer qu’il existait d’importants écarts entre les attentes et les besoins des internautes et l’offre des sites Web étudiés.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse porte sur les conflits entre centres et périphéries à l’intérieur des pays. Ces dernières années, de nombreux États ont vu l'émergence de régions ou territoires qui défient leurs «centres» politiques. Ces disputes peuvent atteindre divers degrés d'affrontement, en allant des simples divisions électorales à la sécession d'une périphérie rebelle. Pourquoi certaines régions défient-elles ouvertement leur centre, tandis que d'autres ne le font pas? Dans quelles conditions les différences entre le centre et les périphéries sont-elles maîtrisées et circonscrites, et quelles sont celles qui les exacerbent? La thèse cherche à répondre à ces questions en analysant les cas de la Bolivie et du Pérou. En Bolivie, pendant les années 2000, le conflit régional a donné lieu à un clivage entre centre et périphérie; au Pérou, malgré les similitudes avec la Bolivie, un clivage similaire ne s’est pas déployé. Pourquoi cette différence? La thèse répond à la question par une analyse historique comparée. Elle suggère que les conflits entre le centre et les périphéries doivent s’analyser à partir de la combinaison de deux dimensions. La première est l’absence ou la présence d’élites régionales qui, à partir d'organisations et de mises en discours qu'elles rendent légitimes, définissent et représentent les revendications de la région et négocient avec l'État central. La deuxième dimension renvoie aux conditions structurelles de la région, en particulier l'importance des ressources naturelles et la taille de sa population. La thèse développe une analyse historique de la façon dont les deux dimensions ont évolué en Bolivie et au Pérou au cours de la seconde moitié du XX siècle. Cette analyse permet d’expliquer la divergence entre les résultats dans chacun des cas, et de suggérer des réflexions plus générales sur les relations entre les centres et les périphéries.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le design pédagogique dans les jeux vidéo non éducatifs est une discipline en mal de définitions et de méthodes. Contrairement à celui que l’on trouve dans les écoles ou autres institutions de formation, le design pédagogique pour les jeux vidéo non éducatifs est fait par des designers de jeux qui n’ont souvent aucune formation en enseignement. Un modèle de design pédagogique pour les jeux vidéo non éducatifs est donc développé dans ce mémoire, à partir d’une recherche exploratoire utilisant l’analyse de contenu de jeux vidéo et les théories de la science de l’éducation. Étant donné les ressources limitées disponibles pour le développement du modèle, la présente recherche pourra servir de base à la construction d’un modèle plus élaboré sur un sujet semblable, offrira des pistes intéressantes de recherche sur l’enseignement par le jeu et pourra soutenir les designers de jeu lors de la planification du design pédagogique dans leurs jeux.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire se concentre sur le problème de la régression épistémique. Il s’agit d’un problème très important puisqu’il remet en question la possibilité de la justification. Nous nous intéresserons aux détails de ce problème, ainsi qu’aux réponses qui lui sont offertes. Traditionnellement, deux réponses sont concurrentes : le fondationnalisme et le cohérentisme. La première propose d’arrêter la régression à un fondement, alors que la seconde propose de s’intéresser à la cohérence partagée par les croyances. Toutefois, le but de notre mémoire est de présenter et de défendre une troisième solution : l’infinitisme. Introduite dans les années 1990 par Peter Klein, l’infinitisme est une des plus récentes théories de la justification et, malgré son intérêt, elle est encore très peu défendue. Cette théorie propose de résoudre le problème de la régression en basant la justification des croyances sur des séries infinies et non répétitives de raisons. Cette idée est intéressante, car l’infinitisme renverse le problème d’origine, puisque les régressions infinies sont généralement perçues comme étant un problème pour la connaissance et la source du scepticisme. Notre objectif est de montrer que l’infinitisme est la meilleure solution possible au problème de la régression. Pour ce faire, nous faisons la synthèse des principaux arguments pour l’infinitisme. Cela nous permettra de distinguer trois types d’infinitisme pour ensuite retenir un de ces types, une forme impure d’infinitisme, comme étant le meilleur. Finalement, nous confronterons l’infinitisme à ces critiques pour montrer qu’il s’agit d’une théorie de la justification qui est réellement viable.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"L’auteur Ethan Katsh analyse les problématiques posées par les relations de la communauté virtuelle de l’Internet et son processus en ligne de résolution des conflits. Il explique comment le cyberespace constitue un environnement intégral et indépendant qui développe ses propres règles normatives. L’évolution des normes au sein du cyberespace semble être une conséquence des interactions entre les acteurs, sans intervention législative fondamentale de la part des états. L’auteur trace l’évolution, depuis le début des années 1990, du processus en ligne de résolution des différends, principalement dans le domaine du commerce électronique. L’accroissement rapide des relations commerciales électroniques a entraîné une hausse des litiges dans ce domaine. Dans le cadre de tels litiges, les moyens en ligne de résolution des conflits offrent aux justiciables plus de facilité, de flexibilité et d’accessibilité que les moyens alternatifs traditionnels de résolution des conflits. C’est donc dans ce contexte qu’a été développé le système ""Squaretrade"" qui a pour objectif d’aider la résolution de conflits entre les utilisateurs de ""E-Bay"". Ce système présente l’avantage important d’encadrer et d’uniformiser le processus de résolution en définissant les termes généraux et spécifiques du conflit. L’auteur soutient que la principale fonction d’un tel système est d’organiser et d’administrer efficacement les communications entre les parties. Ainsi, cette fonction préserve le ""paradigme de la quatrième personne"", nécessaire aux processus alternatifs traditionnels de résolution de conflits. Par ailleurs, cette fonction, en tant que partie intégrante du programme informatique, constitue pour les justiciables une alternative intéressante aux règles législatives. Pour l’auteur, l’analyse de ce phénomène soulève des questions importantes concernant la création de normes et leur acceptation par les citoyens. L’auteur analyse par la suite le concept général de la formation des normes dans le contexte d’un environnement non régularisé. Il soutient que les normes émergeantes doivent toujours viser à développer une forme de légitimité auprès des justiciables. Dans le cadre du processus en ligne de résolution des conflits, cette légitimité doit être acquise autant auprès des parties au litige qu’auprès de la population en général. Toutefois, les attentes des parties au litige sont souvent très différentes de celles du public. L’auteur illustre ainsi comment certains processus en ligne de résolution de conflit ne réussissent pas à obtenir une telle légitimité, alors que d’autres s’établissent en tant qu’institutions reconnues. Dans ce contexte, les institutions en ligne de résolution de conflits devront développer leur propre valeur normative. Ainsi, les moyens en ligne de résolution des conflits remettent en question le processus traditionnel de formation des normes et peuvent être considérés comme des éléments d’un nouvel environnement normatif."

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Malgré l’incertitude quant à leur sécurité à l’égard des personnes et de l’environnement, les cultures génétiquement modifiées (GM) ont été largement diffusées à travers le monde. En outre, dans de nombreux pays la coexistence des cultures GM avec les systèmes conventionnels de production et les systèmes de production biologique est habituelle. Dans l’Union européenne (UE), cependant, l’utilisation de cette technologie a soulevé d’importantes questions. Ces réserves sont reflétées dans le développement d’un cadre réglementaire particulièrement restrictif articulé autour d’une procédure unique d’approbation de ces cultures. De la même manière, le débat sur la coexistence des cultures GM avec la production agricole conventionnelle et la production biologique a été particulièrement animé dans l’UE. La première section de ce travail est consacrée à examiner comment, du fait de la complexité des nouvelles technologies, il est nécessaire, du point de vue régulateur, de faire face à des situations dans lesquelles les scientifiques ne peuvent encore fournir aucune réponse précise. Dans ce contexte, le principe de précaution est invoqué afin de limiter les dangers potentiels, mais ceci est sans préjudice des questions qui restent encore ouvertes sur la portée et la nature de ce principe. En tant que manifestations précises de ce principe de précaution, deux aspects sont abordés dans les secondes et troisièmes parties de ce travail. Nous analysons, d’abord, la procédure d’autorisation des produits GM dans l’UE, procédure spécifique basée sur le principe de précaution dans laquelle soit les institutions communautaires soit les autorités des États membres jouent un rôle important. Par rapport à ce cadre très réglementé de l’UE, la troisième partie examine le degré d’intervention des États membres. Ceci se manifeste principalement dans la possibilité d’adopter certaines clauses de sauvegarde pour limiter l’expansion des cultures GM ainsi que dans la réglementation de la coexistence des cultures GM avec les cultures conventionnelles et la possibilité d’exclure de la culture des OGM certaines zones. Finalement, quelques conclusions sont données dans la quatrième partie.