510 resultados para Systèmes d’aide à la décision--Conception
Resumo:
Depuis quelques années, mais surtout depuis le 11 septembre 2001, les contrôles migratoires sont devenus le locus principal d’affirmation du pouvoir souverain dans les pays occidentaux. La mouvance sécuritaire actuelle semble avoir donné les outils conceptuels nécessaires aux États pour leur permettre d’amalgamer des notions autrefois distinctes, comme la sécurité et l’immigration, et d’en inférer des liens qui paraissent désormais naturels et évidents aux yeux du public. Le Canada s’inscrit aussi dans cette mouvance où l’immigrant et l’étranger sont désormais pensés en relation avec l’illégalité, la criminalité et le sujet de non-droit. En pratique, cela se traduit par la mise en œuvre étatique d’un pouvoir souverain qui se manifeste clairement et ouvertement dans le cadre de contrôles migratoires de plus en plus serrés et contraignants. Ainsi, alimenté par la justification sécuritaire, par l’affect de la peur et par la nécessité de combattre le terrorisme international, le Canada applique ses lois et ses politiques de manière à exercer un contrôle accru sur sa population, plus particulièrement sur les migrants en général, mais encore davantage sur les demandeurs d’asile et les réfugiés soupçonnés de terrorisme. La mise en œuvre de pratiques restrictives à l’endroit des demandeurs d’asile et des réfugiés est facilitée par une conviction très tenace. À la lumière de son comportement, le gouvernement canadien semble convaincu que l’exclusion, l’expulsion, voire le refoulement, à l’extérieur du territoire national des personnes jugées être de potentiels terroristes, permettront de renforcer la sécurité nationale. Cette conviction est elle-même supportée par une autre, à savoir la croyance selon laquelle le pouvoir souverain d’exclure quelqu’un du territoire est absolu et, qu’en situation d’exception, il ne peut être limité d’aucune manière par le droit international. Suivant ceci, la lutte antiterroriste s’exécute presque exclusivement par le rejet des éléments potentiellement dangereux à l’extérieur du pays, au détriment d’autres mesures moins attentatoires des droits et libertés, plus légitimes et plus à même de remplir les objectifs liés à la lutte au terrorisme international. Dans notre étude, par une relecture d’une décision paradigmatique de la Cour suprême du Canada, l’affaire Suresh, nous chercherons à ébranler ces convictions. Notre thèse est à l’effet que la prétention du Canada à vouloir en arriver à un monde plus sécuritaire, en excluant d’une protection internationale contre la torture et en refoulant de potentiels terroristes à l'extérieur de son territoire, constitue une entreprise vouée à l’échec allant potentiellement à l’encontre des objectifs de lutte au terrorisme et qui se réalise présentement dans le déni de ses obligations internationales relatives aux droits de l’Homme et à la lutte contre l’impunité. Généralement, à la lumière d’une analyse de certaines obligations du Canada dans ces domaines, notre étude révélera trois éléments, ceux-ci se trouvant en filigrane de toute notre réflexion. Premièrement, le pouvoir souverain du Canada d’exclure des individus de son territoire n’est pas absolu. Deuxièmement, le droit d’une personne à obtenir protection non plus n’est pas absolu et des mécanismes d’équilibrage existant en droit international permettent de protéger les personnes tout en s’assurant que le Canada ne devienne pas un refuge pour les terroristes potentiels. Troisièmement, le Canada est astreint à d’autres obligations internationales. Celles-ci protègent les personnes exclues d’une protection et forcent le gouvernement à lutter contre l’impunité.
Resumo:
Internet est devenu au fil des années un outil de communication exceptionnel. Or lorsqu’on évoque le cyberespace, on pense généralement à un « no man’s land » juridique, un espace sans lois. Est-ce vraiment le cas? Le pouvoir étatique est-il mis de côté? L’auteur affirme que le droit, loin d’être totalement écarté, doit maintenant composer avec d’autres formes de régulation. En prenant l’exemple d’Internet, l’auteur en vient à présenter l’évolution de la régulation d’un tel système, allant de l’autorégulation à la co-régulation, c’est-à-dire « une coopération entre la société civile et les pouvoirs publics ». Il souligne par ailleurs que, de par l’aspect « international » de l’Internet, les institutions supranationales prennent une importance de plus en plus en grande puisque c’est elles qui viendront compenser la portée limitée de l’intervention des États-nations. On prend l’exemple de l’Union européenne et du développement des « régionalismes ». Mais bien qu’il ne soit plus à même de régir et de réguler à lui seul un système comme Internet, il reste que le droit étatique est essentiel. À travers le développement de concepts, la création de dialogues et de consensus, il est en mesure de défendre des droits que la technologie pourrait venir compromettre en exigeant que le développement technologique se fasse en conformité avec les législations traditionnelles.
Resumo:
La complexification de nos sociétés et les limites des instruments législatifs (rigidité, opacité, etc.) minent l’efficacité du droit. Il y a un besoin criant de renouveau entre ce que l’auteur appelle la société civile et les pouvoirs de décision C’est pourquoi sont apparues au fil des années des formes alternatives d’organisations collectives, ouvertes et autorégulées. On parle alors de gouvernance. L’auteur explique cette évolution de la relation droit/gouvernance non seulement par les limites de la législation à proprement parler mais également par le développement de nouvelles techniques et technologies comme Internet qui ouvrent la porte à de nouvelles possibilités de coordination plus efficaces ainsi qu’à la protection d’intérêts divers au même titre que la loi. Internet devient alors un nouvel observatoire d’où l’on peut développer de nouvelles méthodes de gouvernance, le tout dans une optique de consensus sur la norme. En effet, il ne s’agit pas ici d’écarter le droit au profit de nouvelles formes de gouvernance ou vice-versa. On cherche à créer un système complémentaire qui viendra pallier aux faiblesses d’une législation rigide et complexe par moment et qui produira tout de même une dynamique juridique au niveau national et international.
Resumo:
"Toute vérité est bonne à dire. Mais dire le droit nécessite sans doute la connaissance par le juge des normes universelles envisagées sous l'angle constitutionnel des droits fondamentaux de l'homme et de la société. Le fondement d'un tel principe trouve sa consécration dans le droit à l'information et à la protection juridique du devoir d'informer par les journalistes. Aujourd'hui, dans tout État de droit moderne et démocratique, la question se trouve nettement posée : comment adapter la fonction de poursuite et du jugement en matière de presse avec les garanties du droit à la liberté d'expression et au droit d'accès aux sources de l'information et par conséquent faciliter l'exercice de la mission du journaliste ? Aussi, comment organiser les relations professionnelles entre le pouvoir judiciaire, protecteur de l'ordre public et le pouvoir de la presse pourvoyeur et source de l'information ? Autant de questions qui se posent en droit algérien et au problème des limites de forme et de fond de ce droit et plus particulièrement en matière des délits de presse. Ainsi, ces aspects ont été mis en évidence dans différents systèmes juridiques, dans plusieurs pays du monde, notamment en droit pénal de la presse français. Cela implique l'intervention de l'État et des autorités publiques pour assurer et protéger le droit à l'information des citoyens qui constitue d'ailleurs le second aspect de la liberté d'information afin d'en assurer l'exercice effectif. Le problème est crucial en droit positif algérien ; il évolue souvent dans un climat de conflit et de tension entre le pouvoir et la presse de telle sorte que l'injure et la diffamation publique se définissent comme des délits de presse aux sanctions assez lourdes. Ces délits relèvent d'un régime pénal particulier dans la mesure où le législateur ne fait aucune distinction entre un article de presse considéré comme diffamatoire ou injurieux et une simple insulte proférée par un individu à l'encontre d'autres personnes. La spécificité de la profession journalistique n'est guère prise en compte. La notion d'exception de vérité fait défaut dans les dispositions ajoutées par le législateur en 2001 et modifiant le Code pénal algérien. De plus, la loi permet aux pouvoirs publics de s'autosaisir et d'engager automatiquement la procédure de poursuite judiciaire tant que le délit n'est pas prescrit. Cela nous interpelle sur le caractère spécial et exceptionnel de la notion de délit de presse et nous oblige à nous interroger sur leurs caractères d'identification en cas de déclenchement de l'action publique contre le journaliste ; et sur l'absence quasi-systématique du droit de réponse, au-delà des sanctions que le juge pourrait être amené à prononcer contre un organe de presse ou un journaliste. Certes, la dépénalisation des délits de presse n'est pas pour demain ; et le chemin est laborieux pour la corporation des journalistes mais personne ne peut nier leurs souhaits d'abolir les sanctions infligées à leur encontre par la proposition d'une application plus douce de la loi pénale aussi bien sur le plan de la procédure que sur le fond. Cela doit s'inscrire dans des nouvelles dispositions pour lesquelles le droit algérien de l'information ne peut pas être évidemment en marge, dans le cadre de la mondialisation de la presse, de l'émergence de la société de l'information et des nouveaux supports de communication."
Resumo:
En partant des travaux en cours tendant au développement de la cyberjustice soit la greffe en ligne (e-filing) et les systèmes intégrés d’information de justice (integrated justice information systems), l’auteur nous propose une analyse quant à l’interopérabilité et à la normalisation des outils « visant à faciliter le traitement et la solution judiciaire et extrajudiciaire des différends et qui tiennent compte de la complexité des paramètres juridiques et des flux d’information concernés ». Pour répondre à cette complexité, l’auteur propose la mise en place d’une grille d’analyse des risques juridiques aussi bien pour la justice civile que pénale.
Resumo:
Il existe une nouvelle catégorie de technologie, les vaccins dérivés de plantes («VDPs»), qui englobe des produits qui ont un grand potentiel pour l’amélioration de la santé à l’échelle globale. Bien qu’ils ne soient pas encore disponibles pour le public, le développement des VDPs a progressé de façon telle qu’ils devraient être prêts à être mis en marché et distribués sous peu. Ainsi, c’est le moment idéal pour lancer un débat sur la meilleure façon de protéger cette nouvelle catégorie de technologie. Vu leur nature, les VDPs ne se qualifient pas parfaitement pour aucune forme de protection de propriété intellectuelle. En effet, un VDP est à la fois une variété de plante, une biotechnologie, un médicament et un produit qui vise spécifiquement les besoins de pays en voie de développement. Chacune de ces caractéristiques soulève ses propres problématiques en ce qui a trait à la propriété intellectuelle. C’est pourquoi il appert difficile d’identifier la forme de protection la plus adéquate et appropriée pour les VDPs. Cet article traite de la nature d’un VDP, des différentes catégories dans lesquelles il pourrait être classé, des différents types de systèmes de protection de propriété intellectuelle auxquels il pourrait être éligible ainsi que des problèmes qui pourraient être soulevés par tous ces éléments. Ces discussions visent à mettre l’accent sur le fait que nous avons affaire à une toute nouvelle catégorie d’innovation technologique. L’auteure est donc d’avis qu’une approche proactive est nécessaire pour discuter d’un système de protection de propriété intellectuelle en relation avec les VDPs. En ce moment, c’est l’inventeur qui choisi comment il protègera son invention. Les moyens employés par ce dernier pourraient être subséquemment modifiés ou annulés par une décision judiciaire mais comme plusieurs autres inventeurs d’une même catégorie de technologie auront probablement déjà adopté une stratégie de protection similaire, ce type de mesures judiciaire, très tard dans le processus, pourra avoir des résultats néfastes sur les détenteurs de droits. Le développement de lignes directrices d’entrée de jeu, avec l’aide d’un panel d’experts de préférence, peut contribuer à éviter les situations de confusion qui ont déjà été vécues avec l’application d’autres nouvelles technologies et qui devraient servir de leçon pour l’encadrement des VDPs.
Resumo:
Le Conseil de l'Europe a publié le 27 avril 2000 un Projet de convention sur la cybercriminalité dans le cadre d’un appel public à contribution de ses pays membres. Le texte doit être finalisé par un groupe d’experts avant décembre 2000 pour être adopté et ouvert à la signature par le comité des ministres du Conseil de l’Europe à l’automne 2001. Ce projet constitue le futur traité international contre la criminalité dans le cyberespace dans l’espace européen. Le Projet de convention sur la cybercriminalité poursuit deux objectifs. Premièrement, il vise la prévention des actes portant atteinte à la confidentialité, à l’intégrité et à la disponibilité des systèmes informatiques, des réseaux et des données. En second lieu, il prône l’adoption de pouvoirs suffisants pour permettre une lutte efficace contre les infractions pénales de haute technologie. Le cadre de mise en œuvre est possible, d'une part, en facilitant la détection, la recherche et la poursuite, tant au plan du droit de la procédure interne, qu’au niveau international. D'autre part, en prévoyant la création de dispositions matérielles appropriées en vue d’une coopération internationale alliant rapidité et efficacité. Finalement, en garantissant un équilibre adéquat entre les nécessités d’une répression démocratique et le respect des droits fondamentaux. L’objet de cet article est d’examiner le Projet de convention en ses dispositions organisant l’exercice des poursuites à un niveau interne, afin de pouvoir en percevoir autant les avantages que les faiblesses éventuelles au plan de la protection des droits et libertés de la personne.
Resumo:
La protection des renseignements personnels est au cœur des préoccupations de tous les acteurs du Web, commerçants ou internautes. Si pour les uns trop de règles en la matière pourraient freiner le développement du commerce électronique, pour les autres un encadrement des pratiques est essentiel à la protection de leur vie privée. Même si les motivations de chacun sont divergentes, le règlement de cette question apparaît comme une étape essentielle dans le développement du réseau. Le Platform for Privacy Preference (P3P) propose de contribuer à ce règlement par un protocole technique permettant la négociation automatique, entre l’ordinateur de l’internaute et celui du site qu’il visite, d’une entente qui encadrera les échanges de renseignements. Son application pose de nombreuses questions, dont celle de sa capacité à apporter une solution acceptable à tous et surtout, celle du respect des lois existantes. La longue et difficile élaboration du protocole, ses dilutions successives et sa mise en vigueur partielle témoignent de la difficulté de la tâche à accomplir et des résistances qu’il rencontre. La première phase du projet se limite ainsi à l’encodage des politiques de vie privée des sites et à leur traduction en termes accessibles par les systèmes des usagers. Dans une deuxième phase, P3P devrait prendre en charge la négociation et la conclusion d’ententes devant lier juridiquement les parties. Cette tâche s’avère plus ardue, tant sous l’angle juridique que sous celui de son adaptation aux us et coutumes du Web. La consolidation des fonctions mises en place dans la première version apparaît fournir une solution moins risquée et plus profitable en écartant la possible conclusion d’ententes incertaines fondées sur une technique encore imparfaite. Mieux éclairer le consentement des internautes à la transmission de leurs données personnelles par la normalisation des politiques de vie privée pourrait être en effet une solution plus simple et efficace à court terme.
Resumo:
"Selon la théorie officielle de l’interprétation des lois, le législateur est l’émetteur d’un message, le texte de loi son support et l’interprète son récepteur. Le contenu du message transmis, c’est-à-dire le sens de la loi, est entièrement déterminé avant même que l’interprète n’en prenne connaissance; il repose dans le texte, en attente d’être découvert. Le rôle du juge se résume donc à lire le texte et à l’appliquer, certains diront presque mécaniquement, aux faits qui lui sont soumis. En fait, sa mission consiste à rechercher l’intention souveraine du législateur et à lui donner effet. Il est de plus en plus reconnu que la doctrine officielle de l’interprétation des lois dresse de la fonction juridictionnelle un portrait à la fois réducteur et trompeur. À tout le moins, on admet généralement que l’interprétation de la loi est une activité qui implique que le juge fasse des choix en fonction de ses propres valeurs et croyances. Mise de l’avant par Friedrich Müller, la théorie structurante du droit va plus loin en posant le juriste comme le véritable créateur de la norme juridique. Plus conforme à la réalité, ce modèle reconnaît au juge une liberté accrue, mais le contraint à faire preuve d’une plus grande transparence et à assumer la responsabilité de ses choix. Le présent texte a pour objet de démontrer les avantages de remplacer la conception traditionnelle de l’interprétation des lois par une conception structurante du droit. "
Resumo:
Cet article traite des règles de preuve dans un contexte électronique, et souligne les différences et similitudes entre les systèmes retenus par les provinces de common law et de droit civil. Il présente certains principes généraux, ainsi qu’un bref survol du droit de la preuve face à l’avènement de l’immatériel. Il englobe une analyse des règles d’admissibilité de la preuve telles que la règle de la meilleure preuve, et l’exception au ouï-dire, ainsi que la force probante des documents électroniques. Il envisage, enfin une application pratique, soit la signature électronique.
Resumo:
La motivation incite les apprenants à s’engager dans une activité et à persévérer dans son accomplissement afin d’atteindre un but. Dans les Systèmes Tutoriels Intelligents (STI), les études sur la motivation des apprenants possèdent trois manques importants : un manque de moyens objectifs et fiables pour évaluer cet état, un manque d’évaluation de rôles joués par les facteurs motivationnels conçus dans l’environnement d’apprentissage et un manque de stratégies d’interventions motivationnelles pour soutenir la motivation des apprenants. Dans cette thèse, nous nous intéressons à mieux comprendre l’état de la motivation des apprenant ainsi que les facteurs et stratégies motivationnels dans un environnement d’apprentissage captivant : les jeux sérieux. Dans une première étude, nous évaluons la motivation des apprenants par l’entremise d’un modèle théorique de la motivation (ARCS de Keller) et de données électro-physiologiques (la conductivité de la peau, le rythme cardiaque et l’activité cérébrale). Nous déterminons et évaluons aussi quelques situations ou stratégies favorisant la motivation dans l’environnement des jeux sérieux étudié. Dans une deuxième étude, nous développons un prototype de jeux sérieux intégrant – dans une première version – quelques éléments motivationnels issus de jeux vidéo et – dans une deuxième version – des stratégies motivationnelles d’un modèle théorique de la motivation. Nous espérons, avec une évaluation motivationnelle de notre prototype, soutenir les apprenants à atteindre des hauts niveaux de motivation, de persévérance et de performance.
Resumo:
La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.
Resumo:
Les techniques de groupement technologique sont aujourd’hui utilisées dans de nombreux ateliers de fabrication; elles consistent à décomposer les systèmes industriels en sous-systèmes ou cellules constitués de pièces et de machines. Trouver le groupement technologique le plus efficace est formulé en recherche opérationnelle comme un problème de formation de cellules. La résolution de ce problème permet de tirer plusieurs avantages tels que la réduction des stocks et la simplification de la programmation. Plusieurs critères peuvent être définis au niveau des contraintes du problème tel que le flot intercellulaire,l’équilibrage de charges intracellulaires, les coûts de sous-traitance, les coûts de duplication des machines, etc. Le problème de formation de cellules est un problème d'optimisation NP-difficile. Par conséquent les méthodes exactes ne peuvent être utilisées pour résoudre des problèmes de grande dimension dans un délai raisonnable. Par contre des méthodes heuristiques peuvent générer des solutions de qualité inférieure, mais dans un temps d’exécution raisonnable. Dans ce mémoire, nous considérons ce problème dans un contexte bi-objectif spécifié en termes d’un facteur d’autonomie et de l’équilibre de charge entre les cellules. Nous présentons trois types de méthodes métaheuristiques pour sa résolution et nous comparons numériquement ces métaheuristiques. De plus, pour des problèmes de petite dimension qui peuvent être résolus de façon exacte avec CPLEX, nous vérifions que ces métaheuristiques génèrent des solutions optimales.
Resumo:
Ce mémoire démontre que la pratique littéraire de l’écrivain américain Ralph Waldo Emerson s’inscrit dans le sillage de la tradition des exercices spirituels mise au jour par l’helléniste Pierre Hadot et qu’elle permet de penser une modernité insoupçonnée par ce dernier. La production de textes littéraires devient alors une manière d’établir « une relation originale avec l’univers » (cf. l’introduction de Nature). Le premier chapitre explique la spécificité de la spiritualité traditionnelle, où l’écriture consiste à implanter en soi le texte de la tradition. La pratique littéraire de Marc Aurèle, Sénèque et saint Augustin est étudiée afin de montrer comment ils tâchent de vivre conformément à la conception de la transcendance qui est la leur : personnelle chez les stoïciens, institutionnelle chez les chrétiens. Le deuxième chapitre montre comment Emerson renverse le rapport traditionnel au texte dans la vie de l’esprit en arguant que la révélation du Christ est, à l’origine, une expérience personnelle de la transcendance qui n’est pas institutionnalisable. Il se dégage de cette confrontation romantique avec le christianisme un concept de littérature lié au mysticisme et inséparable d’une compréhension « expressiviste » du langage (Charles Taylor). Le dernier chapitre examine l’ascèse littéraire d’Emerson : sa conception antiscolastique du « scholar » est étudiée puis mise en relief avec sa façon d’arrimer sa pratique de la pensée à une conception fluctuante de l’univers. La dernière section porte sur la façon dont son mode de vie expérimental suppose une conception de la littérature en tant que processus.
Resumo:
Les distributions spatiales des racines fines de Quercus rubra L. (CHR), Populus deltoides x nigra (DN3570) (PEH) et d’une culture fourragère (FOUR) ont été étudiées dans un système agroforestier de culture intercalaire (SCI) du sud du Québec (Canada). L’étude ne révèle pas d’enracinement plus profond des arbres en SCI, mais des profils superficiels à l’instar de nombreuses espèces d’arbres en plantations ou en milieu naturel. Une séparation spatiale existe entre les systèmes racinaires du FOUR et des CHR dont la densité relative selon la profondeur est plus faible que celle de la culture de 0 à 10 cm, mais plus élevée de 10 à 30 cm. Les PEH ne présentent pas d’adaptation racinaire et les hautes valeurs de densités de longueur racinaires (FRLD) de surface près du tronc entraînent une diminution de 45 % de la densité racinaire de surface du fourrage, suggérant une forte compétition pour les ressources du sol. L’étude du rendement agricole a d’ailleurs révélé des réductions de biomasse fourragère particulièrement près des PEH. Cependant, les résultats d’une analyse à composantes principales suggèrent un impact secondaire de la compétition racinaire sur le rendement agricole, et une plus grande importance de la compétition pour la lumière. L’impact des PEH à croissance rapide sur la culture est plus grand que celui du CHR. Cependant, ils seront récoltés plus rapidement et l’espace libéré favorisera la croissance de la culture intercalaire. Cet aspect dynamique des SCI les rapproche des écosystèmes naturels et devrait être réfléchi et approfondi pour leur succès futur.