105 resultados para objectivité sans objets


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Compte-rendu / Review

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse est divisée en trois parties. Une première section présente les résultats de l'étude de la formation de polarons magnétiques liés (BMP) dans le ferroaimant EuB6 par diffusion de neutrons à petits angles (SANS). La nature magnétique du système ferromagnétique est observée sous une température critique de 15K. La signature des BMP n'apparaît pas dans la diffusion de neutrons, mais ces mesures permettent de confirmer une limite inférieure de 100\AA à la longueur de cohérence des BMP (xi_{Lower}). Dans un second temps, l'étude du LaRhSi3, un supraconducteur sans symétrie d'inversion, par muSR et ZF-muSR nous permet de sonder le comportement magnétique du système dans la phase supraconductrice. Aucun champ magnétique interne n'a été détecté en ZF-muSR sous la température critique (T_c = 2.2K). Cela indique que la phase supraconductrice ne porte pas de moment cinétique intrinsèque. L'analyse du spectre d'asymétrie sous l'application d'un champ magnétique externe nous apprend que le système est faiblement type II par l'apparition de la signature de domaines magnétiques typique d'un réseau de vortex entre H_{c1}(0) et H_{c2}(0), respectivement de 80+/- 5 et 169.0 +/- 0.5 G. Finalement, la troisième section porte sur l'étude du champ magnétique interne dans l'antiferroaimant organique NIT-2Py. L'observation d'une dépendance en température des champs magnétiques internes aux sites d'implantation muonique par ZF-muSR confirme la présence d'une interaction à longue portée entre les moments cinétiques moléculaires. Ces valeurs de champs internes, comparées aux calculs basés sur la densité de spins obtenue par calculs de la théorie de la fonctionnelle de la densité, indiquent que la moitié des molécules se dimérisent et ne contribuent pas à l'ordre antiferromagnétique. La fraction des molécules contribuant à l'ordre antiferromagnétique sous la température critique (T_c = 1.33 +/- 0.01K) forme des chaines uniformément polarisées selon l'axe (1 0 -2). Ces chaines interagissent antiferromagnétiquement entre elles le long de l'axe (0 1 0) et ferromagnétiquement entre les plan [-1 0 2].

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La radiothérapie stéréotaxique corporelle (SBRT) est une technique couramment employée pour le traitement de tumeurs aux poumons lorsque la chirurgie n’est pas possible ou refusée par le patient. Une complication de l’utilisation de cette méthode provient du mouvement de la tumeur causé par la respiration. Dans ce contexte, la radiothérapie asservie à la respiration (RGRT) peut être bénéfique. Toutefois, la RGRT augmente le temps de traitement en raison de la plus petite proportion de temps pour laquelle le faisceau est actif. En utilisant un faisceau de photons sans filtre égalisateur (FFF), ce problème peut être compensé par le débit de dose plus élevé d’un faisceau FFF. Ce mémoire traite de la faisabilité d’employer la technique de RGRT en combinaison avec l’utilisation un faisceau FFF sur un accélérateur Synergy S (Elekta, Stockholm, Suède) avec une ceinture pneumatique, le Bellows Belt (Philips, Amsterdam, Pays-Bas), comme dispositif de suivi du signal respiratoire. Un Synergy S a été modifié afin de pouvoir livrer un faisceau 6 MV FFF. Des mesures de profils de dose et de rendements en profondeur ont été acquises en cuve à eau pour différentes tailles de champs. Ces mesures ont été utilisées pour créer un modèle du faisceau 6 MV FFF dans le système de planification de traitement Pinnacle3 de Philips. Les mesures ont été comparées au modèle à l’aide de l’analyse gamma avec un critère de 2%, 2 mm. Par la suite, cinq plans SBRT avec thérapie en arc par modulation volumétrique (VMAT) ont été créés avec le modèle 6 MV du Synergy S, avec et sans filtre. Une comparaison des paramètres dosimétriques a été réalisée entre les plans avec et sans filtre pour évaluer la qualité des plans FFF. Les résultats révèlent qu’il est possible de créer des plans SBRT VMAT avec le faisceau 6 MV FFF du Synergy S qui sont cliniquement acceptables (les crières du Radiation Therapy Oncology Group 0618 sont respectés). Aussi, une interface physique de RGRT a été mise au point pour remplir deux fonctions : lire le signal numérique de la ceinture pneumatique Bellows Belt et envoyer une commande d’irradiation binaire au linac. L’activation/désactivation du faisceau du linac se fait par l’entremise d’un relais électromécanique. L’interface comprend un circuit électronique imprimé fait maison qui fonctionne en tandem avec un Raspberry Pi. Un logiciel de RGRT a été développé pour opérer sur le Raspberry Pi. Celui-ci affiche le signal numérique du Bellows Belt et donne l’option de choisir les limites supérieure et inférieure de la fenêtre d’irradiation, de sorte que lorsque le signal de la ceinture se trouve entre ces limites, le faisceau est actif, et inversement lorsque le signal est hors de ces limites. Le logiciel envoie donc une commande d’irradiation au linac de manière automatique en fonction de l’amplitude du signal respiratoire. Finalement, la comparaison entre la livraison d’un traitement standard sans RGRT avec filtre par rapport à un autre plan standard sans RGRT sans filtre démontre que le temps de traitement en mode FFF est réduit en moyenne de 54.1% pour un arc. De la même manière, la comparaison entre la livraison d’un traitement standard sans RGRT avec filtre par rapport à un plan de RGRT (fenêtre d’irradiation de 75%) sans filtre montre que le temps de traitement de RGRT en mode FFF est réduit en moyenne de 27.3% par arc. Toutefois, il n’a pas été possible de livrer des traitements de RGRT avec une fenêtre de moins de 75%. Le linac ne supporte pas une fréquence d’arrêts élevée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le problème de conception de réseaux est un problème qui a été beaucoup étudié dans le domaine de la recherche opérationnelle pour ses caractéristiques, et ses applications dans des nombreux domaines tels que le transport, les communications, et la logistique. Nous nous intéressons en particulier dans ce mémoire à résoudre le problème de conception de réseaux avec coûts fixes et sans capacité, en satisfaisant les demandes de tous les produits tout en minimisant la somme des coûts de transport de ces produits et des coûts fixes de conception du réseau. Ce problème se modélise généralement sous la forme d’un programme linéaire en nombres entiers incluant des variables continues. Pour le résoudre, nous avons appliqué la méthode exacte de Branch-and-Bound basée sur une relaxation linéaire du problème avec un critère d’arrêt, tout en exploitant les méthodes de génération de colonnes et de génération de coupes. Nous avons testé la méthode de Branch-and-Price-and-Cut sur 156 instances divisées en cinq groupes de différentes tailles, et nous l’avons comparée à Cplex, l’un des meilleurs solveurs d’optimisation mathématique, ainsi qu’à la méthode de Branch-and- Cut. Notre méthode est compétitive et plus performante sur les instances de grande taille ayant un grand nombre de produits.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La capacité du système visuel humain à compléter une image partiellement dévoilée et à en dériver une forme globale à partir de ses fragments visibles incomplets est un phénomène qui suscite, jusqu’à nos jours, l’intérêt de nombreux scientifiques œuvrant dans différents milieux de recherche tels que l’informatique, l’ingénierie en intelligence artificielle, la perception et les neurosciences. Dans le cadre de la présente thèse, nous nous sommes intéressés spécifiquement sur les substrats neuronaux associés à ce phénomène de clôture perceptive. La thèse actuelle a donc pour objectif général d’explorer le décours spatio-temporel des corrélats neuronaux associés à la clôture perceptive au cours d’une tâche d’identification d’objets. Dans un premier temps, le premier article visera à caractériser la signature électrophysiologique liée à la clôture perceptive chez des personnes à développement typique dans le but de déterminer si les processus de clôture perceptive reflèteraient l’interaction itérative entre les mécanismes de bas et de haut-niveau et si ceux-ci seraient sollicités à une étape précoce ou tardive lors du traitement visuel de l’information. Dans un deuxième temps, le second article a pour objectif d’explorer le décours spatio-temporel des mécanismes neuronaux sous-tendant la clôture perceptive dans le but de déterminer si les processus de clôture perceptive des personnes présentant un trouble autistique se caractérisent par une signature idiosyncrasique des changements d’amplitude des potentiels évoqués (PÉs). En d’autres termes, nous cherchons à déterminer si la clôture perceptive en autisme est atypique et nécessiterait davantage la contribution des mécanismes de bas-niveau et/ou de haut-niveau. Les résultats du premier article indiquent que le phénomène de clôture perceptive est associé temporellement à l’occurrence de la composante de PÉs N80 et P160 tel que révélé par des différences significatives claires entre des objets et des versions méconnaissables brouillées. Nous proposons enfin que la clôture perceptive s’avère un processus de transition reflétant les interactions proactives entre les mécanismes neuronaux œuvrant à apparier l’input sensoriel fragmenté à une représentation d’objets en mémoire plausible. Les résultats du second article révèlent des effets précoces de fragmentation et d’identification obtenus au niveau de composantes de potentiels évoqués N80 et P160 et ce, en toute absence d’effets au niveau des composantes tardives pour les individus avec autisme de haut niveau et avec syndrome d’Asperger. Pour ces deux groupes du trouble du spectre autistique, les données électrophysiologiques suggèrent qu’il n’y aurait pas de pré-activation graduelle de l’activité des régions corticales, entre autres frontales, aux moments précédant et menant vers l’identification d’objets fragmentés. Pour les participants autistes et avec syndrome d’Asperger, les analyses statistiques démontrent d’ailleurs une plus importante activation au niveau des régions postérieures alors que les individus à développement typique démontrent une activation plus élevée au niveau antérieur. Ces résultats pourraient suggérer que les personnes du spectre autistique se fient davantage aux processus perceptifs de bas-niveau pour parvenir à compléter les images d’objets fragmentés. Ainsi, lorsque confrontés aux images d’objets partiellement visibles pouvant sembler ambiguës, les individus avec autisme pourraient démontrer plus de difficultés à générer de multiples prédictions au sujet de l’identité d’un objet qu’ils perçoivent. Les implications théoriques et cliniques, les limites et perspectives futures de ces résultats sont discutées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le problème grandissant de l’antibiorésistance remet en question plusieurs pratiques reliées à l’utilisation des antibiotiques, dont l’usage à grande échelle pour des fins de promotion de la croissance chez les animaux de consommation. Depuis 2006, le retrait des antibiotiques dans les élevages de poulets de chair en Europe a été associé à la résurgence d’entérite nécrotique, une maladie intestinale causée par la bactérie Clostridium perfringens. Alors que la pathogénie de la maladie semblait bien comprise, le retrait des antibiotiques a montré que peu de solutions de remplacement sont disponibles afin de prévenir cette maladie. Très peu d’études se sont intéressées à mieux caractériser la dynamique des populations de C. perfringens dans les élevages avicoles et l’effet que pouvait avoir le retrait des antibiotiques sur l’évolution de ces populations. La présente étude a évalué l’impact du remplacement des antibiotiques promoteurs de croissance et des anticoccidiens pendant une période de 14 mois, dans huit élevages commerciaux de poulets de chair au Québec. Un protocole d’élevage alternatif, combinant des stratégies telles que des produits à base d’huiles essentielles, des acides organiques et inorganique, une vaccination contre la coccidiose ainsi qu’une amélioration des conditions de démarrage des poussins, a été utilisé en remplacement des antimicrobiens. Les performances zootechniques, la santé digestive ainsi que l’occurrence d’entérite nécrotique pour les lots de poulets soumis au protocole d’élevage alternatif ont été comparées avec celles de lots de poulets de chair recevant une ration conventionnelle. Des analyses moléculaires basées sur la PCR et le PFGE ont été utilisées afin de documenter l’impact de la mise en place du protocole d’élevage alternatif sur les populations de C. perfringens. Les résultats obtenus montrent qu’aucune différence entre les groupes soumis aux deux types de protocoles n'est observée en ce qui a trait à la viabilité en élevage, à l'âge d'abattage et aux taux de condamnations à l'abattoir. Toutefois, les lots soumis au traitement alternatif ont eu des performances moindres pour le poids moyen à l'abattage, le gain moyen quotidien et la conversion alimentaire. Un peu plus de 27% des lots soumis au protocole alternatif ont connu un épisode d’entérite nécrotique clinique. Les analyses ont aussi montré que l’un ou l’autre des protocoles ne semble pas exercer d’influence particulière sur la dynamique temporelle des populations de C. perfringens. Pour les lots soumis au protocole d’élevage alternatif, une forte diversité génétique pour C. perfringens a été liée à un risque augmenté de vivre un épisode d’entérite nécrotique. À l’opposé, les lots alternatifs ayant vécu des épisodes récurrents de la maladie ont montré une diminution significative de la diversité génétique, ainsi qu’une augmentation marquée du nombre de souches de C. perfringens transportant plusieurs gènes de virulence. La présente étude a permis de mieux documenter, d’un point de vue économique et scientifique, la production de poulets de chair élevés sans antibiotiques ni anticoccidiens au Québec. Cette étude est la seule du genre s’étant intéressée à la caractérisation et à la comparaison dans le temps des flores de C. perfringens retrouvées dans les deux types d’élevages. Elle a révélé que la production à grande échelle de poulets de chair élevés sans antibiotiques ni anticoccidiens est possible au Québec, mais que celle-ci présente des impacts sur les performances zootechniques des oiseaux, sur leur santé digestive et sur la dynamique des populations de C. perfringens. Mots-clés : poulets de chair, antibiotiques, huiles essentielles, acides organiques, vaccination coccidiose, performances zootechniques, santé digestive, entérite nécrotique, Clostridium perfringens, dynamique populationnelle

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les premières oeuvres de Préfontaine manifestent le désir d'incarner la parole dans la « chair du monde », d'atteindre la genèse rythmique de la matière dans une « anhumanité du verbe ». Si « Pays sans parole » nomme les espaces géographiques d'un peuple brisé par l'aphasie, et marque ainsi un retour à l'homme, son auteur affiche une grande réticence face à sa propre thématique du pays. Entre cette réserve et la désillusion « religieuse », le poète semble pris dans un « non-lieu ». Aussi n'est-ce pas en fonction de son appartenance au discours nationaliste que sera étudié « Pays sans parole », mais en regard de la poétique du premier Préfontaine, celle de l'incarnation. L'analyse de « Sous l'éclair d'homme » permettra d'examiner comment prend forme une écriture de la voix qui structure une expérience du temps, et fera l'hypothèse que cette expérience motive le rêve d'incarner le verbe.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dany Laferrière, récemment admis à la prestigieuse Académie française, a produit une œuvre considérable au cours des trente dernières années. Deux de ces premiers romans, Comment faire l’amour avec un Nègre sans se fatiguer et Cette grenade dans la main du jeune Nègre est-elle une arme ou un fruit?, sont caractérisés par une intertextualité riche et variée. La trame narrative de ces deux romans est construite par fragments. Dans le premier texte, on retrouve un écrivain fictif qui procède à l’écriture d’un roman qu’il nomme Paradis du dragueur nègre. Dans le deuxième roman, nous retrouvons le même écrivain, mais ce dernier est plutôt employé par un magazine de la côte est afin de rédiger un reportage sur l’Amérique. Dans les deux cas, il y a une mise en scène de l’écriture par un écrivain fictif qui présente beaucoup de ressemblances avec Laferrière lui-même. Le lecteur assiste à la construction du récit qu’il est en train de lire à travers une autofiction originale. Il y a donc une multitude de ressemblances, et mêmes correspondances, entre les deux récits. Les deux romans de Laferrière s’inscrivent par leur thème, leur style et leur genre dans une « généalogie » de textes qui peuvent être regroupés en « familles » littéraires. Nous tenterons, dans le mémoire qui suit, de définir et de comprendre le rôle de ces « familles » et d’illustrer comment l’appropriation de ces textes permet à l’auteur à la fois de s’en inspirer et de s’en distancer. Il s’agira donc, dans les deux premiers chapitres, d’étudier les références intertextuelles appartenant à ces deux « familles » d’écrivains pour ensuite étudier plus particulièrement la construction de la figure de l’écrivain et de son espace littéraire à travers ces deux œuvres. MOT-CLÉS : Dany Laferrière ; intertextualité ; autofiction ; roman contemporain ; littérature québécoise.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Prouver et gouverner étudie le rôle des institutions, des conventions et des enjeux normatifs dans la construction d'indicateurs quantitatifs. Desrosières pense qu'on ne peut étudier le développement scientifique des statistiques sans prendre en compte le développement institutionnel – en particulier le rôle de l'État – dans la constitution de cette discipline.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La crise des fondements n’a pas affecté les fondements arithmétiques du constructivisme de Kronecker, Bien plutôt, c’est le finitisme kroneckerien de la théorie de l’arithmétique générale ou polynomiale qui a permis à Hilbert de surmonter la crise des fondements ensemblistes et qui a poussé Gödel, inspiré par Hilbert, à proposer une extension du point de vue finitiste pour obtenir une preuve constructive de la consistance de l’arithmétique dans son interprétation fonctionnelle « Dialectica ».

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les langages de programmation typés dynamiquement tels que JavaScript et Python repoussent la vérification de typage jusqu’au moment de l’exécution. Afin d’optimiser la performance de ces langages, les implémentations de machines virtuelles pour langages dynamiques doivent tenter d’éliminer les tests de typage dynamiques redondants. Cela se fait habituellement en utilisant une analyse d’inférence de types. Cependant, les analyses de ce genre sont souvent coûteuses et impliquent des compromis entre le temps de compilation et la précision des résultats obtenus. Ceci a conduit à la conception d’architectures de VM de plus en plus complexes. Nous proposons le versionnement paresseux de blocs de base, une technique de compilation à la volée simple qui élimine efficacement les tests de typage dynamiques redondants sur les chemins d’exécution critiques. Cette nouvelle approche génère paresseusement des versions spécialisées des blocs de base tout en propageant de l’information de typage contextualisée. Notre technique ne nécessite pas l’utilisation d’analyses de programme coûteuses, n’est pas contrainte par les limitations de précision des analyses d’inférence de types traditionnelles et évite la complexité des techniques d’optimisation spéculatives. Trois extensions sont apportées au versionnement de blocs de base afin de lui donner des capacités d’optimisation interprocédurale. Une première extension lui donne la possibilité de joindre des informations de typage aux propriétés des objets et aux variables globales. Puis, la spécialisation de points d’entrée lui permet de passer de l’information de typage des fonctions appellantes aux fonctions appellées. Finalement, la spécialisation des continuations d’appels permet de transmettre le type des valeurs de retour des fonctions appellées aux appellants sans coût dynamique. Nous démontrons empiriquement que ces extensions permettent au versionnement de blocs de base d’éliminer plus de tests de typage dynamiques que toute analyse d’inférence de typage statique.