955 resultados para Calcul scientifique
Resumo:
Du constat scientifique de l’”animalité humaine” (ou de l’appartenance de l’espèce humaine à la communauté animale), cet article s’intéresse à ses possibles conséquences sur le plan éthique et juridique vers une considération révisée des (autres) animaux. En annexe, est fournie la liste des lois adoptées au niveau national pour protéger le bien-être animal contre les mauvais traitements et les actes de cruauté à travers le monde. Notre continuité avec les autres animaux est scientifiquement établie. Le concept de “supériorité” humaine, justifiant l’exploitation animale à des fins humaines, est remise en question par le concept de “spécificité” humaine en tant qu’espèce animale. L’espèce humaine appartient à la communauté animale, mais notre spécificité nous permet de concevoir l’éthique et le droit. Sur le plan moral, nous pouvons réfléchir à un “traitement éthique” des (autres) animaux. Sur le plan légal, nous pouvons protéger juridiquement leur bien-être en tant qu’”êtres sensibles”, plutôt que comme simples “objets de propriété”. Est-il possible (ou nécessaire) d’attribuer des droits légaux à nos frères biologiques contre les souffrances inutiles ou évitables? Ou est-il préférable de continuer à imposer aux êtres humains des obligations envers eux à travers des lois de protection animale? Ces questions centrales sont discutées en soulignant l’importance croissante de la protection juridique du bien-être animal dans le monde.
Resumo:
La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.
Resumo:
Le travail de modélisation a été réalisé à travers EGSnrc, un logiciel développé par le Conseil National de Recherche Canada.
Resumo:
Ce mémoire propose une étude du dernier recueil du poète québécois Paul-Marie Lapointe, intitulé Espèces fragiles, en y détaillant la présence d’un intertexte scientifique et en dégageant les effets de sens liés à la juxtaposition de postures intertextuelles variées. Nous suggérons que l’idée d’une intertextualité dite « externe » jumelée à la notion de la « référencialité » peut aider à comprendre les enjeux d’une intertextualité scientifique en poésie. En regard de la place du sujet et de l’objet dans la poésie de Lapointe, nous montrons que la présence d’un intertexte littéraire est directement liée à l’élaboration de l’intertexte archéologique dans Espèces fragiles. Finalement, nous proposons que les effets de lecture issus des tonalités plurielles du recueil accentuent la critique des logiques économiques contemporaines présentée par Lapointe. Le détournement de l’intertexte scientifique fait ainsi valoir la nécessité d’une mémoire culturelle forte, marquée par la résurgence constante du passé dans un présent en devenir.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Notre étude porte sur la manière dont les chercheurs universitaires junior et senior en sciences sociales au Québec établissent leurs réseaux de cosignataires et donnent une interprétation discursive à leurs activités de collaboration face à l'impact du changement institutionnel universitaire pendant la période 1990-2009. Plus spécifiquement, notre recherche s'intéresse à montrer que la création des réseaux et la collaboration scientifique par cosignature peuvent être identifiées comme des « ajustements professionnels » et se présenter aussi comme une ressource du capital social qui peut être mobilisé et qui peut produire des avantages aux chercheurs en accord avec leur statut junior ou senior. Il s’agit donc d’une recherche qui relève de la sociologie des sciences. Notre approche a été opérationnalisée à partir de l'étude de 15 membres d'un centre de recherche universitaire au Québec, et leur réseau de 447 cosignataires (y compris les chercheurs de l'étude), et à travers l'application de 7 entretiens auprès de chercheurs junior et senior du même centre. Dans le même plan opérationnel, depuis une perspective qualitative, la thèse permet d'identifier le sens discursif que les chercheurs fournissent à la collaboration et à la participation en réseaux de cosignatures. Ensuite, depuis l'analyse structurelle des réseaux, notre étude montre les connexions individuelles et leurs formes d'interprétation — spécialement la théorie des graphes et ses mesures de centralité (la centralité de degré, la centralité d’intermédiarité et la centralité de vecteur propre) — de même que l'homophilie par statut entre chercheurs. Enfin, depuis l'analyse statistique, elle montre la corrélation des périodes de l'étude et des attributs socioprofessionnels des chercheurs étudiés (sexe, statut universitaire, affiliation institutionnelle, discipline d’appartenance, pays, région du Canada et ville de travail). Notamment, les résultats de notre thèse montrent que chaque catégorie de chercheurs possède ses propres particularités structurelles et discursives en ce qui a trait à ses pratiques de collaboration en réseau, et vont confirmer que les chercheurs senior, plus que les chercheurs junior, grâce à leur capital social mobilisé, ont conservé et obtenu plus d'avantages de leur réseau de cosignataires afin de s'adapter au changement institutionnel et mieux gérer leur travail de collaboration destiné à l’espace international, mais surtout à l'espace local.
Resumo:
Travail dirigé présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise en science (M. Sc.) en criminologie, option criminalistique et information
Resumo:
Le problème de la direction du temps est un problème classique autant en physique qu’en philosophie. Quoiqu’il existe plusieurs façons de s’interroger sur ce problème, l’approche thermodynamique est la plus fréquemment utilisée. Cette approche consiste à considérer la flèche du temps thermodynamique comme la flèche fondamentale de laquelle les autres flèches ne sont que des manifestations. Ce mémoire vise à fournir une analyse philosophique de cette approche. Pour ce faire, nous esquisserons la problématique générale, nous exposerons les différentes approches et théories alternatives visant à résoudre ce problème et nous présenterons la thèse forte soutenant l’approche thermodynamique. Ensuite, nous évaluerons la pertinence du recours à la mécanique statistique et à la cosmologie visant à remédier aux déficiences de cette même approche. Enfin, nous analyserons en quoi cette approche, et plus particulièrement la notion d’entropie, est en mesure de fournir un cadre conceptuel pour la résolution du problème de la flèche du temps.
Resumo:
Le modèle déductivo-nomologique domine depuis longtemps la réflexion philosophique concernant l’explication en science économique. Or, pour plusieurs, comme James Woodward et Tony Lawson, ce modèle ne considère pas suffisamment la causalité dans l’explication. L’objectif de cet article est double : 1- renforcer la critique que Tony Lawson adresse à l’économie contemporaine et 2- évaluer la théorie alternative qu’il propose, le « réalisme critique », qui tente de réintroduire la causalité dans l’explication en science économique. Nous conclurons que les considérations causales sont très importantes pour l’explication en science économique mais aussi pour bien comprendre les limites de cette science.
Resumo:
Nous présentons dans cette communication une expérimentation innovante basée sur l'enseignement des nanotechnologies. Débutée en 2006, elle s’inscrit sur une durée de 3 ans. Les élèves participant à ce projet pourront observer et mener des expériences à l’échelle moléculaire, comprendre les propriétés nouvelles de la matière liées à cette dimension de réduction dans le but d’application spécifiques, impliquant les outils mathématiques, physiques et chimie ainsi que la biologie. L’interdisciplinarité est un des fondements de ce projet qui a mobilisé la collaboration d'enseignants de diverses disciplines
Resumo:
Fecha finalización tomada del código del documento
Resumo:
Conseguir una mejora de los resultados en el cálculo mental a través de un trabajo estructurado de este proceso de aprendizaje del niño de Párvulos y ciclo inicial, llevado a cabo manipulativa y experimentalmente. 90 alumnos elegidos aleatoriamente de una población de 270 sujetos pertenecientes a la escuela pública Sant Salvador de Tarragona de la muestra, 30 sujetos cursan segundo de Párvulos, 30 cursan primero de EGB y 30 cursan segundo de EGB. Elaboración de una programación exhaustiva y rigurosa de los objetivos de las Matemáticas en Parvulario y ciclo inicial, junto con una relación de actividades, material y tipología de problemas relacionados. Confección de dos pruebas, aplicadas oralmente, de problemas concretos a resolver, basados en una serie de esquemas básicos de situaciones problemáticas. Pasación de la prueba inicial a la muestra. Aplicación de la metodología propuesta que va, gradualmente, de la ayuda mediante manipulación y experimentación de material en la resolución de problemas hasta la utilización sólo de la representación mental. Pasación de la prueba final. Análisis de datos obtenidos y comparación de resultados. Dos pruebas orales 'ad hoc'. Material de experimentación diverso, estructurado y no estructurado. Distribuciones de frecuencias y porcentajes. Las líneas metodológicas propuestas han servido para agilizar en los niños el análisis de las situaciones problemáticas y al mismo tiempo agilizarles el cálculo mental. Las disposiciones de las situaciones problemáticas de los esquemas básicos pueden servir como base para la elaboración de un programa de ordenador que genere multiplicidad de situaciones problemáticas diversas automáticamente.
Resumo:
Texto en francés
Resumo:
The advent of the Auger Engineering Radio Array (AERA) necessitates the development of a powerful framework for the analysis of radio measurements of cosmic ray air showers. As AERA performs ""radio-hybrid"" measurements of air shower radio emission in coincidence with the surface particle detectors and fluorescence telescopes of the Pierre Auger Observatory, the radio analysis functionality had to be incorporated in the existing hybrid analysis solutions for fluorescence and surface detector data. This goal has been achieved in a natural way by extending the existing Auger Offline software framework with radio functionality. In this article, we lay out the design, highlights and features of the radio extension implemented in the Auger Offline framework. Its functionality has achieved a high degree of sophistication and offers advanced features such as vectorial reconstruction of the electric field, advanced signal processing algorithms, a transparent and efficient handling of FFTs, a very detailed simulation of detector effects, and the read-in of multiple data formats including data from various radio simulation codes. The source code of this radio functionality can be made available to interested parties on request. (C) 2011 Elsevier B.V. All rights reserved.