24 resultados para Champ visuel


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La pomme de terre est l’une des cultures les plus exigeantes en engrais et elle se cultive généralement sur des sols légers ayant de faibles réserves en N, P, K, Ca et Mg. Ces cinq éléments sont essentiels à la croissance des plants, à l’atteinte des bons rendements et à l’obtention de bonne qualité des tubercules de pomme de terre à la récolte et à l’entreposage. La recherche d’un équilibre entre ces cinq éléments constitue l’un des défis de pratiques agricoles de précision. La collecte de 168 échantillons de feuilles de pommes de terre selon une grille de 40 m × 60 m (densité d’échantillonnage de 2,9 échantillons ha-1) dans un champ de pommes de terre de 54 ha au Saguenay-Lac-Saint-Jean et la détermination de leur teneur en N, P, K, Ca et Mg au stade début floraison, jumelée à une lecture de l’indice de chlorophylle avec SPAD-502, a permis d’établir les faits suivants : parmi tous les indicateurs de diagnostic foliaire selon les 3 approches connues VMC, DRIS et CND, le contraste logarithmique entre les deux éléments nutritifs type anioniques (N et P) vs les trois éléments type cationiques (K, Ca et Mg), noté ilr (log ratio isométrique) du coda (Compositional Data Analysis) est l’indicateur le plus fortement relié à la lecture SPAD-502 (r=0,77). L’étude géostatique spatiale appliquée au Coda a montré une grande similitude entre le CND-ilr (anions vs cations) et la lecture SPAD-502. Ce CND-ilr devrait être interprété en termes de fertilisation de démarrage (N+P), en lien avec les apports des cations sous forme d’engrais (K, Ca et Mg) ou d’amendement (Ca et Mg).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En vertu de l’expertise qu’il détient, l’agent public contribue à la réflexion du politique. L’acteur public est en quelque sorte un outil d’aide à la décision. Le paradigme classique en théorie des organisations assume que le bureaucrate est un acteur programmé dont les actions sont guidées par la règlementation et la codification juridico-légale entourant sa pratique. Quant à elle, l’École de la nouvelle gestion publique suppose que l’agent public doit opérer librement selon les indicateurs de la sphère privée ; il doit viser l’efficacité au moindre coût et prioriser la culture du résultat. De plus, dans des conditions respectant l’environnement où se dessine le partage de renseignements, les chercheurs ne s’entendent pas sur le principe de l’allié qui postule conventionnellement que des préférences similaires favorisent la transmission optimale de l’information entre le politique et la fonction publique. Quel modèle prévaut au Québec ? Sous quelles formes s’opérationnalise-t-il en contexte de transfert ? La thèse d’une compatibilité préférentielle est-elle garante d’une translation informationnelle améliorée ? En usant du modèle canonique principal-agent, ce mémoire confronte la croyance répandue voulant que l’État québécois soit foncièrement webérien en adressant certaines des plus importantes conclusions théoriques dans la discipline. Les résultats démontrent que l’appareil d’État est issu d’un croisement entre les deux principaux paradigmes reconnus dans la littérature. Aussi, le mémoire fait état d’une similarité entre l’interprétation traditionnelle de l’ally principle et la réalité empirique retrouvée dans la relation entre le haut fonctionnaire et le législateur québécois. Ultimement, l’étude démontre que l’administrateur d’État est stratégique dans certaines situations qu’il sait instrumentaliser et où il peut occuper un espace discrétionnaire suffisant pour valoriser ses intérêts professionnels et ceux de son organisation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au milieu du XIIe siècle, l’Occident chrétien assiste à l’apparition d’un nouveau rituel liturgique au cours duquel le prêtre élève au-dessus de sa tête l’hostie qui vient d’être consacrée et transformée en corps du Christ. Selon l’historiographie, ce que l’on nomme « élévation de l’hostie » doit permettre aux fidèles de voir et d’adorer l’objet pour pallier la diminution progressive de la fréquence des communions depuis la Réforme grégorienne dans le dernier quart du XIe siècle. Or, cette thèse apparait problématique dans la mesure où les textes liturgiques ainsi que les conciles synodaux ordonnent aux fidèles de s’incliner, de s’agenouiller, de baisser les yeux et même de se prosterner. De plus, une multitude d’obstacles physiques comme des jubés, des clôtures, des rideaux ou un certain nombre de clercs ne peut que limiter la visibilité de l’objet. Ensuite, du point de vue théologique, on ne cesse de rappeler qu’il est impossible de voir Dieu par les yeux du corps et que la visio dei, qui relève des yeux spirituels, ne peut se réaliser en cette vie. Une foi réelle doit d’ailleurs se passer de la vision, de la science ou de la connaissance, car comme le disent les Écritures, « heureux ceux qui ont cru sans voir ». Il en résulte une certaine ambivalence, voire parfois une dévalorisation de la vision corporelle. Sens le plus spirituel, il est aussi le plus dangereux lorsque mal utilisé. La présente recherche porte sur l’apparition, l’évolution et la fixation du rituel de l’élévation de l’hostie du milieu du XIIe siècle à la fin du XIVe siècle et tente de démontrer que sa fonction n’est pas de montrer l’hostie aux fidèles qui sont largement découragés, par une multitude de moyens, de la regarder et qu’elle possède une fonction sociale et liturgique indépendante de leur regard.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le stress joue un rôle important dans le maintien de la qualité de vie quotidienne. Une exposition à une situation stressante peut causer divers désordres neuropsychiatriques du cerveau qui sont associés avec des problèmes liés au sommeil, à la dépression, à des problèmes digestifs et à des troubles de l’alimentation. Les traitements de ces troubles liés au stress sont très coûteux à travers le monde. De nos jours, des considérations importantes ont été soulevées afin de trouver des moyens appropriés pour la prévention plutôt que de dépenser ultérieurement plus de budget sur les traitements. De cette façon, l’étude et l’expérimentation sur les animaux des troubles liés au stress sont l’un des moyens les plus fiables pour atteindre une compréhension plus profonde des problèmes liés au stress. Ce projet visait à révéler la modulation des potentiels de champ locaux (LFP) lors de la consommation de sucrose dans deux conditions englobant la condition de contrôle non-stressante et celle stressante d’un choc électrique aiguë à la patte dans le cortex préfrontal médian (CPFm) du cerveau de rat. Le CPFm est une structure importante dans la réponse au stress et à l’anxiété par l’interaction avec l’axe hypothalamique-pituitaire surrénale (HPA). Les résultats de ce projet ont révélé que la plupart des coups de langue se sont produits dans les 15 premières minutes de l’accès à une solution de sucrose autant pour la condition contrôle non-stressante que pour la condition stressante. En outre, le stress aigu d’un choc à la patte affecte de manière significative la consommation horaire de sucrose en diminuant le volume de la consommation. Les résultats ont également révélé une présence importante du rythme thêta dans le CPFm pendant la condition de base et pendant l’ingestion de sucrose dans les deux conditions. De plus, les résultats ont montré une diminution de puissance des bandes delta et thêta lors des initiations de léchage du sucrose. Ce projet conduit à des informations détaillées sur les propriétés électrophysiologiques du cortex infra-limbique (IL) du CPFm en réponse à l’exposition à des conditions de stress et de l’apport d’une solution de sucrose. Ce projet permet également de mieux comprendre les mécanismes neurophysiologiques des neurones du CPFm en réponse à l’exposition à une condition stressante suivie d’apport de sucrose. Ce projet a également permis de confirmer les effets anorexigènes du stress et suggèrent également que la synchronisation neuronale dans le cortex IL peut jouer un rôle dans le comportement de léchage et sa désynchronisation pendant le léchage après une exposition à des conditions stressantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude porte sur les caractéristiques de la poésie du quotidien en bande dessinée. Les petites joies de la vie de tous les jours, leur représentation visuelle et leur transposition narrative, poétique ou non, traversent les différentes œuvres de mon corpus, soit Moins vingt-deux degrés Celsius de Jimmy Beaulieu (Mécanique générale, 2003), L’Homme qui marche de Jirô Taniguchi (Casterman, 2003), Whiskey & New York de Julia Wertz (Altercomics, 2011), Calvin et Hobbes en couleurs! de Bill Watterson (Hors Collection, 2008), Le Jardin de Mimi de Yoon-Sun Park (Misma, 2014) ainsi que Shä & Salomé, Jours de pluie d’Anne Montel et Loïc Clément (Jean-Claude Gawsewitch éditeur, 2011). Cette poésie du quotidien constitue un regard particulier sur le monde, à l’instar du réalisme magique. Cette étude explore le dialogue visuel et narratif qui existe entre les deux concepts, la poésie amenant une dimension magique importante au sein même de la fiction bédéique. En second lieu, il sera question de la bande dessinée Nora et Mathieu, laquelle a constituée la partie création de ce mémoire. Le processus artistiques ainsi que les caractéristiques qui définissent ma pratique de la bande dessinée, seront abordés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fusariose de l’épi est une maladie fongique des cultures céréalières au Québec. Les objectifs de ce projet étaient de vérifier l’influence de quatre facteurs (météorologie, cultivar, date de semis, fongicide) sur les rendements et la qualité du blé et d’évaluer les performances de neuf modèles à prédire l’incidence de cette maladie. Pendant deux ans, à quatre sites expérimentaux au Québec, des essais de blé de printemps et d’automne ont été implantés pour amasser un jeu de données météorologiques, phénologiques et épidémiologiques. L’application d’un fongicide a réduit la teneur en désoxynivalénol des grains dans neuf essais sur douze et a augmenté les rendements dans sept essais. De plus, les modèles prévisionnels américains et argentins ont eu de meilleures performances que les modèles canadiens et italiens quand leur seuil de décision était ajusté et que le développement du blé était suivi au champ.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si le Marx de Michel Henry reconduit plusieurs thèses développées dans les écrits antérieurs et anticipe celles de « la trilogie » sur le christianisme, le dialogue qu’il instaure autour du thème de la praxis lui confère un statut singulier dans l’ensemble de l’oeuvre. Parce que Marx attribue à la pratique de l’individu et aux rapports réels entre les pratiques le pouvoir de créer les idéalités, notamment celle de la valeur, Henry est lui-même conduit à déplacer le champ d’immanence qu’il avait jusque-là situé du côté de l’ego et du corps vers la pratique et le système du travail vivant aux prises avec le monde objectif. Or du point de vue d’une phénoménologie matérielle, pour autant qu’il renvoie à un point de vue extérieur à la stricte immanence, le seul usage de la notion d’« individu » manifeste déjà une prise en compte de « la transcendance », poussant Henry à suspendre pour une part l’approche phénoménologique. Même si l’acosmisme de L’essence de la manifestation transparait encore dans le Marx, il est mis en tension extrême avec le monde des déterminations sociales et économiques et contraint l’auteur à développer la thèse de l’enracinement de ces déterminations dans l’immanence de la vie et de la praxis. C’est en même temps ce qui fait la force et l’originalité de la lecture henryenne de Marx. D’un autre côté, quand bien même elle hérite d’une éthique de la praxis, la trilogie semble perdre de vue la stricte individualité de la praxis qui apparaît dans le Marx. C’est ainsi que le concept de Vie Absolue qu’elle promeut est associé à une exigence d’universel que Henry avait préalablement disqualifiée, notamment à travers sa critique de Hegel. La thèse qu’on va lire cherche ainsi à rendre compte de l’originalité absolue du Marx dans l’oeuvre du phénoménologue français.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’accélération directe d’électrons par des impulsions ultrabrèves de polarisation radiale fortement focalisées démontre un grand potentiel, notamment, pour la production de paquets d’électrons ultrabrefs. Plusieurs aspects de ce schéma d’accélération restent toutefois à être explorés pour en permettre une maîtrise approfondie. Dans le cadre du présent mémoire, on s’intéresse à l’ajout d’une dérive de fréquence au champ de l’impulsion TM01 utilisée. Les expressions exactes des composantes du champ électromagnétique de l’impulsion TM01 sont établies à partir d’une généralisation du spectre de Poisson. Il s’agit, à notre connaissance, du premier modèle analytique exact pour la description d’une impulsion avec une dérive de fréquence. Ce modèle est utilisé pour étudier l’impact du glissement en fréquence sur le schéma d’accélération, grâce à des simulations “particule test” unidimensionnelles, considérant en premier lieu une énergie constante par impulsion, puis un champ maximum constant. Les résultats révèlent que le glissement en fréquence diminue le gain en énergie maximum atteignable dans le cadre du schéma d’accélération à l’étude ; une baisse d’efficacité de plusieurs dizaines de pourcents peut survenir. De plus, les simulations mettent en évidence certaines différences reliées à l’utilisation d’impulsions avec une dérive vers les basses fréquences ou avec une dérive vers les hautes fréquences : il se trouve que, pour un glissement en fréquence de même grandeur, l’impulsion avec une dérive vers les basses fréquences conduit à un gain en énergie cinétique maximum plus élevé pour l’électron que l’impulsion avec une dérive vers les hautes fréquences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il existe désormais une grande variété de lentilles panoramiques disponibles sur le marché dont certaines présentant des caractéristiques étonnantes. Faisant partie de cette dernière catégorie, les lentilles Panomorphes sont des lentilles panoramiques anamorphiques dont le profil de distorsion est fortement non-uniforme, ce qui cause la présence de zones de grandissement augmenté dans le champ de vue. Dans un contexte de robotique mobile, ces particularités peuvent être exploitées dans des systèmes stéréoscopiques pour la reconstruction 3D d’objets d’intérêt qui permettent à la fois une bonne connaissance de l’environnement, mais également l’accès à des détails plus fins en raison des zones de grandissement augmenté. Cependant, à cause de leur complexité, ces lentilles sont difficiles à calibrer et, à notre connaissance, aucune étude n’a réellement été menée à ce propos. L’objectif principal de cette thèse est la conception, l’élaboration et l’évaluation des performances de systèmes stéréoscopiques Panomorphes. Le calibrage a été effectué à l’aide d’une technique établie utilisant des cibles planes et d’une boîte à outils de calibrage dont l’usage est répandu. De plus, des techniques mathématiques nouvelles visant à rétablir la symétrie de révolution dans l’image (cercle) et à uniformiser la longueur focale (cercle uniforme) ont été développées pour voir s’il était possible d’ainsi faciliter le calibrage. Dans un premier temps, le champ de vue a été divisé en zones à l’intérieur desquelles la longueur focale instantanée varie peu et le calibrage a été effectué pour chacune d’entre elles. Puis, le calibrage général des systèmes a aussi été réalisé pour tout le champ de vue simultanément. Les résultats ont montré que la technique de calibrage par zone ne produit pas de gain significatif quant à la qualité des reconstructions 3D d’objet d’intérêt par rapport au calibrage général. Cependant, l’étude de cette nouvelle approche a permis de réaliser une évaluation des performances des systèmes stéréoscopiques Panomorphes sur tout le champ de vue et de montrer qu’il est possible d’effectuer des reconstructions 3D de qualité dans toutes les zones. De plus, la technique mathématique du cercle a produit des résultats de reconstructions 3D en général équivalents à l’utilisation des coordonnées originales. Puisqu’il existe des outils de calibrage qui, contrairement à celui utilisé dans ce travail, ne disposent que d’un seul degré de liberté sur la longueur focale, cette technique pourrait rendre possible le calibrage de lentilles Panomorphes à l’aide de ceux-ci. Finalement, certaines conclusions ont pu être dégagées quant aux facteurs déterminants influençant la qualité de la reconstruction 3D à l’aide de systèmes stéréoscopiques Panomorphes et aux caractéristiques à privilégier dans le choix des lentilles. La difficulté à calibrer les optiques Panomorphes en laboratoire a mené à l’élaboration d’une technique de calibrage virtuel utilisant un logiciel de conception optique et une boîte à outils de calibrage. Cette approche a permis d’effectuer des simulations en lien avec l’impact des conditions d’opération sur les paramètres de calibrage et avec l’effet des conditions de calibrage sur la qualité de la reconstruction. Des expérimentations de ce type sont pratiquement impossibles à réaliser en laboratoire mais représentent un intérêt certain pour les utilisateurs. Le calibrage virtuel d’une lentille traditionnelle a aussi montré que l’erreur de reprojection moyenne, couramment utilisée comme façon d’évaluer la qualité d’un calibrage, n’est pas nécessairement un indicateur fiable de la qualité de la reconstruction 3D. Il est alors nécessaire de disposer de données supplémentaires pour juger adéquatement de la qualité d’un calibrage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les résultats de la cinquième réalisation de l’étude de TIMSS en 2011 montrent la présence d’un faible rendement des élèves iraniens en mathématiques par rapport à la moyenne internationale. Plusieurs facteurs peuvent être à la source de ce faible rendement : programmes d’études, caractéristiques de l’école, qualité des ressources éducatives fournies à l’école ou accessibles aux élèves hors de l’école, etc. (Mullis et coll., 2009; 2012; Coleman et coll., 1966). Ce mémoire est une tentative d’identifier les points faibles probables du contenu géométrique du manuel scolaire de mathématiques de 8e année de l’Iran, en considérant les exigences de TIMSS 2011. Dans cette perspective, cette recherche se focalise sur trois axes d’analyse : la répartition des contenus géométriques dans le manuel des mathématiques, la manière de présenter les concepts et les niveaux de raisonnement exigés par les problèmes du test et par les activités du manuel. L’analyse des résultats obtenus nous a permis de constater plusieurs divergences. Au niveau de la présence des connaissances géométriques, 9 % des connaissances nécessaires à la résolution des questions de TIMSS 2011 sont absentes du manuel. Quant à la présentation des connaissances, 27 % des connaissances sont présentées implicitement dans les manuels. L’utilisation de la grille d’analyse du niveau de raisonnement exigé par les tâches géométriques (Tanguay, 2000), montre que le manuel manque d’exercices mettant en jeu le développement des expériences mentales (35 %). Selon la théorie de Van Hiele (1959), l’insuffisance d’expériences nécessaires pour le développement de la pensée géométrique aux niveaux visuel, descriptif et analytique influencera la construction des concepts et la réussite dans la résolution des problèmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’arrivée du spectromètre imageur à transformée de Fourier SITELLE au télescope Canada-France-Hawaï souligne la nécessité d’un calculateur de temps d’exposition permettant aux utilisateurs de l’instrument de planifier leurs observations et leurs demandes de temps de télescope. Une grande partie de mon projet est ainsi le développement d’un code de simulation capable de reproduire les résultats de SITELLE et de son prédecesseur SpIOMM, installé à l’Observatoire du Mont-Mégantic. La précision des simulations est confirmée par une comparaison avec des données SpIOMM et les premières observations de SITELLE. La seconde partie de mon projet consiste en une analyse spectrale de données observationelles. Prenant avantage du grand champ de vue de SpIOMM, les caractéristiques du gaz ionisé (vitesse radiale et intensité) sont étudiées pour l’ensemble de la paire de galaxies en interaction Arp 72. La courbe de rotation dans le visible ainsi que le gradient de métallicité de NGC 5996, la galaxie principale d’Arp 72, sont obtenues ici pour la première fois. La galaxie spirale NGC 7320 est également étudiée à partir d’observations faites à la fois avec SpIOMM et SITELLE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente les étapes de fabrication et les résultats de la caractérisation des modèles de tissu biologique fabriqués en utilisant des cristaux liquides et des polymères qui permettent de contrôler la diffusion et la transmission de la lumière par un champ électrique. Ce champ électrique entraîne un changement d’orientation des molécules de cristaux liquides, ce qui induit des variations locales de l’indice de réfraction dans ces matériaux. Nous avons utilisé ce contrôle de l’indice de réfraction pour contrôler le niveau de diffusion et de transmission dans différents types d’échantillons. Les échantillons utilisés sont faits a) de cristaux liquides purs, b) de sphères de polymère dans un environnement de cristaux liquides, c) de cristaux liquides ou de gouttelettes de cristaux liquides dans un environnement de polymère. Les travaux réalisés nous ont permis de proposer une méthode électro-optique pour simuler, à l’aide de cristaux liquides, des milieux diffusants tels que les tissus biologiques. Dans la recherche de modèles, nous avons montré qu’il est possible de contrôler, par la fréquence du champ électrique, des gouttelettes de cristaux liquides dispersées dans une matrice de polymère contenant des ions lithium. Une sensibilité sélective à la fréquence de la tension électrique appliquée en fonction de la taille des gouttelettes est observée. Par la suite, nous avons démontré l’effet de « quenching » interférentiel de la diffusion pour une sonde optique cohérente en étudiant des modèles non alignés (clustérisés) de cristaux liquides. Nous avons aussi démontré des applications potentielles de ce phénomène tel le filtrage en longueur d’onde par l’ajustement d’un champ électrique. Nous avons ensuite démontré que l’utilisation des cristaux liquides - dits « dual-frequency » - permet une modulation rapide des états ou des structures du matériau ainsi que de la transmission et de la diffusion de lumière de ce dernier. Enfin, nous avons aussi découvert que ces modèles peuvent être contrôlés pour retrouver le degré de polarisation de la lumière diffusée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux sur la nutrition en vitamines B des ruminants montrent des résultats très variés sur les quantités de ces nutriments disponibles pour l’animal selon la nature de la ration. Ces divergences sont dues à des changements des populations microbiennes dans le rumen, causées par les facteurs physico-chimiques de la ration. Une amélioration de la compréhension des effets de la nature de la diète sur la synthèse et l’utilisation des vitamines B dans le rumen pourrait aider à identifier les conditions sous lesquelles une supplémentation en ces vitamines serait bénéfique pour la vache. Le but de ce travail de thèse est donc d’améliorer la compréhension des effets de l’espèce fourragère, de la maturité et de la longueur des particules de fourrage sur les apports en vitamines B chez la vache laitière. Pour évaluer chacune de ces variables, les concentrations de thiamine, riboflavine, niacine, vitamine B6, folates et vitamine B12 ont été mesurées dans les échantillons d’aliments et de digesta duodénal recueillis lors de trois projets réalisés à l’Université du Michigan par l’équipe du Dr. M. Allen. Dans la première étude, l’effet de l’espèce fourragère des ensilages a été évalué au cours de deux expériences similaires durant lesquelles les vaches recevaient une diète à base d’ensilage de luzerne ou de dactyle. Les diètes à base de luzerne ont été associées à une augmentation de la dégradation de la thiamine et de la vitamine B6 dans le rumen par rapport aux diètes à base d’ensilage de dactyle. La deuxième étude visait à évaluer les effets de la maturité des plantes lors de la mise en silo sur les quantités de vitamines B disponibles pour la vache; les deux expériences se différenciaient par l’espèce fourragère étudiée, soit la luzerne ou le dactyle. Une récolte à un stade de maturité plus élevé a augmenté les flux duodénaux de thiamine, de niacine et de folates lorsque les vaches recevaient des diètes à base d’ensilage de luzerne mais n’a diminué que le flux duodénal de riboflavine chez les animaux recevant des diètes à base d’ensilage de dactyle. La troisième étude a comparé les effets de la longueur de coupe (10 vs. 19 mm) d’ensilages de luzerne et de dactyle sur le devenir des vitamines B dans le système digestif de la vache laitière. Cette étude a permis de constater qu’une augmentation du temps de séchage au champ diminuait les concentrations de vitamines B dans les ensilages. Cependant, la taille des particules des ensilages de luzerne et de dactyle n’a pas affecté les quantités des vitamines B arrivant au duodénum des vaches. En général, les résultats de ces études montrent qu’il existe une corrélation négative entre la synthèse de riboflavine, de niacine et de vitamine B6 et leur ingestion, suggérant une possible régulation de la quantité de ces vitamines B par les microorganismes du rumen. De plus, l’ingestion d’amidon et d’azote a été corrélée positivement avec la synthèse de thiamine, de folates et de vitamine B12, et négativement avec la synthèse de niacine. Ces corrélations suggèrent que les microorganismes qui utilisent préférentiellement l’amidon jouent un rôle majeur pour la synthèse ou la dégradation de ces vitamines. De plus, la présence d’une quantité suffisante d’azote semble avoir un impact majeur sur ces processus. La suite de ces travaux devrait viser la modélisation de ces données afin de mieux appréhender la physiologie de la digestion de ces vitamines et permettre la création de modèles mathématiques capables de prédire les quantités de vitamines disponibles pour les vaches. Ces modèles permettront, lorsqu’intégrés aux logiciels de formulation de ration, d’élaborer une diète plus précise, ce qui améliorera la santé du troupeau et la performance laitière et augmentera les profits du producteur.