976 resultados para Fermes générales. 1731, dossier Liancourt


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude a été réalisée dans le cadre d’une maîtrise en Aménagement. Elle s’efforce à démontrer que l’étape d’un projet que l’on appelle problématisation, c’est-à-dire l’étape de construction des problèmes à être résolus, permet de s’assurer que les actions entreprises soient en cohérence et en pertinence avec le contexte du projet. Nous constatons désormais que nous ne pouvons plus nous contenter d’évaluer les projets sur la seule base de son efficience, c’est-à-dire la concordance de ses résultats avec les objectifs prévus. Dans ces circonstances, nous émettons l’hypothèse que la problématisation fait appel à des compétences particulières et généralement peu utilisées par rapport à d’autres étapes de la réalisation d’un projet. À cet égard, nous avons réalisé un travail de recherche exploratoire sur ce thème en ayant comme objectif d’obtenir une compréhension des compétences mobilisées lors de la problématisation en situation de projet en général et d’identifier plus spécifiquement ces compétences dans une situation de projet en particulier, celle des projets de coopération internationale. Pour y arriver, nous avons procédé à la construction d’un référentiel d’emploi et d’activités pour en déduire un référentiel de compétences de la problématisation. Pour ce faire, nous avons réalisé une étude de cas sur les projets de stage de coopération internationale. L’utilisation de la technique de l’« instruction au sosie » et d’une rechercheintervention nous ont permis de dégager les principaux résultats suivant: la problématisation fait appel à des compétences particulières de gestion de l’information et de médiation. Les compétences générales de problématisation que les responsables des stages dans les organisations de coopération internationale v doivent maîtriser sont : être capable de générer les disponibilités de projets à partir de données primaires et secondaires; être capable de faire des choix et de justifier ces choix en fonction de l’analyse des données; être capable de présenter des informations écrites claires, respectueuses des idées des partenaires en fonction du langage de projet utilisé par le public auquel s’adresse la proposition; être capable d’utiliser les commentaires des évaluateurs pour améliorer un projet et être capable de mener à terme un projet. La contribution principale de ce travail de recherche réside dans la proposition d’un outil précieux pour le recrutement et la sélection, l’évaluation du rendement, la formation et le perfectionnement des acteurs de la problématisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation des méthodes formelles est de plus en plus courante dans le développement logiciel, et les systèmes de types sont la méthode formelle qui a le plus de succès. L'avancement des méthodes formelles présente de nouveaux défis, ainsi que de nouvelles opportunités. L'un des défis est d'assurer qu'un compilateur préserve la sémantique des programmes, de sorte que les propriétés que l'on garantit à propos de son code source s'appliquent également au code exécutable. Cette thèse présente un compilateur qui traduit un langage fonctionnel d'ordre supérieur avec polymorphisme vers un langage assembleur typé, dont la propriété principale est que la préservation des types est vérifiée de manière automatisée, à l'aide d'annotations de types sur le code du compilateur. Notre compilateur implante les transformations de code essentielles pour un langage fonctionnel d'ordre supérieur, nommément une conversion CPS, une conversion des fermetures et une génération de code. Nous présentons les détails des représentation fortement typées des langages intermédiaires, et les contraintes qu'elles imposent sur l'implantation des transformations de code. Notre objectif est de garantir la préservation des types avec un minimum d'annotations, et sans compromettre les qualités générales de modularité et de lisibilité du code du compilateur. Cet objectif est atteint en grande partie dans le traitement des fonctionnalités de base du langage (les «types simples»), contrairement au traitement du polymorphisme qui demande encore un travail substantiel pour satisfaire la vérification de type.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les équipes virtuelles font l’objet de beaucoup d’attention depuis près de deux décennies. Elles font désormais partie des organisations qui ont dû s’ajuster à l’internationalisation des marchés. Elles sont aussi de plus en plus présentes dans les universités qui mettent en place des cours en environnement virtuel pour préparer leurs étudiants aux nouvelles réalités du marché du travail. Elles sont aussi le fruit des modes nées sous l’impulsion de l’approche constructiviste de la pédagogie. Les recherches qui s’intéressent a elles ont des préoccupations principalement téléologiques et utilitaristes qui donnent le point de vue des gestionnaires et des enseignants sur le phénomène. Peu de recherches se sont penchées sur l’expérience vécue par les membres de ces équipes. Par ailleurs, la volonté de dégager les lois générales des équipes virtuelles amène les chercheurs à l’amputer d’une partie de sa complexité. Notre recherche propose d’observer la manière dont des étudiants ont vécu leur expérience de collaboration en équipe virtuelle. Nous adoptons une posture interprétative et une approche narrative pour observer leur «sensemaking». Cette perspective nous permet de tenir compte de la complexité du phénomène. Nos questions de recherche sont : comment les étudiants font-ils sens de leur collaboration? Comment le «sensemaking» individuel contribue-t-il à construire le «sensemaking» collectif? Nos résultats nous renseignent sur l’importance que revêt le «sensegiving», pour les équipes virtuelles, dans la création de «sensemaking» collectif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’agrégation érythrocytaire est le principal facteur responsable des propriétés non newtoniennes sanguines pour des conditions d’écoulement à faible cisaillement. Lorsque les globules rouges s’agrègent, ils forment des rouleaux et des structures tridimensionnelles enchevêtrées qui font passer la viscosité sanguine de quelques mPa.s à une centaine de mPa.s. Cette organisation microstructurale érythrocytaire est maintenue par des liens inter-globulaires de faible énergie, lesquels sont brisés par une augmentation du cisaillement. Ces propriétés macroscopiques sont bien connues. Toutefois, les liens étiologiques entre ces propriétés rhéologiques générales et leurs effets pathophysiologiques demeurent difficiles à évaluer in vivo puisque les propriétés sanguines sont dynamiques et fortement tributaires des conditions d’écoulement. Ainsi, à partir de propriétés rhéologiques mesurées in vitro dans des conditions contrôlées, il devient difficile d’extrapoler leurs valeurs dans un environnement physiologique. Or, les thrombophlébites se développent systématiquement en des loci particuliers du système cardiovasculaire. D’autre part, plusieurs études cliniques ont établi que des conditions hémorhéologiques perturbées constituent des facteurs de risque de thrombose veineuse mais leurs contributions étiologiques demeurent hypothétiques ou corrélatives. En conséquence, un outil de caractérisation hémorhéologique applicable in vivo et in situ devrait permettre de mieux cerner et comprendre ces implications. Les ultrasons, qui se propagent dans les tissus biologiques, sont sensibles à l’agrégation érythrocytaire. De nature non invasive, l’imagerie ultrasonore permet de caractériser in vivo et in situ la microstructure sanguine dans des conditions d’écoulements physiologiques. Les signaux ultrasonores rétrodiffusés portent une information sur la microstructure sanguine reflétant directement les perturbations hémorhéologiques locales. Une cartographie in vivo de l’agrégation érythrocytaire, unique aux ultrasons, devrait permettre d’investiguer les implications étiologiques de l’hémorhéologie dans la maladie thrombotique vasculaire. Cette thèse complète une série de travaux effectués au Laboratoire de Biorhéologie et d’Ultrasonographie Médicale (LBUM) du centre de recherche du Centre hospitalier de l’Université de Montréal portant sur la rétrodiffusion ultrasonore érythrocytaire et menant à une application in vivo de la méthode. Elle se situe à la suite de travaux de modélisation qui ont mis en évidence la pertinence d’un modèle particulaire tenant compte de la densité des globules rouges, de la section de rétrodiffusion unitaire d’un globule et du facteur de structure. Ce modèle permet d’établir le lien entre la microstructure sanguine et le spectre fréquentiel du coefficient de rétrodiffusion ultrasonore. Une approximation au second ordre en fréquence du facteur de structure est proposée dans ces travaux pour décrire la microstructure sanguine. Cette approche est tout d’abord présentée et validée dans un champ d’écoulement cisaillé homogène. Une extension de la méthode en 2D permet ensuite la cartographie des propriétés structurelles sanguines en écoulement tubulaire par des images paramétriques qui mettent en évidence le caractère temporel de l’agrégation et la sensibilité ultrasonore à ces phénomènes. Une extrapolation menant à une relation entre la taille des agrégats érythrocytaires et la viscosité sanguine permet l’établissement de cartes de viscosité locales. Enfin, il est démontré, à l’aide d’un modèle animal, qu’une augmentation subite de l’agrégation érythrocytaire provoque la formation d’un thrombus veineux. Le niveau d’agrégation, la présence du thrombus et les variations du débit ont été caractérisés, dans cette étude, par imagerie ultrasonore. Nos résultats suggèrent que des paramètres hémorhéologiques, préférablement mesurés in vivo et in situ, devraient faire partie du profil de risque thrombotique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durant le dernier demi-siècle, la religion, comme tous les autres domaines d’activité humaine, a connu plusieurs transformations importantes. La diminution considérable, durant cette période, de la pratique religieuse institutionnalisée est accompagnée de l’apparition d’une multitude de nouvelles formes de spiritualités qui tentent de répondre aux besoins religieux de l’homme occidental. Parmi les multiples manifestations de ce genre, on découvre une spiritualité distincte, appelée néo-chamanisme ou chamanisme urbain, réunissant de nombreuses pratiques contemporaines qui se définissent comme chamaniques. Dans le cadre de ce mémoire, nous nous sommes concentrés sur l’étude du phénomène néo-chamanique de Michael Harner, ex-professeur et directeur du département d’anthropologie au Graduate Faculty of the New School for Social Research à New York, et fondateur de la Foundation for Shamanic Studies (à l’avenir : FSS). La présente recherche a pour but d’analyser le néo-chamanisme de Harner et de définir sa place parmi les nouvelles formes de religiosités. La théorie de la recomposition du religieux de Danièle Hervieu-Léger sert de cadre d’analyse pour cette nouvelle forme de spiritualité. Dans la première partie, nous traitons le phénomène religieux contemporain sous l’angle socioreligieux. Nous présentons un aperçu global des transformations que celui-ci subit en modernité sous l’impact de la sécularisation. À l’aide de la théorie des nouvelles formes religieuses de Danièle Hervieu-Léger, nous mettons en lumière les principales règles selon lesquelles une nouvelle configuration du religieux se déploie dans le contexte occidental contemporain. Dans la seconde partie, nous examinons le chamanisme traditionnel sous l’angle anthropologique. Nous faisons la lecture d’études classiques sur le chamanisme. Il apparaît que le chamanisme classique est communautaire, réservé à quelques personnes choisies par les esprits et que le processus laborieux d’initiation permettant d’accéder à cette fonction implique certains éléments spécifiques parmi lesquels on compte la maladie initiatique, la mort rituelle et la résurrection de la personne. Dans la troisième partie, nous examinons le néo-chamanisme de Harner. Nous rendons compte de son ouvrage majeur La voie spirituelle du chamane : Le Secret d'un sorcier indien d’Amérique du Nord et nous examinons l’expérience chamanique de la Foundation for Shamanic Studies (FSS). Il se dégage de cette étude que l’approche de Harner se veut l’expression d’un chamanisme fondamental et universel adapté à la société contemporaine. La pratique néo-chamanique de Harner se focalise sur le voyage chamanique et sur le contact avec le monde des esprits comme des éléments qui sont au cœur du chamanisme traditionnel. C’est une pratique axée principalement sur l’individu à des fins d’accomplissement de soi et d’(auto)guérison. Elle attire généralement des personnes dont le niveau de scolarité est élevé, disposées à payer pour les services fournis par la fondation. À la fin de notre étude, nous dégageons les conclusions générales suivantes : le néo-chamanisme de Harner s’éloigne de la tradition chamanique et la transforme en une spiritualité nouvelle adaptée aux besoins des Occidentaux; il reflète les transformations subies par le fait religieux pendant la période moderne; il s’adresse principalement à un public en quête de services spirituels ciblés et ponctuels et il favorise une forme de communalisation temporaire et intense; cependant, l’individuation de la pratique chamanique est porteuse de ses effets politiques et néocoloniaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de ce mémoire est de décrire et expliquer le traitement des jeunes filles traduites devant la Cour des jeunes délinquants de Montréal durant toute la période de son existence, soit de 1912 à 1950. Une analyse statistique a tout d’abord été utilisée sur un échantillon de 1 465 jeunes filles pour lesquelles nous avions des données quantitatives provenant du plumitif de la cour. Une analyse documentaire a ensuite été utilisée sur un sous-échantillon de 126 mineures pour lesquelles nous avions accès aux divers documents contenus dans leur dossier judiciaire. L’analyse met particulièrement en évidence la différence d’application de la loi en fonction du sexe des mineurs traduits devant la cour. Les jeunes filles sont poursuivies pour des motifs différents de ceux pour lesquels on poursuit les garçons : elles sont particulièrement poursuivies pour des infractions spécifiques aux mineurs telles que l’incorrigibilité, les infractions à caractère sexuel, la désertion ou la protection. Les garçons, quant à eux, sont davantage poursuivis pour des infractions prévues au Code criminel (notamment le vol). Les mineures sont plus souvent amenées devant la cour par leurs parents plutôt que par les officiers de la cour et se voient imposer des mesures différentes de celles qu’on impose aux garçons pour une même infraction. Le placement est ainsi plus fréquemment utilisé chez les filles que chez les garçons et la probation plus fréquemment utilisée chez ces derniers. La définition de ce qui pose problème chez ces mineures et les solutions souhaitables pour y remédier varient en fonction des différents acteurs (les agents de probation, les officiers de la cour, les parents et les mineures elles-mêmes).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La théorie de l'information quantique étudie les limites fondamentales qu'imposent les lois de la physique sur les tâches de traitement de données comme la compression et la transmission de données sur un canal bruité. Cette thèse présente des techniques générales permettant de résoudre plusieurs problèmes fondamentaux de la théorie de l'information quantique dans un seul et même cadre. Le théorème central de cette thèse énonce l'existence d'un protocole permettant de transmettre des données quantiques que le receveur connaît déjà partiellement à l'aide d'une seule utilisation d'un canal quantique bruité. Ce théorème a de plus comme corollaires immédiats plusieurs théorèmes centraux de la théorie de l'information quantique. Les chapitres suivants utilisent ce théorème pour prouver l'existence de nouveaux protocoles pour deux autres types de canaux quantiques, soit les canaux de diffusion quantiques et les canaux quantiques avec information supplémentaire fournie au transmetteur. Ces protocoles traitent aussi de la transmission de données quantiques partiellement connues du receveur à l'aide d'une seule utilisation du canal, et ont comme corollaires des versions asymptotiques avec et sans intrication auxiliaire. Les versions asymptotiques avec intrication auxiliaire peuvent, dans les deux cas, être considérées comme des versions quantiques des meilleurs théorèmes de codage connus pour les versions classiques de ces problèmes. Le dernier chapitre traite d'un phénomène purement quantique appelé verrouillage: il est possible d'encoder un message classique dans un état quantique de sorte qu'en lui enlevant un sous-système de taille logarithmique par rapport à sa taille totale, on puisse s'assurer qu'aucune mesure ne puisse avoir de corrélation significative avec le message. Le message se trouve donc «verrouillé» par une clé de taille logarithmique. Cette thèse présente le premier protocole de verrouillage dont le critère de succès est que la distance trace entre la distribution jointe du message et du résultat de la mesure et le produit de leur marginales soit suffisamment petite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réadaptation pulmonaire est une intervention dont l’efficacité est largement reconnue. Cette efficacité a été établie grâce à l’utilisation d’instruments de mesure d’impact global. Les patients bénéficiant des programmes de réadaptation pulmonaire possèdent des caractéristiques variées et souffrent généralement de maladie pulmonaire obstructive chronique à différents degrés. En fonction de leurs différents besoins, les patients répondent de façon variable aux composantes d’un programme de réadaptation pulmonaire. Il est recommandé d’individualiser les programmes en fonction des besoins des patients afin d’en optimiser les effets. À cette fin, l’évaluation des besoins de réadaptation des patients est nécessaire. Comme il n’existe actuellement aucun instrument standardisé pour procéder à cette évaluation, nous avons entrepris d’en développer un à l’aide de méthodes qualitatives et quantitatives de recherche. Un modèle conceptuel d’évaluation des besoins de réadaptation des patients a été élaboré suite aux résultats tirés de groupes de discussion, de la consultation de dossiers médicaux et d’une recension des écrits. À partir de ce modèle, des items devant être sélectionnés de façon individualisée parmi cinq domaines (reconnaissance des besoins, connaissance, motivation, attentes et buts) ont été pré-testés. Les tendances générales concernant la validité des items contenus dans le prototype d’instrument ont été vérifiées lors d’une étude pilote auprès de 50 répondants en réadaptation. Les pistes d’investigation dégagées dans ce mémoire serviront aux études de validation plus approfondies dont devrait faire l’objet ce prototype d’instrument dans le futur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On présente une nouvelle approche de simulation pour la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine, pour des modèles de risque déterminés par des subordinateurs de Lévy. Cette approche s'inspire de la décomposition "Ladder height" pour la probabilité de ruine dans le Modèle Classique. Ce modèle, déterminé par un processus de Poisson composé, est un cas particulier du modèle plus général déterminé par un subordinateur, pour lequel la décomposition "Ladder height" de la probabilité de ruine s'applique aussi. La Fonction de Pénalité Escomptée, encore appelée Fonction Gerber-Shiu (Fonction GS), a apporté une approche unificatrice dans l'étude des quantités liées à l'événement de la ruine été introduite. La probabilité de ruine et la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine sont des cas particuliers de la Fonction GS. On retrouve, dans la littérature, des expressions pour exprimer ces deux quantités, mais elles sont difficilement exploitables de par leurs formes de séries infinies de convolutions sans formes analytiques fermées. Cependant, puisqu'elles sont dérivées de la Fonction GS, les expressions pour les deux quantités partagent une certaine ressemblance qui nous permet de nous inspirer de la décomposition "Ladder height" de la probabilité de ruine pour dériver une approche de simulation pour cette fonction de densité conjointe. On présente une introduction détaillée des modèles de risque que nous étudions dans ce mémoire et pour lesquels il est possible de réaliser la simulation. Afin de motiver ce travail, on introduit brièvement le vaste domaine des mesures de risque, afin d'en calculer quelques unes pour ces modèles de risque. Ce travail contribue à une meilleure compréhension du comportement des modèles de risques déterminés par des subordinateurs face à l'éventualité de la ruine, puisqu'il apporte un point de vue numérique absent de la littérature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mon sujet de recherche traite sur la prononciation de l'espagnol comme langue étrangère chez les élèves québécois, sur leurs difficultés concrètes et lignes de correction qui peuvent leur être attribuées. Dans une première partie plus générale, nous traiterons sur l'enseignement de la prononciation, de la place qu'elle occupe dans l'enseignement d'une langue étrangère. Nous croyons que la prononciation est un aspect de la langue qui a été mis de côté pour mettre en valeur la communication. Si une "mauvaise" prononciation n'entrave pas à la compréhension ou à la communication, elle n'est pas corrigée ni travaillée. Nous pouvons donc nous retrouver avec des étudiants ayant un haut niveau d'espagnol mais dont la prononciation connaît certaines lacunes. Nous déterminerons également ce que nous entendons par "meilleure" ou "mauvaise" prononciation, nous nous interrogerons également sur la pertinence de l'enseignement de la phonétique. Nous nous poserons aussi la question sur la place de la prononciation selon la méthodologie didactique utilisée, et analyserons la quantité et qualité des exercices de prononciation présents ou pas dans les manuels scolaires, et s'ils correspondent aux exigences des documents officiels tels le Cadre commun européenne de référence, ou le Plan curricular de l'institut Cervantès. Dans une deuxième partie nous nous questionnons sur les facteurs qui conditionnent l'apprentissage d'une langue et le perfectionnement de la prononciation dans une langue étrangère, car nous croyons que peut importe l'âge de l'étudiant, il y a toujours place à l'amélioration dans la prononciation. Nous nous interrogeons ensuite sur les tendances générales des francophones lors de leur prononciation de l'espagnol, nous ferons une étude contrastive des phonèmes espagnols et français, puis nous étudierons plus en détail les tendances des élèves québécois, car nous croyons que ces derniers sont dotés de certains atouts en comparaison à d'autres francophones. Dans une troisième partie, nous proposons des exercices visant à améliorer la prononciation chez nos élèves, et afin de vérifier l'efficacité de ces exercices, nous enregistrerons des étudiants ayant bénéficié de ces exercices, et d'autres qui n'y auront pas eu droit. Cette étude comparative cherche à prouver que ces exercices aident réellement et qu'ils, ou d'autres exercices de ce genre, devraient être inclus dans l'enseignement. Le questionnaire dont il s'agit s'attarde principalement au phénomène du [r], que nous croyons être un, ou le son le plus difficile à prononcer en espagnol (autant la vibrante simple comme multiple). Bien entendu, une partie de ce chapitre sera consacrée à l'analyse de résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat porte sur l’évolution de la qualité de l’emploi des travailleuses et des travailleurs québécois entre 1997 et 2007. À partir d’une nouvelle typologie, nous analysons les changements dans la qualité de l’emploi des femmes et des hommes et l’impact sur l’écart entre les genres. L’originalité de cette thèse est qu’elle permet de jeter un regard multidimensionnel sur la qualité de l’emploi en considérant quatre dimensions à la fois : la rémunération, la stabilité de l’emploi, la qualification et les heures de travail. Après avoir présenté notre problématique de recherche relative aux inégalités professionnelles entre les genres, l’étude fait une revue des écrits portant sur les principales théories en jeu et sur le concept de la qualité de l’emploi. Ensuite, le cadre conceptuel est présenté afin de situer notre contexte de recherche, les questions générales considérées, la pertinence d’une typologie et les principaux déterminants de la qualité de l’emploi. Le chapitre suivant est consacré à la démarche visant la création d’une nouvelle typologie de la qualité de l’emploi et celle relative au cadre d’analyse. Enfin, nous présentons une analyse des changements de la situation des hommes et des femmes dans les divers types d’emploi en tenant compte de la situation familiale, du niveau de scolarité des personnes et de certaines caractéristiques du marché du travail. Le constat global qui ressort de notre étude est qu’il y a eu une réduction appréciable de l’écart entre les genres au chapitre de la qualité de l’emploi (baisse générale de plus de 30 %). Notre recherche révèle que ce changement s’est surtout produit chez les personnes ayant une scolarité élevée, vivant en couple mais engagées dans des responsabilités familiales limitées. Une bonne partie des changements notés s’expliquent par l’amélioration notable de la qualité de l’emploi des femmes, plutôt que par une baisse de la qualité de l’emploi des hommes. Ces résultats montrent que la situation conjugale et la charge familiale de même que le niveau de scolarité sont des paramètres déterminants des changements observés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous avons investigué, via les simulations de Monte Carlo, les propriétés non-perturbatives du modèle de Higgs abélien en 2+1 dimensions sans et avec le terme de Chern-Simons dans la phase de symétrie brisée, en termes de ses excitations topologiques: vortex et anti-vortex. Le but du présent travail est de rechercher les phases possibles du système dans ce secteur et d'étudier l'effet du terme de Chern-Simons sur le potentiel de confinement induit par les charges externes trouvé par Samuel. Nous avons formulé une description sur réseau du modèle effectif en utilisant une tesselation tétraédrique de l'espace tridimensionnel Euclidien pour générer des boucles de vortex fermées. En présence du terme de Chern-Simons, dans une configuration donnée, nous avons formulé et calculé le nombre d'enlacement entre les différentes boucles de vortex fermées. Nous avons analysé les propriétés du vide et calculé les valeurs moyennes de la boucle de Wilson, de la boucle de Polyakov à différentes températures et de la boucle de 't Hooft en présence du terme de Chern-Simons. En absence du terme de Chern-Simons, en variant la masse des boucles de vortex, nous avons trouvé deux phases distinctes dans le secteur de la symétrie brisée, la phase de Higgs habituelle et une autre phase caractérisée par l'apparition de boucles infinies. D'autre part, nous avons trouvé que la force entre les charges externes est écrantée correpondant à la loi périmètre pour la boucle de Wilson impliquant qu'il n'y a pas de confinement. Cependant, après la transition, nous avons trouvé qu'il existe toujours une portion de charges externes écrantée, mais qu'après une charge critique, l'énergie libre diverge. En présence du terme de Chern-Simons, et dans la limite de constante de couplage faible de Chern-Simons nous avons trouvé que les comportements de la boucle de Wilson et de la boucle de 't Hooft ne changent pas correspondants à une loi périmètre, impliquant qu'il n'y a pas de confinement. De plus, le terme de Chern-Simons ne contribue pas à la boucle de Wilson.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Memoire creation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de la présente étude était d’évaluer un test d’estérase leucocytaire (LE) pour le diagnostic de l’endométrite subclinique chez les vaches Holstein en période postpartum. Les tests effectués à partir d’échantillons provenant soit de l’endomètre (UtLE) ou du col utérin (CxLE) ont été comparés à la cytologie endométriale (CE). Par ailleurs, deux méthodes d’évaluation des lames ont été comparées. Deux cent quatre vingt-cinq vaches Holstein de 5 troupeaux laitiers commerciaux ont été évaluées entre 21 et 47 jours en lait (JEL). Soixante sept vaches ont été diagnostiquées avec une endométrite clinique suite à un examen transrectal et vaginoscopique et ont été exclues de l’étude. Deux cent dix-huit vaches ont eu des prélèvements pour la CE et le test LE. La fonction ovarienne a été déterminée à la palpation transrectale. La banque de données utilisée pour chacune des vaches a été effectuée à partir du logiciel DSA (Dossier de Santé Animale) laitier. Le pourcentage de neutrophiles était significativement corrélé avec les scores de LE utérin et cervical. L’activité de CxLE et UtLE diminuait significativement avec les JEL, mais n’était pas associée au risque de gestation à 90 JEL (n= 186). Le pourcentage de neutrophiles mesuré à la CE entre 32 et 47 JEL était associé significativement au risque de gestation à 90 JEL (n=94, P=0.04). Pour la même période, selon une analyse de survie, les vaches avec >2,6% de neutrophiles à la CE étaient définies comme étant atteintes d’une endométrite subclinique avec une prévalence de 56%. Les résultats indiquent que le test d’estérase utérin ou cervical a une bonne concordance avec le pourcentage de neutrophiles à la CE. Une endométrite subclinique diagnostiquée par cytologie endometriale entre 32 et 47 JEL est associée à une réduction du risque de gestation au premier service.