996 resultados para mécanique classique
Resumo:
Le domaine des systèmes de référence quantiques, dont les dernière avancées sont brièvement présentées au chapitre 1, est extrêmement pertinent à la compréhension de la dégradation des états quantiques et de l’évolution d’instruments de mesures quantiques. Toutefois, pour arriver à comprendre formellement ces avancées et à apporter une contribution originale au domaine, il faut s’approprier un certain nombre de concepts physiques et mathématiques, in- troduits au chapitre 2. La dégradation des états quantiques est très présente dans le contrôle d’états utiles à l’informatique quantique. Étant donné que ce dernier tente de contrôler des sys- tèmes à deux états, le plus souvent des moments cinétiques, l’analyse des systèmes de référence quantiques qui les mesurent s’avère opportune. Puisque, parmi les plus petits moments ciné- tiques, le plus connu est de s = 1 et que son état le plus simple est l’état non polarisé, l’étude 2 du comportement d’un système de référence mesurant successivement ce type de moments ci- nétiques constitue le premier pas à franchir. C’est dans le chapitre 3 qu’est fait ce premier pas et il aborde les questions les plus intéressantes, soit celles concernant l’efficacité du système de référence, sa longévité et leur maximum. La prochaine étape est de considérer des états de moments cinétiques polarisés et généraux, étape qui est abordée dans le chapitre 4. Cette fois, l’analyse de la dégradation du système de référence est un peu plus complexe et nous pouvons l’inspecter approximativement par l’évolution de certains paramètres pour une certaine classe d’états de système de référence. De plus, il existe une interaction entre le système de référence et le moment cinétique qui peut avoir un effet sur le système de référence tout à fait comparable à l’effet de la mesure. C’est cette même interaction qui est étudiée dans le chapitre 5, mais, cette fois, pour des moments cinétiques de s = 1. Après une comparaison avec la mesure, il devient manifeste que les ressemblances entre les deux processus sont beaucoup moins apparentes, voire inexistantes. Ainsi, cette ressemblance ne semble pas générale et semble accidentelle lorsqu’elle apparaît.
Resumo:
L’intérêt principal de cette recherche porte sur la validation d’une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement : – aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d’ajustement pour le temps passé depuis l’exposition ; – aux résultats obtenus en utilisant l’exposition cumulative pondérée par le passé récent ; – aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l’approche classique ainsi qu’en utilisant l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles. La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps, dans l’approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d’hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l’exposition
Resumo:
Ce travail porte sur la construction d’un corpus étalon pour l’évaluation automatisée des extracteurs de termes. Ces programmes informatiques, conçus pour extraire automatiquement les termes contenus dans un corpus, sont utilisés dans différentes applications, telles que la terminographie, la traduction, la recherche d’information, l’indexation, etc. Ainsi, leur évaluation doit être faite en fonction d’une application précise. Une façon d’évaluer les extracteurs consiste à annoter toutes les occurrences des termes dans un corpus, ce qui nécessite un protocole de repérage et de découpage des unités terminologiques. À notre connaissance, il n’existe pas de corpus annoté bien documenté pour l’évaluation des extracteurs. Ce travail vise à construire un tel corpus et à décrire les problèmes qui doivent être abordés pour y parvenir. Le corpus étalon que nous proposons est un corpus entièrement annoté, construit en fonction d’une application précise, à savoir la compilation d’un dictionnaire spécialisé de la mécanique automobile. Ce corpus rend compte de la variété des réalisations des termes en contexte. Les termes sont sélectionnés en fonction de critères précis liés à l’application, ainsi qu’à certaines propriétés formelles, linguistiques et conceptuelles des termes et des variantes terminologiques. Pour évaluer un extracteur au moyen de ce corpus, il suffit d’extraire toutes les unités terminologiques du corpus et de comparer, au moyen de métriques, cette liste à la sortie de l’extracteur. On peut aussi créer une liste de référence sur mesure en extrayant des sous-ensembles de termes en fonction de différents critères. Ce travail permet une évaluation automatique des extracteurs qui tient compte du rôle de l’application. Cette évaluation étant reproductible, elle peut servir non seulement à mesurer la qualité d’un extracteur, mais à comparer différents extracteurs et à améliorer les techniques d’extraction.
Resumo:
L’érosion des berges est un processus clé de la dynamique fluviale. Elle influence considérablement la charge sédimentaire des rivières et contrôle l’évolution latérale des chenaux. Les méthodes de caractérisation des mécanismes et des variables affectant l’érosion des berges sont toutefois imprécises et difficiles à appliquer. Ce projet a pour objectif de caractériser la dynamique actuelle des berges de deux tributaires contrastés du Saint-Laurent : les rivières Saint-François et Batiscan. Le premier objectif vise à quantifier les caractéristiques géotechniques de deux tronçons des rivières à l’étude près de l’embouchure avec le Saint-Laurent en décrivant la stratigraphie à différents sites typiques et en recueillant des échantillons de sédiments afin de mesurer différentes variables géotechniques (granulométrie, limites d’Atterberg, résistance à l’érosion mécanique, résistance à l’érosion fluviale). Le second objectif vise à quantifier les principales caractéristiques hydrodynamiques (précipitations, débits, cisaillements, vitesses) des deux sections de rivière. Le troisième et dernier objectif cherche à mesurer les taux d’érosion à l’échelle saisonnière en utilisant des relevés GPS et des chaînes d’érosion et à identifier les mécanismes d’érosion qui opèrent sur les rivières. Les résultats montrent une érosion importante des berges sur chacun des tributaires, mais les mécanismes qui la cause diffèrent. La Batiscan possède des berges dont le matériel est cohésif et ses berges sont principalement marquées par des ruptures de masse. La Saint-François présente des berges peu cohésives ce qui favorise l’érosion fluviale. Le taux de recul sur la rivière Saint-François est de l’ordre de 1 à 3 m/an dans certaines sections de la rivière. Une nouvelle méthode de mesure du cisaillement critique d’érosion fluviale à l’aide d’un chenal expérimental a été élaborée. Les cisaillements critiques obtenus se situent entre 1,19 et 13,41 Pa. Les résultats montrent que les facteurs jouant sur l’érosion des berges ont une variabilité intrinsèque et systémique difficile à mesurer. Le protocole expérimental développé dans ce projet s’est toutefois avéré utile pour étudier les principales variables qui influencent l’érosion des berges, tout en quantifiant les taux d’érosion et les mécanismes d’érosion de berge de deux tributaires importants du fleuve Saint-Laurent. Ce protocole pourrait être utile dans d’autres contextes.
Resumo:
Dans son ouvrage Shell Shock Cinema, publié en 2009, Anton Kaes se distancie fortement du travail fondateur et classique de Siegfried Kracauer, From Caligari to Hitler, publiée en 1947, et portant sur le cinéma pendant la période de Weimar. Réfutant la thèse de Kracauer selon laquelle un inconscient collectif allemand annonce la montée du nazisme dans le cinéma de l’entre-deux-guerres, Kaes affirme au contraire que le shell shock, héritage de la Première Guerre mondiale, est l’un des moteurs du cinéma weimarien. Les travaux de Kaes s’inscrivent dans une historiographie en renouvellement qui, confrontant également la thèse de Kracauer, met désormais l’accent sur la Première Guerre mondiale, et non sur la Seconde Guerre mondiale, pour mieux comprendre et analyser le cinéma weimarien. Ce mémoire, tout en étudiant de façon détaillée l’historiographie du sujet, tend à approfondir et à réévaluer la thèse d’Anton Kaes en l’exposant à davantage de films représentant des traumatismes personnels, des traumatismes sociaux et des chocs post-traumatiques (CPT). Ces maux sont exacerbés par des tensions sociopolitiques – insurrection de janvier 1919, Traité de Versailles, occupation de la Ruhr, l’inflation de 1923-24, etc. – alimentant à la fois des représentations symboliques et concrètes d’expériences traumatisantes qui caractérisent l’ensemble du cinéma weimarien.
Resumo:
Il a été démontré en laboratoire que l’équilibre de Nash n’était pas toujours un bon indicateur du comportement humain. Différentes théories alternatives (aversion à l’inégalité, réciprocité et norme sociale) ont vu le jour pour combler les lacunes de la théorie classique, mais aucune d’elles ne permet d’expliquer la totalité des phénomènes observés en laboratoire. Après avoir identifié les lacunes de ces modèles, ce mémoire développe un modèle qui synthétise dans un tout cohérent les avancées de ceux-ci à l’aide de préférences hétérogènes. Afin d’augmenter la portée du modèle, une nouvelle notion d’équilibre, dite comportementale, est ajoutée au modèle. En appliquant le nouveau modèle à des jeux simples, nous pouvons voir comment il élargit le nombre de comportements pouvant être modélisé par la théorie des jeux.
Resumo:
L’expression faciale de la douleur occupe un rôle central dans la communication de la douleur et dans l’estimation de l’intensité de la douleur vécue par autrui. Les propriétés du visage d’une personne en souffrance ont été investiguées principalement à l’aide de méthodes descriptives (e.g. FACS). L’introduction fait le point sur les connaissances de l’expression faciale de douleur et de la communication de cette expérience sur les plans comportemental et cérébral et souligne que les mécanismes et stratégies visuels utilisés par l’observateur pour parvenir à détecter la douleur dans le visage d’autrui demeurent très peu connus. L’étude des processus impliqués dans la reconnaissance de l’expression de la douleur est essentielle pour comprendre la communication de la douleur et éventuellement expliquer des phénomènes ayant des impacts cliniques considérables, tel que l’effet classique de sous-estimation de la douleur d’autrui. L’article 1 vise à établir à l’aide d’une méthode directe (Bubbles) les informations visuelles utilisées efficacement par l’observateur lorsqu’il doit catégoriser la douleur parmi les émotions de base. Les résultats montrent que parmi l’ensemble des caractéristiques du visage typique de la douleur, peu d’informations sont vraiment efficaces pour parvenir à cette discrimination et que celles qui le sont encodent la partie affective- motivationnelle de l’expérience d’autrui. L’article 2 investigue le pouvoir de ces régions privilégiées du visage de la douleur dans la modulation d’une expérience nociceptive chez l’observateur afin de mieux comprendre les mécanismes impliqués dans une telle modulation. En effet, s’il est connu que des stimuli ayant une valence émotionnelle négative, y compris des expressions faciales de douleur, peuvent augmenter les réponses spinales (réflexes) et supra-spinales (ex.: perceptives) de la douleur, l’information visuelle suffisante pour permettre l’activation des voies modulatrices demeure inconnue. Les résultats montrent qu’en voyant les régions diagnostiques pour la reconnaissance de l’expression faciale de douleur, la douleur perçue par l’observateur suite à une stimulation nociceptive est plus grande que lorsqu’il voit les régions les moins corrélées avec une bonne reconnaissance de la douleur. L’exploration post-expérimentale des caractéristiques de nos stimuli suggère que cette modulation n’est pas explicable par l’induction d’un état émotionnel négatif, appuyant ainsi un rôle prépondérant de la communication de la douleur dans la modulation vicariante de l’expérience douloureuse de l’observateur. Les mesures spinales ne sont toutefois pas modulées par ces manipulations et suggèrent ainsi que ce ne sont pas des voies cérébro-spinale qui sont impliquées dans ce phénomène.
Resumo:
Les dinoflagellés jouent un rôle très important dans l’écologie des océans en y réalisant une grande partie de la production primaire, en formant une association symbiotique avec les coraux et en ayant la capacité de produire des fleurs d’algues potentiellement toxiques pour les communautés côtières humaines et animales. Malgré tout, la biologie moléculaire des dinoflagellés n’a que très peu été étudiée dans les dernières années, les connaissances de processus de base comme la régulation de la transcription y étant fortement limitées. Une tentative pour élucider ce mécanisme a été réalisée chez les dinoflagellés photosynthétiques Lingulodinium polyedrum et Amphidinium carterae. Une expérience d’induction de la transcription du gène de la Peridinin chlorophyll-a binding protein, le complexe majeur de collecte de lumière, a été réalisée par une baisse de l’intensité lumineuse et a montré une faible augmentation (moins de 2 fois) du transcrit à court et long terme. Des expériences de simple-hybride et de retard sur gel (EMSA) ont été faits pour identifier de potentielles interactions protéine-ADN dans la région intergénique du gène PCP organisé en tandem. Ces essais ont été infructueux pour identifier de telles protéines. Une analyse du transcriptome de L. polyedrum a été effectuée, montrant une importante sous-représentation de domaines de liaison à l’ADN classique (comme Heat-shock factor, bZIP ou Myb) et une surreprésentation du domaine d’origine bactérienne Cold shock en comparaison avec d’autres eucaryotes unicellulaires. Ce travail suggère que les mécanismes de régulation transcriptionnelle des dinoflagellés pourraient différer substantiellement de ceux des autres eucaryotes.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
Nous exprimons la mesure de Mahler 2-supérieure et 3-supérieure de certaines fonctions rationnelles en terme de valeurs spéciales de la fonction zêta, de fonctions L et de polylogarithmes multiples. Les résultats obtenus sont une généralisation de ceux obtenus dans [10] pour la mesure de Mahler classique. On améliore un de ces résultats en réduisant une combinaison linéaire de polylogarithmes multiples en termes de valeurs spéciales de fonctions L. On termine avec la réduction complète d’un cas particuler.
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option expertise-conseil en soins infirmiers
Resumo:
Le problème d’oscillation de fluides dans un conteneur est un problème classique d’hydrodynamique qui est etudié par des mathématiciens et ingénieurs depuis plus de 150 ans. Le présent travail est lié à l’étude de l’alternance des fonctions propres paires et impaires du problème de Steklov-Neumann pour les domaines à deux dimensions ayant une forme symétrique. On obtient des résultats sur la parité de deuxième et troisième fonctions propres d’un tel problème pour les trois premiers modes, dans le cas de domaines symétriques arbitraires. On étudie aussi la simplicité de deux premières valeurs propres non nulles d’un tel problème. Il existe nombre d’hypothèses voulant que pour le cas des domaines symétriques, toutes les valeurs propres sont simples. Il y a des résultats de Kozlov, Kuznetsov et Motygin [1] sur la simplicité de la première valeur propre non nulle obtenue pour les domaines satisfaisants la condition de John. Dans ce travail, il est montré que pour les domaines symétriques, la deuxième valeur propre non-nulle du problème de Steklov-Neumann est aussi simple.
Resumo:
Les simulations ont été implémentées avec le programme Java.
Resumo:
Les dimères chromosomiques se produisant lors de la réparation de chromosomes circulaires peuvent être dommageables pour les bactéries en bloquant la ségrégation des chromosomes et le bon déroulement de la division cellulaire. Pour remédier à ce problème, les bactéries utilisent le système Xer de monomérisation des chromosomes. Celui-ci est composé de deux tyrosine recombinases, XerC et XerD, qui vont agir au niveau du site dif et procéder à une recombinaison qui aura pour effet de séparer les deux copies de l’ADN. Le site dif est une séquence d’ADN où deux répétitions inversées imparfaites séparées par six paires de bases permettent la liaison de chacune des recombinases. Cette recombinaison est régulée à l’aide de FtsK, une protéine essentielle de l’appareil de division. Ce système a été étudié en profondeur chez Escherichia coli et a aussi été caractérisée dans une multitude d’espèces variées, par exemple Bacillus subtilis. Mais dans certaines espèces du groupe des Streptococcus, des études ont été en mesure d’identifier une seule recombinase, XerS, agissant au niveau d’un site atypique nommée difSL. Peu de temps après, un second système utilisant une seule recombinase a été identifié chez un groupe des epsilon-protéobactéries. La recombinase fut nommée XerH et le site de recombinaison, plus similaire à difSL qu’au site dif classique, difH. Dans cette thèse, des résultats d’expériences in vitro sur les deux systèmes sont présentés, ainsi que certains résultats in vivo. Il est démontré que XerS est en mesure de se lier de façon coopérative à difSL et que cette liaison est asymétrique, puisque XerS est capable de se lier à la moitié gauche du site prise individuellement mais non à la moitié droite. Le clivage par XerS est aussi asymétrique, étant plus efficace au niveau du brin inférieur. Pour ce qui est de XerH, la liaison à difH est beaucoup moins coopérative et n’a pas la même asymétrie. Par contre, le clivage est asymétrique lui aussi. La comparaison de ces deux systèmes montrent qu’ils ne sont pas homologues et que les systèmes Xer à seule recombinase existent sous plusieurs versions. Ces résultats représentent la première découverte d’un espaceur de 11 paires de bases chez les tyrosine recombinases ainsi que la première étude in vitro sur XerH.
Resumo:
Malgré la politique d’ouverture à l’immigration, à la diversité et au multiculturalisme du Québec, les immigrants récents rencontrent de nombreuses barrières sur le marché du travail. Selon la vision néo-classique, le capital humain détermine l’intégration des immigrants et leur degré de déqualification. Bien que l’origine puisse influencer les caractéristiques professionnelles et personnelles des immigrants qualifiés, certains d’entre eux peuvent être de même origine mais avoir des caractéristiques différentes. L’expérience migratoire, définie comme le fait pour un individu d’avoir émigré une 1ère fois de son pays d’origine vers un pays étranger, avant d’émigrer de nouveau de ce pays vers un 3ème, pourrait modifier ces caractéristiques du capital humain et qui influence l’intégration des immigrants ainsi que leur degré de déqualification. Arrivés d’un pays très diversifié, étant instruits, et allophones, les immigrants d’ex-URSS se constituent un groupe représentatif pour cette étude. De surcroît, certains immigrants de ce groupe possèdent une expérience migratoire. Cette recherche a pour but d’examiner le rôle de l’expérience migratoire antérieure dans l’intégration des immigrants russophones sur le marché du travail québécois et de voir son impact sur la présence et le degré de déqualification. L’approche qualitative adoptée pour ce travail permet d’observer pleinement les opinions des immigrants quant à leur intégration professionnelle et d’examiner l’effet de l’expérience migratoire. Nous avons découvert que l’expérience migratoire peut modifier la situation des immigrants sur le marché du travail. D’une part, elle leur permet d’acquérir un diplôme et une expérience de pays économiquement développés, ce qui a plus de valeur au Québec que les diplômes et l’expérience de pays d’ex-URSS. En plus, cette expérience permet aux immigrants d’améliorer leurs compétences linguistiques. D’autre part, l’expérience migratoire peut modifier les caractéristiques comportementales, telles que les méthodes de recherche d’emploi ou l’adoption d’un comportement ouvert et flexible qui peut aider à l’intégration. De surcroît, l’amélioration des caractéristiques professionnelles et personnelles par une expérience migratoire peut avoir un effet de compensation qui diminue l’effet de la stratégie familiale sur la présence et le degré de déqualification. En somme, nous pouvons conclure que l’expérience migratoire antérieure a un effet sur l’intégration des immigrants russophones sur le marché du travail québécois, et particulièrement, sur la présence et le degré de déqualification.