1000 resultados para Napoléon Aubin
Resumo:
Le 18 juin 1815, Napoléon fut renversé à Waterloo, mais son art de la guerre survécut. Il s'agit de cet art militaire qu'il avait révolutionné et dont d'autres firent de nombreuses applications longtemps après sa disparition. S'inspirant des méthodes des théoriciens du XVIIIe siècle, il avait privilégié la stratégie d'anéantissement dans la conduite d'opérations militaires et se classait ainsi dans la catégorie des stratèges recherchant avant tout la bataille décisive en vue de détruire les forces ennemies. À la lumière des tactiques et stratégies que Bonaparte utilisa dans ses plus célèbres campagnes, cette thèse tentera de dégager les méthodes napoléoniennes qui furent le plus souvent utilisées au cours de la seconde moitié du XIXe siècle. Les conflits étudiés durant cette période seront la guerre de Crimée (1853-1856), la campagne d'Italie (1859), la guerre de Sécession américaine (1861-1865), la guerre austro-prussienne (1866) et la guerre franco-prussienne (1870-1871). Cette recherche tiendra compte non seulement de l'influence des progrès de l'armement et des moyens de transport et de communication sur l'art de la guerre en général, mais aussi du contexte économique, financier, politique et militaire des États bélligérants de cette époque. Parmi les nombreux exégètes de Bonaparte du XIXe siècle, deux théoriciens militaires en particulier, Clausewitz et Jomini, se distinguèrent dans l'interprétation savante de la guerre napoléonienne. Tout en analysant l'impact des méthodes de l'Empereur dans les guerres selectionnées, nous allons déterminer dans quelle mesure la vision jominienne des campagnes de Bonaparte divergeait de celle de Clausewitz en ce qui concerne les conflits traités. Nous aborderons ensuite l'influence napoléonienne sur l'administration, l'organisation et les marches des armées impliquées dans les guerres en question et nous porterons une attention particulière à l'impact du système militaire de Bonaparte sur certains aspects du déroulement même des combats. Nous terminerons cette étude par un bref aperçu sur les enseignements que les militaires au XIXe siècle purent dégager des campagnes napoléoniennes pour la conduite des guerres de l'avenir.
Resumo:
L’esthétique de Madame de Staël and Mary Shelley discute l’art de l’improvisation et le concept de l’enthousiasme dans les écrits de ces deux auteurs. Dans ce projet, j’explore l’esthétique d’improvisation et d’enthousiasme de Madame de Staël dans Corinne, en me référant à son autre roman Delphine, à sa pièce de théâtre Sapho, et à ses nouvelles ainsi qu’à ses textes philosophiques comme De l’Allemagne, De l’influence des passions, et De la littérature. J’argumente que Madame de Staël représente à travers le caractère de Corinne une esthétique anti-utilitaire. J’explique qu’elle évoque des valeurs cosmopolites qui valorisent une culture indigène qui est en opposition avec l’impérialisme de Napoléon. De plus, j’examine comment les improvisations de Corinne dérivent d’un enthousiasme qui est associé à la définition que Platon offre du terme. Ceci est évident par la signification que Madame de Staël présente du terme dans De L’Allemagne. J’interprète la maladie de Corinne comme étant d’origine psychosomatique qui est manifesté par la perte de son génie et par un suicide lent qui est une expression de colère contre la patriarchie. Le caractère de Corinne permet à Madame de Staël d’explorer le conflit que les femmes artistes éprouvaient entre ayant une carrière artistique et adhérant à l’idéologie domestique. Chapitre deux se concentre sur l’intérêt que Shelley démontre sur l’art de l’improvisation comme elle l’exprime dans ses lettres à propos de l’improvisateur Tommaso Sgricci. Malgré sa fascination avec la poésie extemporanée, Shelley regrette que cette forme d’art soit évanescente. Aussi, j’examine son enthousiasme pour un autre artiste, Nicolò Paganini. Son enchantement avec se violoniste virtuose est lié à des discours concernant le talent surnaturel des improvisateurs. J’argumente qu’il y a un continuum d’improvisation entre les balades orales du peuple et les improvisations de culture sophistiqué des improvisateurs de haute société. J’estime que les Shelleys collaboraient à définir une théorie d’inspiration à travers leurs intérêts pour l’art de l’improvisation. Chapitre trois considère le lien entre cosmologie et esthétique d’inspiration à travers la fonction de la musique, spécialement La Création de Joseph Haydn, dans The Last Man de Shelley. J’examine la représentation du sublime des Alpes dans le roman à travers de discours qui associent les Alpes avec les forces primordiales de la création. Les rôles de la Nécessité, Prophétie, et du Temps peuvent être compris en considérant la musique des sphères. Chapitre quatre explore les différentes définitions de terme enthousiasme dans les écrits de Shelley, particulièrement Valperga et The Last Man. Je discute l’opinion de Shelley sur Madame de Staël comme suggéré dans Lives. J’analyse les caractères qui ressemblent à Corinne dans les écrits de Shelley. De plus, je considère les sens multiples du mot enthousiasme en relation avec la Guerre civil d’Angleterre et la Révolution française. Je présente comment le terme enthousiasme était lié au cours du dix-septième siècle avec des discours médicales concernant la mélancolie et comment ceci est reflété dans les caractères de Shelley.
Resumo:
À ce jour, la scoliose idiopathique de l’adolescent (SIA) est la déformation rachidienne la plus commune parmi les enfants. Il est bien connu dans le domaine de recherche sur la SIA que les forces mécaniques, en particulier les forces biomécaniques internes dans le système musculosquelettique, pourraient jouer un rôle majeur dans l’initiation et le développement de la maladie. Cependant, les connaissances sur la transformation des forces et des stimulations mécaniques en activité biochimique sont peu abondantes. Cet axe de recherche est très prometteur et peut nous fournir de nouvelles idées dans le dépistage et le traitement de la SIA. Dans le cadre de cette étude, nous visons à caractériser la mécanotransduction chez les patients atteints de la SIA en employant des techniques novatrices aux niveaux in vivo et in vitro. Antérieurement dans notre laboratoire, nous avons démontré que les niveaux d’Ostéopontine (OPN) plasmatique chez l’humain corrèlent avec la progression et la sévérité de la maladie, et que ces changements sont observables avant le début de la scoliose. En plus, selon la littérature, l’OPN est une molécule sensible à la force mécanique, dont l’expression augmente en réponse dans de nombreux types de cellules chez plusieurs espèces. Toutefois, il n’existe aucune preuve que ce résultat soit valide in vivo chez l’humain. L’hétérogénéité physique et biochimique de la SIA pose un gros défi aux chercheurs. Souvent, il est très difficile de trouver des résultats ayant une grande applicabilité. Les études portant sur les facteurs biomécaniques ne font pas exception à cette tendance. En dépit de tout cela, nous croyons qu’une approche basée sur l’observation des contraintes de cisaillement présentes dans le système musculosquelettique pourrait aider à surmonter ces difficultés. Les contraintes de cisaillement physiologique sont générées par des courants de fluide en mouvement à l’intérieur des os. Aussi, elles sont omniprésentes et universelles chez l’humain, peu importe l’âge, le sexe, la condition physique, etc., ce qui veut dire que l’étudier pourrait fort bien avancer nos connaissances en formant une base fondamentale avec laquelle on pourra mieux comprendre les différences quant à la mécanotransduction chez les patients atteints de la SIA par rapport aux sujets sains. Pour ce projet, donc, nous proposons l’hypothèse que les sujets atteints de la SIA se différencient par leurs réponses respectives à la force mécanique au niveau cellulaire (en termes de l’expression génique) ainsi qu’au niveau in vivo (en termes du marqueur OPN et son récepteur, sCD44). Afin de vérifier la partie de notre hypothèse de recherche concernant l’aspect in vivo, nous avons recruté une cohorte de patients âgés de 9-17 ans, y compris i) des cas pré-chirurgicaux (angle de Cobb > 45°), ii) des cas modérément atteints (angle de Cobb 10-44°), iii) des témoins, et iv) des enfants asymptomatiques à risque de développer la scoliose (selon nos dépistages biochimiques et fonctionnels) d’âge et sexe appariés. Une pression pulsatile et dynamique avec une amplitude variant de 0-4 psi à 0.006 Hz a été appliquée à un des bras de chacun de nos sujets pour une durée de 90 minutes. Au tout début et à chaque intervalle de 30 minutes après l’initiation de la pression, un échantillon de sang a été prélevé, pour pouvoir surveiller les niveaux d’OPN et de sCD44 circulants chez les sujets. Nous avons découvert que le changement des niveaux d’OPN plasmatique, mais pas des niveaux de sCD44, corrélaient avec la sévérité de la difformité rachidienne chez les sujets, ceux ayant une courbe plus prononcée démontrant une ampleur de réponse moins élevée. Pour vérifier la partie de notre hypothèse de recherche concernant la réponse mécanotransductive cellulaire, des ostéoblastes prélevées à 12 sujets ont été mis en culture pour utilisation avec notre appareil (le soi-disant « parallel plate flow chamber »), qui sert à fournir aux ostéoblastes le niveau de contraintes de cisaillement désiré, de manière contrôlée et prévisible. Les sujets étaient tous femelles, âgées de 11-17 ans ; les patients ayant déjà une scoliose possédaient une courbe diagnostiquée comme « double courbe majeure ». Une contrainte fluidique de cisaillement à 2 Pa, 0.5 Hz a été appliquée à chaque échantillon ostéoblastique pour une durée de 90 minutes. Les changements apportés à l’expression génique ont été mesurés et quantifiés par micropuce et qRT-PCR. En réponse à notre stimulation, nous avons trouvé qu’il n’y avait que quelques gènes étant soit différentiellement exprimés, soit inchangés statistiquement dans tous les groupes expérimentaux atteints, en exhibant simultanément la condition contraire chez les témoins. Ces résultats mettent en évidence la grande diversité de la réponse mécanotransductive chez les patients comparés aux contrôles, ainsi qu’entre les sous-groupes fonctionnels de la SIA. Globalement, cette œuvre pourrait contribuer au développement d’outils diagnostiques innovateurs pour identifier les enfants asymptomatiques à risque de développer une scoliose, et évaluer le risque de progression des patients en ayant une déjà. Aussi, dans les années à venir, les profils mécanotransductifs des patients pourraient s’avérer un facteur crucial à considérer cliniquement, particulièrement en concevant ou personnalisant des plans de traitements pour des personnes atteintes.
Resumo:
Cette analyse porte sur le schématisme des concepts purs de l’entendement, tel que présenté par Emmanuel Kant dans la Critique de la raison pure et interprété par Martin Heidegger. La lecture proposée par Heidegger est critiquée par un bon nombre de commentateurs dans la mesure où ils considèrent que son interprétation ne lui sert qu’à faire valoir ses propres théories philosophiques au sujet du Dasein et de l’ontologie fondamentale. Notre approche se distingue de la leur dans la mesure où nous tentons de comprendre les raisons qui ont poussé Heidegger à défendre l’interprétation du schématisme qui est la sienne. Notre étude s’attarde au texte de Kant de manière à en souligner les éléments qui ont permis à Heidegger d’établir sa lecture, telle qu’il la présente dans son ouvrage de 1929, ayant pour titre Kant et le problème de la métaphysique. La méthode utilisée est comparative, car notre but est de démontrer la valeur de l’interprétation heideggérienne contre celle des commentateurs qui le critiquent pour des raisons insuffisantes. Bref, le thème du schématisme kantien est analysé de long en large et la conclusion à laquelle nous parvenons est que Heidegger a permis des avancées philosophiques considérables par son herméneutique de la Critique et qu’il est nécessaire de leur accorder l’attention qui leur est due.
Resumo:
L’attention visuelle est un processus cognitif qui priorise le traitement de l’information visuelle d’une région particulière du champ visuel. En électroencéphalographie, la méthode des potentiels reliés aux évènements permet l’extraction de composantes associées à divers processus cognitifs. La N2pc, une composante latéralisée caractérisée par une déflexion négative entre 180 et 300 ms post-stimulus du côté controlatéral à l’hémichamp dans lequel l’attention est déployée, reflète les processus impliqués dans le déploiement de l’attention visuo-spatiale. De nombreuses études antérieures ont soulevé plusieurs facteurs pouvant moduler cette composante, provenant d’autant de processus de bas niveau que de processus de haut niveau. Cette présente étude comporte une série d’expériences qui approfondit les connaissances sur le rôle de l’attention sur le traitement et la représentation des items dans les champs récepteurs des aires extrastriées du cortex visuel. Ces études démontrent ainsi que l’attention peut effectivement éliminer l’influence d’un distracteur dissimilaire à la cible lorsque celui-ci se retrouve dans le même champ visuel que l’item auquel l’attention est attribuée. Cependant, lorsque l’item est similaire à la cible, son influence ne peut être éliminée. De plus, cette présente étude identifie le rôle des filtres précoces et tardifs de haut niveau sur la sélection attentionnelle.
Resumo:
On révise les prérequis de géométrie différentielle nécessaires à une première approche de la théorie de la quantification géométrique, c'est-à-dire des notions de base en géométrie symplectique, des notions de groupes et d'algèbres de Lie, d'action d'un groupe de Lie, de G-fibré principal, de connexion, de fibré associé et de structure presque-complexe. Ceci mène à une étude plus approfondie des fibrés en droites hermitiens, dont une condition d'existence de fibré préquantique sur une variété symplectique. Avec ces outils en main, nous commençons ensuite l'étude de la quantification géométrique, étape par étape. Nous introduisons la théorie de la préquantification, i.e. la construction des opérateurs associés à des observables classiques et la construction d'un espace de Hilbert. Des problèmes majeurs font surface lors de l'application concrète de la préquantification : les opérateurs ne sont pas ceux attendus par la première quantification et l'espace de Hilbert formé est trop gros. Une première correction, la polarisation, élimine quelques problèmes, mais limite grandement l'ensemble des observables classiques que l'on peut quantifier. Ce mémoire n'est pas un survol complet de la quantification géométrique, et cela n'est pas son but. Il ne couvre ni la correction métaplectique, ni le noyau BKS. Il est un à-côté de lecture pour ceux qui s'introduisent à la quantification géométrique. D'une part, il introduit des concepts de géométrie différentielle pris pour acquis dans (Woodhouse [21]) et (Sniatycki [18]), i.e. G-fibrés principaux et fibrés associés. Enfin, il rajoute des détails à quelques preuves rapides données dans ces deux dernières références.
Resumo:
Les buts des recherches présentées dans cette thèse étaient d’évaluer le rôle de la stéréoscopie dans la reconnaissance de forme, dans la perception du relief et dans la constance de forme. La première étude a examiné le rôle de la stéréoscopie dans la perception des formes visuelles en utilisant une tâche de reconnaissance de formes. Les stimuli pouvaient être présentés en 2D, avec disparité normale (3D) ou avec disparité inversée. La performance de reconnaissance était meilleure avec les modes de présentation 2D et 3D qu’avec la 3D inversée. Cela indique que la stéréoscopie contribue à la reconnaissance de forme. La deuxième étude s’est intéressée à la contribution conjointe de l’ombrage et de la stéréoscopie dans la perception du relief des formes. Les stimuli étaient des images d’une forme 3D convexe synthétique présentée sous un point de vue menant à une ambigüité quant à sa convexité. L’illumination pouvait provenir du haut ou du bas et de la gauche ou de la droite, et les stimuli étaient présentés dichoptiquement avec soit de la disparité binoculaire normale, de la disparité inversée ou sans disparité entre les vues. Les participants ont répondu que les formes étaient convexes plus souvent lorsque la lumière provenait du haut que du bas, plus souvent avec la disparité normale qu’en 2D, et plus souvent avec absence de disparité qu’avec disparité inversée. Les effets de direction d’illumination et du mode de présentation étaient additifs, c’est-à-dire qu’ils n’interagissaient pas. Cela indique que l’ombrage et la stéréoscopie contribuent indépendamment à la perception du relief des formes. La troisième étude a évalué la contribution de la stéréoscopie à la constance de forme, et son interaction avec l’expertise perceptuelle. Elle a utilisé trois tâches de discrimination séquentielle de trombones tordus ayant subi des rotations en profondeur. Les stimuli pouvaient être présentés sans stéréoscopie, avec stéréoscopie normale ou avec stéréoscopie inversée. Dans la première moitié de l’Exp. 1, dans laquelle les variations du mode de présentation étaient intra-sujets, les performances étaient meilleures en 3D qu’en 2D et qu’en 3D inversée. Ces effets ont été renversés dans la seconde moitié de l’expérience, et les coûts de rotation sont devenus plus faibles pour la 2D et la 3D inversée que pour la 3D. Dans les Exps. 2 (variations intra-sujets du mode de présentation, avec un changement de stimuli au milieu de l’expérience) et 3 (variations inter-sujets du mode de présentation), les effets de rotation étaient en tout temps plus faibles avec stéréoscopie qu’avec stéréoscopie inversée et qu’en 2D, et plus faibles avec stéréoscopie inversée que sans stéréoscopie. Ces résultats indiquent que la stéréoscopie contribue à la constance de forme. Toutefois, cela demande qu’elle soit valide avec un niveau minimal de consistance, sinon elle devient stratégiquement ignorée. En bref, les trois études présentées dans cette thèse ont permis de montrer que la stéréoscopie contribue à la reconnaissance de forme, à la perception du relief et à la constance de forme. De plus, l’ombrage et la stéréoscopie sont intégrés linéairement.
Resumo:
Travail dirigé présenté à la Faculté des Sciences Infirmières en vue de l’obtention du grade de Maître ès Sciences (M. Sc.) en sciences infirmière option administration des sciences infirmières
Resumo:
Une étude récente auprès de 302 mathématiciens canadiens révèle un écart intriguant : tandis que 43% des sondés utilisent la programmation informatique dans leur recherche, seulement 18% indiquent qu'ils emploient cette technologie dans leur enseignement (Buteau et coll., 2014). La première donnée reflète le potentiel énorme qu'a la programmation pour faire et apprendre des mathématiques. La deuxième donnée a inspiré ce mémoire : pourquoi existe-t-il un tel écart ? Pour répondre à cette question, nous avons mené une étude exploratoire qui cherche à mieux comprendre la place de la programmation dans la recherche et la formation en mathématiques au niveau universitaire. Des entrevues semi-dirigées ont été conduites avec 14 mathématiciens travaillant dans des domaines variés et à différentes universités à travers le pays. Notre analyse qualitative nous permet de décrire les façons dont ces mathématiciens construisent des programmes informatiques afin d'accomplir plusieurs tâches (p.e., simuler des phénomènes réels, faire des mathématiques « expérimentales », développer de nouveaux outils puissants). Elle nous permet également d'identifier des moments où les mathématiciens exposent leurs étudiants à certains éléments de ces pratiques en recherche. Nous notons toutefois que les étudiants sont rarement invités à concevoir et à écrire leurs propres programmes. Enfin, nos participants évoquent plusieurs contraintes institutionnelles : le curriculum, la culture départementale, les ressources humaines, les traditions en mathématiques, etc. Quelques-unes de ces contraintes, qui semblent limiter l'expérience mathématique des étudiants de premier cycle, pourraient être revues.
Resumo:
INTRODUCCIÓN. El ultrasonido es fundamental en la medicina de emergencias, no se conoce cual debería ser la curva de aprendizaje para obtener las competencias técnicas y operativas; ACEP recomienda por cada ventana ecográfica realizar 25 repeticiones. No existe una curva de aprendizaje para ventana de VCI en la población de residentes colombianos. OBJETIVO: Determinar la curva de aprendizaje necesaria para obtener una proporción mayor al 80% de éxitos en la toma de la ventana ecográfica de la VCI, usando la escala de calificación para el aseguramiento de la calidad sugerida por ACEP, en residentes de I a III año de medicina de emergencias. METODOLOGÍA: Estudio experimental no comparativo, que evaluó la proporción de éxito en función del las tomas repetidas de la VCI por ultrasonido, mediciones que se tomaron luego de participar en una capacitación teórica y demostrativa de la técnica propuesta; se calificaron los videos según la escala publicada por ACEP. El análisis estadístico se realizó con un modelo logístico multinivel para la proporción del éxito, agrupado por repetición y agrupado por sujeto. RESULTADOS: Se obtuvo información de 8 residentes, cada uno realizo 25 repeticiones a 3 modelos sanos con asignación aleatoria. Se realizó la curva de aprendizaje obteniendo en 11 repeticiones una proporción de 0.80 (rango 0.54 a 0.92) y en 21 repeticiones una proporción de 0.9 (rango 0.75 a 0.96), datos ajustados por numero de repetición y residente. CONCLUSIÓN: La curva de aprendizaje para la ventana ecográfica de la VCI es de 11 y 21 repeticiones para obtener el 80% y 90% de éxito en residentes de medicina de emergencias de I a III año de la universidad del rosario.
Resumo:
¿Una cosa que no cumple o cumple imperfectamente con su función es la cosa prometida en el contrato o es una cosa distinta ¿La función que debe cumplir una cosa hace parte de su definición contractualDe estas preguntas que, a primera vista, pueden parecer eminentemente teóricas se desprenden consecuencias prácticas de gran importancia: ¿Puede el comprador servirse de la acción por incumplimiento de la obligación de entrega o, más bien, debe reclamar por vicios ocultos o, incluso, solicitar la nulidad por error en las calidades sustanciales de la cosa ¿Y qué decir de la posibilidad de recurrir a las garantías especiales (como la garantía por buen funcionamiento) ¿O a las acciones propias del derecho al consumoSi se tiene en cuenta que estas diferentes vías le ofrecen al demandante plazos de prescripción diversos que en Colombia van desde seis meses hasta diez años y dan lugar a pretensiones distintas, todo abogado litigante para no mencionar a los académicos- se verá en la inminente necesidad de preguntarse sobre las definiciones funcionales de las cosas contractuales y sobre la delimitación del campo de aplicación de las distintas acciones del comprador insatisfecho. Éste es precisamente el objetivo que persigue y, sin duda, alcanza el autor en su libro.
Resumo:
Abordar la psicomotricidad como terapia y como base de una educación global. Conseguir la autonomía de los niños deficientes como personas para su integración en la sociedad. Que cada niño desarrolle al máximo sus potencialidades, que rehabilite y/o asuma sus deficiencias. 10 niños entre 6 y 12 años del Centro de Educación Especial Assa de San Adrián del Besos durante el curso 1977-1978. Los niños son deficientes mentales medios y ligeros principalmente mongólicos, epileptoides y por causas connatales. Investigación de línea experimental que recoge la experiencia de un año de práctica y acción psicomotriz en un centro de Educacion Especial. La investigación parte de actividades y situaciones espontáneas propuestas en el aula mediante la presentación de objetos y material, organizando juegos libres alrededor de ellos. Se recogen los datos a través de varios medios. Se estudian ocho casos individuales y se elaboran las conclusiones. Observación directa de los juegos y actividades libres y espontáneas. Dibujo libre de los niños al final de cada sesión. Test de la figura humana aplicado a mediados del primer trimestre y al final del curso. Test de los garabatos aplicado en el segundo y tercer trimestre. Diapositivas de las sesiones de trabajo. Análisis y comentarios de las sesiones observadas mediante una tabla de estimación de los períodos más significativos a partir de 5 niveles: nulo, bajo, medio, alto, total. Las interpretaciones del dibujo libre se realizan a partir de las orientaciones de H. Aubin y de W. Wolff. El test de la figura humana se analiza segun las normas de E.M. Koppitz y el test de los garabatos según las orientaciones de L. Corman. La psicomotricidad cumple una función de terapia particularmente en los aspectos relacionales y sirve de base para una educación global. Esta experiencia continúa en su segundo año con el objetivo de abordar progresivamente la experiencia racional de elaboración de conceptos y nociones fundamentales.
Resumo:
Déjà utilisé dans un sens large à Byzance au VIe, le terme « stratégie » ne tut adopté en Europe occidentale qu’au XVIIIe siècle. Dans cet ouvrage, l’auteur définit la stratégie est une voie globale pour parvenir à des fins politiques, utilisant la menace ou l’usage effectif de la force et prenant en compte les moyens disponibles, mais aussi les valeurs et les objectifs des adversaires, dans une dialectique des volontés des adversaires. Ces variables sont au centre de cet ouvrage. Depuis Aristote et la notion de guerre juste développée par Augustin d’Hippone et Thomas d’Aquin, jusqu’au « paradigme napoléonien », qui a dominé la stratégie et la guerre à partir de la fin de l’époque moderne, et le concept de la guerre totale de Ludendorff, Béatrice Heuser expose l’évolution d’un discours sur la guerre et sa justification (ou non) comme recherche de la paix. Si, après Napoléon et Clausewitz, la victoire militaire apparaît comme le but ultime de tout conflit, à partir de la Première Guerre mondiale, et surtout de l’utilisation de la bombe atomique en 1945, les stratégistes redécouvrent l’importance de penser la paix après la guerre, le « paradigme de la paix ». Les développements de la stratégie navale, puis des stratégies aériennes et nucléaires, ainsi que les concepts de petite guerre ou de guérilla, qui dominent l’actualité, prennent leur place dans cette histoire de la stratégie, ou « comment les hommes ont pensé la guerre .
Resumo:
Background: Recently, there has been an increasing in the impact of oral health on atherosclerosis and subsequent cardiovascular disease. The aim of this study is to investigate the association between chronic periodontitis and cardiovascular risk markers. Methods: Forty patients with periodontitis and 40 healthy gender-, body mass index-, and age-matched individuals were compared by measuring total cholesterol, high-density lipoprotein, low-density lipoprotein, triglycerides, levels of cytokines, antibodies against oxidized low-density lipoprotein, thiobarbituric acid reactive substances, total and differential white blood cell counts, and the non-linear index of refraction. Results: The levels of triglycerides and high-density lipoprotein in periodontitis patients were significantly higher and lower, respectively (P=0.002 and P=0.0126), compared to controls. Total cholesterol, low-density lipoprotein, and lipid peroxide levels were the same in both groups (P = 0.2943, P = 0.1284, and P = 0.067, respectively). Interleukin (IL)-6 and -8, antibodies against oxidized low-density lipoprotein, and leukocyte and neutrophil counts were significantly higher in periodontitis patients (P<0.05). The value of the non-linear index of refraction of low-density lipoprotein solutions was higher in the controls (P = 0.015) compared to individuals with periodontitis. Conclusion: Our results confirmed and further strengthened the suggested association between coronary artery disease and periodontitis. J Periodontol 2009;80:378-388.
Resumo:
This paper generalizes the methodology of Cat and Brown [Cai, T., Brown, L.D., 1998. Wavelet shrinkage for nonequispaced samples. The Annals of Statistics 26, 1783-1799] for wavelet shrinkage for nonequispaced samples, but in the presence of correlated stationary Gaussian errors. If the true function is a member of a piecewise Holder class, it is shown that, even for long memory errors, the rate of convergence of the procedure is almost-minimax relative to the independent and identically distributed errors case. (c) 2008 Elsevier B.V. All rights reserved.