983 resultados para catch shares


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée dans le cadre d'une cotutelle entre l'Université de Montréal et l'Université d'Auvergne en France

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, je démontre que la distribution de probabilités de l'état quantique Greenberger-Horne-Zeilinger (GHZ) sous l'action locale de mesures de von Neumann indépendantes sur chaque qubit suit une distribution qui est une combinaison convexe de deux distributions. Les coefficients de la combinaison sont reliés aux parties équatoriales des mesures et les distributions associées à ces coefficients sont reliées aux parties réelles des mesures. Une application possible du résultat est qu'il permet de scinder en deux la simulation de l'état GHZ. Simuler, en pire cas ou en moyenne, un état quantique comme GHZ avec des ressources aléatoires, partagées ou privées, et des ressources classiques de communication, ou même des ressources fantaisistes comme les boîtes non locales, est un problème important en complexité de la communication quantique. On peut penser à ce problème de simulation comme un problème où plusieurs personnes obtiennent chacune une mesure de von Neumann à appliquer sur le sous-système de l'état GHZ qu'il partage avec les autres personnes. Chaque personne ne connaît que les données décrivant sa mesure et d'aucune façon une personne ne connaît les données décrivant la mesure d'une autre personne. Chaque personne obtient un résultat aléatoire classique. La distribution conjointe de ces résultats aléatoires classiques suit la distribution de probabilités trouvée dans ce mémoire. Le but est de simuler classiquement la distribution de probabilités de l'état GHZ. Mon résultat indique une marche à suivre qui consiste d'abord à simuler les parties équatoriales des mesures pour pouvoir ensuite savoir laquelle des distributions associées aux parties réelles des mesures il faut simuler. D'autres chercheurs ont trouvé comment simuler les parties équatoriales des mesures de von Neumann avec de la communication classique dans le cas de 3 personnes, mais la simulation des parties réelles résiste encore et toujours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À partir de fragments décousus, de morceaux du passé, du présent et même de rêves d’avenir, la narratrice du récit Les rubans bleus réfléchit sur la signification de femmes qu’elle a côtoyées durant sa vie. Elle tente ainsi de recoudre la lignée dont elle est issue et de tisser une histoire qui restera effilochée. Les diverses femmes rencontrées structurent ce récit rapiécé qui, comme une courtepointe, va rassembler de façon hétéroclite les souvenirs d’un « je ». Dans le récit Ma mère et Gainsbourg de Diane-Monique Daviau, le motif omniprésent de la robe constitue une enveloppe psychique qui permet une continuité imaginaire entre la mère et la fille, la narratrice. Cette robe, nous dit cette dernière, est trouée, et la reprise tout au long du récit de ce motif préfigure l’absence ressentie par la fille devant le deuil à faire de sa mère. Les nombreux trous à la robe, que la narratrice met en évidence, se lisent comme des manques et des silences entre la mère et la fille. Ces accrocs à la robe marquent l’identité de cette dernière et fondent cet « héritage-fardeau » qu’elle porte et dont elle témoigne dans le livre. Par l’écriture, la narratrice nous convie à un patient travail de deuil (Anzieu, Delvaux, Green, Harel). Celui-ci s’offre comme un assemblage de fils servant à recoudre les diffé-rents morceaux de sa vie qui lui permettront de mieux reconstituer la figure de cette mère-absente, et, par là même, sa propre identité. C’est donc à la manière d’un patchwork qu’elle lie entre eux des souvenirs d’enfance, des rêves et des réflexions portant sur la perte et le manque. Ceux-ci donneront forme à son texte, cette robe d’endeuillée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La philosophie de Spinoza cherche à concilier et réunir trois horizons philosophiques fondamentaux : l’émanation néo-platonicienne (l’expression), le mécanisme cartésien (cause efficiente), et les catégories aristotéliciennes (Substance, attribut, mode). Ce premier point est pris pour acquis. Nous expliquerons que cette tentative sera rendue possible grâce à la conception nouvelle, au 17e siècle, de l’actualité de l’infini. Nous examinerons ensuite les conséquences de cette nouvelle interprétation, qui permet de rendre l’individu transparent à lui-même sur un plan d’immanence, expressif par rapport à une éminence qui le diffuse, mais déterminé dans une substantialité fictive entre objets finis. En proposant le pouvoir de l’imagination et des prophètes comme point de départ et principe actif du conatus, nous montrerons que la distinction, chez Spinoza, demeure toujours une fiction. Pour conclure, nous serons en mesure de signaler en quoi le Zarathoustra de Nietzsche relève d’une volonté de poursuivre le travail entrepris par Spinoza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s’articule autour de trois chapitres indépendants qui s’inscrivent dans les champs de la macroéconomie, de l’économie monétaire et de la finance internationale. Dans le premier chapitre, je construis un modèle néo-keynesien d’équilibre général sous incertitude pour examiner les implications de la production domestique des ménages pour la politique monétaire. Le modèle proposé permet de reconcilier deux faits empiriques majeurs: la forte sensibilité du produit intérieur brut aux chocs monétaires (obtenue à partir des modèles VAR), et le faible degré de rigidité nominale observé dans les micro-données. Le deuxième chapitre étudie le role de la transformation structurelle (réallocation de la main d’oeuvre entre secteurs) sur la volatilité de la production aggregée dans un panel de pays. Le troisième chapitre quant à lui met en exergue l’importance de la cartographie des échanges commerciaux pour le choix entre un régime de change fixe et l’arrimage à un panier de devises. "Household Production, Services and Monetary Policy" (Chapitre 1) part de l’observation selon laquelle les ménages peuvent produire à domicile des substituts aux services marchands, contrairement aux biens non durables qu’ils acquièrent presque exclusivement sur le marché. Dans ce contexte, ils procèdent à d’importants arbitrages entre produire les services à domicile ou les acquerir sur le marché, dépendamment des changements dans leur revenu. Pour examiner les implications de tels arbitrages (qui s’avèrent être importants dans les micro-données) le secteur domestique est introduit dans un modèle néo-keyenesien d’équilibre général sous incertitude à deux secteurs (le secteur des biens non durables et le secteur des services) autrement standard. Je montre que les firmes du secteur des services sont moins enclin à changer leurs prix du fait que les ménages ont l’option de produire soit même des services substituts. Ceci se traduit par la présence d’un terme endogène supplémentaire qui déplace la courbe de Phillips dans ce secteur. Ce terme croit avec le degré de substituabilité qui existe entre les services produits à domicile et ceux acquis sur le marché. Cet accroissement de la rigidité nominale amplifie la sensibilité de la production réelle aux chocs monétaires, notamment dans le secteur des services, ce qui est compatible avec l’évidence VAR selon laquelle les services de consommation sont plus sensibles aux variations de taux d’intérêt que les biens non durables. "Structural Transformation and the Volatility of Aggregate Output: A Cross-country Analysis" (Chapitre 2) est basée sur l’évidence empirique d’une relation négative entre la part de la main d’oeuvre allouée au secteur des services et la volatilité de la production aggrégée, même lorsque je contrôle pour les facteurs tels que le développement du secteur financier. Ce resultat aggregé est la conséquence des développements sectoriels: la productivité de la main d’oeuvre est beaucoup plus volatile dans l’agriculture et les industries manufacturières que dans les services. La production aggregée deviendrait donc mécaniquement moins volatile au fur et à mesure que la main d’oeuvre se déplace de l’agriculture et de la manufacture vers les services. Pour évaluer cette hypothèse, je calibre un modèle de transformation structurelle à l’économie américaine, que j’utilise ensuite pour générer l’allocation sectorielle de la main d’oeuvre dans l’agriculture, l’industrie et les services pour les autres pays de l’OCDE. Dans une analyse contre-factuelle, le modèle est utlisé pour restreindre la mobilité de la main d’oeuvre entre secteurs de façon endogène. Les calculs montrent alors que le déplacement de la main d’oeuvre vers le secteur des services réduit en effet la volatilité de la production aggregée. "Exchange Rate Volatility under Alternative Peg Regimes: Do Trade Patterns Matter?" (Chapitre 3) est une contribution à la litterature économique qui s’interesse au choix entre divers regimes de change. J’utilise les données mensuelles de taux de change bilatéraux et de commerce extérieur entre 1980 et 2010 pour les pays membre de l’Union Economique et Monétaire Ouest Africaine (UEMOA). La monnaie de ces pays (le franc CFA) est arrimée au franc Francais depuis le milieu des années 40 et à l’euro depuis son introduction en 1999. Au moment de l’arrimage initial, la France était le principal partenaire commercial des pays de l’UEMOA. Depuis lors, et plus encore au cours des dix dernières années, la cartographie des échanges de l’union a significativement changé en faveur des pays du groupe des BICs, notamment la Chine. Je montre dans ce chapitre que l’arrimage à un panier de devises aurait induit une volatilité moins pronnoncée du taux de change effectif nominal du franc CFA au cours de la décennie écoulée, comparé à la parité fixe actuelle. Ce chapitre, cependant, n’aborde pas la question de taux de change optimal pour les pays de l’UEMOA, un aspect qui serait intéressant pour une recherche future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre recherche vise à vérifier s'il existe un lien entre l'intérêt des Américains pour les investissements étrangers et le maintien des structures opaques de la finance internationale. Les pratiques d'opacité financière (utilisation abusive du secret bancaire, faibles mesures d'identification du client, faible règlementation bancaire, absence d’échange d’information fiscale, absence d’obligations d’enregistrements de compagnies et de fiducies, possibilité d’établir la propriété d’une société avec des prête-noms, utilisation de bons au porteur, manque d’encadrement des fiducies, etc.) semblent accommoder les États qui les dénoncent. Utilisant les théories des jeux à deux niveaux de Putnam, de la règlementation et de l’équilibre de Nash, nous faisons le lien entre le niveau national et international. Notre recherche consiste en deux études de cas. La première traite d’un projet de règlement de l’Internal Revenue Service visant à assurer la déclaration de revenus d’intérêt sur les dépôts bancaires des non-résidents. La seconde traite d’une série de projets de loi déposés au Sénat et à la Chambre des représentants des États-Unis. Ils cherchent à assurer la transparence du processus d’enregistrement de compagnies de manière à faciliter l’accès des agences d’application de la loi à l’information sur les bénéficiaires effectifs des compagnies formées en sol américain. Notre recherche ne permet pas de confirmer notre hypothèse avec certitude. Cependant, nos données tendent à indiquer que les groupes d’intellectuels et les groupes de pression financiers incitent le gouvernement des États-Unis à freiner la mise en application de certaines mesures prévues par le régime antiblanchiment (particulièrement l’identification du client et le partage d’information avec des pays tiers) pour attirer l’investissement étranger.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chez les patients asthmatiques, on retrouve un remodelage de la matrice extracellulaire des poumons, caractérisé par une augmentation du collagène ou fibrose de la couche sous-épithéliale des voies respiratoires. Le souffle, maladie inflammatoire chronique des voies respiratoires inférieures des chevaux matures, présente des similarités physiopathologiques avec l’asthme humain, incluant le remodelage. Ceci nous conduit à l’hypothèse que la fibrose de la couche sous-épithéliale pourrait être une composante des lésions pulmonaires chez les chevaux affectés, ce que notre étude avait pour objectif d’évaluer. Des biopsies pulmonaires périphériques réalisées par voie thoracoscopique ont été obtenues chez 5 chevaux témoins et 6 chevaux atteints du souffle, avant (T0) et après une stimulation antigénique de 30 jours avec du foin moisi et de la paille. Avant le début de l’étude, les sujets étaient en rémission clinique et ne démontraient aucun signe clinique de maladie. Un examen microscopique des échantillons prélevés a été réalisé après traitement au picrosirius-rouge, colorant spécifique des fibres de collagène. La surface du collagène de la couche sous-épithéliale a été mesurée et corrigée en fonction de la taille de la voie respiratoire en utilisant des techniques morphométriques standards. Les chevaux atteints de souffle ont une surface de collagène plus grande dans la couche sous-épithéliale (p<0.1) en comparaison avec les chevaux témoins. La fibrose de la couche sous-épithéliale demeure inchangée chez les chevaux malades après la stimulation antigénique de 30 jours. À T0, la fibrose de la couche sous-épithéliale est associée positivement aux variations maximales de pression pleurale et à la résistance pulmonaire chez les chevaux atteints de souffle. Les résultats de cette étude suggèrent qu’une fibrose de la couche sous-épithéliale est présente dans les voies respiratoires périphériques des chevaux atteints de souffle et contribue au déficit de fonction résiduel pulmonaire observé lors de rémission clinique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La stabilité génomique des organelles de plantes suscite un grand intérêt dans le domaine de la biologie végétale. En effet, plusieurs études récentes suggèrent que ce type d’instabilité génomique pourrait mener à l’isolation de traits intéressants en l’agronomie. Plusieurs protéines sont d’ailleurs déjà été identifiés comme étant impliqués dans le maintien de la stabilité de ces génomes, tels que MSH1, la famille des POLI, OSB1, les protéines Whirly et les Recombinases A (RECA). Le génome nucléaire d’Arabidopsis thaliana encode trois protéines s’apparentant à la Recombinase A bactérienne et qui sont ciblées à la mitochondrie et/ou au chloroplaste, soit RECA1, RECA2 et RECA3. Globalement, ces gènes partagent une similarité de séquence de 61% avec leur homologue bactérien chez Escherichia coli. Chez les bactéries ces protéines jouent un rôle essentiel dans la recombinaison homologue et sont impliquées dans la réparation de l’ADN. Chez Arabidopsis, il a été démontré que RECA2 et RECA3 sont nécessaires au maintien de l’intégrité du génome mitochondriale. Toutefois leur contribution à la stabilité du génome chloroplastique ainsi que le rôle de RECA1 restent obscures. Le but de ce projet est donc de déterminer la contribution éventuelle des protéines RECA d’Arabidopsis dans la réparation de l’ADN chloroplastique et plus précisément le rôle du gène RECA1. Nous énonçons l’hypothèse que les RECA de plantes se comportent effectivement comme leurs orthologues bactériens en étant impliqués dans la recombinaison homologue. Dans le cadre de ce projet, nous avons tenté d’isoler des lignées mutantes pour chacun des gènes RECA d’Arabidopsis. En somme, nous avons pu obtenir des lignées convenables pour notre étude que dans le cas du gène RECA1. Ces lignées ont été utilisées pour évaluer la contribution de ce gène à la stabilité du génome du chloroplaste. Ensuite, pour étudier la relation épistatique des gènes RECA1, WHY1 et WHY3, un croisement des différentes lignées mutantes pour ces gènes a été réalisé. Nous avons ensuite étudié la sensibilité de toutes ces lignées mutantes à la ciprofloxacine, un agent causant des bris double brin exclusivement dans les organelles de plantes. Finalement, iii nous avons testé la présence de réarrangements dans le génome du chloroplaste en condition normal ou en présence de stress génotoxique. Nos résultats démontrent que les protéines Whirly et RECA1 sont impliquées dans deux voies de réparation de l’ADN différentes et que les Whirly sont suffisantes pour s’occuper des bris d’ADN double brin en l’absence de RECA1. Nous démontrons également que l’absence de Whirly et RECA1 entraine une forte augmentation de la quantité de réarrangements dans le génome du chloroplaste. De plus nous proposons que la polymérase POLIB est impliquée dans la même voie de réparation que RECA1. Finalement nous proposons un modèle pour expliquer nos résultats et impliquons RECA1 dans un mécanisme de réparation d’ADN et aussi un rôle potentiel dans la réplication.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis la mise en place de la réforme, il y a plus de dix ans, les directions d’établissement sont tenues de trouver des solutions alternatives au redoublement, afin d’aider les élèves en difficulté à rattraper leur retard. C’est afin de répondre à cet impératif que la classe de prolongation de cycle a été mise en place dans les écoles secondaires. Des élèves en fin de 1er cycle, jugés incapables de poursuivre au cycle supérieur, y sont regroupés et pendant une année, ils bénéficient de mesures de soutien afin d’atteindre le niveau de compétence attendu (plus précisément en français en en mathématiques) pour pouvoir vivre un passage réussi au second cycle. Peu de résultats de recherches sont toutefois disponibles quant à l’efficacité de cette modalité. La présente étude vise donc à estimer l’incidence de deux modèles de prolongation de cycle (co-enseignement et avec enseignant unique), sur la motivation et l’adaptation psychosociale des élèves. Ainsi, les élèves qui expérimentent un modèle de co-enseignement demeurent en groupe fermé et sont accompagnés par trois enseignants titulaires qui se partagent la responsabilité de la quasi-totalité des composantes du programme de formation. Les élèves qui expérimentent un modèle avec enseignant unique demeurent eux aussi en groupe fermé, mais sont encadrés par une seule enseignante titulaire qui assume la responsabilité des enseignements en français et en mathématiques. Les autres matières sont enseignées par des spécialistes. Cent trente-quatre élèves au total, fréquentant trois écoles secondaires francophones montréalaises situées en milieu défavorisé, ont donc formé les groupes expérimentaux et témoins. En début et en fin d’année, les participants ont répondu à un questionnaire d’enquête mesurant l’évolution de leur motivation générale pour les apprentissages, de leur motivation spécifique aux disciplines, de leur adaptation psychosociale, de même que certaines facettes de leurs relations avec leurs pairs, leurs enseignants et leurs parents. Les résultats d’analyses de variance multivariées à mesures répétées (MANOVA) et des tests univariés subséquents permettent d’observer, chez les élèves qui ont expérimenté la prolongation de cycle en co-enseignement, une augmentation de leur sentiment de compétence général vis-à-vis l’école. De plus, leurs buts de performance-évitement et leur anxiété sociale ont diminué. Chez les élèves qui ont expérimenté la prolongation de cycle avec enseignant unique, ce même sentiment de compétence vis-à-vis l’école et celui spécifique au français ont augmenté. En revanche, ces derniers s’expriment plus négativement que leurs homologues en ce qui concerne leur intérêt général envers l’école, leur sentiment d’appartenance à leur école et leurs relations avec leurs pairs. Ces résultats indiquent donc que cette mesure a un effet mitigé sur la motivation et l’adaptation psychosociale des élèves. De plus, les quelques bénéfices perçus peuvent être la conséquence du fait de se retrouver dans un environnement scolaire moins compétitif. Cela dit, il apparaît important de préciser que les enseignants qui ont testé le modèle de co-enseignement en étaient à une première expérience. Leurs pratiques sont susceptibles de se bonifier, ce qui laisse croire que des résultats plus disparates pourraient éventuellement être observés entre ces deux modèles de prolongation. Par ailleurs, la pérennité des gains observés est inconnue. En conséquence, il conviendrait de poursuivre cette étude pour être en mesure de déterminer si ceux-ci sont durables dans le temps et afin de constater la pleine mesure de l’efficacité du modèle de prolongation de co-enseignement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cet article, l’auteur Ejan Mackaay présente les caractéristiques fondamentales du cyberespace et analyse les relations économiques et juridiques entre les acteurs du marché virtuel de l’Internet. Cette analyse s'inscrit en marge des travaux de Niva Elkin-Koren et Eli Salzberger, dont elle suit le plan. D'une part, il y est précisé que le marché virtuel de l’Internet remet en question l’analyse classique des interactions entre les acteurs économiques. La nouvelle analyse néo-institutionnel présente un cadre analytique qui relève plus adéquatement les relations complexes entre les acteurs économiques du marché virtuel que les théories économiques classiques. Cette nouvelle approche se fonde sur le concept que les acteurs économiques utilisent les ressources afin d’être intégrés au sein des institutions les plus actives et efficaces. D'autre part, il est fait mention que le cyberespace présente plusieurs caractéristiques d’un marché économique. Toutefois, étant virtuel, le cyberespace ne présente pas les mêmes limites qu’un marché physique. En effet, dans ce dernier, certaines limites physiques imposent diverses règles de comportement. Le législateur doit donc prendre conscience de l’absence de telles limites et des normes qu’elles imposaient afin de légiférer adéquatement sur les échanges dans le cyberespace. Ensuite, afin d’illustrer les divergences entre les marchés physiques et virtuels, une analyse est faite au regard des principaux échecs de marchés, soit l’établissement d’un monopole, l’accès aux biens publics, les informations imparfaites et les externalités négatives. Un monopole est un échec de marché qui restreint considérablement la compétition, peut être accrut par l’effet boule de neige et, s’il n’est pas contrôlé, peut mener à un effet de blocage ou d’exclusion de certains acteurs. Le second échec analysé est l’accès aux biens publics. Dans le cyberespace, le principal bien public est l’information qui peut être échangée entre les utilisateurs. Toutefois, certaines règles de droits d’auteur et de propriété intellectuelle peuvent considérablement limiter l’accès à ce bien. L’information incomplète des acteurs économiques constitue un autre échec de marché, mais le cyberespace offre plusieurs moyens d’accéder à l’information pertinente aux transactions éclairées. Enfin, les externalités négatives peuvent généralement être considérées comme des effets secondaires des échanges commerciaux. Toutefois il est souligné que ces dernières ont un effet très limité dans le cyberespace, étant donné le plus grand nombre d’options de retrait et la facilité accrue de l’exercer. Enfin, il est rappelé que le commerce électronique et le cyberespace remettent en questions toutes les théories économiques et politiques traditionnelles et offrent une perspective nouvelle sur le phénomène de la formation des normes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème de l’extrême pauvreté dans le Tiers-monde n’est pas d’abord une question économique. Il est avant tout politique parce qu’il est la conséquence directe des choix de société et de l’organisation du pouvoir au niveau des États et des diverses instances de la communauté internationale. Le politique a pour objet la conquête du pouvoir et la répartition des richesses à grande échelle. Il s’agit aussi d’un problème moral parce que les options prises collectivement par les peuples et le concert des nations ne s’orientent pas toujours vers la vertu de justice et l’égalité de chances pour tous. Extrême pauvreté et justice globale forment un binôme qui nous ramène donc au cœur de la philosophie politique et morale. Après la Seconde guerre mondiale, la philosophie politique a élargi ses horizons. Elle réfléchit davantage à l’exercice du pouvoir sur la scène internationale et la distribution des richesses au niveau mondial. Le phénomène de la mondialisation économique crée une dépendance mutuelle et d’importantes influences multilatérales entre les États. Plus que par le passé, l’autarcie n’est guère envisageable. Le dogme de la souveraineté intangible des États, issu du Traité de Westphalie au XVIIe siècle, s’avère de plus en plus caduque au regard des enjeux communs auxquels l’humanité fait actuellement face. D’où la nécessité d’une redéfinition du sens des souverainetés nationales et d’une fondation des droits cosmopolitiques pour chaque individu de la planète. Voilà pourquoi le binôme extrême pauvreté/justice globale nécessite une réflexion philosophique sur le concept de la responsabilité qui s’étend non seulement sur la sphère nationale, mais aussi sur une large amplitude cosmopolitique. L’expression « pays du Tiers-monde » peut sembler archaïque, péjorative et humiliante. Cependant, mieux que celles de « pays sous-développés » ou « pays en voie de développement », elle rend compte, sans euphémisme, de la réalité crue, brute et peu élégante de la misère politique et économique qui y sévit. Bien qu’elle semble désuète, elle délimite assez clairement le domaine de définition conceptuel et géographique de notre champ d’investigation philosophique. Elle désigne l’ensemble des pays qui sont exclus de la richesse économique répartie entre les nations. Étant donné que le pouvoir économique va généralement avec le pouvoir politique, cet ensemble est aussi écarté des centres décisionnels majeurs. Caractérisée par une pauvreté extrême, la réalité tiers-mondiste nécessité une analyse minutieuse des causes de cette marginalisation économique et politique à outrance. Une typologie de la notion de responsabilité en offre une figure conceptuelle avec une géométrie de six angles : la causalité, la moralité, la capacité, la communauté, le résultat et la solidarité, comme fondements de la réparation. Ces aspects sous lesquels la responsabilité est étudiée, sont chapeautés par des doctrines philosophiques de types conséquentialiste, utilitariste, déontologique et téléologique. La typologie de la responsabilité donne lieu à plusieurs solutions : aider par philanthropie à sauver des vies humaines ; établir et assigner des responsabilités afin que les torts passés et présents soient réparés aussi bien au niveau national qu’international ; promouvoir l’obligation de protéger dans un contexte international sain qui prenne en considération le devoir négatif de ne pas nuire aux plus défavorisés de la planète ; institutionnaliser des règles transfrontalières de justice ainsi que des droits cosmopolitiques. Enfin, nous entendrons par omniresponsabilité la responsabilité de tous vis-à-vis de ceux qui subissent les affres de l’extrême pauvreté dans le Tiers-monde. Loin d’être un concept-valise fourre-tout, c’est un ensemble de responsabilités partagées par des acteurs identifiables de la scène mondiale, en vue de la coréparation due aux victimes de l’injustice globale. Elle vise un telos : l’épanouissement du bien-être du citoyen du monde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'un des principaux défis de l'interprétation radiographique réside dans la compréhension de l’anatomie radiographique, laquelle est intrinsèquement liée à la disposition tridimensionnelle des structures anatomiques et à l’impact du positionnement du tube radiogène vis-à-vis de ces structures lors de l'acquisition de l'image. Traditionnellement, des radiographies obtenues selon des projections standard sont employées pour enseigner l'anatomie radiographique en médecine vétérinaire. La tomodensitométrie − ou communément appelée CT (Computed Tomography) − partage plusieurs des caractéristiques de la radiographie en ce qui a trait à la génération des images. À l’aide d'un plug-in spécialement développé (ORS Visual ©), la matrice contenant les images CT est déformée pour reproduire les effets géométriques propres au positionnement du tube et du détecteur vis-à-vis du patient radiographié, tout particulièrement les effets de magnification et de distorsion. Afin d'évaluer le rendu des images simulées, différentes régions corporelles ont été imagées au CT chez deux chiens, un chat et un cheval, avant d'être radiographiées suivant des protocoles d'examens standards. Pour valider le potentiel éducatif des simulations, dix radiologistes certifiés ont comparé à l'aveugle neuf séries d'images radiographiques simulées aux séries radiographiques standard. Plusieurs critères ont été évalués, soient le grade de visualisation des marqueurs anatomiques, le réalisme et la qualité radiographique des images, le positionnement du patient et le potentiel éducatif de celles-ci pour différents niveaux de formation vétérinaire. Les résultats généraux indiquent que les images radiographiques simulées à partir de ce modèle sont suffisamment représentatives de la réalité pour être employées dans l’enseignement de l’anatomie radiographique en médecine vétérinaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire entend présenter les formes de connaissance de soi développées par Thomas d’Aquin: la reditio incompleta, la réfraction sur les phantasmes, la conscience préréflexive, la réflexion par réfluence, l’analyse abstraite, le jugement critique et la reditio completa. L’âme humaine ne pouvant se connaître directement, elle a accès à son essence par le biais de tous ses actes ou actes de conscience. Notre analyse se concentre sur la connaissance habituelle, habitus de toutes les connaissances, qui est la racine de l’image trinitaire en l’homme et garantit la vérité des intellections humaines. Pour ce faire, nous avons procédé à la traduction des questions 87 à 89 de la Somme théologique, dans lesquelles Thomas présente la connaissance humaine des substances séparées et le statut de l’âme séparée, montrant en quoi l’esprit de l’homme partage un certain commun avec les autres esprits de son univers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parmi l’ensemble des désordres métaboliques retrouvés en insuffisance rénale chronique (IRC), la résistance à l’insuline demeure l’un des plus importantes à considérer en raison des risques de morbidité et de mortalité qu’elle engendre via les complications cardiovasculaires. Peu d’études ont considéré la modulation de transporteurs de glucose comme mécanisme sous-jacent à l’apparition et à la progression de la résistance à l’insuline en IRC. Nous avons exploré cette hypothèse en étudiant l’expression de transporteurs de glucose issus d’organes impliqués dans son homéostasie (muscles, tissus adipeux, foie et reins) via l’utilisation d’un modèle animal d’IRC (néphrectomie 5/6e). La sensibilité à l’insuline a été déterminée par un test de tolérance au glucose (GTT), où les résultats reflètent une intolérance au glucose et une hyperinsulinémie, et par les études de transport au niveau musculaire qui témoignent d’une diminution du métabolisme du glucose en IRC (~31%; p<0,05). La diminution significative du GLUT4 dans les tissus périphériques (~40%; p<0,001) peut être à l’origine de la résistance à l’insuline en IRC. De plus, l’augmentation de l’expression protéique de la majorité des transporteurs de glucose (SGLT1, SGLT2, GLUT1; p<0,05) au niveau rénal en IRC engendre une plus grande réabsorption de glucose dont l’hyperglycémie subséquente favorise une diminution du GLUT4 exacerbant ainsi la résistance à l’insuline. L’élévation des niveaux protéiques de GLUT1 et GLUT2 au niveau hépatique témoigne d’un défaut homéostatique du glucose en IRC. Les résultats jusqu’ici démontrent que la modulation de l’expression des transporteurs de glucose peut être à l’origine de la résistance à l’insuline en IRC. L’impact de la parathyroïdectomie (PTX) sur l’expression du GLUT4 a été étudié étant donné que la PTX pourrait corriger l’intolérance au glucose en IRC. Nos résultats démontrent une amélioration de l’intolérance au glucose pouvant être attribuable à la moins grande réduction de l’expression protéique du GLUT4 dans les tissus périphériques et ce malgré la présence d’IRC. L’excès de PTH, secondaire à l’hyperparathyroïdie, pourrait alors être à l’origine de la résistance à l’insuline en IRC en affectant l’expression du GLUT4. L’IRC partage de nombreuses similitudes avec le prédiabète quant aux défaillances du métabolisme du glucose tout comme l’hyperinsulinémie et l’intolérance au glucose. Aucune étude n’a tenté d’évaluer si l’IRC pouvait ultimement mener au diabète. Nos résultats ont par ailleurs démontré que l’induction d’une IRC sur un modèle animal prédisposé (rats Zucker) engendrait une accentuation de leur intolérance au glucose tel que constaté par les plus hautes glycémies atteintes lors du GTT. De plus, certains d’entre eux avaient des glycémies à jeun dont les valeurs surpassent les 25 mmol/L. Il est alors possible que l’IRC puisse mener au diabète via l’évolution de la résistance à l’insuline par l’aggravation de l’intolérance au glucose.