1000 resultados para Modèle numérique


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La littérature montre que plusieurs aspects du travail d’universitaire sont influencés tant par la discipline et l’organisation, que par les caractéristiques individuelles des professeurs. Cette recherche vise à explorer l’impact de ces deux premiers facteurs sur l’utilisation des technologies de l’information et des communications (TIC) par les professeurs d’une université de recherche. Les données, recueillies par sondage, ont été analysées à l’aide d’un modèle hiérarchique comprenant deux niveaux, dans lequel 350 professeurs sont nichés dans 42 départements. Le statut professoral, le profil d’adoption des innovations technologiques et la perception de la compétence technologique ont été placés au niveau 1 (individus), alors que le secteur disciplinaire et quatre facteurs organisationnels liés à l’enseignement et à la recherche, ont été placés au niveau 2 (départements). Les résultats montrent que ces variables indépendantes n’influencent pas de la même façon l’utilisation des différentes technologies. Une plus grande partie des différences d’utilisation se situe entre les départements lorsqu’on considère l’utilisation du projecteur en salle de classe. L’utilisation d’équipements en salle de classe relève davantage de facteurs organisationnels que celle des environnements numériques d’apprentissage (ENA). Les résultats montrent par ailleurs que la perception de la compétence technologique et le profil d’adoption des innovations technologiques mesurent des choses différentes. Alors que le profil d’adoption influence dans une plus ou moins grande mesure toutes les utilisations, la perception de la compétence n’a d’impact que sur l’utilisation plus poussée des ressources, soit l’utilisation d’une page web personnelle ou d’une plateforme autre que WebCT. Un clivage entre disciplines molles pures et disciplines dures pures existe, mais seulement lorsqu’on considère l’utilisation des ENA et de la page web personnelle. La plateforme WebCT est associée au secteur des sciences humaines alors que l’utilisation de la page web ou d’ENA autre que WebCT est liée au secteur des sciences pures. Dans les deux cas, l’utilisation des ENA est liée à l’enseignement de premier cycle, c’est à dire à un enseignement de masse.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de ce mémoire est de montrer qu’il est nécessaire de complémenter les schèmes multiculturalistes existants de mesures destinées à promouvoir l’autonomie et l’égalité des individus vulnérables au sein des groupes culturels et religieux minoritaires. En effet, les politiques multiculturalistes sont justifiées, dans une société libérale, dans la mesure où elles permettent de compenser les inégalités imméritées liées à l’appartenance à une culture minoritaire. C’est de cette justification de l’aménagement de la diversité culturelle dont traite le premier chapitre de ce mémoire. Cependant, plusieurs féministes, dont les critiques sont exposées au deuxième chapitre, ont mis en lumière le fait que ces politiques peuvent, en pratique, contribuer à fragiliser encore la position des individus vulnérables au sein de ces minorités et donc à renforcer les inégalités au sein du groupe. Dans le troisième chapitre, à l’aide du concept de capabilités, compris comme définition opérationnelle et procédurale de l’autonomie relationnelle, un modèle pouvant servir de complément aux schèmes multiculturels existants est élaboré. Le fonctionnement concret que pourrait avoir ce modèle fait l’objet du quatrième chapitre. Le modèle des capabilités – qui sont ici conçues à la fois comme guide pour les politiques et comme critère pour trancher les cas particuliers – pourrait donc mener à un type d’aménagement de la diversité à la fois plus flexible, au niveau des pratiques qu’il serait possible d’accommoder, mais également plus exigeant, au niveau des mécanismes institutionnels à mettre en place.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce travail est consacré à l’étude de la coalescence de gouttelettes liquides à l’échelle du nanomètre. Nous nous sommes intéressés principalement à l’évolution du changement topologique des gouttelettes à partir de la rupture des surfaces au moment du contact initial jusqu’à la coalescence complète. Nous utilisons la dynamique moléculaire afin de simuler plusieurs types de gouttelettes soit en utilisant le potentiel empirique de type Stillinger-Weber pour des gouttelettes de silicium (l-Si) en 3 dimensions et le modèle Embedded Atom Method pour des gouttelettes de cuivre liquide (l-Cu) en 2d, quasi-2d (disques) et 3 dimensions. Qualitativement, toutes les simulations démontrent une coalescence similaire indépendamment de la dimension de calcul (2d à 3d), de la taille et de la température initiale des gouttelettes. La coalescence évolue par une déformation rapide des surfaces sans mixage important entre les atomes des deux gouttelettes initiales. De plus, nous étudions l’évolution du col de coalescence formé lors du contact initial entre les gouttelettes et, pour les systèmes en 3d, nous observons une transition claire d’un régime visqueux vers un régime inertiel du rayon de ce col, tel que suggéré par des modèles théoriques. Pour les gouttelettes de cuivre nous observons exactement le comportement des prédictions analytiques et confirmons que le premier régime suit un comportement visqueux sans aplatissement local des gouttelettes. La situation est différente pour les gouttelettes de l-Si où nous observons un effet plus grand, par rapport aux prédictions analytiques, du rayon et de la température initiale des gouttelettes sur l’évolution du col de coalescence. Nous suggérons que les paramètres décrivant l’évolution de la coalescence dépendent des propriétés des matériaux utilisés contrairement à la théorie universelle couramment utilisée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire présente l’application de la méthode de décomposition en termes de diagrammes aux désintégrations de mésons B vers trois mésons de type pseudos- calaire ne comportant pas de quarks charmés. La décomposition diagrammatique des désintégrations de types B → Kππ, B → KKK ̄, B → KK ̄π et B → πππ est effectuée de façon systématique. Il est démontré que lorsque l’on néglige les dia- grammes d’échanges et d’annihilations, dont les contributions sont estimées être petites, de nouvelles relations apparaissent entre les amplitudes. Ces relations sont de nouveaux tests du modèle standard qui ne peuvent être obtenus que par la méthode diagrammatique. Lorsque les données nécessaires sont disponibles, nous vérifions ces relations et obtenons un bon accord avec les données expérimentales. Nous démontrons également qu’il est possible d’utiliser le secteur B → Kππ pour mesurer la phase faible γ avec une incertitude théorique que nous estimons être de l’ordre de 5%. Les autres secteurs de désintégrations ne permettent d’extraire des phases faibles que si l’on invoque des approximations de précisions inconnues.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tous mes travaux ont été réalisés à l'aide du logiciel stata 11.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Plusieurs études à grande échelle ont identifié la modification ou la perte d’habitats comme menace principale à la conservation des communautés de poissons d’eau douce. Au Canada, « aucune perte nette dans la capacité productive des habitats » (NNL) est le principe directeur de la politique de gestion des habitats du ministère des Pêches et Océans. Le respect du NNL implique l’avancement des connaissances au niveau des relations entre les poissons et leurs habitats, de même que des outils pour quantifier l’impact de la modification des habitats sur les poissons. Les modèles d’utilisation de l’habitat des poissons (FHUM) sont des outils qui permettent d’améliorer nos connaissances des relations poissons – habitat, de prédire la distribution des espèces, mais aussi leurs densités, biomasses ou abondances, sur la base des caractéristiques de l’environnement. L’objectif général de mon mémoire est d’améliorer la performance des FHUM pour les rivières des basses Laurentides, en suggérant des perfectionnements au niveau de 2 aspects cruciaux de l’élaboration de tels modèles : la description précise de la communauté de poissons et l’utilisation de modèles statistiques efficaces. Dans un premier chapitre, j’évalue la performance relative de la pêcheuse électrique et de l’échantillonnage en visuel (plongée de surface) pour estimer les abondances des combinaisons d’espèces et de classes de taille des poissons en rivière. J’évalue aussi l’effet des conditions environnementales sur les différences potentielles entre les communautés observées par ces 2 méthodes d’échantillonnage. Pour ce faire, 10 sections de rivière de 20 m de longueur ont été échantillonnées à l’aide de ces 2 méthodes alors qu’elles étaient fermées par des filets de blocage. 3 plongeurs performèrent l’échantillonnage en visuel en se déplaçant de l’aval vers l’amont des sections, tout en dénombrant les espèces et classes de taille. Par la suite, nous avons fait 3 passages de pêcheuse électrique et les abondances furent estimées grâce à un modèle restreint de maximum de vraisemblance, basé sur la diminution des abondances observées. De plus grandes abondances de poissons furent observées en visuel qu’avec la pêcheuse électrique à tous les sites. La richesse spécifique observée en visuel était plus élevée (6/10) ou égale (4/10) à celle observée avec la pêcheuse électrique. Les différences entre les communautés de poissons observées à l’aide de ces 2 méthodes ne purent être reliées aux conditions environnementales. Les résultats de cette expérience sont contraires à ceux de toutes les études comparant ces 2 méthodes d’échantillonnage, lesquels suggèrent une supériorité de la pêcheuse électrique. Les conditions environnementales de notre expérience étaient distinctes de celles observées dans les autres études (absence d’arbres tombés dans l’eau, très peu de substrats grossiers), mais la différence la plus marquante était en terme de communauté de poissons observée (dominance des cyprinidés et des centrarchidés plutôt que des salmonidés). Je termine ce chapitre en suggérant que les caractéristiques comportementales favorisant l’évitement de la capture (formation de bancs) et facilitant l’observation en visuel (curiosité) sont responsables de la supériorité de la plongée de surface pour échantillonner les communautés dans les rivières des basses Laurentides. Dans un deuxième chapitre, je développe des FHUM pour des communautés de poissons de rivière ayant plusieurs espèces. Dans le but de simplifier la modélisation de telles communautés et d’améliorer notre compréhension des relations poissons – habitat, j’utilise les concepts de guilde écologique et de filtre environnemental pour explorer les relations entre les guildes formées sur la bases de différents types de traits (reproducteurs, taxonomiques, éco-morphologiques et alimentaires) et les conditions environnementales locales à l’échelle du méso-habitat. Les modèles d’habitats basés sur les guildes reproductrices ont clairement surpassé les autres modèles, parce que l’habitat de fraie reflète l’habitat de préférence en dehors de la période de reproduction. J’ai également utilisé l’approche inverse, c’est à dire définir des guildes d’utilisation de l’habitat et les mettre en relation avec les traits des espèces. Les traits reliés à l’alimentation des poissons ont semblés être les meilleurs pour expliquer l’appartenance aux groupes d’utilisation de l’habitat, mais le modèle utilisé ne représentait pas bien la relation entre les groupes. La validation de notre modèle basé sur les guildes reproductrices avec un jeu de données indépendant pourrait confirmer notre découverte, laquelle représente une manière prometteuse de modéliser les relations poissons – environnement dans des communautés de poissons complexes. En conclusion, mon mémoire suggère d’importantes améliorations aux FHUM pour les communautés de poissons des basses Laurentides, en suggérant de prendre en compte les caractéristiques biologiques des cours d’eau dans le choix d’une méthode d’échantillonnage, et également en utilisant une méthode prometteuse pour simplifier les FHUM de communautés de poissons complexes : les guildes reproductrices.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le domaine de l’assurance automobile fonctionne par cycles présentant des phases de profitabilité et d’autres de non-profitabilité. Dans les phases de non-profitabilité, les compagnies d’assurance ont généralement le réflexe d’augmenter le coût des primes afin de tenter de réduire les pertes. Par contre, de très grandes augmentations peuvent avoir pour effet de massivement faire fuir la clientèle vers les compétiteurs. Un trop haut taux d’attrition pourrait avoir un effet négatif sur la profitabilité à long terme de la compagnie. Une bonne gestion des augmentations de taux se révèle donc primordiale pour une compagnie d’assurance. Ce mémoire a pour but de construire un outil de simulation de l’allure du porte- feuille d’assurance détenu par un assureur en fonction du changement de taux proposé à chacun des assurés. Une procédure utilisant des régressions à l’aide de processus gaus- siens univariés est développée. Cette procédure offre une performance supérieure à la régression logistique, le modèle généralement utilisé pour effectuer ce genre de tâche.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au Québec, les négociations collectives dans les secteurs public et parapublic ainsi que dans les services publics sont assujetties aux règles du Code du travail (L.R.Q. C.-27). Certains secteurs dispensant des services dits essentiels, comme le transport en commun et le secteur de la santé et des services sociaux, ont à respecter des règles particulières, différentes de celles des autres secteurs assujettis au régime général édicté par le Code. Ces règles particulières constituent ce qu’on appelle le régime des services essentiels. Les négociations dans les services essentiels comportent des particularités importantes – considérations politiques et absence de substituts des services publics pour la population – qui les distinguent de façon notable des négociations qui se déroulent sous l’égide du modèle général de négociation collective édicté au Code et applicable dans les autres secteurs (Bergeron et Paquet, 2006). Quels sont les effets du régime des services essentiels sur la négociation collective dans le secteur du transport en commun et de la santé et des services sociaux? Dans le cadre de cette recherche, nous avons examiné les effets du régime des services essentiels (les règles du Code du travail et les décisions du Conseil des services essentiels) sur différents aspects de la négociation collective : 1) la mobilisation, 2) le rapport de force, 3) les moyens de pression, 4) le déroulement des négociations, 5) l’arrêt de travail, 6) les résultats de la négociation collective et 7) le climat de travail. Afin d’étudier ces négociations atypiques dans notre système de relations industrielles, nous avons réalisé deux études de cas (secteur du transport en commun et secteur de la santé et des services sociaux). Les résultats indiquent bien que le régime des services essentiels influence le processus de négociation collective dans ces secteurs. Par contre, la comparaison des deux secteurs montre que les règles additionnelles auxquelles est assujetti le secteur de la santé et des services sociaux n’apparaissent pas affecter de façon déterminante le processus de négociation collective.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse s'articule autour de trois essais portant sur des questions internationales en économie des ressources naturelles. Le premier essai examine la production et l'échange des ressources non-renouvelables dans un modèle spatial et souligne le rôle de la superficie des pays et du coût des transports dans la détermination du sens de l'échange. Le deuxième essai considère le tarif d'extraction de la rente de rareté liée aux ressources naturelles non-renouvelables avec le modèle spatial développé dans premier essai. Le cadre spatial (plus général) permet de représenter des pays qui sont à la fois importateurs et producteurs de la ressource, ce qui n'est pas possible dans les modèles traditionnels de commerce international où les pays sont traités comme des points (sans dimension). Le troisième essai aborde la question des droits de propriétés sur les zones maritimes et examine l'allocation d'une population de pêcheurs entre les activités productives et non-productives dans une communauté côtière. Le premier chapitre propose un modèle spatial de commerce international des ressources non-renouvelables. Le cadre spatial considère explicitement la différence de taille géographique (superficie) entre les pays et permet ainsi de tenir compte du fait que les gisements naturels et leurs utilisateurs soient dispersés dans l'espace, même à l'intérieur d'un pays. En utilisant un modèle spatial à la Hotelling, nous examinons l'évolution dans le temps du sens de l'échange entre deux pays (ou régions) qui diffèrent du point de vue de leur technologie de production, de leur superficie et de leur dotation en gisement d'une ressource naturelle non-renouvelable. Le chapitre met en évidence le rôle de la taille géographique dans la détermination du sens de l'échange, à côté des explications traditionnelles que sont l'avantage comparatif et les dotations des facteurs. Notre analyse est fondamentalement différente des autres contributions dans la littérature sur le commerce international des ressources naturelles parce qu'elle souligne l'importance de la taille géographique et du coût de transport par rapport à d'autres facteurs dans la détermination des flux de ressource à l'équilibre. Le coût unitaire de transport joue un rôle capital pour déterminer si la différence de superficie entre les pays influence le sens de l'échange à l'équilibre plus que les autres facteurs. Le chapitre discute aussi du caractère régional des échanges qui a été observé pour certaines ressources telles que le minerai de fer et la bauxite. Le chapitre deux aborde la question de la répartition de la rente de rareté liée aux ressources naturelles non-renouvelables entre les pays producteurs et les pays consommateurs. Cette question a été abordée dans la littérature sous une hypothèse quelque peu restrictive. En effet, dans la plupart des travaux portant sur ce sujet le pays importateur est automatiquement considéré comme dépourvu de gisement et donc non producteur de la ressource. Pourtant la réalité est qu'il existe des ressources pour lesquelles un pays est à la fois producteur et importateur. Le cadre d'analyse de ce second essai est le modèle spatial développé dans le premier essai, qui permet justement qu'un pays puisse être à la fois importateur et producteur de la ressource. Le pays importateur détermine alors simultanément le tarif optimal et le taux d'extraction de son propre stock. Nous montrons que le tarif optimal croît au taux d'intérêt et de ce fait, ne crée aucune distorsion sur le sentier d'extraction de la ressource. Le tarif optimal permet de récupérer toute la rente lorsque le pays exportateur ne consomme pas la ressource. Néanmoins, la possibilité pour le pays exportateur de consommer une partie de son stock limite la capacité du pays importateur à récupérer la rente chez le pays exportateur. La présence de gisements de la ressource dans le pays importateur réduit la rente du pays exportateur et de ce fait renforce la capacité du pays importateur à récupérer la rente chez le pays exportateur. Le tarif initial est une fonction décroissante du stock de ressource dans le pays importateur. Cet essai aborde également la question de la cohérence dynamique du tarif obtenu avec la stratégie en boucle ouverte. Le troisième chapitre examine un problème d'allocation de l'effort entre les activités productives (par exemple la pêche) et les activités non productives (par exemple la piraterie maritime) dans une population de pêcheurs. La répartition de la population entre les activités de pêche et la piraterie est déterminée de façon endogène comme une conséquence du choix d'occupation. Nous établissons l'existence d'une multiplicité d'équilibres et mettons en évidence la possibilité d'une trappe de piraterie, c'est-à-dire un équilibre stable où une partie de la population est engagée dans les actes de piraterie. Le modèle permet d'expliquer l'augmentation significative des attaques de piraterie dans le Golfe d'Aden au cours des dernières années. Le chapitre discute aussi des différents mécanismes pour combattre la piraterie et souligne le rôle crucial des droits de propriété.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La présente étude s’est appuyée sur le modèle transactionnel de stress de Lazarus dans le but de s’intéresser aux mauvais impacts de la cyberintimidation sur les victimes de tels actes, ainsi qu’aux différents facteurs susceptibles de diminuer ou d’amplifier cet effet,comme les représentations cognitives, les aspects contextuels de la situation, ses propriétés stressantes et les stratégies d’adaptation adoptées par les victimes. Les analyses ont été réalisées à partir d’un échantillon de 844 victimes de cyberintimidation âgées de 14 à 21 ans, dont 700 filles. Ces participants ont été recrutés dans des groupes d’intérêt sur le site de réseautage social Facebook et ils ont complété un questionnaire en ligne portant sur la situation de cyberintimidation qu’ils ont vécue. Les résultats indiquent d’abord que les victimes de sexe féminin seraient prédisposées psychologiquement à être affectées plus négativement par des situations de cyberintimidation, qu’elles auraient tendance à subir des situations de cyberintimidation d’une plus grande gravité intrinsèque que celles des garçons et qu’elles choisiraient des stratégies d’adaptation d’une moins grande efficacité. Il est donc peu étonnant alors qu’elles subissent des conséquences d’une plus grande gravité à la suite de leur situation de cyberintimidation. Il appert également que les situations de cyberintimidation qui comprennent aussi de l’intimidation hors ligne auraient tendance à être d’une plus grande gravité intrinsèque que les situations de cyberintimidation qui se déroulent en ligne seulement. Enfin, les résultats d’analyses de pistes causales semblent montrer que le modèle transactionnel de stress de Lazarus permet d’analyser efficacement comment les situations de cyberintimidation peuvent avoir ou ne pas avoir d’impact sur les jeunes filles qui les subissent. Le plus important facteur de risque de la gravité des conséquences subies est l’adoption de la fuite en résultat de la situation, suivie de l’occurrence d’intimidation hors ligne, de l’adoption du contrôle de soi, de la variété de gestes, du sentiment de responsabilité, de la perception de durée de la situation et de la fréquence de victimisation par intimidation hors ligne dans le passé. La possession d’optimisme et d’estime de soi constituerait toutefois un facteur de protection important contre l’impact de la cyberintimidation sur les filles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’accessibilité aux soins de santé est une priorité de nombreux gouvernements à travers le monde. En Haïti, les gouvernements se sont succédés et ont tenté à travers les années des interventions dont les résultats ne sont souvent pas satisfaisants. Le programme d’assistance médicale cubain, actuellement appliqué dans le pays, est en œuvre dans plus d’une vingtaine de pays en développement, mais il existe très peu d’évaluations indépendantes qui permettent de l’appréhender. Cet ouvrage se donne pour objectif de vérifier le bien fondé de cette intervention en tenant compte du contexte, d’établir la plausibilité en fonction des moyens du pays et finalement, de proposer des solutions qui améliorent la situation. Pour répondre à ces objectifs, l’étude de cas a été adoptée comme stratégie de recherche. Cette technique permet de mieux analyser le contexte, et de comprendre ses effets sur le programme. Des entrevues semi-structurées ont été réalisées pour permettre de faire les analyses stratégique et logique nécessaires pour atteindre les objectifs sus-cités. Les entrevues ont visé successivement la compréhension du modèle théorique, la détermination des problèmes pertinents auxquels fait le système de santé, les causes de la difficulté de rétention des professionnels et finale l’analyse du modèle. L’évaluation a révélé que l’accessibilité aux soins de santé est complexe et qu’un grand nombre de facteurs l’influencent. En Haïti, ces facteurs ne sont pas différents de ceux recensés dans la littérature. Mais la composante géographique associée à l’aspect administratif du système de santé en général constituent les éléments qui auraient l’impact le plus important sur l’accessibilité du système de santé. Vu les conditions actuelles, la modernisation de la gestion représente l’avenue à privilégier en attendant que les moyens permettent d’agir sur les autres facteurs. La rétention des professionnels de santé est un facteur essentiel de l’accessibilité aux soins de santé. Pour être efficace, les mécanismes de rétention utilisés doivent s’accompagner de mesures comme l’amélioration des conditions de travail, ainsi qu’un salaire compétitif. Les conditions de vie dans le milieu rural haïtien ne peuvent en rien être comparées à celles des pays développés. On ne peut espérer les mêmes résultats avec les programmes de rétention utilisés par cette intervention. Tenant compte du contexte socioéconomique et du tableau épidémiologique haïtien, il serait peut-être plus efficient de créer de nouveaux corps de métier. Ces derniers devraient être en mesure de régler les problèmes de santé simples, et occasionneraient des coûts moins importants. Ce serait à court terme et même à moyen terme une solution viable dans le contexte actuel. Le programme actuel s’il semble respecter les données probantes en matière d’accessibilité aux soins, néglige d’incorporer les paramètres spécifiques au milieu haïtien, nécessaires à l’atteinte de ses objectifs. La politisation excessive est aussi un facteur qui à terme pourrait conduire à l’échec de ce programme. Si à court terme le programme parvient à augmenter le nombre de professionnels de santé dans le pays, il est peu probable que cela dure. Les moyens précaires du pays ne lui permettent pas de se payer des professionnels hautement qualifiés dans les milieux sous desservis. L’intervention pour réussir doit intégrer les caractéristiques particulières du milieu et mettre plus d’accent sur la gestion du système.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Partant des travaux séminaux de Boole, Frege et Russell, le mémoire cherche à clarifier l‟enjeu du pluralisme logique à l‟ère de la prolifération des logiques non-classiques et des développements en informatique théorique et en théorie des preuves. Deux chapitres plus « historiques » sont à l‟ordre du jour : (1) le premier chapitre articule l‟absolutisme de Frege et Russell en prenant soin de montrer comment il exclut la possibilité d‟envisager des structures et des logiques alternatives; (2) le quatrième chapitre expose le chemin qui mena Carnap à l‟adoption de la méthode syntaxique et du principe de tolérance, pour ensuite dégager l‟instrumentalisme carnapien en philosophie de la Logique et des mathématiques. Passant par l‟analyse d‟une interprétation intuitive de la logique linéaire, le deuxième chapitre se tourne ensuite vers l‟établissement d‟une forme logico-mathématique de pluralisme logique à l‟aide de la théorie des relations d‟ordre et la théorie des catégories. Le troisième chapitre délimite le terrain de jeu des positions entourant le débat entre monisme et pluralisme puis offre un argument contre la thèse qui veut que le conflit entre logiques rivales soit apparent, le tout grâce à l‟utilisation du point de vue des logiques sous-structurelles. Enfin, le cinquième chapitre démontre que chacune des trois grandes approches au concept de conséquence logique (modèle-théorétique, preuve-théorétique et dialogique) forme un cadre suffisamment général pour établir un pluralisme. Bref, le mémoire est une défense du pluralisme logique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’ostéoarthrose (OA) est une maladie articulaire dont l’incidence augmente avec le vieillissement de la population. Elle se caractérise par une détérioration progressive du cartilage articulaire accompagnée du remodelage de l’os sous-chondral et du changement des tissus mous de l’articulation. La douleur et le dysfonctionnement de l’articulation affectée sont généralement attribués à l’inflammation et l’épanchement de la synovie. Plusieurs évidences indiquent que l’inflammation de la membrane synoviale contribue grandement à la pathogenèse de l’OA. En effet, la synthèse et l’expression des enzymes protéolytiques qui dégradent la matrice cartilagineuse sont régulées par de nombreuses cytokines retrouvées au sein de ce foyer inflammatoire. Deux d’entre elles, l’interleukine-1 beta (IL-1β) et le «tumor necrosis factor » alpha (TNF-α), jouent un rôle majeur dans le déclenchement de l’inflammation associée à l’OA. Ces cytokines pro-inflammatoires agissent notamment sur les synoviocytes et les chondrocytes en activant NF-κB qui, à son tour, active les gènes de cytokines. Cette boucle de régulation positive amplifie et perpétue la réponse inflammatoire. Récemment, il a été rapporté que l’activation de NF-κB par TNF-α peut être potentialisée par EXTL3, un récepteur transmembranaire ; mais le mécanisme sous-jacent de cet effet demeure inconnu. Toutefois, les niveaux important d’EXTL3 et de son ligand Reg1B chez les patients arthrosiques, laissent croire que ces protéines jouent un rôle dans le développement de l’OA. Notre objectif était d’étudier le mécanisme par lequel EXTL3 amplifie l’activation de NF-κB par TNF-α et d’examiner si ce phénomène se produit aussi avec l’IL-1β. Nous avons utilisé les cellules C28/I2, une lignée cellulaire de chondrocytes, comme modèle d’étude. Les transfections transitoires avec un vecteur d’expression, les techniques d’immunofluorescence (IF), d’immunoprécipitation (IP) et d’immunobuvardage de type Western (IB); ont été utilisées dans le cadre de diverses approches expérimentales. Les résultats obtenus par transfection ont révélé que la protéine EXTL3 potentialisait l’activation de NF-κB aussi bien par IL-1β que par TNF-α. Ce résultat signifie que la potentialisation de l’activité NF-κB par EXTL3 n’est pas spécifique à TNF-α. D’autre part, l’IP avec TNFRI et TRAF2 a révélé la présence d’EXTL3 dans le complexe TNF-α/TNFRI/TRAF2 qui se forme au niveau de la membrane plasmique. De plus, ceci a été confirmé in vivo par microscopie confocale montrant la co-localisation de TNFRI-TRAF2-EXTL3 dans la membrane nucléaire, suggérant ainsi la formation d’un complexe identique au niveau des membranes plasmique et nucléaires. Toutefois, la présence du ligand Reg1B et/ou de la glucosamine inhibait la formation de ce complexe au niveau de la membrane plasmique, tout comme ils abolissaient la potentialisation de l’activité NF-κB par EXTL3. Ces résultats suggèrent non seulement que le recrutement d’EXTL3 libre dans le complexe TNF-α/TNFR1 est requis pour amplifier l’activation de NF-κB par TNF-α, mais aussi la capacité du ligand Reg1B et de la glucosamine à moduler cette activation à travers la baisse ou l’inhibition de l’interaction EXTL3-TNFR1. Les données de cette étude constituent une avancée majeure dans la compréhension des événements moléculaires qui contrôlent l’activation de NF-κB par les cytokines pro-inflammatoires. Ces résultats pourraient conduire au développement de nouvelles approches thérapeutiques pour le traitement de l’inflammation associée à l’OA et impliquant une activation incessante de NF-κB.