503 resultados para utilité


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nombre important de véhicules sur le réseau routier peut entraîner des problèmes d'encombrement et de sécurité. Les usagers des réseaux routiers qui nous intéressent sont les camionneurs qui transportent des marchandises, pouvant rouler avec des véhicules non conformes ou emprunter des routes interdites pour gagner du temps. Le transport de matières dangereuses est réglementé et certains lieux, surtout les ponts et les tunnels, leur sont interdits d'accès. Pour aider à faire appliquer les lois en vigueur, il existe un système de contrôles routiers composé de structures fixes et de patrouilles mobiles. Le déploiement stratégique de ces ressources de contrôle mise sur la connaissance du comportement des camionneurs que nous allons étudier à travers l'analyse de leurs choix de routes. Un problème de choix de routes peut se modéliser en utilisant la théorie des choix discrets, elle-même fondée sur la théorie de l'utilité aléatoire. Traiter ce type de problème avec cette théorie est complexe. Les modèles que nous utiliserons sont tels, que nous serons amenés à faire face à des problèmes de corrélation, puisque plusieurs routes partagent probablement des arcs. De plus, puisque nous travaillons sur le réseau routier du Québec, le choix de routes peut se faire parmi un ensemble de routes dont le nombre est potentiellement infini si on considère celles ayant des boucles. Enfin, l'étude des choix faits par un humain n'est pas triviale. Avec l'aide du modèle de choix de routes retenu, nous pourrons calculer une expression de la probabilité qu'une route soit prise par le camionneur. Nous avons abordé cette étude du comportement en commençant par un travail de description des données collectées. Le questionnaire utilisé par les contrôleurs permet de collecter des données concernant les camionneurs, leurs véhicules et le lieu du contrôle. La description des données observées est une étape essentielle, car elle permet de présenter clairement à un analyste potentiel ce qui est accessible pour étudier les comportements des camionneurs. Les données observées lors d'un contrôle constitueront ce que nous appellerons une observation. Avec les attributs du réseau, il sera possible de modéliser le réseau routier du Québec. Une sélection de certains attributs permettra de spécifier la fonction d'utilité et par conséquent la fonction permettant de calculer les probabilités de choix de routes par un camionneur. Il devient alors possible d'étudier un comportement en se basant sur des observations. Celles provenant du terrain ne nous donnent pas suffisamment d'information actuellement et même en spécifiant bien un modèle, l'estimation des paramètres n'est pas possible. Cette dernière est basée sur la méthode du maximum de vraisemblance. Nous avons l'outil, mais il nous manque la matière première que sont les observations, pour continuer l'étude. L'idée est de poursuivre avec des observations de synthèse. Nous ferons des estimations avec des observations complètes puis, pour se rapprocher des conditions réelles, nous continuerons avec des observations partielles. Ceci constitue d'ailleurs un défi majeur. Nous proposons pour ces dernières, de nous servir des résultats des travaux de (Bierlaire et Frejinger, 2008) en les combinant avec ceux de (Fosgerau, Frejinger et Karlström, 2013). Bien qu'elles soient de nature synthétiques, les observations que nous utilisons nous mèneront à des résultats tels, que nous serons en mesure de fournir une proposition concrète qui pourrait aider à optimiser les décisions des responsables des contrôles routiers. En effet, nous avons réussi à estimer, sur le réseau réel du Québec, avec un seuil de signification de 0,05 les valeurs des paramètres d'un modèle de choix de routes discrets, même lorsque les observations sont partielles. Ces résultats donneront lieu à des recommandations sur les changements à faire dans le questionnaire permettant de collecter des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer du sein est le cancer le plus fréquent chez la femme. Il demeure la cause de mortalité la plus importante chez les femmes âgées entre 35 et 55 ans. Au Canada, plus de 20 000 nouveaux cas sont diagnostiqués chaque année. Les études scientifiques démontrent que l'espérance de vie est étroitement liée à la précocité du diagnostic. Les moyens de diagnostic actuels comme la mammographie, l'échographie et la biopsie comportent certaines limitations. Par exemple, la mammographie permet de diagnostiquer la présence d’une masse suspecte dans le sein, mais ne peut en déterminer la nature (bénigne ou maligne). Les techniques d’imagerie complémentaires comme l'échographie ou l'imagerie par résonance magnétique (IRM) sont alors utilisées en complément, mais elles sont limitées quant à la sensibilité et la spécificité de leur diagnostic, principalement chez les jeunes femmes (< 50 ans) ou celles ayant un parenchyme dense. Par conséquent, nombreuses sont celles qui doivent subir une biopsie alors que leur lésions sont bénignes. Quelques voies de recherche sont privilégiées depuis peu pour réduire l`incertitude du diagnostic par imagerie ultrasonore. Dans ce contexte, l’élastographie dynamique est prometteuse. Cette technique est inspirée du geste médical de palpation et est basée sur la détermination de la rigidité des tissus, sachant que les lésions en général sont plus rigides que le tissu sain environnant. Le principe de cette technique est de générer des ondes de cisaillement et d'en étudier la propagation de ces ondes afin de remonter aux propriétés mécaniques du milieu via un problème inverse préétabli. Cette thèse vise le développement d'une nouvelle méthode d'élastographie dynamique pour le dépistage précoce des lésions mammaires. L'un des principaux problèmes des techniques d'élastographie dynamiques en utilisant la force de radiation est la forte atténuation des ondes de cisaillement. Après quelques longueurs d'onde de propagation, les amplitudes de déplacement diminuent considérablement et leur suivi devient difficile voir impossible. Ce problème affecte grandement la caractérisation des tissus biologiques. En outre, ces techniques ne donnent que l'information sur l'élasticité tandis que des études récentes montrent que certaines lésions bénignes ont les mêmes élasticités que des lésions malignes ce qui affecte la spécificité de ces techniques et motive la quantification de d'autres paramètres mécaniques (e.g.la viscosité). Le premier objectif de cette thèse consiste à optimiser la pression de radiation acoustique afin de rehausser l'amplitude des déplacements générés. Pour ce faire, un modèle analytique de prédiction de la fréquence de génération de la force de radiation a été développé. Une fois validé in vitro, ce modèle a servi pour la prédiction des fréquences optimales pour la génération de la force de radiation dans d'autres expérimentations in vitro et ex vivo sur des échantillons de tissu mammaire obtenus après mastectomie totale. Dans la continuité de ces travaux, un prototype de sonde ultrasonore conçu pour la génération d'un type spécifique d'ondes de cisaillement appelé ''onde de torsion'' a été développé. Le but est d'utiliser la force de radiation optimisée afin de générer des ondes de cisaillement adaptatives, et de monter leur utilité dans l'amélioration de l'amplitude des déplacements. Contrairement aux techniques élastographiques classiques, ce prototype permet la génération des ondes de cisaillement selon des parcours adaptatifs (e.g. circulaire, elliptique,…etc.) dépendamment de la forme de la lésion. L’optimisation des dépôts énergétiques induit une meilleure réponse mécanique du tissu et améliore le rapport signal sur bruit pour une meilleure quantification des paramètres viscoélastiques. Il est aussi question de consolider davantage les travaux de recherches antérieurs par un appui expérimental, et de prouver que ce type particulier d'onde de torsion peut mettre en résonance des structures. Ce phénomène de résonance des structures permet de rehausser davantage le contraste de déplacement entre les masses suspectes et le milieu environnant pour une meilleure détection. Enfin, dans le cadre de la quantification des paramètres viscoélastiques des tissus, la dernière étape consiste à développer un modèle inverse basé sur la propagation des ondes de cisaillement adaptatives pour l'estimation des paramètres viscoélastiques. L'estimation des paramètres viscoélastiques se fait via la résolution d'un problème inverse intégré dans un modèle numérique éléments finis. La robustesse de ce modèle a été étudiée afin de déterminer ces limites d'utilisation. Les résultats obtenus par ce modèle sont comparés à d'autres résultats (mêmes échantillons) obtenus par des méthodes de référence (e.g. Rheospectris) afin d'estimer la précision de la méthode développée. La quantification des paramètres mécaniques des lésions permet d'améliorer la sensibilité et la spécificité du diagnostic. La caractérisation tissulaire permet aussi une meilleure identification du type de lésion (malin ou bénin) ainsi que son évolution. Cette technique aide grandement les cliniciens dans le choix et la planification d'une prise en charge adaptée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chez les animaux de laboratoire, même si les anesthésiques par inhalation sont généralement plus sécuritaires que les injectables, leur utilité est souvent restreinte lorsqu’un protocole expérimental exige une autre approche. Des combinaisons d’anesthésiques contenant de la kétamine sont considérées comme l’option de choix pour les anesthésies injectables chez les rats. Le vieillissement entraîne des changements dégénératifs au niveau de la structure et la fonction des organes, modifiant souvent à la pharmacocinétique des drogues. Ce projet porte sur l’évaluation des changements pharmacodynamiques (physiologiques, biochimiques et histologiques) et pharmacocinétiques, lors d’une combinaison anesthésique de kétamine-­‐xylazine chez le rat Sprague-­‐Dawley vieillissant. Une anesthésie à la kétamine-­‐xylazine fut induite chez des rats Sprague-­‐Dawley de différents âges. Afin d’évaluer l’effet du vieillissement sur le métabolisme des deux drogues, des prélèvements sanguins périodiques pour l’analyse de la pharmacocinétique ainsi que des mesures des paramètres physiologiques, biochimiques et une histopathologie furent effectués. Le vieillissement a causé certaines modifications notamment en produisant une diminution de la saturation d’oxygène, une baisse marquée de la fréquence cardiaque et respiratoire, une hypoalbuminémie ainsi qu’une augmentation de la durée d’anesthésie. Les paramètres pharmacocinétiques de la kétamine et de la xylazine furent grandement affectés par le vieillissement causant une augmentation progressive significative de l’aire sous la courbe (AUC) et du temps de demi-­‐vie, ainsi qu’une diminution de la clairance. À la lumière de ces résultats, les doses de kétamine et de xylazine doivent être adaptées chez les rats vieillissants pour permettre une anesthésie de durée raisonnable et un réveil sans complications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les moteurs de recherche font partie de notre vie quotidienne. Actuellement, plus d’un tiers de la population mondiale utilise l’Internet. Les moteurs de recherche leur permettent de trouver rapidement les informations ou les produits qu'ils veulent. La recherche d'information (IR) est le fondement de moteurs de recherche modernes. Les approches traditionnelles de recherche d'information supposent que les termes d'indexation sont indépendants. Pourtant, les termes qui apparaissent dans le même contexte sont souvent dépendants. L’absence de la prise en compte de ces dépendances est une des causes de l’introduction de bruit dans le résultat (résultat non pertinents). Certaines études ont proposé d’intégrer certains types de dépendance, tels que la proximité, la cooccurrence, la contiguïté et de la dépendance grammaticale. Dans la plupart des cas, les modèles de dépendance sont construits séparément et ensuite combinés avec le modèle traditionnel de mots avec une importance constante. Par conséquent, ils ne peuvent pas capturer correctement la dépendance variable et la force de dépendance. Par exemple, la dépendance entre les mots adjacents "Black Friday" est plus importante que celle entre les mots "road constructions". Dans cette thèse, nous étudions différentes approches pour capturer les relations des termes et de leurs forces de dépendance. Nous avons proposé des méthodes suivantes: ─ Nous réexaminons l'approche de combinaison en utilisant différentes unités d'indexation pour la RI monolingue en chinois et la RI translinguistique entre anglais et chinois. En plus d’utiliser des mots, nous étudions la possibilité d'utiliser bi-gramme et uni-gramme comme unité de traduction pour le chinois. Plusieurs modèles de traduction sont construits pour traduire des mots anglais en uni-grammes, bi-grammes et mots chinois avec un corpus parallèle. Une requête en anglais est ensuite traduite de plusieurs façons, et un score classement est produit avec chaque traduction. Le score final de classement combine tous ces types de traduction. Nous considérons la dépendance entre les termes en utilisant la théorie d’évidence de Dempster-Shafer. Une occurrence d'un fragment de texte (de plusieurs mots) dans un document est considérée comme représentant l'ensemble de tous les termes constituants. La probabilité est assignée à un tel ensemble de termes plutôt qu’a chaque terme individuel. Au moment d’évaluation de requête, cette probabilité est redistribuée aux termes de la requête si ces derniers sont différents. Cette approche nous permet d'intégrer les relations de dépendance entre les termes. Nous proposons un modèle discriminant pour intégrer les différentes types de dépendance selon leur force et leur utilité pour la RI. Notamment, nous considérons la dépendance de contiguïté et de cooccurrence à de différentes distances, c’est-à-dire les bi-grammes et les paires de termes dans une fenêtre de 2, 4, 8 et 16 mots. Le poids d’un bi-gramme ou d’une paire de termes dépendants est déterminé selon un ensemble des caractères, en utilisant la régression SVM. Toutes les méthodes proposées sont évaluées sur plusieurs collections en anglais et/ou chinois, et les résultats expérimentaux montrent que ces méthodes produisent des améliorations substantielles sur l'état de l'art.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif du présent texte est de discuter de la portée épistémique de la méthode axiomatique. Tout d'abord, il sera question du contexte à partir duquel la méthode axiomatique a émergé, ce qui sera suivi d'une discussion des motivations du programme de Hilbert et de ses objectifs. Ensuite, nous exposerons la méthode axiomatique dans un cadre plus moderne afin de mettre en lumière son utilité et sa portée théorique. Finalement, il s'agira d'explorer l'influence de la méthode axiomatique en physique, surtout en ce qui a trait à l'application de la méthode par Hilbert. Nous discuterons de ses objectifs et de l'épistémologie qui accompagnait sa vision du 6 e problème, ce qui nous amènera à discuter des limites épistémiques de la méthode axiomatique et de l'entreprise scientifique en général.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est admis que la maladie de Crohn (MC) résulte de facteurs immunologiques, environnementaux et génétiques. SIGIRR, un récepteur anti-inflammatoire, n’a jamais été étudié dans le contexte de la MC, et de nombreuses découvertes à son sujet ont mené plusieurs à s’intéresser quant à son utilité dans l’atténuation de maladies inflammatoires. Récemment, l’IL-37 a été identifié comme ligand d’un complexe formé de SIGIRR-IL-18Rα. SIGIRR et l’IL-37 pourraient alors être des acteurs de la dérégulation de l’inflammation retrouvée chez la MC. Nous les avons étudiés dans le contexte de la MC pédiatrique, afin d’y caractériser leurs effets. Nous avons identifié une diminution de l’expression de SIGIRR sur certains types de cellules immunitaires. De plus, les personnes atteintes de la MC ont des concentrations de protéines altérées, soit SIGIRR soluble, l’IL-37, l’IL-18BP, et l’IL-18, et tendent à revenir à la normale lorsque l’inflammation est contrôlée par médication. De plus, la concentration de l’IL-18 libre suit le même patron. Par analyse de régression linéaire de SIGIRR soluble et l’IL-37, de l’IL-18BP et l’IL-18, ainsi que l’IL-37 et l’IL-18, des tendances divergentes ont été identifiées entre les patients non traités aux contrôles et patients traités. Nos résultats suggèrent que le système IL-37-SIGIRR est compromis chez les patients de la MC. Étant donné que ce système est un facteur crucial dans la régulation négative de l’inflammation, il sera intéressant de déterminer si SIGIRR et l’IL-37 peuvent constituer des cibles thérapeutiques importantes dans l’atténuation et la résolution de l’inflammation chez les patients atteints de la MC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho foi realizado com o intuito de atender aos requisitos para obtenção do título de Mestre em Educação, pelo Instituto de Estudos Avançados em Educação da Fundação Getúlio Vargas, RJ. Entretanto, é importante mencionar que sua elaboração tem um sentido mais amplo do que a conclusão de mais uma etapa de escolarização. Possibilitou condições para observar, vivenciar e analisar situações concretas nas quais se desenvolve o ensino no Estado do Rio de Janeiro, através de experiência realizada pelo Colégio Estadual Visconde de Mauá junto às empresas, no sentido de promover a integração escola-empresa. Os resultados obtidos certamente permitirão um reestudo da estratégia de açao das escolas envolvidas com a formação de recursos humanos, permitindo, inclusive, abrir caminho para novos estudos e pesquisas. Como estudo de caso, que focaliza um dos aspectos da formação de mão-de-obra qualificada - o processo de integração escola-empresa - evidencia a realidade educacional do sistema escolar formal e o trabalho do Núcleo de Integração Escola-Empresa da Secretaria de Estado de Educação e Cultura do Estado do Rio de Janeiro. Foram identificados os problemas e necessidades mais importantes, a partir da existência, no processo de orientação profissional, de relações significativas entre a escola, as empresas e os alunos estagiários, permitindo que outras escolas percebam a utilidade de um serviço de integração escola-empresa no ensino de 2. grau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L étude de la neuroétique, est placée dans le champs de l étique philosophique, où l émotion et la ration se trouve comme des elements important dans le processus des decition moral. Les champs d étude de la neuroscience et neuroéthique ouvre la discussion sur le changement et les emergences conceptuels, le progrés da la science, le devéloppement de la tecnique, de la tecnhologie et la biotecnologie, et ses relations vis-a-vis des dilemes morales concernat au champs des études et recherches dans ce domaine. On compprende que les procedures adoptés em ces études et recherches ne sont pas concernant solement aux individus soumises aux procedures et or traitement, mas a tout la societé. Le champs d étude de la neuroscience comme quelque d outre est soumis a des principles morales et étiques, sourtout c est relatifs aux prises de decition par rapport aux êtres vivants. Dans ces processus les scientifiques sont charchées des responsabilités et des risques, en face des dilemes morales concernat a tout les recherches. L analise a été faite, appui dentre outres, en la pensée de Immanuel Kant et Jonh Stuart Mill em ce que dit respect au devoir et l utilité

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avant-proposParfois pour le meilleur et parfois pour le pire, notre monde est un monde globalisé.Nous connaissons actuellement une profonde crise financière à l'échelle planétaire. Fin octobre 2008, le Conseil des chefs de secrétariat des organismes des Nations unies pour la coordination (CEB) déclarait que «la crise que nous traversons aujourd'Hui va avoir des répercussions sur tous les pays, développés et en développement, mais les effets les plus graves seront ressentis essentiellement par ceux qui ne sont pour rien dans le déclenchement de cette crise, à savoir les pauvres des pays en développement».Avant que cette crise n'éclate, Alain Rouquié1 affirmait déjà : «l'état est de retour. Son rôle économique et social pour atténuer les chocs extérieurs et l'impact d'une concurrence sans frontières est à l'ordre du jour».Selon Rouquié, l'ouverture et les réformes structurelles des années quatre-vingt, aussi douloureuses qu'elles aient été, ont eu une utilité fonctionnelle durable. Le problème, dit-il, est que ces réformes ont été accompagnées d'une idéologie opportuniste qui absolutisait le recours à la «main invisible» du marché dans tous les domaines. Ainsi, au nom des nécessités d'une économie mondialisée, l'état, était dénoncé comme un obstacle à la croissance et au progrès. Le fondamentalisme dogmatique et anti-étatique de marché imposait une recette universelle, non discutable et anti-démocratique.L'histoire récente nous démontre qu'il n'existe pas une façon unique de s'intégrer aux courants mondiaux des biens et des capitaux et que l'ensemble des réformes (ouverture, privatisations, dérégulation) considéré à un moment donné comme la seule modalité d'intégration à l'économie mondiale, a été à l'origine d'une série de crises successives en Amérique latine et dans les Caraïbes dont le bilan est étique en termes de réalisations et lourd en frustrations; par ailleurs, les voies hétérodoxes vers la globalisation empruntées par la Chine et par l'inde, par exemple, fortement teintées de caractéristiques idiosyncrasiques en matière de politique économique et dont la direction est restée aux mains des états nationaux affichent des résultats plus positifs.Ce document rend compte des idées centrales de publications récentes de la Commission économique pour l'Amérique latine et les Caraïbes (CEPALC). Les principales sources des thèses dans lesquelles s'inscrivent les idées développées dans les pages qui suivent sont: Mondialisation et développement2, publié en 2002, et Desarrollo productivo en economías abiertas3, publié en 2004. l'information quantitative plus conjoncturelle et les analyses à court terme ont été extraites de différentes éditions des publications annuelles : Balance preliminar de las economías de América Latina y el Caribe, et Estudio económico de América Latina y el Caribe.l'Amérique latine et les Caraïbes a été la région du monde en développement qui a le plus misé sur le programme d'internationalisation et de libéralisation économiques, cristallisé dans ce qui a été connu comme le Consensus de Washington. Les années 1990 ont été marquées par une vague de réformes en ce sens dans tout le continent, dont les résultats, cependant, ont été maigres. Au bilan, certes, des aspects favorables comme l'Atténuation des déséquilibres budgétaires, la fin des processus chroniques d'Hyperinflation qui sévissait dans la région, la modernisation de secteurs spécifiques de l'Appareil de production et l'essor des exportations. Mais dans la colonne des éléments négatifs, on ne peut manquer d'inscrire un taux de croissance faible et volatil, le démantèlement de l'Appareil de production, la hausse du chômage, de l'informalité et de l'inégalité, l'Accroissement de la vulnérabilité extérieure et la dégradation des relations macroéconomiques clés.La région de l'Amérique latine et des Caraïbes est sortie du marasme qui a caractérisé la fin des années 90 et le début de la présente décennie et a retrouvé la voie de la croissance. En effet, l'Année 2007 a été la cinquième année consécutive d'augmentation du produit et, en raison des projections positives pour l'Année 2008, le taux moyen d'augmentation du PIB par habitant pour la période 2003 - 2008 devrait être légèrement supérieur à 3 %, ce qui en ferait la période de croissance la plus marquée et la plus longue depuis 1980.Cette évolution positive a été favorisée par un contexte international propice. l'Augmentation du produit mondial ainsi que l'essor du commerce international, le relèvement du cours international de nombreux produits de base exportés par la région et le faible niveau des taux d'intérêt (situation qui a commencé à se modifier vers le milieu de l'Année 2004 avec le changement de signede la politique monétaire adopté par la Réserve fédérale des états-Unis) se sont avérés favorables à la croissance du PIB ainsi qu'à l'Apparition de caractéristiques inédites dans un processus de croissance soutenue dans la région. C'est ainsi que les pays ont pu mettre fin à la contrainte extérieure, grâce à un excédent continu sur le compte courant résultant à son tour de l'évolution favorable des termes de l'échange, de l'Accélération de la tendance à long terme à la hausse du taux de croissance des exportations et à la forte augmentation des fonds envoyés par les émigrants.Dans le passé, néanmoins, des conjonctures tout aussi positives sur les marchés internationaux n'avaient pas été accompagnées d'une bonne performance régionale. En l'occurrence, l'orientation adoptée en matière de politique économique par de nombreux états de l'Amérique latine et des Caraïbes a joué un rôle déterminant pour tirer parti de facteurs qui, dans un autre contexte, n'auraient pu constituer qu'une autre opportunité perdue. l'obtention d'excédents primaires réitérés dans les comptes publics (grâce à un recouvrement accru et à une attitude prudente dans la gestion des dépenses) ainsi que la volonté de maintenir un taux de change réel compétitif sont des mesures qui, dans le cadre de ce scénario international propice, autorisent un optimisme modéré quant à l'évolution à moyen terme de la région.Cependant, dans un monde en pleine croissance, une gestion macroéconomique ordonnée n'est pas suffisante pour asseoir un processus de développement. l'un des héritages des années 90 est L'hétérogénéité croissante de la structure de production qui s'est traduite par l'exclusion massive de certains agents économiques alors que d'autres progressaient vers la modernisation productive.On peut distinguer aujourd'Hui, dans l'économie latino-américaine, trois grands groupes d'unités productives en fonction de leur degré de formalisation et de leur taille. Le premier groupe est celui composé par les grandes entreprises, dont beaucoup sont transnationales et dont les niveaux de productivité sont proches de la barre internationale mais qui, dans le même temps, n'ont guère de liens avec l'économie locale et présentent une très faible capacité endogène de générer des innovations. Le deuxième groupe englobe les petites et moyennes entreprises du secteur formel qui éprouvent généralement de grandes difficultés d'accès à certains marchés, en particulier au marché financier et à celui des services technologiques, et qui présentent surtout une faible capacité d'articulation productive au sein même du groupe et avec les plus grandes entreprises. Le dernier groupe est celui des micro et petites entreprises du secteur informel qui, en raison de leur structure et de leurs capacités, affichent la productivité relative la plus faible et fonctionnent dans un contexte qui les prive de toute possibilité de développement et d'apprentissage. En outre, les travailleurs salariés et les chefs de micro-entreprises de ce secteur n'ont aucune forme de protection sociale contre les risques qui les menacent, incluant la perte d'emploi ou de revenus.Le développement productif de cette véritable économie à trois vitesses passe par l'Adoption de politiques publiques volontaristes propres à niveler le terrain de jeu grâce à une structure différenciée d'aides et d'incitations.l'Administration de la macroéconomie et les politiques productives ne représentent toutefois qu'une partie des initiatives nécessaires pour jeter les bases d'un processus de développement économique à long terme. Il est indispensable de réparer la déchirure du tissu social qui est l'un des effets secondaires les plus graves de l'expérience de politique mise en oeuvre dans les années 90. l'Aggravation de L'hétérogénéité productive et de l'inégalité, ainsi que l'Augmentation de l'informalité et du chômage ne se traduisent pas seulement en pertes statiques et dynamiques en termes de niveau du produit et de taux de croissance à long terme; elles constituent également une menace latente à la cohabitation démocratique et à l'unité des perspectives et d'objectifs qui doit accompagner les processus de changement historique inévitablement impliqués dans le développement économique.C'est pourquoi la CEPALC a proposé la création d'un pacte de cohésion sociale fondé sur l'Adoption d'engagements réciproques entre les différents secteurs sociaux et l'état afin de jeter les bases d'un avenir inclusif du point de vue social dans la région. Ce pacte repose sur plusieurs piliers: la cohérence vis-à-vis des fondements de la politique économique, la création d'emplois, la protection sociale, ainsi que l'éducation et la formation professionnelle pour l'ensemble de la population.Depuis l'époque de Celso Furtado et Raúl Prebisch, des concepts comme le schéma centre - périphérie et l'étude des tendances à long terme des termes de l'échange, l'importance de la contrainte extérieure pour la stabilité macroéconomique des économies moins développées, la nécessité de promouvoir, à partir de l'état, la croissance de certaines activités ou de certains secteurs productifs considérés comme stratégiques ainsi que le lien entre le phénomène inflationniste et l'Action distributive ont nourri le débat intellectuel dans le continent et inspiré les responsables de la prise de décision de différents gouvernements et à différentes périodes.La synthèse de documents récents présentée ici prétend suivre cette même voie de construction d'une pensée locale qui se découvre universelle en révélant les particularités de son contexte et qui trouve sa justification dans la volonté de contribuer à l'émergence d'acteurs sociaux et de réalités nationales souvent oubliés.Devant la profondeur de la crise d'origine financière qui touche toute la planète et dont les répercussions les plus graves seront ressenties par les pauvres des pays en développement, nous rejoignons Rouquié pour dire, au sens vertueux, que l'état est de retour pour s'acquitter des tâches que le marché a été, à lui seul, incapable de réaliser.Alicia BárcenaSecrétaire exécutiveCommission économique pour l'Amériquelatine et les Caraïbes (CEPALC)RésuméCe livre de la CEPALC est publié conjointement avec la Coopération française et contient deux essais sur l'Amérique latine et les Caraïbes où sont essentiellement abordés les défis qui se posent à la région au seuil de ce millénaire. Ces premières années du millénaire se caractérisent d'ores et déjà par une conjoncture économique difficile dont il est encore difficile de mesurer les conséquences.Le premier article rédigé par des experts de la CEPALC rend compte des idées centrales de publications récentes de la Commission. Les thèses dans lesquelles s'inscrivent les idées développées dans les pages qui suivent émanent des publications ci-après: Mondialisation et développement, publié en 2002, et Desarrollo productivo en economías abiertas, publié en 2004. l'information quantitative plus conjoncturelle et les analyses à court terme ont été extraites de différentes éditions des publications annuelles: Balance preliminar de las economías de América Latina y el Caribe, et Estudio económico de América Latina.Le deuxième article, rédigé par Alain Rouquié, expert en questions latino-américaines et président de la Maison de l'Amérique latine à Paris, propose, selon les propres dires de l'Auteur, une série de réflexions libres sur l'Amérique latine.La publication conjointe de ces deux essais met en relief une complémentarité de perspectives issues des deux hémisphères du globe, ce qui confère à cet ouvrage un intérêt tout particulier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Inclut la bibliographie

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pós-graduação em Geografia - IGCE

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail est consacré sur la perspective dialogique d'étude d'un type de texte assez bien populaire sur les médias numériques; appelés par chaîne, il s'agit des messages qui sont transmises par e-mail de façon très rapide et de large propagation parmi ses usagers. La recherche a par objective principal analyser les discours véhiculés par les appelés chaînes, en abordant ses thèmes plus recourants, liées aux concepts de dialogue et genre, présents sur les travaux du Circule de Bakhtine. Par constitution du corpus ils sont allés sélectionnées des chaînes transmises par e-mail entre les années de 2009 et 2011. Dans l'analyse du matériel collecté on a découvert des différences plus généralistes que nous ont permis sa organisation en trois différents grands thèmes: religieuse, relations et utilité publique. Les chaînes composées par la thématique religieuse amènent une mode d’interpellation assez très incisif, direct et explicite à son destinataire, pour qu'il puisse renvoyer le message reçu à des autres destinataires. Il s'agit d'un appel, souvent, coactif et menaçant, avec le but aussi de persuader le destinataire à adhérer au discours religieux contenu dans le message. Le discours religieux des chaînes est configuré d'une façon de défi, ou test, pour lesquelles il y a une promesse de récompense. Le deuxième type de chaîne analysé explore le thème des relations homme/femme et interpelle son destinataire d'une façon suggestionné et non coercitive

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduzione L’importanza clinica, sociale ed economica del trattamento dell’ipertensione arteriosa richiede la messa in opera di strumenti di monitoraggio dell’uso dei farmaci antiipertensivi che consentano di verificare la trasferibilità alla pratica clinica dei dati ottenuti nelle sperimentazioni. L’attuazione di una adatta strategia terapeutica non è un fenomeno semplice da realizzare perché le condizioni in cui opera il Medico di Medicina Generale sono profondamente differenti da quelle che si predispongono nell’esecuzione degli studi randomizzati e controllati. Emerge, pertanto, la necessità di conoscere le modalità con cui le evidenze scientifiche trovano reale applicazione nella pratica clinica routinaria, identificando quei fattori di disturbo che, nei contesti reali, limitano l’efficacia e l’appropriatezza clinica. Nell’ambito della terapia farmacologica antiipertensiva, uno di questi fattori di disturbo è costituito dalla ridotta aderenza al trattamento. Su questo tema, recenti studi osservazionali hanno individuato le caratteristiche del paziente associate a bassi livelli di compliance; altri hanno focalizzato l’attenzione sulle caratteristiche del medico e sulla sua capacità di comunicare ai propri assistiti l’importanza del trattamento farmacologico. Dalle attuali evidenze scientifiche, tuttavia, non emerge con chiarezza il peso relativo dei due diversi attori, paziente e medico, nel determinare i livelli di compliance nel trattamento delle patologie croniche. Obiettivi Gli obiettivi principali di questo lavoro sono: 1) valutare quanta parte della variabilità totale è attribuibile al livello-paziente e quanta parte della variabilità è attribuibile al livello-medico; 2) spiegare la variabilità totale in funzione delle caratteristiche del paziente e in funzione delle caratteristiche del medico. Materiale e metodi Un gruppo di Medici di Medicina Generale che dipendono dall’Azienda Unità Sanitaria Locale di Ravenna si è volontariamente proposto di partecipare allo studio. Sono stati arruolati tutti i pazienti che presentavano almeno una misurazione di pressione arteriosa nel periodo compreso fra il 01/01/1997 e il 31/12/2002. A partire dalla prima prescrizione di farmaci antiipertensivi successiva o coincidente alla data di arruolamento, gli assistiti sono stati osservati per 365 giorni al fine di misurare la persistenza in trattamento. La durata del trattamento antiipertensivo è stata calcolata come segue: giorni intercorsi tra la prima e l’ultima prescrizione + proiezione, stimata sulla base delle Dosi Definite Giornaliere, dell’ultima prescrizione. Sono stati definiti persistenti i soggetti che presentavano una durata del trattamento maggiore di 273 giorni. Analisi statistica I dati utilizzati per questo lavoro presentano una struttura gerarchica nella quale i pazienti risultano “annidati” all’interno dei propri Medici di Medicina Generale. In questo contesto, le osservazioni individuali non sono del tutto indipendenti poiché i pazienti iscritti allo stesso Medico di Medicina Generale tenderanno ad essere tra loro simili a causa della “storia comune” che condividono. I test statistici tradizionali sono fortemente basati sull’assunto di indipendenza tra le osservazioni. Se questa ipotesi risulta violata, le stime degli errori standard prodotte dai test statistici convenzionali sono troppo piccole e, di conseguenza, i risultati che si ottengono appaiono “impropriamente” significativi. Al fine di gestire la non indipendenza delle osservazioni, valutare simultaneamente variabili che “provengono” da diversi livelli della gerarchia e al fine di stimare le componenti della varianza per i due livelli del sistema, la persistenza in trattamento antiipertensivo è stata analizzata attraverso modelli lineari generalizzati multilivello e attraverso modelli per l’analisi della sopravvivenza con effetti casuali (shared frailties model). Discussione dei risultati I risultati di questo studio mostrano che il 19% dei trattati con antiipertensivi ha interrotto la terapia farmacologica durante i 365 giorni di follow-up. Nei nuovi trattati, la percentuale di interruzione terapeutica ammontava al 28%. Le caratteristiche-paziente individuate dall’analisi multilivello indicano come la probabilità di interrompere il trattamento sia più elevata nei soggetti che presentano una situazione clinica generale migliore (giovane età, assenza di trattamenti concomitanti, bassi livelli di pressione arteriosa diastolica). Questi soggetti, oltre a non essere abituati ad assumere altre terapie croniche, percepiscono in minor misura i potenziali benefici del trattamento antiipertensivo e tenderanno a interrompere la terapia farmacologica alla comparsa dei primi effetti collaterali. Il modello ha inoltre evidenziato come i nuovi trattati presentino una più elevata probabilità di interruzione terapeutica, verosimilmente spiegata dalla difficoltà di abituarsi all’assunzione cronica del farmaco in una fase di assestamento della terapia in cui i principi attivi di prima scelta potrebbero non adattarsi pienamente, in termini di tollerabilità, alle caratteristiche del paziente. Anche la classe di farmaco di prima scelta riveste un ruolo essenziale nella determinazione dei livelli di compliance. Il fenomeno è probabilmente legato ai diversi profili di tollerabilità delle numerose alternative terapeutiche. L’appropriato riconoscimento dei predittori-paziente di discontinuità (risk profiling) e la loro valutazione globale nella pratica clinica quotidiana potrebbe contribuire a migliorare il rapporto medico-paziente e incrementare i livelli di compliance al trattamento. L’analisi delle componenti della varianza ha evidenziato come il 18% della variabilità nella persistenza in trattamento antiipertensivo sia attribuibile al livello Medico di Medicina Generale. Controllando per le differenze demografiche e cliniche tra gli assistiti dei diversi medici, la quota di variabilità attribuibile al livello medico risultava pari al 13%. La capacità empatica dei prescrittori nel comunicare ai propri pazienti l’importanza della terapia farmacologica riveste un ruolo importante nel determinare i livelli di compliance al trattamento. La crescente presenza, nella formazione dei medici, di corsi di carattere psicologico finalizzati a migliorare il rapporto medico-paziente potrebbe, inoltre, spiegare la relazione inversa, particolarmente evidente nella sottoanalisi effettuata sui nuovi trattati, tra età del medico e persistenza in trattamento. La proporzione non trascurabile di variabilità spiegata dalla struttura in gruppi degli assistiti evidenzia l’opportunità e la necessità di investire nella formazione dei Medici di Medicina Generale con l’obiettivo di sensibilizzare ed “educare” i medici alla motivazione ma anche al monitoraggio dei soggetti trattati, alla sistematica valutazione in pratica clinica dei predittori-paziente di discontinuità e a un appropriato utilizzo della classe di farmaco di prima scelta. Limiti dello studio Uno dei possibili limiti di questo studio risiede nella ridotta rappresentatività del campione di medici (la partecipazione al progetto era su base volontaria) e di pazienti (la presenza di almeno una misurazione di pressione arteriosa, dettata dai criteri di arruolamento, potrebbe aver distorto il campione analizzato, selezionando i pazienti che si recano dal proprio medico con maggior frequenza). Questo potrebbe spiegare la minore incidenza di interruzioni terapeutiche rispetto a studi condotti, nella stessa area geografica, mediante database amministrativi di popolazione. Conclusioni L’analisi dei dati contenuti nei database della medicina generale ha consentito di valutare l’impiego dei farmaci antiipertensivi nella pratica clinica e di stabilire la necessità di porre una maggiore attenzione nella pianificazione e nell’ottenimento dell’obiettivo che il trattamento si prefigge. Alla luce dei risultati emersi da questa valutazione, sarebbe di grande utilità la conduzione di ulteriori studi osservazionali volti a sostenere il progressivo miglioramento della gestione e del trattamento dei pazienti a rischio cardiovascolare nell’ambito della medicina generale.