999 resultados para Pour Thru method
Resumo:
Les partenariats public-privé se développent dans la quasi-totalité des pays de l'OCDE. De nombreux acteurs, publics ou privés, y voient un moyen pour développer de nouvelles infrastructures et prestations publiques à moindre coût et de manière sensiblement plus rapide et plus efficace. Considérés sous l'angle de leur gestion, les PPP s'avèrent finalement bien plus complexes qu'ils ne paraissent d'un premier abord. Basé sur une revue de la littérature européenne portant sur les expériences en cours sur le Continent, l'article vise à faire état de la nature des débats gestionnaires entourant cette nouvelle forme de coordination des activités étatiques en relevant plus spécifiquement les difficultés auxquelles la plupart des PPP sont confrontés, sur la base d'une lecture institutionnelle.
Resumo:
OBJECTIVES: The objective of our qualitative study was to define modalities of psychological support to be offered to couples seeking medically assisted procreation. MATERIAL AND METHODS: Forty couples participated in a semi-structured videotaped interview, which touched on themes such as personal and family histories, the couple's relationship, etc. We focused on the "narrative mobility", that is the way in which the couples transmit their personal and family history during the interview and the interviewer's impression that he may or may not share this with the couples. RESULTS: Observed differences in narrative mobility led us to distinguish three groups of couples and to propose various types of psychological support. DISCUSSION AND CONCLUSION: This exploratory study, with its interest for the narrative mobility, concerns the couples' capacity to stand back from their own story as responsible interlocutors. We made the hypothesis that this capacity is linked to their capacity to handle their emotional stress, to act as partners to the medical team and to prepare themselves for their future parenthood.
Resumo:
Résumé La mondialisation des marchés, les mutations du contexte économique et enfin l'impact des nouvelles technologies de l'information ont obligé les entreprises à revoir la façon dont elles gèrent leurs capitaux intellectuel (gestion des connaissances) et humain (gestion des compétences). II est communément admis aujourd'hui que ceux-ci jouent un rôle particulièrement stratégique dans l'organisation. L'entreprise désireuse de se lancer dans une politique gestion de ces capitaux devra faire face à différents problèmes. En effet, afin de gérer ces connaissances et ces compétences, un long processus de capitalisation doit être réalisé. Celui-ci doit passer par différentes étapes comme l'identification, l'extraction et la représentation des connaissances et des compétences. Pour cela, il existe différentes méthodes de gestion des connaissances et des compétences comme MASK, CommonKADS, KOD... Malheureusement, ces différentes méthodes sont très lourdes à mettre en oeuvre, et se cantonnent à certains types de connaissances et sont, par conséquent, plus limitées dans les fonctionnalités qu'elles peuvent offrir. Enfin, la gestion des compétences et la gestion des connaissances sont deux domaines dissociés alors qu'il serait intéressant d'unifier ces deux approches en une seule. En effet, les compétences sont très proches des connaissances comme le souligne la définition de la compétence qui suit : « un ensemble de connaissances en action dans un contexte donné ». Par conséquent, nous avons choisi d'appuyer notre proposition sur le concept de compétence. En effet, la compétence est parmi les connaissances de l'entreprise l'une des plus cruciales, en particulier pour éviter la perte de savoir-faire ou pour pouvoir prévenir les besoins futurs de l'entreprise, car derrière les compétences des collaborateurs, se trouve l'efficacité de l'organisation. De plus, il est possible de décrire grâce à la compétence de nombreux autres concepts de l'organisation, comme les métiers, les missions, les projets, les formations... Malheureusement, il n'existe pas réellement de consensus sur la définition de la compétence. D'ailleurs, les différentes définitions existantes, même si elles sont pleinement satisfaisantes pour les experts, ne permettent pas de réaliser un système opérationnel. Dans notre approche; nous abordons la gestion des compétences à l'aide d'une méthode de gestion des connaissances. En effet, de par leur nature même, connaissance et compétence sont intimement liées et donc une telle méthode est parfaitement adaptée à la gestion des compétences. Afin de pouvoir exploiter ces connaissances et ces compétences nous avons dû, dans un premier temps, définir les concepts organisationnels de façon claire et computationnelle. Sur cette base, nous proposons une méthodologie de construction des différents référentiels d'entreprise (référentiel de compétences, des missions, des métiers...). Pour modéliser ces différents référentiels, nous avons choisi l'ontologie, car elle permet d'obtenir des définitions cohérentes et consensuelles aux concepts tout en supportant les diversités langagières. Ensuite, nous cartographions les connaissances de l'entreprise (formations, missions, métiers...) sur ces différentes ontologies afin de pouvoir les exploiter et les diffuser. Notre approche de la gestion des connaissances et de la gestion des compétences a permis la réalisation d'un outil offrant de nombreuses fonctionnalités comme la gestion des aires de mobilités, l'analyse stratégique, les annuaires ou encore la gestion des CV. Abstract The globalization of markets, the easing of economical regulation and finally the impact of new information and communication technologies have obliged firms to re-examine the way they manage their knowledge capital (knowledge management) and their human capital (competence management). It is commonly admitted that knowledge plays a slightly strategical role in the organization. The firms who want to establish one politic of management of these capitals will have to face with different problems. To manage that knowledge, a long process of capitalization must be done. That one has different steps like identification, extraction and representation of knowledge and competences. There are some different methods of knowledge management like MASK, CommonKADS or KOD. Unfortunately, those methods are very difficult to implement and are using only some types of knowledge and are consequently more limited in the functionalities they can offer. Knowledge management and competence management are two different domain where it could be interesting to unify those to one. Indeed, competence is very close than knowledge as underline this definition: "a set of knowledge in action in a specified context". We choose in our approach to rely on the concept of competence. Indeed, the competence is one of crucial knowledge in the company, particularly to avoid the loss of know-how or to prevent future needs. Because behind collaborator's competence, we can find company efficiency. Unfortunately, there is no real consensus on the definition of the concept of competence. Moreover, existing different definitions don't permit to develop an operational system. Among other key concept, we can find jobs, mission, project, and training... Moreover, we approach different problems of the competence management under the angle of the knowledge management. Indeed, knowledge and competence are closely linked. Then, we propose a method to build different company repositories (competence, jobs, projects repositories). To model those different repositories we choose ontology because it permits to obtain coherent and consensual definitions of the concepts with support of linguistics diversities too. This building repositories method coupled with this knowledge and competence management approach permitted the realization of a tool offering functionalities like mobility management, strategical analysis, yellow pages or CV management.
Resumo:
SUMMARY : Eukaryotic DNA interacts with the nuclear proteins using non-covalent ionic interactions. Proteins can recognize specific nucleotide sequences based on the sterical interactions with the DNA and these specific protein-DNA interactions are the basis for many nuclear processes, e.g. gene transcription, chromosomal replication, and recombination. New technology termed ChIP-Seq has been recently developed for the analysis of protein-DNA interactions on a whole genome scale and it is based on immunoprecipitation of chromatin and high-throughput DNA sequencing procedure. ChIP-Seq is a novel technique with a great potential to replace older techniques for mapping of protein-DNA interactions. In this thesis, we bring some new insights into the ChIP-Seq data analysis. First, we point out to some common and so far unknown artifacts of the method. Sequence tag distribution in the genome does not follow uniform distribution and we have found extreme hot-spots of tag accumulation over specific loci in the human and mouse genomes. These artifactual sequence tags accumulations will create false peaks in every ChIP-Seq dataset and we propose different filtering methods to reduce the number of false positives. Next, we propose random sampling as a powerful analytical tool in the ChIP-Seq data analysis that could be used to infer biological knowledge from the massive ChIP-Seq datasets. We created unbiased random sampling algorithm and we used this methodology to reveal some of the important biological properties of Nuclear Factor I DNA binding proteins. Finally, by analyzing the ChIP-Seq data in detail, we revealed that Nuclear Factor I transcription factors mainly act as activators of transcription, and that they are associated with specific chromatin modifications that are markers of open chromatin. We speculate that NFI factors only interact with the DNA wrapped around the nucleosome. We also found multiple loci that indicate possible chromatin barrier activity of NFI proteins, which could suggest the use of NFI binding sequences as chromatin insulators in biotechnology applications. RESUME : L'ADN des eucaryotes interagit avec les protéines nucléaires par des interactions noncovalentes ioniques. Les protéines peuvent reconnaître les séquences nucléotidiques spécifiques basées sur l'interaction stérique avec l'ADN, et des interactions spécifiques contrôlent de nombreux processus nucléaire, p.ex. transcription du gène, la réplication chromosomique, et la recombinaison. Une nouvelle technologie appelée ChIP-Seq a été récemment développée pour l'analyse des interactions protéine-ADN à l'échelle du génome entier et cette approche est basée sur l'immuno-précipitation de la chromatine et sur la procédure de séquençage de l'ADN à haut débit. La nouvelle approche ChIP-Seq a donc un fort potentiel pour remplacer les anciennes techniques de cartographie des interactions protéine-ADN. Dans cette thèse, nous apportons de nouvelles perspectives dans l'analyse des données ChIP-Seq. Tout d'abord, nous avons identifié des artefacts très communs associés à cette méthode qui étaient jusqu'à présent insoupçonnés. La distribution des séquences dans le génome ne suit pas une distribution uniforme et nous avons constaté des positions extrêmes d'accumulation de séquence à des régions spécifiques, des génomes humains et de la souris. Ces accumulations des séquences artéfactuelles créera de faux pics dans toutes les données ChIP-Seq, et nous proposons différentes méthodes de filtrage pour réduire le nombre de faux positifs. Ensuite, nous proposons un nouvel échantillonnage aléatoire comme un outil puissant d'analyse des données ChIP-Seq, ce qui pourraient augmenter l'acquisition de connaissances biologiques à partir des données ChIP-Seq. Nous avons créé un algorithme d'échantillonnage aléatoire et nous avons utilisé cette méthode pour révéler certaines des propriétés biologiques importantes de protéines liant à l'ADN nommés Facteur Nucléaire I (NFI). Enfin, en analysant en détail les données de ChIP-Seq pour la famille de facteurs de transcription nommés Facteur Nucléaire I, nous avons révélé que ces protéines agissent principalement comme des activateurs de transcription, et qu'elles sont associées à des modifications de la chromatine spécifiques qui sont des marqueurs de la chromatine ouverte. Nous pensons que lés facteurs NFI interagir uniquement avec l'ADN enroulé autour du nucléosome. Nous avons également constaté plusieurs régions génomiques qui indiquent une éventuelle activité de barrière chromatinienne des protéines NFI, ce qui pourrait suggérer l'utilisation de séquences de liaison NFI comme séquences isolatrices dans des applications de la biotechnologie.
Resumo:
Fluorescence flow cytometry was employed to assess the potential of a vital dye, hydroethiedine, for use in the detection and monitoring of the viability of hemoparasites in infected erythrocytes, using Babesia bovis as a model parasite. The studies demonstrated that hydroethidine is taken up by B. bovis and metabolically converted to the DNA binding fluorochrone, ethidium. Following uptake of the dye, erythrocytes contamine viable parasites were readily distinguished and quantitated. Timed studies with the parasiticidal drug, Ganaseg, showed that it is possible to use the fluorochrome assay to monitor the effects of the drug on the rate of replication and viability of B. bovis in culture. The assay provides a rapid method for evaluation of the in vitro effect of drugs on hemoparasites and for analysis of the effect of various components of the immune response, such as lymphokines, monocyte products, antibodies, and effector cells (T, NK, LAK, ADCC) on the growth and viability of intraerythrocytic parasites.
Resumo:
Clinical epidemiology is the most currently used name for a comparatively new branch of medicine covering a certain number of activities related to the practice of clinical medicine, but using epidemiological techniques and methods. Clinical epidemiology has only just begun to be known in Europe, whereas units are being increasingly developed and expanded in North America, particularly within the clinical departments of hospitals. The methods it offers are valid for both practicing physicians and hospital doctors (or those being trained in hospitals) and serve the purpose of promoting a better quality medical service, especially where a more adequate evaluation of the effectiveness of diagnostic methods, therapy and prognosis in medicine is concerned. Clinical epidemiology proposes a methodology of medical reasoning and of decision-making, as well as techniques intended to facilitate the indispensable task of keeping up with advances in medical knowledge.
Resumo:
BACKGROUND AND STUDY AIMS: Various screening methods for colorectal cancer (CRC) are promoted by professional societies; however, few data are available about the factors that determine patient participation in screening, which is crucial to the success of population-based programs. This study aimed (i) to identify factors that determine acceptance of screening and preference of screening method, and (ii) to evaluate procedure success, detection of colorectal neoplasia, and patient satisfaction with screening colonoscopy. PATIENTS AND METHODS: Following a public awareness campaign, the population aged 50 - 80 years was offered CRC screening in the form of annual fecal occult blood tests, flexible sigmoidoscopy, a combination of both, or colonoscopy. RESULTS: 2731 asymptomatic persons (12.0 % of the target population) registered with and were eligible to take part in the screening program. Access to information and a positive attitude to screening were major determinants of participation. Colonoscopy was the method preferred by 74.8 % of participants. Advanced colorectal neoplasia was present in 8.5 %; its prevalence was higher in males and increased with age. Significant complications occurred in 0.5 % of those undergoing colonoscopy and were associated with polypectomy or sedation. Most patients were satisfied with colonoscopy and over 90 % would choose it again for CRC screening. CONCLUSIONS: In this population-based study, only a small proportion of the target population underwent CRC screening despite an extensive information campaign. Colonoscopy was the preferred method and was safe. The determinants of participation in screening and preference of screening method, together with the distribution of colorectal neoplasia in different demographic categories, provide a rationale for improving screening procedures.
Resumo:
We propose a mixed finite element method for a class of nonlinear diffusion equations, which is based on their interpretation as gradient flows in optimal transportation metrics. We introduce an appropriate linearization of the optimal transport problem, which leads to a mixed symmetric formulation. This formulation preserves the maximum principle in case of the semi-discrete scheme as well as the fully discrete scheme for a certain class of problems. In addition solutions of the mixed formulation maintain exponential convergence in the relative entropy towards the steady state in case of a nonlinear Fokker-Planck equation with uniformly convex potential. We demonstrate the behavior of the proposed scheme with 2D simulations of the porous medium equations and blow-up questions in the Patlak-Keller-Segel model.
Resumo:
Ce guide, unique en son genre, est appelé à rendre les plus grands services à tous ceux qui souhaitent s'initier à la lecture historico-critique du Nouveau Testament ou approfondir son étude. Tout ce qu'il faut savoir (méthode, analyse, contexte des différents livres, etc...) s'y trouve. L'ouvrage comprend 5 parties qui peuvent se lire chacune indépendamment les unes des autres. Au début figure une introduction à la méthode des sciences bibliques en Nouveau Testament aujourd'hui. Puis, l'univers du christianisme primitif est largement présenté. Dans la troisième partie, un survol des contenus de chacun des écrits du Nouveau Testament est proposé, ainsi que les problèmes théologiques et historiques que ceux-ci soulèvent. Enfin, une présentation de l'activité et de la prédication de Jésus de Nazareth est développée sur fond d'une histoire du christianisme primitif. L'édition allemande de ce livre a déjà fait l'objet de douze rééditions, systématiquement réactualisées par les auteurs.