999 resultados para PIT tapes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'identification spécifique d'un échantillon biologique récolté sur le terrain n'est pas toujours possible par le biais de méthodes conventionnelles. Afin de remédier à cette situation, nous avons développé un protocole rapide, rigoureux et reproductible, constitué de quatre étapes principales: (i) extraction (isolement) de l'ADN à partir d'échantillons biologiques de provenance variée; (ii) amplification par PCR d'un segment spécifique d'ADN; (iii) détermination de la séquence nucléotidique du segment d'ADN amplifié; (iv) comparaison de la séquence obtenue avec une base de données (si nécessaire, analyse phylogénétique) et détermination de l'espèce la plus proche. Cette approche nous a permis d'identifier sans ambiguïté la totalité des échantillons analysés, représentés par des tissus d'origine variée (sang, biopsies d'organe ou de tissu) d'espèces de mammifères sauvages.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le "Sūtra des contemplations de Vie-Infinie" a joué un rôle déterminant dans l'histoire de la Terre pure, cette tradition qui occupe jusqu'à nos jours une place majeure dans le bouddhisme de l'Extrême-Orient. Typique de l'idéal du Grand Véhicule, ce texte fournit une méthode complexe pour visualiser le Buddha Amida et son royaume en cette vie-ci, ainsi qu'une pratique plus accessible : la récitation du nom de ce buddha (nembutsu) pour aller naître auprès de lui dès la vie prochaine. Inconnu des sources indiennes mais traduit en chinois au début du Ve siècle de notre ère, ce sūtra est depuis une cinquantaine d'annés l'objet d'un débat sur son origine véritable. Cependant, il occupe une position clef entre les traductions chinoises archaïques du "Grand Sūtra de l'agencement de la Sukhāvatī" (IIIe s.) et la floraison de l'école de la Terre pure à l'ère des Tang (VIIe s.). En outre, le "Sūtra des contemplations" se distingue comme l'une des sources importantes de l'art bouddhique sino-japonais, depuis l'Asie centrale jusqu'au Japon médiéval. Ses représentations sur les grandes fresques et bannières peintes des VIIIe et IXe siècles, découvertes dans les grottes de Dunhuang, témoignent d'un long développement iconographique, dont les étapes antérieures peuvent être retracées par l'archéologie. Le double intérêt philologique et iconographique de ce texte en fait donc un jalon déterminant dans l'enquête tentant de cerner le processus de l'acclimatation en sol chinois de cette tradition venue de l'Inde via la Route de la soie. Pour la première fois, la présente étude traite de ces deux dimensions conjointement, en fournissant une introduction détaillée et une traduction commentée du texte, doublée d'une analyse fouillée de son évolution artistique en Chine jusqu'à sa représentation classique au Japon, le « Mandala de Taima ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien établie dans le monde anglo-saxon, l'approche "genre" en médecine semble encore peu connue des médecins suisses. Après avoir évoqué les principales initiatives ayant permis le développement de ce domaine en Suisse, cet article retrace de quelle manière, à partir des années 1970, les sciences sociales ont distingué ce qui relève du social (le genre) de ce qui relève du biologique (le sexe) dans l'analyse du statut réservé aux femmes et aux hommes; distinction officiellement reprise deux décennies plus tard en médecine. La présentation des principales étapes historiques ayant permis l'émergence du domaine "Gender Health-Gender Medicine" se clôt sur un portrait de cette approche dont la pertinence se voit soulignée en ce début de 21e siècle par l'OMS, comme par d'autres instances officielles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME : Bien que les propriétés physiques de la structure de l'ADN aient été intensivement étudiées pendant plus de 50 ans il y a encore beaucoup de questions importantes qui attendent des réponses. Par exemple, qu'arrive-t-il à la structure de la double hélice d'ADN nue (sans protéines liées) lorsqu'elle est fortement courbée, de la même manière que dans les nucléosomes? Cet ADN nu est-il facilement plié (il reste dans le régime élastique) ou réduit-il la contrainte de flexion en formant des sites hyperflexibles «kinks» (il sort du régime élastique en cassant l'empilement des paires de bases à certains endroits) ? La microscopie électronique peut fournir une réponse à cette question par visualisation directe des minicercles d'ADN de la longueur d'un tour de nucléosome (environ 90 paires de bases). Pour que la réponse soit scientifiquement valide, on doit observer les molécules d'ADN lorsqu'elles sont en suspension dans la solution d'intérêt et sans que des colorations, produits chimiques ou fixatifs n'aient été ajoutés, étant donné que ceux-ci peuvent changer les propriétés de l'ADN. La technique de la cryo-microscopie électronique (cryo-EM) développée par le groupe de Jacques Dubochet au début des années 80, permet la visualisation directe des molécules d'ADN suspendues dans des couche minces vitrifiées de solutions aqueuses. Toutefois, le faible contraste qui caractérise la cryo-EM combinée avec la très petite taille des minicercles d'ADN rendent nécessaire l'optimisation de plusieurs étapes, aussi bien dans la préparation des échantillons que dans le processus d'acquisition d'images afin d'obtenir deux clichés stéréo qui permettent la reconstruction 3-D des minicercles d'ADN. Dans la première partie de ma thèse, je décris l'optimisation de certains paramètres pour la cryoEM et des processus d'acquisition d'image utilisant comme objets de test des plasmides et d'autres molécules d'ADN. Dans la deuxième partie, je .décris comment j'ai construit les minicercles d'ADN de 94 bp et comment j'ai introduit des modifications structurelles comme des coupures ou des lacunes. Dans la troisième partie, je décris l'analyse des reconstructions des rninicercles d'ADN. Cette analyse, appuyée par des tests biochimiques, indique fortement que des molécules d'ADN sont capables de former de petites molécules circulaires de 94 bp sans dépasser les limites d'élasticité, indiquant que les minicercles adoptent une forme circulaire régulière où la flexion est redistribuée le long la molécule. ABSTRACT : Although physical properties of DNA structure have been intensively studied for over 50 years there are still many important questions that need to be answered. For example, what happens to protein-free double-stranded DNA when it is strongly bent, as in DNA forming nucleosomes? Is such protein-free DNA smoothly bent (i.e. it remains within elastic limits of DNA rigidity) or does it release its bending stress by forming sharp kinks (i.e. it exits the elastic regime and breaks the stacking between neighbouring base-pairs in localized regions)? Electron microscopy can provide an answer to this question by directly visualizing DNA minicircles that have the size of nucleosome gyres (ca 90 bp). For the answer to be scientifically valid, one needs to observe DNA molecules while they are still suspended in the solution of interest and no staining chemicals or fixatives have been added since these can change the properties of the DNA. CryoEM techniques developed by Jacques Dubochet's group beginning in the 1980's permit direct visualization of DNA molecules suspended in cryo-vitrified layers of aqueous solutions. However, a relatively weak contrast of cryo-EM preparations combined with the very small size of the DNA minicircles made it necessary to optimize many of the steps and parameters of the cryo-EM specimen preparation and image acquisition processes in order to obtain stereo-pairs of images that permit the 3-D reconstruction of the observed DNA minicircles. In the first part of my thesis I describe the optimization of the cryo-EM preparation and the image acquisition processes using plasmid size DNA molecules as a test object. In the second part, I describe how I formed the 94 by DNA minicircles and how I introduced structural modifications like nicks or gaps. In the third part, I describe the cryo-EM analysis of the constructed DNA minicircles. That analysis, supported by biochemical tests, strongly indicates that DNA minicircles as small as 94 by remain within the elastic limits of DNA structure, i.e. the minicircles adopt a regular circular shape where bending is redistributed along the molecules.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce cahier présente une analyse comparée de quatre études de cas menées au sein du projet consacré aux stratégies politiques et foncières des grands propriétaires fonciers suisses à l'IDHEAP en 2007-2008. Ces études de cas concernent le complexe immobilier de « La Maladière » à Neuchâtel, le pôle de développement économique du Wankdorf à Berne, le « Centre Boujean » à Bienne ainsi que la place d'armes de Thoune. De chacun de ces cas sont présentés la chronologie des événements, les étapes et régimes du projet, les configurations et stratégies des acteurs, les impacts sur la durabilité ainsi qu'une discussion des résultats à la lumière des hypothèses du projet. L'analyse comparée fait le point des configurations et stratégies des acteurs qui sont ensuite mises en relation avec les régimes institutionnels et la durabilité des usages du sol. L'un des messages principaux est que, aujourd'hui, on ne peut plus séparer l'aménagement du territoire du foncier si l'on veut atteindre les objectifs politiques du développement du territoire. Die vorliegende Publikation enthält eine vergleichende Analyse von vier Fallstudien, die im Rahmen des Projektes zu den Strategien der grossen Grundeigentümer der Schweiz im Bereich der Ausübung ihrer Eigentumsrechte und ihrer Interventionen auf der Ebene der Raumplanung durchgeführt wurden. Sie betreffen den Immobilienkomplex ,,La Maladière" in Neuenburg, den Entwicklungsschwerpunkt Wankdorf in Bern, das ,,Centre Boujean" in Biel und den Waffenplatz Thun. Die Zusammenfassungen der Fallstudien enthalten Angaben zur Chronologie der Ereignisse, zu den verschiedenen Etappen der Projektentwicklung und der entsprechenden Regime, zu den Akteurkonfigurationen und -strategien, zu den Auswirkungen der Projekte auf die nachhaltige Entwicklung sowie eine Diskussion der empirischen Befunde im Lichte der Projekthypothesen. Die vergleichende Analyse nimmt eine Typologie der Akteurkonfigurationen vor und diskutiert deren Folgen für die institutionellen Regime und für die nachhaltige Entwicklung der Ressource Boden. Eines der Hauptergebnisse liegt in der Feststellung, dass sich heute Raumplanung mehr den je mit den Bodeneigentumsverhältnissen befassen muss, um die beabsichtigten politischen Entwicklungsziele zu erreichen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre de la politique multiculturelle de protection des minorités menée par le gouvernement taïwanais, le Comité ministériel aux affaires hakka (keweihui) a planifié dix-huit « halls culturels hakkas » dans chaque comté et municipalité. L'article retrace le processus de création d'un de ces halls, dans le nord de l'île de Taiwan, au cours de la décennie 2000. L'aménagement du hall procède à l'incorporation d'artistes locaux dans une tradition nationale hakka réinventée. Il est montré comment sa genèse s'est produite à l'intersection d'une politique impulsée par « le haut » et d'un projet émanant d'acteurs locaux. L'article met en évidence comment les catégories yingti (hardware) et ruanti (software) président à sa fabrication et impliquent une opposition et une complémentarité entre « contenant » et « contenu », entre « État » et « société », qui agissent à toutes les étapes de sa mise en oeuvre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans la première partie, on décrit et classifie les témoins qui contribuent à la connaissance du Protévangile de Jacques (PJ) en latin : 23 mss latins, les évangiles irlandais de l'enfance du Liber Flavus Fergusiorum (LFF) et du Leabhar Breac (LB). On clarifie dans une seconde partie plusieurs questions touchant à la diversité des formes textuelles du PJ en Occident, démontrant l'existence d'au moins deux traductions latines indépendantes. (I) L'une, plutôt littérale, est conservée en partie dans Montpellier 55 (M2) et Paris, n.a.l. 718 (S). (II) L'autre, caractérisée par des amplifications, est représentée par 4 témoins : Sainte-Geneviève 2787 (G; texte presque complet); l'homélie Inquirendum est (ch. 1-8, mss KPRBDO); l'Evangile latin de l'enfance combinant une partie du PJ, le Pseudo-Matthieu et une source inconnue, de coloration docète (compilation J, 8 témoins); le récit du LFF (ch. 1-16). Une troisième traduction indépendante est peut-être attestée (mss TUE). On montre ainsi l'existence de deux étapes successives d'amplification de la traduction II (IIa et IIb), illustrant le besoin d'expliciter la narration concise du PJ original. Cette traduction amplifiée a servi de modèle à l'auteur du remaniement latin du Pseudo-Matthieu. On éclaire enfin les antécédents, les caractéristiques et l'évolution de J, qui a vu le jour avant 800. La présente étude trouvera son prolongement dans l'édition critique des diverses formes du Protévangile latin

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract : Host-Cell Factor 1 (HCF-1) was first discovered in the study of the herpes simplex virus (HSV) infection. HCF-1 is one of the two cellular proteins that compose the VP16-induced complex, a key activator of HSV lytic infection. lncleed, when HSV infects human cells, it is able to enter two modes of infection: lytic or latent. The V`P16-induced complex promotes the lytic mode and in so doing the virus targets important cellular regulatory proteins, such as HCF-1, to manipulate the status of the infected cell. Indeed, HCF-1 regulates human cell proliferation and the cell cycle at different steps. In human, HCF-1 is unusual in that it undergoes a process of proteolytic maturation that results from cleavages at six centrally located 26 amino acid repeats called HCF-1pro repeats. This generates a heterodimeric complex of stably associated amino- (HCF-1n) and carboxy- (HCF-1c) terminal subunits. The absence of the HCF-1 N or HCF-1; subunit leads predominantly to either G1 or M phase defects, respectively. We have hypothesized that HCF-1 forms a heterodimeric complex to permit communication between the two subunits of HCF-1 involved in regulating different phases of the cell cycle. Indeed, there is evidence for such inter-subunit communication because a point mutation called P134S in the HCF-1N subunit in the temperature-sensitive hamster cell line tsBN67 causes, addition to G1- phase defects associated with the HCF-1n subunit, M-phase defects similar to the defects seen upon loss of HCF-1 function. Furthermore, inhibition of the proteolytic maturation of HCF-1 by deletion of the six HCF-1pro repeats (HCF-1Aimo) also leads to M-phase defects, specifically cytokinesis defects leading to binucleation, indicating that there is loss of HCF-15 function in the absence of HCF-1 maturation. I demonstrate that individual point mutations in each of the six HCF-1pro repeats that prevent HCF-1 proteolytic maturation also lead to binucleation; however, this defect can be latgely rescued by the presence of just one HCF-1pRO sequence in I-ICF»1. These results argue that processing itself is important for the HCF-1g function. In fact, until now, the hypothesis was that the proteolytic processing per se is more important for HCF-1C function than the proteolytic processing region. But I show that processing per se is not sufticient to rescue multinucleation, but that the HCF-lpm sequence itself is crucial. This discovery leads to the conclusion that the I-ICF-1pRO repeats have an additional function important for HCF-le function. From the studies of others, one potential function of the HCF-lrxo tepeats is as a binding site for O-link NAcetyl glycosamine tansferase (OGT) to glycosylate an HCF-1n-sunbunit region called the Basic region. This new function suggests the Basic region of HCF-1n is also implicated in the communication between the two subunits. This inter-subunit communication was analyzed in more detail with the studies of the Pl34S mutation and the residues 382-450 region of HCF-l that when removed prevents HCF-l subunit association. I demonstrate that the point mutation also leads to a binucleation defect in Hela cells as well as in the tsBN67 cells. In addition, the effect of this mutation on the regulation of HCF-1c activity seems to interfere with that of the HCF-lpgg repeats because the sum of the deletion of the proteolytic processing region and the point mutation surprisingly leads to re-establishment of correct cytokinesis. The study of the 382-450 HCF-lN region also yielded surprising results. This region important for the association of the two subunits is also important for both HCF-1c function in M phase and G1 phase progression. Thus, I have discovered two main functions of this region: its role in the regulation of HCF-lc function in M phase and its involvement in the regulation of G1/S phase ?- an HCF-1n function. These results support the importance of inter-subunit communication in HCF-1 functions. My research illuminates the understanding of the interaction of the two subunits by showing that the whole HCF-1n subunit is involved in the inter-subunit communication in order to regulate HCF-1c function. For this work, I was concentrated on the study of cytokinesis; the first phenotype showing the role of HCF-1c in the M phase. Then, I extended the study of the M phase with analysis of steps earlier to cytokinesis. Because some defects in the chromosome segregation was already described in the absence of HCF-1, I decided to continue the study of M phase by checking effects on the chromosome segregation. I showed that the HCF-1n subunit and HCF-1pro repeats are both important for this key step of M phase. I show that the binucleation phenotype resulting from deletion or mutation in HCF-1pro repeats, Pl34S point mutation or the lack of the region 382-450 are correlated with micronuclei, and chromosome segregation and alignment defects. This suggests that HCF«lç already regulates M phase during an early step and could be involved in the complex regulation of chromosome segregation. Because one of the major roles of HCF-1 is to be a transcription regulator, I also checked the capacity of HCF-1 to bind to the chromatin in my different cell lines. All my recombinant proteins can bind the chromatin, except for, as previously described, the HCF-1 with the P134S point mutation, This suggests that the binding of HCF-1 to the chromatin is not dependant to the Basic and proteolytic regions but more to the Kelch domain. Thus, if the function of HCF-ig in M phase is dependant to its chromatin association, the intercommunication and the proteolytic region are not involved in the ability to bind to the chromatin but more to bind to the right place of the chromatin or to be associated with the co-factors. Résumé : L'étude de l'infection par le virus Herpes Simplex (HSV) a permis la découverte de la protéine HCF-1 (Host-Cell Factor). HCF-1 est une des protéines cellulaires qui font partie du complexe induit par VP16 ; ce complexe est la clef pour l'activation de la phase lytique de HSV. Afin de manipuler les cellules infectées, le complexe induit pas le VPIG devrait donc cibler les protéines importantes pour la régulation cellulaire, telles que la protéine HCF-1. Cette dernière s'avère donc être un senseur pour la cellule et devrait également jouer un rôle de régulation lors des différentes phases du cycle cellulaire. Chez l'humain, HCF-1 a la particularité de devoir passer par une phase de maturation pour devenir active. Lors de cette maturation, la protéine subit une coupure protéolytique au niveau de six répétitions composées de 26 acides aminés, appelé HCF-1pro repeats. Cette coupure engendre la formation d'un complexe formé de deux sous-unités, HCF-1n et HCF-1c, associées l'une à l'autre de façon stable. Enlever la sous-unité HCF-IN ou C entraîne respectivement des défauts dans la phase G1 et M. Nous pensons donc que HCF-1 forme un complexe hétérodimérique afin de permettre la communication entre les molécules impliquées dans la régulation des différentes phases du cycle cellulaire. Cette hypothèse est déduite suite à deux études: l'une réalisée sur la lignée cellulaire tsBN67 et l'autre portant sur l'inhibition de la maturation protéolytique. La lignée cellulaire tsBN67, sensible à la température, porte la mutation Pl 345 dans la sous-unité HCF-1n. Cette mutation, en plus d'occasionner des défauts dans la phase G1 (défauts liés à la sous-unité HCF-1N), a aussi pour conséquence d'entrainer des défauts dans la phase M, défauts similaires à ceux dus a la perte de la sous-unité HCF-1c. Quant à la maturation protéolytique, l'absence de la région de la protéolyse provoque la binucléation, défaut lié à la cytokinèse, indiquant la perte de la fonction de la sous-unité HCF-1c. Au cours de ma thèse, j'ai démontré que des mutations dans les HCF-1=no repeats, qui bloquent la protéolyse, engendrent la binucléation ; cependant ce défaut peut être corrigé pas l'ajout d'un HCF-1pro repeat dans un HCF-1 ne contenant pas la région protéolytique. Ces résultats soutiennent l'idée que la région protéolytique est importante pour le bon fonctionnement de HCF-1c. En réalité jusqu'a maintenant on supposait que le mécanisme de coupure était plus important que la région impliquée pour la régulation de la fonction de HCF-1;. Mais mon étude montre que la protéolyse n'est pas suffisante pour éviter la binucléation ; en effet, les HCF-1pro repeats semblent jouer le rôle essentiel dans le cycle cellulaire. Cette découverte conduit à la conclusion que les HCF-1pro repeats ont sûrement une fonction autre qui serait cruciale pour la foncton de HCF-1c. Une des fonctions possibles est d'être le site de liaison de l'O-linked N-acetylglucosamine transférase (OGT) qui glycosylerait la région Basique de HCF-1n. Cette nouvelle fonction suggère que la région Basique est aussi impliquée dans la communication entre les deux sous- unités. L'intercommunication entre les deux sous-unités ai été d'ailleurs analysée plus en détail dans mon travail à travers l'étude de la mutation Pl34S et de la région 382-450, essentielle pour l'association des deux sous»unités. J'ai ainsi démontré que la mutation P134S entraînait aussi des défauts dans la cytokinése dans la lignée cellulaire Hela, de plus, son influence sur HCF-1c semble interférer avec celle de la région protéolytique. En effet, la superposition de ces deux modifications dans HCF-1 conduit au rétablissement d'une cytokinése correcte. Concernant la région 382 à 450, les résultats ont été assez surprenants, la perte de cette région provoque l'arrêt du cycle en G1 et la binucléation, ce qui tend à prouver son importance pour le bon fonctionnement de HCF-1n et de HCF-1c. Cette découverte appuie par conséquent l'hypotl1èse d'une intercommunicatzion entre les deux sous-unités mettant en jeu les différentes régions de HCF-1n. Grâce à mes recherches, j'ai pu améliorer la compréhension de l'interaction des deux sous-unités de HCF-1 en montrant que toutes les régions de HCF-1n sont engagées dans un processus d'intercommunication, dont le but est de réguler l'action de HCF-1c. J'ai également mis en évidence une nouvelle étape de la maturation de HCF-1 qui représente une phase importante pour l'activation de la fonction de HCF-1c. Afin de mettre à jour cette découverte, je me suis concentrée sur l'étude de l'impact de ces régions au niveau de la cytokinése qui fut le premier phénotype démontrant le rôle de HCF-1c dans la phase M. A ce jour, nous savons que HCF-1c joue un rôle dans la cytokinèse, nous ne connaissons pas encore sa fonction précise. Dans le but de cerner plus précisément cette fonction, j'ai investigué des étapes ultérieures ai la cytokinèse. Des défauts dans la ségrégation des chromosomes avaient déjà été observés, ai donc continué l'étude en prouvant que HCF-1n et les HCF-1pro repeats sont aussi importants pour le bon fonctionnement de cette étape clef également régulée par HCF-1c. J' ai aussi montré que la région 382-450 et la mutation P134S sont associées à un taux élevé de micronoyaux, de défauts dans la ségrégation des chromosomes. L'une des fonctions principales de HCF-1 étant la régulation de la transcription, j'ai aussi contrôlé la capacité de HCF-1 à se lier à la chromatine après insertion de mutations ou délétions dans HCF-1n et dans la région protéolytique. Or, à l'exception des HCF-1 contenant la mutation P134S, la sous-unité HCF-1c des HCF-1 tronquées se lie correctement à la chromatine. Cette constatation suggère que la liaison entre HCF-1c et chromatine n'est pas dépendante de la région Basique ou Protéolytique mais peut-être vraisemblablement de la région Kelch. Donc si le rôle de HCF-1c est dépendant de sa capacité â activer la transcription, l'intercommunication entre les deux sous-unités et la région protéolytique joueraient un rôle important non pas dans son habileté à se lier à la chromatine, mais dans la capacité de HCF-1 à s'associer aux co-facteurs ou à se placer sur les bonnes régions du génome.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(Résumé de l'ouvrage) Les textes recueillis dans ces deux volumes sont des apocryphes, ce qui signifie qu'en dépit d'un contenu comparable à celui des Écritures ils n'appartiennent pas au canon. En effet, soit ils s'écartent de la doctrine officielle de l'Église en véhiculant des idées hétérodoxes, soit ils font trop appel au merveilleux, aspect dont l'Église s'est toujours méfiée. Mais rappelons que le canon des Écritures n'a pas été fixé tout de suite, son histoire court jusqu'à la quatrième session du Concile de Trente (1546). Ajoutons aussi qu'il y a toujours désaccord en la matière entre l'Église catholique et les Églises protestantes pour certains livres. Les textes réunis dans le premier tome relèvent de l'Antiquité chrétienne et recoupent différents genres bibliques : évangiles (auquel il convient d'adjoindre des écrits relatant la vie et la dormition de Marie, mère de Jésus), épîtres, Actes des apôtres, apocalypses (sur les derniers temps et l'au-delà). Ces pièces sont précieuses. Elles permettent une connaissance plus approfondie des premiers temps de l'Église et la compréhension de traditions - dans le domaine de la piété, de la liturgie ou de l'art - dont nous n'avons pas trace dans les textes canoniques. Les textes réunis dans le second tome sont, dans leur majorité, plus tardifs. Ce volume accorde, d'autre part, une place plus grande que le premier à des livres qui circulèrent dans des aires religieuses et linguistiques autres que le monde byzantin et l'Occident latin ; les traditions copte, arabe, éthiopienne, arménienne y sont bien représentées. Pour la plupart, ces écrits n'avaient encore jamais été publiés en langue française. Les écrits chrétiens que l'on dit « apocryphes » n'ont cessé d'être diffusés, récrits, adaptés. Ils furent le terreau de l'imaginaire chrétien, et une source d'inspiration pour les sculpteurs, les peintres, les écrivains, les musiciens et les cinéastes : le Bunuel de La Voie lactée se souvient des Actes de Jean. C'est que, face au discours régnant, institutionnel, ces textes ouvrent un espace à l'imagination. Ils se développent en quelque sorte dans les interstices des livres canoniques. Ils comblent des vides, inscrivent une parole dans les silences, donnent une voix aux personnages muets, un nom et un visage à ceux qui n'étaient que des ombres. Comme toute littérature, ils rusent avec le discours clos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary : Forensic science - both as a source of and as a remedy for error potentially leading to judicial error - has been studied empirically in this research. A comprehensive literature review, experimental tests on the influence of observational biases in fingermark comparison, and semistructured interviews with heads of forensic science laboratories/units in Switzerland and abroad were the tools used. For the literature review, some of the areas studied are: the quality of forensic science work in general, the complex interaction between science and law, and specific propositions as to error sources not directly related to the interaction between law and science. A list of potential error sources all the way from the crime scene to the writing of the report has been established as well. For the empirical tests, the ACE-V (Analysis, Comparison, Evaluation, and Verification) process of fingermark comparison was selected as an area of special interest for the study of observational biases, due to its heavy reliance on visual observation and recent cases of misidentifications. Results of the tests performed with forensic science students tend to show that decision-making stages are the most vulnerable to stimuli inducing observational biases. For the semi-structured interviews, eleven senior forensic scientists answered questions on several subjects, for example on potential and existing error sources in their work, of the limitations of what can be done with forensic science, and of the possibilities and tools to minimise errors. Training and education to augment the quality of forensic science have been discussed together with possible solutions to minimise the risk of errors in forensic science. In addition, the time that samples of physical evidence are kept has been determined as well. Results tend to show considerable agreement on most subjects among the international participants. Their opinions on possible explanations for the occurrence of such problems and the relative weight of such errors in the three stages of crime scene, laboratory, and report writing, disagree, however, with opinions widely represented in existing literature. Through the present research it was therefore possible to obtain a better view of the interaction of forensic science and judicial error to propose practical recommendations to minimise their occurrence. Résumé : Les sciences forensiques - considérés aussi bien comme source de que comme remède à l'erreur judiciaire - ont été étudiées empiriquement dans cette recherche. Une revue complète de littérature, des tests expérimentaux sur l'influence du biais de l'observation dans l'individualisation de traces digitales et des entretiens semi-directifs avec des responsables de laboratoires et unités de sciences forensiques en Suisse et à l'étranger étaient les outils utilisés. Pour la revue de littérature, quelques éléments étudies comprennent: la qualité du travail en sciences forensiques en général, l'interaction complexe entre la science et le droit, et des propositions spécifiques quant aux sources d'erreur pas directement liées à l'interaction entre droit et science. Une liste des sources potentielles d'erreur tout le long du processus de la scène de crime à la rédaction du rapport a également été établie. Pour les tests empiriques, le processus d'ACE-V (analyse, comparaison, évaluation et vérification) de l'individualisation de traces digitales a été choisi comme un sujet d'intérêt spécial pour l'étude des effets d'observation, due à son fort recours à l'observation visuelle et dû à des cas récents d'identification erronée. Les résultats des tests avec des étudiants tendent à prouver que les étapes de prise de décision sont les plus vulnérables aux stimuli induisant des biais d'observation. Pour les entretiens semi-structurés, onze forensiciens ont répondu à des questions sur des sujets variés, par exemple sur des sources potentielles et existantes d'erreur dans leur travail, des limitations de ce qui peut être fait en sciences forensiques, et des possibilités et des outils pour réduire au minimum ses erreurs. La formation et l'éducation pour augmenter la qualité des sciences forensiques ont été discutées ainsi que les solutions possibles pour réduire au minimum le risque d'erreurs en sciences forensiques. Le temps que des échantillons sont gardés a été également déterminé. En général, les résultats tendent à montrer un grand accord sur la plupart des sujets abordés pour les divers participants internationaux. Leur avis sur des explications possibles pour l'occurrence de tels problèmes et sur le poids relatif de telles erreurs dans les trois étapes scène de crime;', laboratoire et rédaction de rapports est cependant en désaccord avec les avis largement représentés dans la littérature existante. Par cette recherche il était donc possible d'obtenir une meilleure vue de l'interaction des sciences forensiques et de l'erreur judiciaire afin de proposer des recommandations pratiques pour réduire au minimum leur occurrence. Zusammenfassung : Forensische Wissenschaften - als Ursache und als Hilfsmittel gegen Fehler, die möglicherweise zu Justizirrtümern führen könnten - sind hier empirisch erforscht worden. Die eingestzten Methoden waren eine Literaturübersicht, experimentelle Tests über den Einfluss von Beobachtungseffekten (observer bias) in der Individualisierung von Fingerabdrücken und halbstandardisierte Interviews mit Verantwortlichen von kriminalistischen Labors/Diensten in der Schweiz und im Ausland. Der Literaturüberblick umfasst unter anderem: die Qualität der kriminalistischen Arbeit im Allgemeinen, die komplizierte Interaktion zwischen Wissenschaft und Recht und spezifische Fehlerquellen, welche nicht direkt auf der Interaktion von Recht und Wissenschaft beruhen. Eine Liste möglicher Fehlerquellen vom Tatort zum Rapportschreiben ist zudem erstellt worden. Für die empirischen Tests wurde der ACE-V (Analyse, Vergleich, Auswertung und Überprüfung) Prozess in der Fingerabdruck-Individualisierung als speziell interessantes Fachgebiet für die Studie von Beobachtungseffekten gewählt. Gründe sind die Wichtigkeit von visuellen Beobachtungen und kürzliche Fälle von Fehlidentifizierungen. Resultate der Tests, die mit Studenten durchgeführt wurden, neigen dazu Entscheidungsphasen als die anfälligsten für Stimuli aufzuzeigen, die Beobachtungseffekte anregen könnten. Für die halbstandardisierten Interviews beantworteten elf Forensiker Fragen über Themen wie zum Beispiel mögliche und vorhandene Fehlerquellen in ihrer Arbeit, Grenzen der forensischen Wissenschaften und Möglichkeiten und Mittel um Fehler zu verringern. Wie Training und Ausbildung die Qualität der forensischen Wissenschaften verbessern können ist zusammen mit möglichen Lösungen zur Fehlervermeidung im selben Bereich diskutiert worden. Wie lange Beweismitten aufbewahrt werden wurde auch festgehalten. Resultate neigen dazu, für die meisten Themen eine grosse Übereinstimmung zwischen den verschiedenen internationalen Teilnehmern zu zeigen. Ihre Meinungen über mögliche Erklärungen für das Auftreten solcher Probleme und des relativen Gewichts solcher Fehler in den drei Phasen Tatort, Labor und Rapportschreiben gehen jedoch mit den Meinungen, welche in der Literatur vertreten werden auseinander. Durch diese Forschungsarbeit war es folglich möglich, ein besseres Verständnis der Interaktion von forensischen Wissenschaften und Justizirrtümer zu erhalten, um somit praktische Empfehlungen vorzuschlagen, welche diese verringern. Resumen : Esta investigación ha analizado de manera empírica el rol de las ciencias forenses como fuente y como remedio de potenciales errores judiciales. La metodología empleada consistió en una revisión integral de la literatura, en una serie de experimentos sobre la influencia de los sesgos de observación en la individualización de huellas dactilares y en una serie de entrevistas semiestructuradas con jefes de laboratorios o unidades de ciencias forenses en Suiza y en el extranjero. En la revisión de la literatura, algunas de las áreas estudiadas fueron: la calidad del trabajo en ciencias forenses en general, la interacción compleja entre la ciencia y el derecho, así como otras fuentes de error no relacionadas directamente con la interacción entre derecho y ciencia. También se ha establecido una lista exhaustiva de las fuentes potenciales de error desde la llegada a la escena del crimen a la redacción del informe. En el marco de los tests empíricos, al analizar los sesgos de observación dedicamos especial interés al proceso de ACE-V (análisis, comparación, evaluación y verificación) para la individualización de huellas dactilares puesto que este reposa sobre la observación visual y ha originado varios casos recientes de identificaciones erróneas. Los resultados de las experimentaciones realizadas con estudiantes sugieren que las etapas en las que deben tornarse decisiones son las más vulnerables a lös factores que pueden generar sesgos de observación. En el contexto de las entrevistas semi-estructuradas, once científicos forenses de diversos países contestaron preguntas sobre varios temas, incluyendo las fuentes potenciales y existehtes de error en su trabajo, las limitaciones propias a las ciencias forenses, las posibilidades de reducir al mínimo los errores y las herramientas que podrían ser utilizadas para ello. Se han sugerido diversas soluciones para alcanzar este objetivo, incluyendo el entrenamiento y la educación para aumentar la calidad de las ciencias forenses. Además, se ha establecido el periodo de conservación de las muestras judiciales. Los resultados apuntan a un elevado grado de consenso entre los entrevistados en la mayoría de los temas. Sin embargo, sus opiniones sobre las posibles causas de estos errores y su importancia relativa en las tres etapas de la investigación -la escena del crimen, el laboratorio y la redacción de informe- discrepan con las que predominan ampliamente en la literatura actual. De este modo, esta investigación nos ha permitido obtener una mejor imagen de la interacción entre ciencias forenses y errores judiciales, y comenzar a formular una serie de recomendaciones prácticas para reducirlos al minimo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(Résumé de l'ouvrage) Les textes recueillis dans ces deux volumes sont des apocryphes, ce qui signifie qu'en dépit d'un contenu comparable à celui des Écritures ils n'appartiennent pas au canon. En effet, soit ils s'écartent de la doctrine officielle de l'Église en véhiculant des idées hétérodoxes, soit ils font trop appel au merveilleux, aspect dont l'Église s'est toujours méfiée. Mais rappelons que le canon des Écritures n'a pas été fixé tout de suite, son histoire court jusqu'à la quatrième session du Concile de Trente (1546). Ajoutons aussi qu'il y a toujours désaccord en la matière entre l'Église catholique et les Églises protestantes pour certains livres. Les textes réunis dans le premier tome relèvent de l'Antiquité chrétienne et recoupent différents genres bibliques : évangiles (auquel il convient d'adjoindre des écrits relatant la vie et la dormition de Marie, mère de Jésus), épîtres, Actes des apôtres, apocalypses (sur les derniers temps et l'au-delà). Ces pièces sont précieuses. Elles permettent une connaissance plus approfondie des premiers temps de l'Église et la compréhension de traditions - dans le domaine de la piété, de la liturgie ou de l'art - dont nous n'avons pas trace dans les textes canoniques. Les textes réunis dans le second tome sont, dans leur majorité, plus tardifs. Ce volume accorde, d'autre part, une place plus grande que le premier à des livres qui circulèrent dans des aires religieuses et linguistiques autres que le monde byzantin et l'Occident latin ; les traditions copte, arabe, éthiopienne, arménienne y sont bien représentées. Pour la plupart, ces écrits n'avaient encore jamais été publiés en langue française. Les écrits chrétiens que l'on dit « apocryphes » n'ont cessé d'être diffusés, récrits, adaptés. Ils furent le terreau de l'imaginaire chrétien, et une source d'inspiration pour les sculpteurs, les peintres, les écrivains, les musiciens et les cinéastes : le Bunuel de La Voie lactée se souvient des Actes de Jean. C'est que, face au discours régnant, institutionnel, ces textes ouvrent un espace à l'imagination. Ils se développent en quelque sorte dans les interstices des livres canoniques. Ils comblent des vides, inscrivent une parole dans les silences, donnent une voix aux personnages muets, un nom et un visage à ceux qui n'étaient que des ombres. Comme toute littérature, ils rusent avec le discours clos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La créatine joue un rôle essentiel dans le métabolisme cellulaire par sa conversion, par la creatine kinase, en phosphocreatine permettant la régénération de l'ATP. La synthèse de créatine, chez les mammifères, s'effectue par une réaction en deux étapes impliquant Γ arginine: glycine amidinotransférase (AGAT) et la guanidinoacétate méthyltransférase (GAMT). L'entrée de créatine dans les cellules s'effectue par son transporteur, SLC6A8. Les déficiences en créatine, dues au déficit en GAMT, AGAT ou SLC6A8, sont fréquentes et caractérisées par une absence ou une forte baisse de créatine dans le système nerveux central. Alors qu'il est connu que AGAT, GAMT et SLC6A8 sont exprimés par le cerveau, les conséquences des déficiences en créatine sur les cellules nerveuses sont peu comprises. Le but de ce travail était de développer de nouveaux modèles expérimentaux des déficiences en Cr dans des cultures 3D de cellules nerveuses de rat en agrégats au moyen de l'interférence à l'ARN appliquée aux gènes GAMT et SLC6A8. Des séquences interférentes (shRNAs) pour les gènes GAMT et SLC6A8 ont été transduites par des vecteurs viraux AAV (virus adéno-associés), dans les cellules nerveuses en agrégats. Nous avons ainsi démontré une baisse de l'expression de GAMT au niveau protéique (mesuré par western blot), et ARN messager (mesuré par qPCR) ainsi qu'une variation caractérisitique de créatine et guanidinoacétate (mesuré par spectrométrie de masse). Après avoir validé nos modèles, nous avons montré que les knockdown de GAMT ou SLC6A8 affectent le développement des astrocytes et des neurones ou des oligodendrocytes et des astrocytes, respectivement, ainsi qu'une augmentation de la mort cellulaire et des modifications dans le pattern d'activation des voies de signalisation impliquant caspase 3 et p38 MAPK, ayant un rôle dans le processus d'apoptose. - Creatine plays essential roles in energy metabolism by the interconversion, by creatine kinase, to its phosphorylated analogue, phosphocreatine, allowing the regeneration of ATP. Creatine is synthesized in mammals by a two step mechanism involving arginine:glycine amidinotransferase (AGAT) and guanidinoacetate methyltransferase (GAMT). Creatine is taken up by cells by a specific transporter, SLC6A8. Creatine deficiency syndromes, due to defects in GAMT, AGAT and SLC6A8, are among the most frequent inborn errors of metabolism, and are characterized by an absence or a severe decrease of creatine in central nervous system, which is the main tissue affected. While it is known that AGAT, GAMT and SLC6A8 are expressed in CNS, many questions remain on the specific effects of AGAT, GAMT and SLC6A8 deficiencies on brain cells. Our aim was to develop new experimental models of creatine deficiencies by knockdown of GAMT and SLC6A8 genes by RNAi in 3D organotypic rat brain cell cultures in aggregates. Specific shRNAs for the GAMT and SLC6A8 genes were transduced in brain cell aggregates by adeno-associated viruses (AAV). The AAV-transduced shRNAs were able to efficiently knockdown the expression of our genes of interest, as shown by a strong decrease of protein by western blotting, a decrease of mRNA by qPCR or characteristic variations of creatine and guanidinoacetate by tandem mass spectrometry. After having validated our experimental models, we have also shown that GAMT and SLC6A8 knockdown affected the development of astrocytes and neurons or oligodendrocytes and astrocytes, respectively. We also observed an increase of cell death and variations in activation pattern of caspase 3 and p38 MAPK pathways, involved in apoptosis, in our experimental model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La France possède le plus grand cheptel bovin d'Europe, dont environ la moitié de vaches laitières (82 000 exploitations de vaches laitières avec 45 vaches en moyenne (RGA 2010, agreste)). La forte densité des animaux, l'utilisation de litière d'origine organique (copeaux de bois, paille), la distribution de fourrage sec (foin, grain) et l'accumulation d'excréments génèrent d'énormes quantités de poussières organiques. De plus, la taille des exploitations a tendance à s'agrandir avec une mise à l'herbe des animaux de moins en moins importante et donc une exposition des travailleurs plus importante à la poussière organique. Cette poussière peut être très riche en endotoxines(1) issues de la membrane cellulaire de certaines bactéries. Les effets sur la santé d'une exposition chronique aux endotoxines sont bien connus et concernent principalement des atteintes du système respiratoire (1-4) ainsi que des atteintessystémiques, avec l'apparition d'un état fébrile, lors d'exposition aiguë à de fortes concentrations. La plupart du temps, les études ayant mesuré l'exposition des fermiers aux endotoxines n'ont pas déterminé précisément quelle(s) tâche(s) spécifique(s) ou quelles caractéristiques de l'élevage étaient associées avec la plus forte exposition. Pourtant, une meilleure identification de ces tâches est essentielle à la mise en place de mesures de prévention ciblée. La première étude présentée a analysé, à l'aide d'outils statistiques performants, les déterminants de l'exposition personnelle à la poussière inhalable et aux endotoxines des travailleurs de fermes de vaches laitières. La seconde étude s'est intéressée à l'exposition aux bioaérosols lors des étapes de maturation du fromage. En effet, celle-ci nécessite l'utilisation délibérée de bactéries et de moisissures spécifiques qui sont facilement aérosolisées. L'exposition des travailleurs à ces microorganismes peut être responsable de maladies respiratoires de type allergique (5-7) dont la maladie des laveurs de fromages.