1000 resultados para méthode alternative


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans ce mémoire sera présentée une nouvelle méthode numérique envisagée dans le but d’obtenir le pouvoir thermoélectrique à température finie. Une méthode d’entropie maximale est utilisée, ce qui était une caractéristique requise des équations dérivées. Toutes les équations nécessaires y sont présentées, ainsi que certaines astuces reliées au prolongement analytique de quantités bruitées ou de fonctions dont la convergence est lente etc. De plus, les trois fonctions de corrélation d’intérêt y sont calculées de trois façons différentes, avec les détails et les explications nécessaires. On y présente le cas de la conductivité électrique, du pouvoir thermoélectrique ainsi que la fonction de corrélation courant de chaleur-courant de chaleur. L’implémentation numérique finale s’est butée à des difficultés qui sont expliquées dans ce mémoire.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Rapport de Synthèse : Un sevrage lent comme méthode élective pour l'interruption de la méthadone est coûteux en termes de temps, le plus souvent associé à un taux élevé d'abandon. Bien que les méthodes ultrarapides de désintoxication des opiacés aient gagné en popularité récemment, elles sont chères et posent les problèmes spécifiques liés aux patients traités par la méthadone. Méthodologie: ont été inclus dans l'étude dix patients en traitement de substitution avec de la méthadone. La dernière dose de méthadone a été administrée le matin même du jour de l'admission, en préalable à l'hospitalisation. Les médicaments suivants ont été administrés le jour suivant l'admission: ondansetron 36mg, ranitidine 40mg, loperamide 8m., clonazepam 4m., promazine 1OOmg, metoclopramide 70mg, naltrexone 5Omg. L'échelle objective de sevrage des opiacés (Objective Opiate Withdrawal Scale) a été appliquée au deuxième, troisième et quatrième jour d'hospitalisation, deux fois par jour, à 8h00 et 18h00. Un suivi a été réalisé sous la forme d'entretiens téléphoniques pendant une semaine, respectivement six mois après la date de sortie de l'hôpital, faisant suite à la désintoxication. Un autre entretient téléphonique a été réalisé dans les six mois suivant le "post-sevrage", avec pour objectif d'investiguer la continuité du traitément, une éventuelle rechute dans l'abus de drogues et une possible réintroduction de la méthadone. Résultats: nous avons pu déterminer quatre groupes de symptômes, sur la base d'une observation de trois jours d'évolution: 1) Les signes typiques du syndrome de sevrage de retrait des opiacés, symptôme de froid et chaud, pilo-érection, anxiété caractérisée par une intensité initiale élevée et une disparition relativement continue. 2) Hyperactivité neurovégétative caractérisée par une intensité initiale élevée et une rapide disparition. 3) Phénomènes neurovégétatifs dont l'intensité s'est maintenue durant toute la période d'observation. 4) Contractions musculaires, insomnies et anorexie, manque d'appétit, réapparaissant chez certains patients au 2ème et au début du 3ème jour. Conclusions: une procédure courte de désintoxication utilisant une dose unique de naltrexone s'avère être une méthode alternative valable pour un sevrage de la méthadone. Cette méthode semble accélérer et écourter la symptomatologie associée au sevrage. Le cours des symptômes peut être interprété comme biphasique. Une première phase de retrait est éminemment caractérisée par tous les symptômes typiques eux-mêmes et probablement induits par la naltrexone. La seconde phase, pour un plus petit nombre de patients, peut être interprétée comme en corrélation avec une concentration de méthadone en diminution significative ultérieurement.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L' évaluation quantitative des dangers et des expositions aux nanomatériaux se heurte à de nombreuses incertitudes qui ne seront levées qu'à mesure de la progression des connaissances scientifiques de leurs propriétés. L' une des conséquences de ces incertitudes est que les valeurs limites d'exposition professionnelle définies actuellement pour les poussières ne sont pas nécessairement pertinentes aux nanomatériaux. En l'absence de référentiel quantitatif et, à la demande de la DGS pour éclairer les réflexions de l' AFNOR et de l'ISO sur le sujet, une démarche de gestion graduée des risques (control banding) a été élaborée au sein de l' Anses. Ce développement a été réalisé à l'aide d'un groupe d'experts rapporteurs rattaché au Comité d'experts spécialisés évaluation des risques liés aux agents physiques, aux nouvelles technologies et aux grands aménagements. La mise en oeuvre de la démarche de gestion graduée des risques proposée repose sur quatre grandes étapes: 1. Le recueil des informations. Cette étape consiste à réunir les informations disponibles sur les dangers du nanomatériau manufacturé considéré ; ainsi que sur l'exposition potentielle des personnes aux postes de travail (observation sur le terrain, mesures, etc.). 2. L'attribution d'une bande de danger. Le danger potentiel du nanomatériau manufacturé présent, qu'il soit brut où incorporé dans une matrice (liquide ou solide) est évalué dans cette étape. La bande danger attribuée tient compte de la dangerosité du produit bulk ou de sa substance analogue à l'échelle non-nanométrique, de la bio-persistance du matériau (pour les matériaux fibreux), de sa solubilité et de son éventuelle réactivité. 3. Attribution d'une bande d'exposition. La bande d'exposition du nanomatériau manufacturé considéré ou du produit en contenant est définie par le niveau de potentiel d'émission du produit. Elle tient compte de sa forme physique (solide, liquide, poudre aérosol), de sa pulvérulence et de sa volatilité. Le nombre de travailleurs, la fréquence, la durée d'exposition ainsi que la quantité mise en oeuvre ne sont pas pris en compte, contrairement à une évaluation classique des risques chimiques. 4. Obtention d'une bande de maîtrise des risques. Le croisement des bandes de dangers et d'exposition préalablement attribuées permet de défi nir le niveau de maîtrise du risque. Il fait correspondre les moyens techniques et organisationnels à mettre en oeuvre pour maintenir le risque au niveau le plus faible possible. Un plan d'action est ensuite défi ni pour garantir l'effi cacité de la prévention recommandée par le niveau de maîtrise déterminé. Il tient compte des mesures de prévention déjà existantes et les renforce si nécessaire. Si les mesures indiquées par le niveau de maîtrise de risque ne sont pas réalisables, par exemple, pour des raisons techniques ou budgétaires, une évaluation de risque approfondie devra être réalisée par un expert. La gestion graduée des risques est une méthode alternative pour réaliser une évaluation qualitative de risques et mettre en place des moyens de prévention sans recourir à une évaluation quantitative des risques. Son utilisation semble particulièrement adaptée au contexte des nanomatériaux manufacturés, pour lequel les choix de valeurs de référence (Valeurs limites d'exposition en milieu professionnel) et des techniques de mesurage appropriées souffrent d'une grande incertitude. La démarche proposée repose sur des critères simples, accessibles dans la littérature scientifi que ou via les données techniques relatives aux produits utilisés. Pour autant, sa mise en oeuvre requiert des compétences minimales dans les domaines de la prévention des risques chimiques (chimie, toxicologie, etc.), des nanosciences et des nanotechnologies.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Ce texte relate l'étude de validation d'une adaptation francophone du Q-Sort d'attachement de Waters et Deane (cette adaptation est présentée dans ce même numéro). Le Q-Sort rempli par les parents ne paraît pas tenir ses promesses de méthode alternative à la Situation étrange pour évaluer la qualité de la relation d'attachement. Cependant, lorsqu'il est rempli par un observateur extérieur, il semble mieux refléter la catégorisation des comportements dans la Situation étrange. Au travers du Q-Sort, les parents semblent décrire davantage le tempérament de l'enfant que la qualité de la relation d'attachement.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

RESUME Les évidences montrant que les changements globaux affectent la biodiversité s'accumulent. Les facteurs les plus influant dans ce processus sont les changements et destructions d'habitat, l'expansion des espèces envahissantes et l'impact des changements climatiques. Une évaluation pertinente de la réponse des espèces face à ces changements est essentielle pour proposer des mesures permettant de réduire le déclin actuel de la biodiversité. La modélisation de la répartition d'espèces basée sur la niche (NBM) est l'un des rares outils permettant cette évaluation. Néanmoins, leur application dans le contexte des changements globaux repose sur des hypothèses restrictives et demande une interprétation critique. Ce travail présente une série d'études de cas investiguant les possibilités et limitations de cette approche pour prédire l'impact des changements globaux. Deux études traitant des menaces sur les espèces rares et en danger d'extinction sont présentées. Les caractéristiques éco-géographiques de 118 plantes avec un haut degré de priorité de conservation sont revues. La prévalence des types de rareté sont analysées en relation avec leur risque d'extinction UICN. La revue souligne l'importance de la conservation à l'échelle régionale. Une évaluation de la rareté à échelle globale peut être trompeuse pour certaine espèces car elle ne tient pas en compte des différents degrés de rareté que présente une espèce à différentes échelles spatiales. La deuxième étude test une approche pour améliorer l'échantillonnage d'espèces rares en incluant des phases itératives de modélisation et d'échantillonnage sur le terrain. L'application de l'approche en biologie de la conservation (illustrée ici par le cas du chardon bleu, Eryngium alpinum), permettrait de réduire le temps et les coûts d'échantillonnage. Deux études sur l'impact des changements climatiques sur la faune et la flore africaine sont présentées. La première étude évalue la sensibilité de 227 mammifères africains face aux climatiques d'ici 2050. Elle montre qu'un nombre important d'espèces pourrait être bientôt en danger d'extinction et que les parcs nationaux africains (principalement ceux situé en milieux xériques) pourraient ne pas remplir leur mandat de protection de la biodiversité dans le futur. La seconde étude modélise l'aire de répartition en 2050 de 975 espèces de plantes endémiques du sud de l'Afrique. L'étude propose l'inclusion de méthodes améliorant la prédiction des risques liés aux changements climatiques. Elle propose également une méthode pour estimer a priori la sensibilité d'une espèce aux changements climatiques à partir de ses propriétés écologiques et des caractéristiques de son aire de répartition. Trois études illustrent l'utilisation des modèles dans l'étude des invasions biologiques. Une première étude relate l'expansion de la laitue sáuvage (Lactuca serriola) vers le nord de l'Europe en lien avec les changements du climat depuis 250 ans. La deuxième étude analyse le potentiel d'invasion de la centaurée tachetée (Centaures maculosa), une mauvaise herbe importée en Amérique du nord vers 1890. L'étude apporte la preuve qu'une espèce envahissante peut occuper une niche climatique différente après introduction sur un autre continent. Les modèles basés sur l'aire native prédisent de manière incorrecte l'entier de l'aire envahie mais permettent de prévoir les aires d'introductions potentielles. Une méthode alternative, incluant la calibration du modèle à partir des deux aires où l'espèce est présente, est proposée pour améliorer les prédictions de l'invasion en Amérique du nord. Je présente finalement une revue de la littérature sur la dynamique de la niche écologique dans le temps et l'espace. Elle synthétise les récents développements théoriques concernant le conservatisme de la niche et propose des solutions pour améliorer la pertinence des prédictions d'impact des changements climatiques et des invasions biologiques. SUMMARY Evidences are accumulating that biodiversity is facing the effects of global change. The most influential drivers of change in ecosystems are land-use change, alien species invasions and climate change impacts. Accurate projections of species' responses to these changes are needed to propose mitigation measures to slow down the on-going erosion of biodiversity. Niche-based models (NBM) currently represent one of the only tools for such projections. However, their application in the context of global changes relies on restrictive assumptions, calling for cautious interpretations. In this thesis I aim to assess the effectiveness and shortcomings of niche-based models for the study of global change impacts on biodiversity through the investigation of specific, unsolved limitations and suggestion of new approaches. Two studies investigating threats to rare and endangered plants are presented. I review the ecogeographic characteristic of 118 endangered plants with high conservation priority in Switzerland. The prevalence of rarity types among plant species is analyzed in relation to IUCN extinction risks. The review underlines the importance of regional vs. global conservation and shows that a global assessment of rarity might be misleading for some species because it can fail to account for different degrees of rarity at a variety of spatial scales. The second study tests a modeling framework including iterative steps of modeling and field surveys to improve the sampling of rare species. The approach is illustrated with a rare alpine plant, Eryngium alpinum and shows promise for complementing conservation practices and reducing sampling costs. Two studies illustrate the impacts of climate change on African taxa. The first one assesses the sensitivity of 277 mammals at African scale to climate change by 2050 in terms of species richness and turnover. It shows that a substantial number of species could be critically endangered in the future. National parks situated in xeric ecosystems are not expected to meet their mandate of protecting current species diversity in the future. The second study model the distribution in 2050 of 975 endemic plant species in southern Africa. The study proposes the inclusion of new methodological insights improving the accuracy and ecological realism of predictions of global changes studies. It also investigates the possibility to estimate a priori the sensitivity of a species to climate change from the geographical distribution and ecological proprieties of the species. Three studies illustrate the application of NBM in the study of biological invasions. The first one investigates the Northwards expansion of Lactuca serriola L. in Europe during the last 250 years in relation with climate changes. In the last two decades, the species could not track climate change due to non climatic influences. A second study analyses the potential invasion extent of spotted knapweed, a European weed first introduced into North America in the 1890s. The study provides one of the first empirical evidence that an invasive species can occupy climatically distinct niche spaces following its introduction into a new area. Models fail to predict the current full extent of the invasion, but correctly predict areas of introduction. An alternative approach, involving the calibration of models with pooled data from both ranges, is proposed to improve predictions of the extent of invasion on models based solely on the native range. I finally present a review on the dynamic nature of ecological niches in space and time. It synthesizes the recent theoretical developments to the niche conservatism issues and proposes solutions to improve confidence in NBM predictions of the impacts of climate change and species invasions on species distributions.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Différentes méthodes ayant pour objectif une utilisation optimale d'antennes radio-fréquences spécialisées en imagerie par résonance magnétique sont développées et validées. Dans un premier temps, il est démontré qu'une méthode alternative de combinaison des signaux provenant des différents canaux de réception d'un réseau d'antennes mène à une réduction significative du biais causé par la présence de bruit dans des images de diffusion, en comparaison avec la méthode de la somme-des-carrés généralement utilisée. Cette réduction du biais engendré par le bruit permet une amélioration de l'exactitude de l'estimation de différents paramètres de diffusion et de diffusion tensorielle. De plus, il est démontré que cette méthode peut être utilisée conjointement avec une acquisition régulière sans accélération, mais également en présence d'imagerie parallèle. Dans une seconde perspective, les bénéfices engendrés par l'utilisation d'une antenne d'imagerie intravasculaire sont étudiés. Suite à une étude sur fantôme, il est démontré que l'imagerie par résonance magnétique intravasculaire offre le potentiel d'améliorer significativement l'exactitude géométrique lors de mesures morphologiques vasculaires, en comparaison avec les résultats obtenus avec des antennes de surface classiques. Il est illustré qu'une exactitude géométrique comparable à celle obtenue grâce à une sonde ultrasonique intravasculaire peut être atteinte. De plus, plusieurs protocoles basés sur une acquisition de type balanced steady-state free-precession sont comparés dans le but de mettre en évidence différentes relations entre les paramètres utilisés et l'exactitude géométrique obtenue. En particulier, des dépendances entre la taille du vaisseau, le rapport signal-sur-bruit à la paroi vasculaire, la résolution spatiale et l'exactitude géométrique atteinte sont mises en évidence. Dans une même optique, il est illustré que l'utilisation d'une antenne intravasculaire permet une amélioration notable de la visualisation de la lumière d'une endoprothèse vasculaire. Lorsque utilisée conjointement avec une séquence de type balanced steady-state free-precession utilisant un angle de basculement spécialement sélectionné, l'imagerie par résonance magnétique intravasculaire permet d'éliminer complètement les limitations normalement engendrées par l'effet de blindage radio-fréquence de l'endoprothèse.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le neurofeedback (NF) suscite actuellement un vif intérêt dans la prise en charge du trouble déficitaire de l’attention avec hyperactivité (TDAH) chez l’enfant. Proposée comme méthode alternative à la médication par de nombreux cliniciens, notamment aux États-Unis, le NF est une intervention non-invasive de type électrophysiologique qui repose sur l’apprentissage par conditionnement opérant de l’autorégulation d’ondes cérébrales déviantes. Les études empiriques qui étayent cette pratique font toutefois l’objet de virulentes critiques de la part de spécialistes dans le domaine du TDAH en raison de résultats systématiquement positifs mais non spécifiques, auxquels s’ajoutent de nombreuses lacunes méthodologiques. Les travaux de cette thèse visent à appliquer une méthodologie stricte de type essai clinique contrôlé avec assignation aléatoire afin d’isoler les effets particuliers du NF, en appliquant un protocole d’entraînement propre au déficit primaire sous-tendant le TDAH, soit l’inhibition motrice, dans le but d’évaluer la spécificité de cette intervention. Dans un premier temps, les connaissances relatives à la nosologie du TDAH, à ses principaux traitements, au NF et aux capacités d’inhibition chez l’enfant ayant un TDAH sont présentées (Chapitre 1). Ensuite, les études réalisées dans le cadre de cette thèse sont exposées. Dans l’étude initiale, la spécificité du NF est évaluée sur les capacités d’inhibition grâce à des mesures subjectives, soit des questionnaires de comportements complétés par les parents, ainsi que des mesures objectives, à savoir des tâches neuropsychologiques (Chapitre 2). Afin de préciser davantage les conséquences d’un entraînement à l’autorégulation d’ondes cérébrales, l’étude subséquente s’est intéressée à l’impact neurophysiologiques de l’amélioration des capacités d’inhibition, par le biais d’une étude en potentiels évoqués employant une tâche de performance continue de type Stop-signal (Chapitre 3). Les principaux résultats reflètent un recrutement sous optimal, avec une puissance statistique insuffisante pour réaliser des statistiques quantitatives de groupe. Néanmoins, l’appréciation des données selon une approche d’étude de cas multiples permet de mettre en évidence la présence d’une réponse placebo sur les capacités d’inhibition suite à un entraînement en NF. Finalement, les implications de la taille de l’échantillon, ainsi que les limites et les critiques de ces études sont discutées au Chapitre 4.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les macrocycles ont longtemps attiré l'attention des chimistes. Malgré cet intérêt, peu de méthodes générales et efficaces pour la construction de macrocycles ont été développés. Récemment, notre groupe a développé un programme de recherche visant à développer de nouvelles voies vers la synthèse de paracyclophanes et ce mémoire présente l pluspart des efforts les plus récents dans ce domaine. Traditionnellement, la synthèse de paracyclophanes rigides est facilitée par l'installation d'un groupe fonctionnel capable de contrôler la structure de la molécule en solution (ex un élément de contrôle de conformation (ECC)). Cependant, cette approche utilisant des auxiliaires exige que le ECC soit facilement installé avant macrocyclisation et facilement enlevé après la cyclisation. Le présent mémoire décrit une méthode alternative pour guider la macrocyclisations difficile à travers l'utilisation d'additifs comme ECC. Les additifs sont des hétérocycles aromatiques N-alkylé qui sont bon marché, faciles à préparer et peuvent être facilement ajoutés à un mélange de réaction et enlevés suite à la macrocyclisation par simple précipitation et de filtration. En outre, les ECCs sont recyclables. L'utilisation du nouveau ECC est démontré dans la synthèse des para-et métacyclophanes en utilisant soit la métathèse de fermeture de cycle (RCM) ou couplage de Glaser-Hay.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les surfaces de subdivision fournissent une méthode alternative prometteuse dans la modélisation géométrique, et ont des avantages sur la représentation classique de trimmed-NURBS, en particulier dans la modélisation de surfaces lisses par morceaux. Dans ce mémoire, nous considérons le problème des opérations géométriques sur les surfaces de subdivision, avec l'exigence stricte de forme topologique correcte. Puisque ce problème peut être mal conditionné, nous proposons une approche pour la gestion de l'incertitude qui existe dans le calcul géométrique. Nous exigeons l'exactitude des informations topologiques lorsque l'on considère la nature de robustesse du problème des opérations géométriques sur les modèles de solides, et il devient clair que le problème peut être mal conditionné en présence de l'incertitude qui est omniprésente dans les données. Nous proposons donc une approche interactive de gestion de l'incertitude des opérations géométriques, dans le cadre d'un calcul basé sur la norme IEEE arithmétique et la modélisation en surfaces de subdivision. Un algorithme pour le problème planar-cut est alors présenté qui a comme but de satisfaire à l'exigence topologique mentionnée ci-dessus.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L'étude porte sur la relation entre la mesure des plis cutanés et l'indice de masse corporelle (IMC) chez une clientèle estrienne du primaire et du secondaire. L'expérimentation se réalise dans cinq écoles et regroupe 772 étudiants âgés de 7 à 17 ans. Les résultats démontrent que la majorité des corrélations entre les mesures d'adiposité du triceps et du mollet, des cinq plis (triceps, biceps, sous-scapulaire, iliaque et mollet) et du triceps avec l'indice de masse corporelle sont significatives, bonnes et élevées à presque tous les niveaux d'âge des filles et des garçons estriens de 7 à 17 ans. Ces résultats confirment donc les trois hypothèses de corrélations significatives entre les mesures d'adiposité choisies et l'IMC. La mesure de comparaison est l'indice de masse corporelle des filles et des garçons américains du même âge. La majorité des indices de masse corporelle calculés chez les sujets de l'étude est également inférieure aux indices de masse corporelle des sujets de même âge du Physitest Canadien (1987). Les professeurs d'éducation physique ont donc le choix entre différentes possibilités pour avoir un indice de mesure anthropométrique valable pour les filles et les garçons de 7 à 17 ans. La mesure des deux plis adipeux du triceps et du mollet sont fortement en relation avec l'IMC au primaire. La somme des cinq plis (SPC) est fortement en relation avec l'IMC au secondaire. Même l'utilisation de la mesure du pli adipeux du triceps peut être utilisée à presque tous les âges du primaire et du secondaire. On peut conclure que l'indice de masse corporelle peut être utilisé avec exactitude comme une méthode alternative ne nécessitant pas de dépenses onéreuses comme l’achat d'un bon adiposomètre.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This report presents a new extraction method of the dinophysistoxins (DTXs), confirmed by quantification using high-performance liquid chromatography coupled to mass spectrometry with an ion trap and electro spray interface (HPLC/ESI/MS2). The method originality consists on the adaptation of DTXs basic extraction procedure (liquid/ liquid) to a solid phase extraction (SPE) via a robotic station: ASPEC XLi The parameters of the automatization procedure were optimized to obtain the best DTXs recovery rate. These improvements were loaded with digestive gland mussel homogenat realized on a silica cartridge SPE, activated in hexane/chloroform (50:50), washed with hexane/chloroform (50:50) and extracted by an elution gradient (chloroform methanol (65:35) and methanol (100%)). This method was validated according to two normative referentials (linearity, detection quantification limits and accuracy…) : - The Guide of the Pharmacy industry: Analytical Validation, report of the commission SFSTP 1992 (French Corporation of the Sciences and Technical Pharmaceutical), - - The Procedure of validation of an alternative method in compare to a reference method. (AFNOR, 1998. NF V 03-110). Comparison with the classical liquid/liquid extraction and the automated method present clear advantages. In an analytical method the extraction is generally considered to be the most labor-intensive and error-prone step. This new procedure allowed us to increase throughput, to improve the reproducibility and to reduce the error risks due to the individual manual treatments.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La protéine hétérotrimérique laminine-111 permet le lien entre la matrice-extracellulaire et l’intégrine α7β1 du sarcolemme, remplaçant ainsi dans les muscles dystrophiques, des liens normalement assurés par le complexe de la dystrophine. L’injection de laminine-111 dans des souris mdx a permis, entre autre, l’augmentation de l’expression de l’intégrine α7β1, d’empêcher les bris du sarcolemme lors de la contraction musculaire, de restaurer un niveau normal de la créatine kinase sérique, ainsi que d’augmenter la résistance et la force dans les muscles déficients en dystrophine. Ces résultats suggèrent que l’augmentation de la laminine-111 est un potentiel traitement pour la DMD. Les chaines β1 et γ1 de la laminine sont déjà exprimées dans le muscle humain adulte, mais la chaine α1 de la laminine (Lamα1) est exprimée uniquement pendant le stade très précoce 16 cellules de l’embryogenèse. Nous avons donc développé une méthode alternative à l’injection répétée de Laminine-111 en induisant l’expression endogène du gène LAMA1, afin de reformer le complexe trimérique α1β1γ1, la laminine 111. Ceci a été réalisé avec une technologie récente, le système CRISPR/Cas9, dont la Cas9 a été désactivée (dCas9) puis couplée à un domaine d’activation de la transcription, le VP160 (dCas9-VP160). L’utilisation d’un ou plusieurs ARN guides (ARNg) a permis de cibler le promoteur du gène LAMA1. L’ARNm de Lamα1 (qRT-PCR) ainsi que la protéine (immunohistochimie et immunobuvardage) n’ont pas été détecté dans le contrôle négatif, des myoblastes murins (C2C12). Cependant, une expression significative a été observée dans ces myoblastes transfectés avec des plasmides codant pour dCas9-VP160 et un ARNg. L’analyse protéique in vivo, dans des muscles de souris électroporés avec le même plasmide, a démontré une forte augmentation de la chaine α1 de la laminine. Des augmentations plus importantes de l’ARNm de Lamα1 ont été observées en utilisant 2 ARNg, suggérant un effet synergique. L’augmentation de l’expression de Lamα1 par le système de CRISPR/Cas9 devrait être étudiée d’avantage afin de vérifier si cette stratégie pourrait s’avérer efficace dans des cas de myopathies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objectifs : Evaluer une méthode simple et rapide de mesure du volume atrial gauche. Matériels et méthodes : Cinquante patients ont été examinés avec un CT gaté pour mesure du score calcique. Trois méthodes ont été utilisées pour calculer le volume atrial gauche : 1) une méthode orthogonale avec mesure des surfaces/diamètres dans les plans axiaux/coronaux/sagittaux, 2) une méthode biplan inspirée de l'échocardiographie et 3) une méthode volumétrique. Les mesures ont été faites par le même observateur un mois plus tard et ont été répétées par trois autres observateurs. L'axe cardiaque a aussi été mesuré. La méthode Bland-Altmann et les corrélations de Spearman ont été utilisées. Résultats : La méthode volumétrique montre les variations intra/interobservateur les plus basses avec une variabilité de 6,1/7,4 ml, respectivement. Pour les mesures avec la méthode orthogonale (surfaces/diamètres), les variations intra/interobservateur sont 12,3/13,5 ml et 14,6/11,6 ml, respectivement. Pour la méthode biplan, les variations intra/interobservateur sont plus hautes : 23,9/19,8 ml. Comparée à la méthode de référence volumétrique, la méthode orthogonale avec les surfaces est mieux corrélée (R=0,959, p<0,001) que les autres méthodes. Il y a une faible influence de l'axe du coeur sur la méthode orthogonale avec les surfaces. Conclusion : La méthode volumétrique est le gold standard en terme de variabilité. Cependant elle est longue à metttre en oeuvre. La méthode orthogonale avec les surfaces est une alternative simple, sauf chez les patients obèses avec un coeur horizontalisé.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Due to the existence of free software and pedagogical guides, the use of data envelopment analysis (DEA) has been further democratized in recent years. Nowadays, it is quite usual for practitioners and decision makers with no or little knowledge in operational research to run themselves their own efficiency analysis. Within DEA, several alternative models allow for an environment adjustment. Five alternative models, each of them easily accessible to and achievable by practitioners and decision makers, are performed using the empirical case of the 90 primary schools of the State of Geneva, Switzerland. As the State of Geneva practices an upstream positive discrimination policy towards schools, this empirical case is particularly appropriate for an environment adjustment. The alternative of the majority of DEA models deliver divergent results. It is a matter of concern for applied researchers and a matter of confusion for practitioners and decision makers. From a political standpoint, these diverging results could lead to potentially opposite decisions. Grâce à l'existence de logiciels en libre accès et de guides pédagogiques, la méthode data envelopment analysis (DEA) s'est démocratisée ces dernières années. Aujourd'hui, il n'est pas rare que les décideurs avec peu ou pas de connaissances en recherche opérationnelle réalisent eux-mêmes leur propre analyse d'efficience. A l'intérieur de la méthode DEA, plusieurs modèles permettent de tenir compte des conditions plus ou moins favorables de l'environnement. Cinq de ces modèles, facilement accessibles et applicables par les décideurs, sont utilisés pour mesurer l'efficience des 90 écoles primaires du canton de Genève, Suisse. Le canton de Genève pratiquant une politique de discrimination positive envers les écoles défavorisées, ce cas pratique est particulièrement adapté pour un ajustement à l'environnement. La majorité des modèles DEA génèrent des résultats divergents. Ce constat est préoccupant pour les chercheurs appliqués et perturbant pour les décideurs. D'un point de vue politique, ces résultats divergents conduisent à des prises de décision différentes selon le modèle sur lequel elles sont fondées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La dermatite irritative est décrite comme une réaction réversible, non immunologique caractérisée par des lésions d'aspect très variable, allant de la simple rougeur jusqu'à la formation de bulles voire d'une nécrose, accompagnée de prurit ou d'une sensation de brûlure suite à I' application d'une substance chimique. Le teste de prédiction d'irritation cutanée est traditionnellement depuis les années 1940 le Test de Draize. Ce test consiste en l'application d'une substance chimique sur une peau rasée de lapin pendant 4h et de regarder à 24h si des signes cliniques d'irritations sont présents. Cette méthode critiquable autant d'un point de vue éthique que qualitative reste actuellement le teste le plus utilisé. Depuis le début des années 2000 de nouvelles méthodes in vitro se sont développées tel que le model d'épiderme humain recombiné (RHE). Il s agit d'une multicouche de kératinocyte bien différencié obtenu depuis une culture de don d'ovocyte. Cependant cette méthode en plus d'être très couteuse n'obtient au mieux que 76% de résultat similaire comparé au test in vivo humain. Il existe donc la nécessité de développer une nouvelle méthode in vitro qui simulerait encore mieux la réalité anatomique et physiologique retrouvée in vivo. Notre objectif a été de développer cette nouvelle méthode in vitro. Pour cela nous avons travaillé avec de la peau humaine directement prélevée après une abdominoplastie. Celle ci après préparation avec un dermatome, un couteau dont la lame est réglable pour découper l'épaisseur souhaitée de peau, est montée dans un système de diffusion cellulaire. La couche cornée est alors exposée de manière optimale à 1 ml de la substance chimique testée pendant 4h. L'échantillon de peau est alors fixé dans du formaldéhyde pour permettre la préparation de lames standards d'hématoxyline et éosine. L'irritation est alors investiguée selon des critères histopathologiques de spongioses, de nécroses et de vacuolisations cellulaires. Les résultats de ce.tte première batterie de testes sont plus que prometteurs. En effet, comparé au résultat in vivo, nous obtenons 100% de concordance pour les 4 même substances testes irritantes ou non irritantes, ce qui est supérieur au model d épiderme humain recombiné (76%). De plus le coefficient de variation entre les 3 différentes séries est inférieur à 0.1 ce qui montre une bonne reproductibilité dans un même laboratoire. Dans le futur cette méthode va devoir être testée avec un plus grand nombre de substances chimiques et sa reproductibilité évaluée dans différents laboratoires. Mais cette première evaluation, très encourageante, ouvre des pistes précieuses pour l'avenir des tests irritatifs.