16 resultados para non-thermal technologies

em Université de Lausanne, Switzerland


Relevância:

80.00% 80.00%

Publicador:

Resumo:

The photodynamic effects of m-tetrahydroxyphenylchlorin (mTHPC) were assessed on human malignant mesothelioma, squamous cell carcinoma and adenocarcinoma xenografts grown in nude mice and were correlated with mTHPC uptake, histology and doubling time of the tumors. Non-thermal laser light was delivered to the tumor as surface radiation 4 days after intraperitoneal administration of 0.1 and 0.3 mg mTHPC/kg body weight, respectively. The extent of tumor necrosis was measured by histomorphometry. The mTHPC concentration in non-irradiated tumors was assessed by high-performance liquid chromatography (HPLC). The tumors were graded according to their doubling time and their vascular architecture as assessed by histology. The 0.1 mg/kg dose of mTHPC resulted in an equal uptake for all 3 tumor types but revealed a larger extent of photosensitized necrosis for adenocarcinoma, which displayed a delicate tumor stroma with numerous small capillary vessels, than for mesothelioma and squamous cell carcinoma, which were both poor in stroma and vessels. The 0.3 mg/kg dose of mTHPC resulted in a 2-fold higher tumor uptake for all 3 tumor types and in a larger extent of necrosis for mesothelioma and squamous cell carcinoma, but not for adenocarcinoma xenografts, compared with the lower drug dose. Our results demonstrate that different tumor xenografts respond differently to mTHPC-PDT for a given drug-light condition. In this setting, the photosensitizing effect was more closely related to the vascular architecture of the tumors than to the sensitizer uptake and doubling time of the different tumors

Relevância:

30.00% 30.00%

Publicador:

Resumo:

BACKGROUND AND PURPOSE: Accurate placement of an external ventricular drain (EVD) for the treatment of hydrocephalus is of paramount importance for its functionality and in order to minimize morbidity and complications. The aim of this study was to compare two different drain insertion assistance tools with the traditional free-hand anatomical landmark method, and to measure efficacy, safety and precision. METHODS: Ten cadaver heads were prepared by opening large bone windows centered on Kocher's points on both sides. Nineteen physicians, divided in two groups (trainees and board certified neurosurgeons) performed EVD insertions. The target for the ventricular drain tip was the ipsilateral foramen of Monro. Each participant inserted the external ventricular catheter in three different ways: 1) free-hand by anatomical landmarks, 2) neuronavigation-assisted (NN), and 3) XperCT-guided (XCT). The number of ventricular hits and dangerous trajectories; time to proceed; radiation exposure of patients and physicians; distance of the catheter tip to target and size of deviations projected in the orthogonal plans were measured and compared. RESULTS: Insertion using XCT increased the probability of ventricular puncture from 69.2 to 90.2 % (p = 0.02). Non-assisted placements were significantly less precise (catheter tip to target distance 14.3 ± 7.4 mm versus 9.6 ± 7.2 mm, p = 0.0003). The insertion time to proceed increased from 3.04 ± 2.06 min. to 7.3 ± 3.6 min. (p < 0.001). The X-ray exposure for XCT was 32.23 mSv, but could be reduced to 13.9 mSv if patients were initially imaged in the hybrid-operating suite. No supplementary radiation exposure is needed for NN if patients are imaged according to a navigation protocol initially. CONCLUSION: This ex vivo study demonstrates a significantly improved accuracy and safety using either NN or XCT-assisted methods. Therefore, efforts should be undertaken to implement these new technologies into daily clinical practice. However, the accuracy versus urgency of an EVD placement has to be balanced, as the image-guided insertion technique will implicate a longer preparation time due to a specific image acquisition and trajectory planning.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Since 1990, several techniques have been developed to photochemically inactivate pathogens in platelet concentrates, potentially leading to safer transfusion therapy. The three most common methods are amotosalen/UVA (INTERCEPT Blood System), riboflavin/UVA-UVB (MIRASOL PRT), and UVC (Theraflex-UV). We review the biology of pathogen inactivation methods, present their efficacy in reducing pathogens, discuss their impact on the functional aspects of treated platelets, and review clinical studies showing the clinical efficiency of the pathogen inactivation methods and their possible toxicity.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le présent mémoire traite de l'implication des hôpitaux universitaires en évaluation des technologies de la santé. Le champ d'étude est vaste : - L'évaluation des technologies de la santé est une discipline dont l'étendue fait appel aux sciences exactes (physique, statistiques, ingénierie, méthodologie de la recherche analytique, etc.) ainsi qu'aux sciences sociales (économie, éthique, etc.) - L'hôpital universitaire est une organisation des plus complexes qui soit. Le "produit final" - l'amélioration de la santé du patient - est totalement non standardisé, il n'existe pas de modèle d'hôpital universitaire type et unique (inclusion ou non d'un centre de recherche, d'une faculté de médecine, d'un comité de gestion politique, etc.) et les corps de métiers qui le composent sont des plus variés et représentés en grand nombre Ainsi, l'étendue du champ relève des domaines interdépendants tels que la technologie (elle-même incluse dans le domaine de l'innovation aujourd'hui en développement), le management (ou administration des soins, du système de santé dans lequel s'inscrit l'hôpital universitaire), le financement de l'institution (mais aussi la rémunération des professionnels) et enfin la stratégie de l'hôpital. Le présent travail ne fait qu'effleurer ce large spectre d'investigation. La thématique de l'évaluation des technologies de la santé n'est guère connue en Suisse, ou plutôt elle n'est que peu développée et reconnue comme une science interdisciplinaire destinée à porter un jugement de valeur afin d'aider la prise de décision, sens profond qui la définit dans d'autres pays tel le Canada et plus particulièrement le Québec. Enfin, il convient de souligner que le présent travail n'a pas comme objectif de comparer les systèmes de santé québécois et suisse ou de réaliser toute autre critique de l'un ou de l'autre. Le but du stage ([à l'Université de Montréal], cf. Préambule) était d'observer des structures reconnues au niveau international et nullement de juger de l'ensemble du système de santé. Si l'on peut s'inspirer des réussites ailleurs, il convient de s'en tenir à l'inspiration de celles-ci pour ensuite, éventuellement, les contextualiser dans d'autres lieux. Ainsi, à chaque fois qu'il sera fait mention du Québec par la suite, ce sera dans l'intention de démontrer l'originalité de la démarche et d'élargir le débat dans le contexte qui nous intéresse. [Auteur p. 7]

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La peau est sujette à un vieillissement intrinsèque (processus naturel et chronologique) et extrinsèque (processus induit par l'environnement et notamment les rayons UV). Plusieurs études ont montré que le vieillissement cutané s'accompagne d'une réduction de la densité capillaire au sein du derme et d'une dégradation de plusieurs protéines de la matrice extracellulaire. Cette atteinte morphologique est associée à une diminution de la capacité vasodilatatrice maximale de la microcirculation dermique et en particulier, de la réponse maximale du flux sanguin cutané à un échauffement local de la surface cutanée à des températures avoisinant les 43-44°C. Cette réponse, appelée hyperémie locale induite par la chaleur (local thermal hyperemia), est facilement mesurable par des investigations non invasives, telles que le laser Doppler. Nous avons entrepris cette étude afin d'investiguer les effets de l'âge sur la réactivité de la microcirculation dermique dans des zones cutanées exposées différemment aux rayons UV. Pour ce faire, nous avons étudié, chez des patients jeunes (18 à 30 ans, n=13) et des patients âgés (> 60 ans, n=13), la vasodilatation cutanée induite par réchauffement local de la peau, au niveau de 3 sites anatomiques différents (la cuisse, l'avant- bras et le front). Les mesures ont été effectuées au moyen d'un laser Doppler. Pour chaque sujet et chaque site, la température cutanée fut tout d'abord amenée à 34°C par 2 corps de chauffe (A et B), disposés de manière adjacente sur la peau. La température fut ensuite augmentée à 39°C (corps de chauffe A) et à 41°C (corps de chauffe B) pour une durée de 30 minutes, dans l'optique d'induire une vasodilatation sous- maximale. Ensuite, la température fut augmentée à 43 °C (corps de chauffe A et B) pour 15 minutes supplémentaires. Enfin, la vasodilatation maximale a été induite par un échauffement local à 44°C pour 15 minutes supplémentaires (corps de chauffe A et B). L'enregistrement séquentiel du flux sanguin cutané, effectué chaque minute par laser Doppler imager, donne des images sur lesquelles peut être calculé le flux sanguin cutané (unités de perfusion, PU). Par la suite, nous avons calculé les conductances vasculaires cutanées (CVC), en divisant le flux sanguin (PU) par la tension artérielle moyenne (mmHg), afin de permettre une normalisation entre les différents sujets. Les CVC, évaluées au temps de départ (température 34°C) et après vasodilatation maximale (température 44°C), étaient plus hautes au niveau du front qu'au niveau des 2 autres sites anatomiques. Sur les 3 sites, la CVC maximale (température 44°C) diminuait avec l'âge mais de façon moins importante au niveau du front, en comparaison avec les 2 autres sites. La réponse aux températures sous-maximales (température 39 et 41°C), exprimée en pourcentage de la CVC maximale, ne variait pas avec l'âge ni en fonction du site anatomique étudié. En conclusion, cette étude est la première à étudier simultanément l'hyperémie locale induite par la chaleur sur 3 sites ayant une exposition différente aux rayons UV. Le processus utilisé (laser Doppler imager) est également unique dans la littérature concernant les altérations de la microcirculation cutanée en lien avec l'âge. Cette étude confirme ainsi que le vieillissement cutané intrinsèque et/ou extrinsèque réduit la capacité vasodilatatrice maximale de la microcirculation dermique. Par contre, la réactivité à réchauffement local à des températures moindres ne semble pas être affectée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'émergence des nouvelles technologies de la reproduction (NTR) est allée de pair avec un certain nombre de discours. Un discours promettant d'une part une extension de la palette de choix reproductifs des individus, une extension de leur liberté et de leur autonomie reproductives, dont la forme la plus extrême peut se traduire par la formule : un enfant quand je veux et comme je veux. D'autre part, un discours annonçant une série de « catastrophes » à venir, telles que l'effondrement de l'institution de la famille et la modification de l'espèce humaine. En d'autres termes, une tension entre promesses et catastrophes qui place les sociétés contemporaines face à de nombreux défis sociaux, politiques et éthiques, notamment quant à la question de la régulation de la PMA (procréation médicalement assistée) : qui peut y avoir accès ? Quelles techniques doit-on autoriser ? Ou au contraire limiter ? Tant de questions auxquelles aucune réponse simple et évidente n'existe. La diversité des réponses législatives quant à ces questions illustre cette complexité. L'éthique peut, ici, jouer un rôle fondamental. Sans toutefois prétendre donner des réponses toutes faites et facilement applicables, elle offre un espace de réflexion, le privilège de prendre une certaine distance face à des enjeux contemporains. C'est dans cette perspective que nous avons ancré ce travail de recherche en questionnant les enjeux éthiques de la PMA à partir d'une perspective de justice. Toutefois, au sein des études en bioéthique, majoritairement issues de la tradition libérale, la tension énoncée précédemment mène la bioéthique à justifier un certain nombre d'inégalités plutôt que de veiller à les dépasser. Ainsi, une évaluation de la pratique de la PMA à partir d'une perspective de la justice, exige, au préalable, une réévaluation du concept même de justice. Ce faisant, par une articulation entre l'éthique du care de Joan Tronto et l'approche des capabilités de Martha Nussbaum qui placent la vulnérabilité au coeur de la personne, nous avons proposé une conception de la justice fondée sur une anthropologie de la vulnérabilité. Cette conception nous permet d'identifier, dans le cadre de la pratique de la PMA en Suisse et en partant de la loi sur la procréation assistée (LPMA), les constructions normatives qui mènent à la non-reconnaissance et, ce faisant, à la mise à l'écart, de certaines formes de vulnérabilité : une vulnérabilité générique et une vulnérabilité socio-économique. Traitant la question de la vulnérabilité générique principalement, nos analyses ont une incidence sur les conceptions de la famille, du bien de l'enfant, de la femme et de la nature, telles qu'elles sont actuellement véhiculées par une conception naturalisée de la PMA. Répondre aux vulnérabilités identifiées, en veillant à leur donner une place, signifie alors déplacer ces conceptions naturalisées, afin que les vulnérabilités soient intégrées aux pratiques sociales et que les exigences de justice soient ainsi remplies. - The emergence of assisted reproductive technologies (ART) came along with several discourses. On the one hand a discourse promising an extension of the individuals' reproductive choices, their procreative liberty and autonomy. On the other hand a discourse announced a series of disasters to come such as the collapse of the family institution and the modification of human kind. In other words, a growing tension appears between promises and disasters and contemporary societies are facing inevitable social, political and ethical challenges, in particular with regard to the issue of ART regulation: who has access? What procedures should be authorized? Which ones should be limited? These complex questions have no simple or obvious answers. The variety of legislative responses to these questions highlights complexity. Ethics can play a fundamental role, and without claiming to give simple answers, also offer a space for reflection as well as the privilege to distance itself with regard to contemporary issues. It is in this perspective that this study questions the ethical considerations of ART in a perspective of justice. However, in previous studies in bioethics mainly following a liberal tradition, previously mentioned tension has lead bioethics to justify some inequalities instead of trying to overcome them. As a consequence, evaluating practices of ART from a perspective of justice requires to first reevaluate the concept of justice itself. In doing so we offer a conception of justice founded on the anthropology of vulnerability. This conception draws on an articulation of the ethic of care of Joan Tronto and the capability approach of Martha Nussbaum, which places vulnerability at the center of the person. This conception allows us to identify, within the framework of ARTS in Switzerland and starting with the laws of medically assisted procreation (LPMA), some normative constructions. These constructions lead to the non-recognition and the disregard of some forms of vulnerability: a generic vulnerability as well as socio-economic counterpart. Focusing mainly on the issue of generic vulnerability, our analysis has implications for the conceptions of family, the best interests of the child, woman, and nature in the way they are defined in a naturalized conception of ART. Responding to such failures by taking into account these vulnerabilities thus means to move these conceptions in order for vulnerabilities to be integrated in social practices and requirements for justice to be fulfilled.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Epidemiological studies in humans have demonstrated a relationship between pathological events during fetal development and increased cardiovascular risk later in life and have led to the so called "Fetal programming of cardiovascular disease hypothesis". The recent observation of generalised vascular dysfunction in young apparently healthy children conceived by assisted reproductive technologies (ART) provides a novel and potentially very important example of this hypothesis. This review summarises recent data in ART children demonstrating premature subclinical atherosclerosis in the systemic circulation and pulmonary vascular dysfunction predisposing to exaggerated hypoxia-induced pulmonary hypertension. These problems appear to be related to the ART procedure per se. Studies in ART mice demonstrating premature vascular aging and arterial hypertension further demonstrate the potential of ART to increase cardiovascular risk and have allowed to unravel epigenetic alterations of the eNOS gene as an underpinning mechanism. The roughly 25% shortening of the life span in ART mice challenged with a western style high-fat-diet demonstrates the potential importance of these alterations for the long-term outcome. Given the young age of the ART population, data on cardiovascular endpoints will not be available before 20 to 30 years from now. However, already now cohort studies of the ART population are needed to early detect cardiovascular alterations with the aim to prevent or at least optimally treat cardiovascular complications. Finally, a debate needs to be engaged on the future of ART and the consequences of its exponential growth for public health.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

BACKGROUND and OBJECTIVE: A non-touch laser-induced microdrilling procedure is studied on mouse zona pellucida (ZP). STUDY DESIGN/MATERIALS and METHODS: A 1.48-microns diode laser beam is focused in a 8-microns spot through a 45x objective of an inverted microscope. Mouse zygotes, suspended in a culture medium, are microdrilled by exposing their ZP to a short laser irradiation and allowed to develop in vitro. RESULTS: Various sharp-edged holes can be generated in the ZP with a single laser irradiation. Sizes can be varied by changing irradiation time (3-100 ms) or laser power (22-55 mW). Drilled zygotes present no signs of thermal damage under light and scanning electron microscopy and develop as expected in vitro, except for a distinct eight-shaped hatching behavior. CONCLUSION: The microdrilling procedure can generate standardized holes in mouse ZP, without any visible side effects. The hole formation can be explained by a local photothermolysis of the protein matrix.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[Table des matières] Technology assessment in health care in the United States: an historical review / S. Perry. - The aims and methods of technology assessment / JH Glasser. - Evaluation des technologies de la santé / A. Griffiths. - Les données nécessaires pour l'évaluation des technologies médicales / R. Chrzanowski, F. Gutzwiller, F. Paccaud. - Economic issues in technology assessment/DR Lairson, JM Swint. - Two decades of experience in technology assessment: evaluating the safety, performance, and cost effectiveness of medical equipment / JJ Nobel. - Demography and technology assessment / H. Hansluwka. - Méthodes expérimentale et non expérimentale pour l'évaluation des innovations technologiques / R. Chrzanowski, F. Paccaud. - Skull radiography in head trauma: a successful case of technology assessment / NT Racoveanu. - Complications associées à l'anesthésie: une étude prospective en France / L. Tiret et al. - Impact de l'information publique sur les taux opératoires: le cas de l'hystérectomie / G. Domenighetti, P. Luraschi, A. Casabianca. - The clinical effectiveness of acupuncture for the relief of chronic pain / MS Patel, F. Gutzwiller, F. Paccaud, A. Marazzi. - Soins à domicile et hébergement à long terme: à la recherche d'un développement optimum / G. Tinturier. - Economic evaluation of six scenarios for the treatment of stones in the kidney and ureter by surgery or ESWL / MS Patel et al. - Technology assessment and medical practice / F. Gutzwiller. - Technology assessment and health policy / SJ Reiser. - Global programme on appropriate technology for health, its role and place within WHO / K. Staehr Johansen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In order to prevent adjacent segment degeneration following spinal fusion new techniques are being used. Lumbar disc arthroplasty yields mid term results equivalent to those of spinal fusion. Cervical disc arthroplasty is indicated in the treatment of cervicobrachialgia with encouraging initial results. The ability of arthroplasty to prevent adjacent segment degeneration has yet to be proven. Although dynamic stabilization had not been proven effective in treating chronic low back pain, it might be useful following decompression of lumbar spinal stenosis in degenerative spondylolisthesis. Interspinal devices are useful in mild lumbar spinal stenosis but their efficacy in treating low back pain is yet to be proven. Confronted with a growing number of new technologies clinicians should remain critical while awaiting long term results.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. L'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Récemment, l?eau liquide a été décrite comme une structure formée d?un réseau aléatoire de liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure à basse température, certaines liaisons hydrogènes sont détruites ce qui est énergétiquement défavorable. Les molécules d?eau s?arrangent alors autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l?eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise les liaisons hydrogènes. Maintenant, la dissolution des particules devient énergétiquement défavorable, et les particules se séparent de l?eau en formant des agrégats qui minimisent leur surface exposée à l?eau. Pourtant, à très haute température, les effets entropiques deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d?eau. En utilisant un modèle basé sur ces changements de structure formée par des liaisons hydrogènes j?ai pu reproduire les phénomènes principaux liés à l?hydrophobicité. J?ai trouvé une région de coexistence de deux phases entre les températures critiques inférieure et supérieure de solubilité, dans laquelle les particules hydrophobes s?agrègent. En dehors de cette région, les particules sont dissoutes dans l?eau. J?ai démontré que l?interaction hydrophobe est décrite par un modèle qui prend uniquement en compte les changements de structure de l?eau liquide en présence d?une particule hydrophobe, plutôt que les interactions directes entre les particules. Encouragée par ces résultats prometteurs, j?ai étudié des solutions aqueuses de particules hydrophobes en présence de co-solvants cosmotropiques et chaotropiques. Ce sont des substances qui stabilisent ou déstabilisent les agrégats de particules hydrophobes. La présence de ces substances peut être incluse dans le modèle en décrivant leur effet sur la structure de l?eau. J?ai pu reproduire la concentration élevée de co-solvants chaotropiques dans le voisinage immédiat de la particule, et l?effet inverse dans le cas de co-solvants cosmotropiques. Ce changement de concentration du co-solvant à proximité de particules hydrophobes est la cause principale de son effet sur la solubilité des particules hydrophobes. J?ai démontré que le modèle adapté prédit correctement les effets implicites des co-solvants sur les interactions de plusieurs corps entre les particules hydrophobes. En outre, j?ai étendu le modèle à la description de particules amphiphiles comme des lipides. J?ai trouvé la formation de différents types de micelles en fonction de la distribution des regions hydrophobes à la surface des particules. L?hydrophobicité reste également un sujet controversé en science des protéines. J?ai défini une nouvelle échelle d?hydrophobicité pour les acides aminés qui forment des protéines, basée sur leurs surfaces exposées à l?eau dans des protéines natives. Cette échelle permet une comparaison meilleure entre les expériences et les résultats théoriques. Ainsi, le modèle développé dans mon travail contribue à mieux comprendre les solutions aqueuses de particules hydrophobes. Je pense que les résultats analytiques et numériques obtenus éclaircissent en partie les processus physiques qui sont à la base de l?interaction hydrophobe.<br/><br/>Despite the importance of water in our daily lives, some of its properties remain unexplained. Indeed, the interactions of water with organic particles are investigated in research groups all over the world, but controversy still surrounds many aspects of their description. In my work I have tried to understand these interactions on a molecular level using both analytical and numerical methods. Recent investigations describe liquid water as random network formed by hydrogen bonds. The insertion of a hydrophobic particle at low temperature breaks some of the hydrogen bonds, which is energetically unfavorable. The water molecules, however, rearrange in a cage-like structure around the solute particle. Even stronger hydrogen bonds are formed between water molecules, and thus the solute particles are soluble. At higher temperatures, this strict ordering is disrupted by thermal movements, and the solution of particles becomes unfavorable. They minimize their exposed surface to water by aggregating. At even higher temperatures, entropy effects become dominant and water and solute particles mix again. Using a model based on these changes in water structure I have reproduced the essential phenomena connected to hydrophobicity. These include an upper and a lower critical solution temperature, which define temperature and density ranges in which aggregation occurs. Outside of this region the solute particles are soluble in water. Because I was able to demonstrate that the simple mixture model contains implicitly many-body interactions between the solute molecules, I feel that the study contributes to an important advance in the qualitative understanding of the hydrophobic effect. I have also studied the aggregation of hydrophobic particles in aqueous solutions in the presence of cosolvents. Here I have demonstrated that the important features of the destabilizing effect of chaotropic cosolvents on hydrophobic aggregates may be described within the same two-state model, with adaptations to focus on the ability of such substances to alter the structure of water. The relevant phenomena include a significant enhancement of the solubility of non-polar solute particles and preferential binding of chaotropic substances to solute molecules. In a similar fashion, I have analyzed the stabilizing effect of kosmotropic cosolvents in these solutions. Including the ability of kosmotropic substances to enhance the structure of liquid water, leads to reduced solubility, larger aggregation regime and the preferential exclusion of the cosolvent from the hydration shell of hydrophobic solute particles. I have further adapted the MLG model to include the solvation of amphiphilic solute particles in water, by allowing different distributions of hydrophobic regions at the molecular surface, I have found aggregation of the amphiphiles, and formation of various types of micelle as a function of the hydrophobicity pattern. I have demonstrated that certain features of micelle formation may be reproduced by the adapted model to describe alterations of water structure near different surface regions of the dissolved amphiphiles. Hydrophobicity remains a controversial quantity also in protein science. Based on the surface exposure of the 20 amino-acids in native proteins I have defined the a new hydrophobicity scale, which may lead to an improvement in the comparison of experimental data with the results from theoretical HP models. Overall, I have shown that the primary features of the hydrophobic interaction in aqueous solutions may be captured within a model which focuses on alterations in water structure around non-polar solute particles. The results obtained within this model may illuminate the processes underlying the hydrophobic interaction.<br/><br/>La vie sur notre planète a commencé dans l'eau et ne pourrait pas exister en son absence : les cellules des animaux et des plantes contiennent jusqu'à 95% d'eau. Malgré son importance dans notre vie de tous les jours, certaines propriétés de l?eau restent inexpliquées. En particulier, l'étude des interactions entre l'eau et les particules organiques occupe des groupes de recherche dans le monde entier et est loin d'être finie. Dans mon travail j'ai essayé de comprendre, au niveau moléculaire, ces interactions importantes pour la vie. J'ai utilisé pour cela un modèle simple de l'eau pour décrire des solutions aqueuses de différentes particules. Bien que l?eau soit généralement un bon solvant, un grand groupe de molécules, appelées molécules hydrophobes (du grecque "hydro"="eau" et "phobia"="peur"), n'est pas facilement soluble dans l'eau. Ces particules hydrophobes essayent d'éviter le contact avec l'eau, et forment donc un agrégat pour minimiser leur surface exposée à l'eau. Cette force entre les particules est appelée interaction hydrophobe, et les mécanismes physiques qui conduisent à ces interactions ne sont pas bien compris à l'heure actuelle. Dans mon étude j'ai décrit l'effet des particules hydrophobes sur l'eau liquide. L'objectif était d'éclaircir le mécanisme de l'interaction hydrophobe qui est fondamentale pour la formation des membranes et le fonctionnement des processus biologiques dans notre corps. Récemment, l'eau liquide a été décrite comme un réseau aléatoire formé par des liaisons hydrogènes. En introduisant une particule hydrophobe dans cette structure, certaines liaisons hydrogènes sont détruites tandis que les molécules d'eau s'arrangent autour de cette particule en formant une cage qui permet de récupérer des liaisons hydrogènes (entre molécules d?eau) encore plus fortes : les particules sont alors solubles dans l'eau. A des températures plus élevées, l?agitation thermique des molécules devient importante et brise la structure de cage autour des particules hydrophobes. Maintenant, la dissolution des particules devient défavorable, et les particules se séparent de l'eau en formant deux phases. A très haute température, les mouvements thermiques dans le système deviennent tellement forts que les particules se mélangent de nouveau avec les molécules d'eau. A l'aide d'un modèle qui décrit le système en termes de restructuration dans l'eau liquide, j'ai réussi à reproduire les phénomènes physiques liés à l?hydrophobicité. J'ai démontré que les interactions hydrophobes entre plusieurs particules peuvent être exprimées dans un modèle qui prend uniquement en compte les liaisons hydrogènes entre les molécules d'eau. Encouragée par ces résultats prometteurs, j'ai inclus dans mon modèle des substances fréquemment utilisées pour stabiliser ou déstabiliser des solutions aqueuses de particules hydrophobes. J'ai réussi à reproduire les effets dûs à la présence de ces substances. De plus, j'ai pu décrire la formation de micelles par des particules amphiphiles comme des lipides dont la surface est partiellement hydrophobe et partiellement hydrophile ("hydro-phile"="aime l'eau"), ainsi que le repliement des protéines dû à l'hydrophobicité, qui garantit le fonctionnement correct des processus biologiques de notre corps. Dans mes études futures je poursuivrai l'étude des solutions aqueuses de différentes particules en utilisant les techniques acquises pendant mon travail de thèse, et en essayant de comprendre les propriétés physiques du liquide le plus important pour notre vie : l'eau.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé: Le développement rapide de nouvelles technologies comme l'imagerie médicale a permis l'expansion des études sur les fonctions cérébrales. Le rôle principal des études fonctionnelles cérébrales est de comparer l'activation neuronale entre différents individus. Dans ce contexte, la variabilité anatomique de la taille et de la forme du cerveau pose un problème majeur. Les méthodes actuelles permettent les comparaisons interindividuelles par la normalisation des cerveaux en utilisant un cerveau standard. Les cerveaux standards les plus utilisés actuellement sont le cerveau de Talairach et le cerveau de l'Institut Neurologique de Montréal (MNI) (SPM99). Les méthodes de recalage qui utilisent le cerveau de Talairach, ou celui de MNI, ne sont pas suffisamment précises pour superposer les parties plus variables d'un cortex cérébral (p.ex., le néocortex ou la zone perisylvienne), ainsi que les régions qui ont une asymétrie très importante entre les deux hémisphères. Le but de ce projet est d'évaluer une nouvelle technique de traitement d'images basée sur le recalage non-rigide et utilisant les repères anatomiques. Tout d'abord, nous devons identifier et extraire les structures anatomiques (les repères anatomiques) dans le cerveau à déformer et celui de référence. La correspondance entre ces deux jeux de repères nous permet de déterminer en 3D la déformation appropriée. Pour les repères anatomiques, nous utilisons six points de contrôle qui sont situés : un sur le gyrus de Heschl, un sur la zone motrice de la main et le dernier sur la fissure sylvienne, bilatéralement. Evaluation de notre programme de recalage est accomplie sur les images d'IRM et d'IRMf de neuf sujets parmi dix-huit qui ont participés dans une étude précédente de Maeder et al. Le résultat sur les images anatomiques, IRM, montre le déplacement des repères anatomiques du cerveau à déformer à la position des repères anatomiques de cerveau de référence. La distance du cerveau à déformer par rapport au cerveau de référence diminue après le recalage. Le recalage des images fonctionnelles, IRMf, ne montre pas de variation significative. Le petit nombre de repères, six points de contrôle, n'est pas suffisant pour produire les modifications des cartes statistiques. Cette thèse ouvre la voie à une nouvelle technique de recalage du cortex cérébral dont la direction principale est le recalage de plusieurs points représentant un sillon cérébral. Abstract : The fast development of new technologies such as digital medical imaging brought to the expansion of brain functional studies. One of the methodolgical key issue in brain functional studies is to compare neuronal activation between individuals. In this context, the great variability of brain size and shape is a major problem. Current methods allow inter-individual comparisions by means of normalisation of subjects' brains in relation to a standard brain. A largerly used standard brains are the proportional grid of Talairach and Tournoux and the Montreal Neurological Insititute standard brain (SPM99). However, there is a lack of more precise methods for the superposition of more variable portions of the cerebral cortex (e.g, neocrotex and perisyvlian zone) and in brain regions highly asymmetric between the two cerebral hemipsheres (e.g. planum termporale). The aim of this thesis is to evaluate a new image processing technique based on non-linear model-based registration. Contrary to the intensity-based, model-based registration uses spatial and not intensitiy information to fit one image to another. We extract identifiable anatomical features (point landmarks) in both deforming and target images and by their correspondence we determine the appropriate deformation in 3D. As landmarks, we use six control points that are situated: one on the Heschl'y Gyrus, one on the motor hand area, and one on the sylvian fissure, bilaterally. The evaluation of this model-based approach is performed on MRI and fMRI images of nine of eighteen subjects participating in the Maeder et al. study. Results on anatomical, i.e. MRI, images, show the mouvement of the deforming brain control points to the location of the reference brain control points. The distance of the deforming brain to the reference brain is smallest after the registration compared to the distance before the registration. Registration of functional images, i.e fMRI, doesn't show a significant variation. The small number of registration landmarks, i.e. six, is obvious not sufficient to produce significant modification on the fMRI statistical maps. This thesis opens the way to a new computation technique for cortex registration in which the main directions will be improvement of the registation algorithm, using not only one point as landmark, but many points, representing one particular sulcus.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les technosciences (numériques, bio- et nanotechnologies, neurosciences, médecine personnalisée, biologie de synthèse) sont accompagnées de promesses fabuleuses à l'attention du public et des décideurs. L'économie des promesses qui en résulte affecte le régime de financement de la recherche et la gouvernance du changement sociotechnique. Elle crée de l'engouement, soutient la compétition scientifique, attire des ressources financières et légitime d'importantes dépenses publiques. Cet ouvrage met en évidence les cycles accélérés d'enthousiasme et de désillusion, les décalages entre horizons d'attente et les questions démocratiques qu'ils soulèvent. Fondé sur des recherches de terrain relevant de l'étude sociale des sciences et des techniques, de la philosophie et de l'histoire, il examine les formes alternatives d'organisation de la recherche, de participation citoyenne et de répartition des droits de propriété et des bénéfices, et montre qu'une forme de ralentissement des promesses, non des sciences, favoriserait l'articulation de ces dernières avec les besoins de la société. L'ambition des textes réunis ici est d'ouvrir le débat en langue française en interrogeant directement le régime des promesses technoscientifiques.