615 resultados para Pression plantaire
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
Le but de cette thèse a été d'investiguer la relation entre, d'une part le temps de propagation de l'onde de pouls artérielle du coeur vers les membres inférieurs, et d'autre part le temps séparant, au niveau de l'aorte ascendante, la génération de l'onde antérograde du retour des ondes réfléchies. Le principe de la méthode employée a été de mesurer ces deux temps par deux méthodes indépendantes, ce en les faisant varier par changement rapide de la position du corps, chez sujets humains volontaires. Le facteur gravitationnel a en effet une influence majeure sur la pression transmurale des artères, dont dépend largement la vitesse de propagation des ondes de pouls, tant dans le sens antérograde que rétrograde. Vingt sujets jeunes, en bonne santé, dontIO hommes et 10 femmes, ont été examinés sur une table de tilt, dans deux positions différentes : tête vers le bas (angle de tilt : - 10°) et tête vers le haut (+45°).Dans chaque position, le temps de propagation carotido- femorale (Tcf, succédané du temps aorto-fémoral) et carotido-tibial (Tct, succédané du temps aorto-tibial) a été mesuré avec l'appareil Complior. De même, dans chaque position la pression aortique centrale a été enregistrée par tonométrie radiale en utilisant l'appareil SphygmoCor qui applique une fonction de transfert généralisé pour reconstruire la forme de l'onde de pouls aortique. L'analyse de celle-ci permet ensuite de calculer les temps d'aller-retour des ondes réfléchies atteignant l'aorte pendant la systole (début de l'onde réfléchie, sT1 r) et pendant la diastole (temps de transit moyen de l'onde diastolique réfléchie dMTT). Le changement de position de tête vers le haut à tête vers le bas, a provoqué une augmentation importante du temps de propagation Tct (chez le femmes de 130±10 à 185±18msec, P<0,001 et chez les hommes de 136±9 à 204±18msec P<0.001) ainsi que du temps moyen de transition de l'onde diastolique réfléchie dMTT (chez les femmes de 364±35 à 499±33msec P<0,001 et chez les hommes de 406±22 à 553±21msec, P<0,001). Un modèle de régression mixte montre qu'entre les deux positions, les variations de dMTT sont environ le double de celles de Tct (coefficient de régression 2.1; 95% intervalle de confiance 1.9-2,3, P<0,001). Ces résultats suggèrent que les ondes diastoliques observées dans l'onde de pouls aortique central reconstruites par tonométrie radiale, correspondent, du moins en partie, aux ondes réfléchies générées au niveau des membres inférieurs.
Resumo:
Le but de cette étude était d'investiguer l'association entre l'alliance thérapeutique et le contrôle de substances, comme il est vécu par le patient. La théorie de King et le concept de l'alliance thérapeutique figuraient comme cadres théoriques. L'investigation se faisait à l'aide d'un questionnaire auto-administré, incluant l'instrument working alliance inventory (WAI) dans sa forme abréviée, traduit et validé en français, visant un échantillon de convenance (n=28). L'alliance thérapeutique était évaluée sur une échelle Likert à 12 questions, et les alliances thérapeutiques se sont révélées comme bonnes (x=61.68, max=84). Mais il y a une relation linéaire négative significative entre le degré à quel point les contrôles sont perçus comme pesants, évalués par une question supplémentaire sur une visual analog scale (VAS), et l'établissement d'une alliance thérapeutique (r =-0.67, p-value>0.001). De plus, la forme d'admission joue un rôle significatif, car dans cette étude, les patients admis sous pression de l'extérieur (n=7) ont de moins bonnes alliances (t, p-value=0.018) et vivent les contrôles comme plus pesants (Z, p-value=0.004) que les patients admis de leur propre gré (n=21). Malgré que ces résultats ne sont, vu le petit échantillon (n=28), pas généralisables, ils pourraient impliquer pour la pratique de repenser la prise d'urine et d'être sensibilisés aux conséquences possibles. Des options, comme l'introduction d'une supervision par caméra ou le retrait complet de l'infirmière de référence de toute sorte de contrôles, seraient imaginables. Au moins pour les personnes hospitalisées sous pression de l'extérieur et qui sont probablement, pour cette raison, plus susceptibles à tout dérangement de la relation.
Resumo:
Le corps humain emploie le glucose comme source principale d'énergie. L'insuline, sécrétée par les cellules ß-pancreatiques situées dans les îlots de Langerhans, est l'hormone principale assurant un maintien constant du taux de glucose sanguin (glycémie). Les prédispositions génétiques, le manque d'activité physique et un régime déséquilibré peuvent entraîner une perte de sensibilité à l'insuline et des taux de glucose dans le sang élevé (hyperglycémie), une condition nommée diabète de type 2. Cette maladie est initiée par une sensibilité diminuée à l'insuline dans les tissus périphériques, entraînant une demande accrue en insuline. Cette pression continue finie par épuiser les cellules ß-pancreatiques, qui sécrètent alors des niveaux d'insuline insuffisant en trainant l'apparition du diabète. Le vieillissement est un facteur de risque important pour les maladies métaboliques dont le diabète de type 2 faits partis. En effet la majeure partie des diabétiques de type 2 ont plus de 45 ans. Il est connu que le vieillissement entraine une perte de sensibilité à l'insuline, une sécrétion altérée d'insuline, une baisse de réplication et une plus grande mort des ß-cellules pancréatiques. Le but de ma thèse était de mieux comprendre les mécanismes contribuante au dysfonctionnement des cellules ß- pancréatiques lors du vieillissement. Les travaux du « Human Genome Project » ont révélés que seulement 2% de notre génome code pour des protéines. Le reste non-codant fut alors désigné sous le nom de « ADN déchets ». Cependant, l'étude approfondie de cet ADN non-codant ces dernières deux décennies a démontré qu'une grande partie code pour des «MicroARNs », des ARNs courts (20-22 nucleotides) découverts en 1997 chez le vers C.elegans. Depuis lors ces molécules ont été intensivement étudiées, révélant un rôle crucial de ces molécules dans la fonction et la survie des cellules en conditions normales et pathologiques. Le but de cette thèse était d'étudier le rôle des microARNs dans le dysfonctionnement des cellules ß lors du vieillissement. Nos données suggèrent qu'ils peuvent jouer un rôle tantôt salutaire, tantôt nocif sur les cellules ß. Par exemple, certains microARNs réduisent la capacité des cellules ß à se multiplier ou réduisent leur survie, alors que d'autres protègent ces cellules contre la mort. Pour conclure, nous avons démontré les microARNs jouent un rôle important dans le dysfonctionnement des cellules ß lors du vieillissement. Ces nouvelles découvertes préparent le terrain pour la conception de futures stratégies visant à améliorer la résistance des cellules ß pancréatiques afin de trouver de nouveaux traitements du diabète de type 2. -- Le diabète de type 2 est une maladie métabolique due à la résistance à l'action de l'insuline des tissus cibles combinée à l'incapacité des cellules ß pancréatiques à sécréter les niveaux adéquats d'insuline. Le vieillissement est associé à un déclin global des fonctions de l'organisme incluant une diminution de la fonction et du renouvellement des cellules ß pancréatiques. Il constitue ainsi un risque majeur de développement des maladies métaboliques dont le diabète de type 2. Le but de cette thèse était d'étudier le rôle des microARNs (une classe d'ARN non- codants) dans le dysfonctionnement lié au vieillissement des cellules ß. L'analyse par microarray des niveaux d'expression des microARN dans les îlots pancréatiques de rats Wistar mâles âgés de 3 et 12 mois nous a permis d'identifier de nombreux changements d'expression de microARNs associés au vieillissement. Afin d'étudier les liens entre ces modifications et le déclin des cellules ß, les changements observés lors du vieillissement ont été reproduits spécifiquement dans une lignée cellulaire, dans des cellules ß primaires de jeune rats ou de donneurs humains sains. La diminution du miR-181a réduit la prolifération des cellules ß, tandis que la diminution du miR-130b ou l'augmentation du miR-383 protège contre l'apoptose induite par les cytokines. L'augmentation du miR-34a induit l'apoptose et inhibe la prolifération des cellules ß en réponse aux hormones Exendin-4 et prolactine et au facteur de croissance PDGF-AA. Cette perte de capacité réplicative est similaire à celle observée dans des cellules ß de rats âgés de 12 mois. Dans la littérature, la perte du récepteur au PDGF-r-a est associée à la diminution de la capacité proliférative des cellules ß observée lors du vieillissement. Nous avons pu démontrer que PDGF-r-a est une cible directe de miR- 34a, suggérant que l'effet néfaste de miR-34a sur la prolifération des cellules ß est, du moins en partie, lié à l'inhibition de l'expression de PDGF-r-a. L'expression de ce miR est aussi plus élevée dans le foie et le cerveau des animaux de 1 an et augmente avec l'âge dans les ilôts de donneurs non-diabétiques. Ces résultats suggèrent que miR-34a pourrait être non seulement impliqué dans l'affaiblissement des fonctions pancréatiques associé à l'âge, mais également jouer un rôle dans les tissus cibles de l'insuline et ainsi contribuer au vieillissement de l'organisme en général. Pour conclure, les travaux obtenus durant cette thèse suggèrent que des microARNs sont impliqués dans le dysfonctionnement des cellules ß pancréatiques durant le vieillissement. -- Type 2 diabetes is a metabolic disease characterized by impaired glucose tolerance, of the insulin sensitive tissues and insufficient insulin secretion from the pancreatic ß-cells to sustain the organism demand. Aging is a risk factor for the majority of the metabolic diseases including type 2 diabetes. With aging is observed a decline in all body function, due to decrease both in cell efficiency and renewal. The aim of this thesis was to investigate the potential role of microRNAs (short non- coding RNAs) in the pancreatic ß-cell dysfunction associated with aging. Microarray analysis of microRNA expression profile in pancreatic islets from 3 and 12 month old Wistar male rats revealed important changes in several microRNAs. To further study the link between those alterations and the decline of ß-cells, the changes observed in old rats were mimicked in immortalized ß-cell lines, primary young rat and human islets. Downregulation of miR-181a inhibited pancreatic ß-cell proliferation in response to proliferative drugs, whereas downregulation of miR-130b and upregulation of miR-383 protected pancreatic ß-cells from cytokine stimulated apoptosis. Interestingly, miR-34a augmented pancreatic ß-cell apoptosis and inhibited ß-cell proliferation in response to the proliferative chemicals Exendin-4, prolactin and PDGF-AA. This loss of replicative capacity is reminiscent of what we observed in pancreatic ß-cells isolated from 12 month old rats. We further observed a correlation between the inhibitory effect of miR-34a on pancreatic ß-cell proliferation and its direct interfering effect of this microRNA on PDGF-r-a, which was previously reported to be involved in the age-associated decline of pancreatic ß-cell proliferation. Interestingly miR-34a was upregulated in the liver and brain of 1 year old animals and positively correlated with age in pancreatic islets of normoglycemic human donors. These results suggest that miR-34a might be not only involved in the age-associated impairment of the pancreatic ß-cell functions, but also play a role in insulin target tissues and contribute to the aging phenotype on the organism level. To conclude, we have demonstrated that microRNAs are indeed involved in the age-associated pancreatic ß-cell dysfunction and they can play both beneficial and harmful roles in the context of pancreatic ß-cell aging.
Inactive matrix gla-protein is associated with arterial atiffness in an adult population-based study
Resumo:
La vitesse de l'onde de pouls (VOP) est la méthode pour mesurer la rigidité artérielle la plus répandue et la plus validée. C'est aussi un prédicteur indépendant de la mortalité. La Matrix Gla- protein (MGP) est une protein qui inhibe les calcifications vasculaires. MGP nécessite une enzyme dérivée de la vitamine K pour être activée, à l'instar de certains facteurs de coagulation. La forme inactive de MGP, connue sous le terme de « desphospho-uncarboxylated MGP » (dp-ucMGP), peut-être mesurée dans le plasma. Plus les apports de vitamine K sont importants plus les taux de dp-ucMGP diminue. Les taux de dp-ucMGP ont déjà été étudiés et associés à différents marqueurs cardiovasculaires (CV), aux événements CV et à la mortalité. Dans notre travail de recherche nous avons émis l'hypothèse que des taux élevés de dp-ucMGP seraient associés à une VOP élevée. Nous avons recruté les participants à travers une étude multicentrique suisse (SKIPOGH). Le processus de recrutement ciblait des familles dans lesquelles plusieurs membres étaient d'accord de participer. Nous avons mesuré la dp-ucMGP plasmatique grâce à la méthode immuno-enzymatique « ELISA ». Concernant la VOP, nous avons mesuré les ondes de pression au niveau carotidien et fémorale grâce à un tonomètre et calculer la vitesse de leurs propagations. Par la suite nous avons utilisé un modèle de régression linéaire multiple afin de déterminer le lien entre la VOP et dp- ucMGP. Le modèle était ajusté pour l'âge, la fonction rénale et les risques CV classiques. Nous avons inclut 1001 participants dans les analyses (475 hommes et 526 femmes). La valeur moyenne de la VOP était de 7.87 ± 2.10 (m/s) et celle de dp-ucMGP de 0.43 ± 0.20 (nmol/L). La VOP était positivement et significativement associée à dp-ucMGP avant comme après ajustement pour le sexe, l'âge, l'indice de masse corporel, la taille, la pression artérielle systolique et diastolique, la fréquence cardiaque, la fonction rénale, les taux de cholestérol (LDL, HDL), la glycémie, la consommation de tabac, la présence d'un diabète, l'utilisation de médicaments antihypertenseurs ou hypolipémiants et la présence d'antécédents CV (P<0.01). En conclusion, des taux élevés de dp-ucMGP sont positivement et indépendamment associés à la rigidité artérielle après ajustement pour les facteurs de risques CV traditionnels, la fonction rénale et l'âge. Des études expérimentales sont nécessaires afin de déterminer si une supplémentation en vitamine K permet de ralentir l'avancement de la rigidité artérielle grâce à son activation de la MGP.
Resumo:
Understanding and quantifying seismic energy dissipation, which manifests itself in terms of velocity dispersion and attenuation, in fluid-saturated porous rocks is of considerable interest, since it offers the perspective of extracting information with regard to the elastic and hydraulic rock properties. There is increasing evidence to suggest that wave-induced fluid flow, or simply WIFF, is the dominant underlying physical mechanism governing these phenomena throughout the seismic, sonic, and ultrasonic frequency ranges. This mechanism, which can prevail at the microscopic, mesoscopic, and macroscopic scale ranges, operates through viscous energy dissipation in response to fluid pressure gradients and inertial effects induced by the passing wavefield. In the first part of this thesis, we present an analysis of broad-band multi-frequency sonic log data from a borehole penetrating water-saturated unconsolidated glacio-fluvial sediments. An inherent complication arising in the interpretation of the observed P-wave attenuation and velocity dispersion is, however, that the relative importance of WIFF at the various scales is unknown and difficult to unravel. An important generic result of our work is that the levels of attenuation and velocity dispersion due to the presence of mesoscopic heterogeneities in water-saturated unconsolidated clastic sediments are expected to be largely negligible. Conversely, WIFF at the macroscopic scale allows for explaining most of the considered data while refinements provided by including WIFF at the microscopic scale in the analysis are locally meaningful. Using a Monte-Carlo-type inversion approach, we compare the capability of the different models describing WIFF at the macroscopic and microscopic scales with regard to their ability to constrain the dry frame elastic moduli and the permeability as well as their local probability distribution. In the second part of this thesis, we explore the issue of determining the size of a representative elementary volume (REV) arising in the numerical upscaling procedures of effective seismic velocity dispersion and attenuation of heterogeneous media. To this end, we focus on a set of idealized synthetic rock samples characterized by the presence of layers, fractures or patchy saturation in the mesocopic scale range. These scenarios are highly pertinent because they tend to be associated with very high levels of velocity dispersion and attenuation caused by WIFF in the mesoscopic scale range. The problem of determining the REV size for generic heterogeneous rocks is extremely complex and entirely unexplored in the given context. In this pilot study, we have therefore focused on periodic media, which assures the inherent self- similarity of the considered samples regardless of their size and thus simplifies the problem to a systematic analysis of the dependence of the REV size on the applied boundary conditions in the numerical simulations. Our results demonstrate that boundary condition effects are absent for layered media and negligible in the presence of patchy saturation, thus resulting in minimum REV sizes. Conversely, strong boundary condition effects arise in the presence of a periodic distribution of finite-length fractures, thus leading to large REV sizes. In the third part of the thesis, we propose a novel effective poroelastic model for periodic media characterized by mesoscopic layering, which accounts for WIFF at both the macroscopic and mesoscopic scales as well as for the anisotropy associated with the layering. Correspondingly, this model correctly predicts the existence of the fast and slow P-waves as well as quasi and pure S-waves for any direction of wave propagation as long as the corresponding wavelengths are much larger than the layer thicknesses. The primary motivation for this work is that, for formations of intermediate to high permeability, such as, for example, unconsolidated sediments, clean sandstones, or fractured rocks, these two WIFF mechanisms may prevail at similar frequencies. This scenario, which can be expected rather common, cannot be accounted for by existing models for layered porous media. Comparisons of analytical solutions of the P- and S-wave phase velocities and inverse quality factors for wave propagation perpendicular to the layering with those obtained from numerical simulations based on a ID finite-element solution of the poroelastic equations of motion show very good agreement as long as the assumption of long wavelengths remains valid. A limitation of the proposed model is its inability to account for inertial effects in mesoscopic WIFF when both WIFF mechanisms prevail at similar frequencies. Our results do, however, also indicate that the associated error is likely to be relatively small, as, even at frequencies at which both inertial and scattering effects are expected to be at play, the proposed model provides a solution that is remarkably close to its numerical benchmark. -- Comprendre et pouvoir quantifier la dissipation d'énergie sismique qui se traduit par la dispersion et l'atténuation des vitesses dans les roches poreuses et saturées en fluide est un intérêt primordial pour obtenir des informations à propos des propriétés élastique et hydraulique des roches en question. De plus en plus d'études montrent que le déplacement relatif du fluide par rapport au solide induit par le passage de l'onde (wave induced fluid flow en anglais, dont on gardera ici l'abréviation largement utilisée, WIFF), représente le principal mécanisme physique qui régit ces phénomènes, pour la gamme des fréquences sismiques, sonique et jusqu'à l'ultrasonique. Ce mécanisme, qui prédomine aux échelles microscopique, mésoscopique et macroscopique, est lié à la dissipation d'énergie visqueuse résultant des gradients de pression de fluide et des effets inertiels induits par le passage du champ d'onde. Dans la première partie de cette thèse, nous présentons une analyse de données de diagraphie acoustique à large bande et multifréquences, issues d'un forage réalisé dans des sédiments glaciaux-fluviaux, non-consolidés et saturés en eau. La difficulté inhérente à l'interprétation de l'atténuation et de la dispersion des vitesses des ondes P observées, est que l'importance des WIFF aux différentes échelles est inconnue et difficile à quantifier. Notre étude montre que l'on peut négliger le taux d'atténuation et de dispersion des vitesses dû à la présence d'hétérogénéités à l'échelle mésoscopique dans des sédiments clastiques, non- consolidés et saturés en eau. A l'inverse, les WIFF à l'échelle macroscopique expliquent la plupart des données, tandis que les précisions apportées par les WIFF à l'échelle microscopique sont localement significatives. En utilisant une méthode d'inversion du type Monte-Carlo, nous avons comparé, pour les deux modèles WIFF aux échelles macroscopique et microscopique, leur capacité à contraindre les modules élastiques de la matrice sèche et la perméabilité ainsi que leur distribution de probabilité locale. Dans une seconde partie de cette thèse, nous cherchons une solution pour déterminer la dimension d'un volume élémentaire représentatif (noté VER). Cette problématique se pose dans les procédures numériques de changement d'échelle pour déterminer l'atténuation effective et la dispersion effective de la vitesse sismique dans un milieu hétérogène. Pour ce faire, nous nous concentrons sur un ensemble d'échantillons de roches synthétiques idéalisés incluant des strates, des fissures, ou une saturation partielle à l'échelle mésoscopique. Ces scénarios sont hautement pertinents, car ils sont associés à un taux très élevé d'atténuation et de dispersion des vitesses causé par les WIFF à l'échelle mésoscopique. L'enjeu de déterminer la dimension d'un VER pour une roche hétérogène est très complexe et encore inexploré dans le contexte actuel. Dans cette étude-pilote, nous nous focalisons sur des milieux périodiques, qui assurent l'autosimilarité des échantillons considérés indépendamment de leur taille. Ainsi, nous simplifions le problème à une analyse systématique de la dépendance de la dimension des VER aux conditions aux limites appliquées. Nos résultats indiquent que les effets des conditions aux limites sont absents pour un milieu stratifié, et négligeables pour un milieu à saturation partielle : cela résultant à des dimensions petites des VER. Au contraire, de forts effets des conditions aux limites apparaissent dans les milieux présentant une distribution périodique de fissures de taille finie : cela conduisant à de grandes dimensions des VER. Dans la troisième partie de cette thèse, nous proposons un nouveau modèle poro- élastique effectif, pour les milieux périodiques caractérisés par une stratification mésoscopique, qui prendra en compte les WIFF à la fois aux échelles mésoscopique et macroscopique, ainsi que l'anisotropie associée à ces strates. Ce modèle prédit alors avec exactitude l'existence des ondes P rapides et lentes ainsi que les quasis et pures ondes S, pour toutes les directions de propagation de l'onde, tant que la longueur d'onde correspondante est bien plus grande que l'épaisseur de la strate. L'intérêt principal de ce travail est que, pour les formations à perméabilité moyenne à élevée, comme, par exemple, les sédiments non- consolidés, les grès ou encore les roches fissurées, ces deux mécanismes d'WIFF peuvent avoir lieu à des fréquences similaires. Or, ce scénario, qui est assez commun, n'est pas décrit par les modèles existants pour les milieux poreux stratifiés. Les comparaisons des solutions analytiques des vitesses des ondes P et S et de l'atténuation de la propagation des ondes perpendiculaires à la stratification, avec les solutions obtenues à partir de simulations numériques en éléments finis, fondées sur une solution obtenue en 1D des équations poro- élastiques, montrent un très bon accord, tant que l'hypothèse des grandes longueurs d'onde reste valable. Il y a cependant une limitation de ce modèle qui est liée à son incapacité à prendre en compte les effets inertiels dans les WIFF mésoscopiques quand les deux mécanismes d'WIFF prédominent à des fréquences similaires. Néanmoins, nos résultats montrent aussi que l'erreur associée est relativement faible, même à des fréquences à laquelle sont attendus les deux effets d'inertie et de diffusion, indiquant que le modèle proposé fournit une solution qui est remarquablement proche de sa référence numérique.
Resumo:
L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.
Resumo:
En 2002, sur la pression de l'ASMAV (Section vaudoise de l'Association suisse des médecins-assistants et chef(fe)s de clinique ASMAC), le canton de Vaud applique petit à petit la Loi sur le travail (LTr) aux médecins-assistants (temps de travail hebdomadaire maximal de 55 puis 50 heures, etc.). L'auteur analyse les implications de la Loi sur le travail dans deux contextes vaudois, le CHUV et l'Hôpital du Chablais. Il se base sur un questionnaire de l'ASMAV auprès des médecins-assistants et interviewe plusieurs médecins et un médecin-assistant sur les conséquences organisationnelles et financières de la LTr.
Resumo:
La cardiomyopathie hypertrophique (CMH) est la maladie cardiaque monogénique la plus fréquente, touchant environ 1 individu sur 500 dans la population (1,2). L'étiologie est familiale dans la majorité des cas avec une transmission de type autosomal dominant à pénétrance variable. Deux gènes principaux sont à l'origine de la maladie chez 70% des patients avec un test génétique positif. Il s'agit des gènes qui codent pour la chaine lourde β de la myosine (MYH7) et la protéine C liant la myosine (MYBPC3) (1-3). La CMH est définie par la présence d'une hypertrophie myocardique « inadéquate » car se développant en l'absence d'une cause d'augmentation de la post-charge (HTA, sténose aortique, membrane sous-aortique), d'une pathologie infiltrative ou d'un entrainement physique (4,5). Le plus souvent asymétrique et affectant préférentiellement le septum, cette hypertrophie s'accompagne dans près de deux tiers des cas d'une obstruction dynamique sous-aortique de la chambre de chasse du ventricule gauche par la valve mitrale (systolic anterior motion ou SAM). Cette obstruction est à la fois la conséquence du rétrécissement de la chambre de chasse par l'hypertrophie septale mais également d'un malpositionnement de la valve mitrale (6-8). On parle alors de Cardiomyopathie Hypertrophique et Obstructive (CMHO). L'obstruction - présente au repos dans 50% des cas et uniquement après manoeuvres de provocation dans l'autre moitié des cas (manoeuvre de Valsalva, test de vasodilatation par nitrite d'amyle) est à l'origine d'un gradient de pression entre le ventricule gauche et l'aorte, et donc d'une surcharge de pression pour le ventricule gauche. Cette surcharge de pression est à l'origine des symptômes classiquement rencontrés soit dyspnée et angor d'effort, présyncope voire syncopes à l'effort. Un gradient sous-aortique de plus de 50 mmHg (mesuré au repos ou après provocation) est considéré comme un gradient à valeur pronostique (6-8) et justifiant un traitement si associé à des symptômes. Le traitement médical des formes obstructives repose sur l'administration de substances inotropes négatives et/ou susceptibles de favoriser la relaxation myocardique tels que les béta-bloqueurs, les antagonistes du calcium et le disopyramide - pris isolément ou en association. Pour les nombreux patients qui deviennent réfractaires ou intolérants à ces traitements, deux interventions peuvent leur être proposées pour lever l'obstruction : une myotomie-myectomie chirurgicale du septum (9,10) ou une alcoolisation du septum par voie percutanée (7,8). Les indications à ces interventions sont les suivantes (7,8,11) : 1. Symptômes (dyspnée de classe fonctionnelle NYHA III ou IV, angor de classe fonctionnelle CCS III ou IV, syncope, ou présyncope) réfractaires au traitement médical ou intolérance du patient au traitement. Une dyspnée de classe II est considérée suffisante dans le cas de jeunes patients. 2. Obstruction sous-aortique avec gradient supérieur ou égal à 50 mmHg, au repos ou après manoeuvre de provocation, associée à une hypertrophie septale et à un mouvement systolique antérieur de la valve mitrale (effet SAM) 3. Anatomiecardiaquefavorableàuntraitementinvasif(épaisseurduseptumde plus de 16 mm) Si la myectomie chirurgicale reste la méthode de référence (12-18), l'alcoolisation septale du myocarde par voie percutanée est devenue un des traitements de choix dans la thérapie de la Cardiomyopathie Hypertrophique Obstructive réfractaire. Elle consiste à repérer par coronarographie l'artère septale nourrissant le septum basal hypertrophié, puis à y introduire un petit ballon pour isoler ce territoire du reste du lit coronaire avant d'y injecter une dose d'alcool à 95% comprise entre 1 et 5 cc. On crée ainsi un infarctus chimique, technique qui fut dans le passé utilisée pour le traitement de certaines tumeurs. Les effets ne sont pas immédiats et nécessitent généralement 2-3 semaines avant de se manifester. On assiste alors à une diminution progressive de l'épaisseur du myocarde nécrosé (7), à la disparition progressive de l'obstruction et à l'amélioration / disparition des symptômes. La question de savoir qui de la chirurgie ou de l'alcoolisation est le plus efficace a été source de nombreux débats (7,11-13,18). Par rapport à la chirurgie, les avantages de la méthode percutanée sont les suivants (11,14,15,18,19) : - Efficacités hémodynamique et fonctionnelle jugées comparable à la chirurgie selon les études - Taux de morbidité et de mortalité très faible et non supérieure à la chirurgie - Absence de sternotomie - Diminution de la durée de l'hospitalisation et surtout de la période de convalescence, le patient pouvant reprendre une activité dès son retour à domicile Certains experts émettent néanmoins des doutes quant à l'innocuité à long terme de la méthode, les zones nécrotiques pouvant servir de terrain arythmogène. Pour ces raisons, la méthode n'est pas recommandée chez les patients de moins de 40 ans (6,8). Le risque majeur de l'alcoolisation du septum proximal réside dans l'induction d'un bloc atrio-ventriculaire complet chimique, le noeud atrio-ventriculaire étant justement situé dans cette région. Ce risque augmente avec la quantité d'alcool administrée et nécessite, si persistance après trois jours, l'implantation d'un pacemaker à demeure. Selon les centres, le taux d'implantation d'un stimulateur varie ainsi entre 7% et 20% (7,14,20). L'efficacité clinique et l'incidence des complications est donc en partie liée à la compétence technique et à l'expérience de l'opérateur (7,14), mais aussi aux choix des patients. Il peut donc varier grandement selon les centres médicaux. L'étude proposée vise à analyser les résultats de l'alcoolisation obtenus à Lausanne, jusqu'à présent pas encore été étudiés, et à les comparer à ceux de la littérature.
Resumo:
Objectif : Identifier les facteurs de risques, circonstances et devenir des patients avec un accident vasculaire cérébral ischémique (AVC) manqué (AVC caméléon) dans le département des urgences d'un hôpital universitaire. Méthode : Nous avons rétrospectivement revu tous les patients avec un AVC ischémique d'un registre construit prospectivement (Acute Stroke Registry and Analysis of Lausanne, ASTRAL) sur une durée de 8.25 années. Les AVC caméléons ont été définis comme un échec de suspicion d'AVC ou comme une exclusion erronée de diagnostic d'AVC. Ils ont été comparés aux AVC correctement suspectés à l'admission. Résultats : Quarante sept sur 2'200 AVC ont été manqués (2.1%). Ces AVC caméléons étaient soit peu sévères soit très sévères. L'analyse multivariée a montré chez les patients avec un AVC caméléon un plus jeune âge (odds ratio (OR) par année 0.98 p<0.01), moins de traitement hypolipémiant (OR 0.29, p=0.04), pression artérielle diastolique à l'admission plus basse (OR 0.98 p=0.04). Ils ont montré moins de déviation du regard (OR 0.21, p=0.04), et d'avantage d'AVC à localisation cérébelleuse (OR 3.78, p>0.01). Les AVC caméléons ont initialement été faussement diagnostiqués en tant qu'une autre pathologie neurologique (46.2% des cas) ou non neurologique (17%), en tant qu'une baisse de l'état de vigilance inexpliquée (21.3%), et en tant que maladie concomitante (19.1%). A 12 mois, les patients avec un AVC caméléon ont un devenir moins bon (OR ajusté 0.21, p<0.01) et une mortalité augmentée (OR ajusté 4 37 p<0.01). Conclusions : Le diagnostic d'AVC est manqué chez les patients jeunes avec un risque cérébrovasculaire peu élévé et peut être masqué par d'autres pathologies aiguës. Les AVC caméléons se présentent cliniquement soit avec un AVC peu sévère ou par une diminution de l'état de vigilance, avec moins de signes neurologiques focaux et sont plus fréquemment de localisation cérébelleuse. Le devenir est quant à lui moins bon avec également une mortalité augmentée à 12 mois. De telles trouvailles devraient rendre plus attentif le clinicien aux urgences du profil des AVC caméléons.
Resumo:
Le glaucome est la seconde cause de cécité dans le monde après la cataracte et est caractérisé par la perte progressive de cellules ganglionnaires de la rétine allant vers la dégénérescence du nerf optique. On distingue deux formes de glaucome; le glaucome à angle fermé et le glaucome à angle ouvert. L'hérédité du glaucome est souvent sporadique, parfois autosomique dominante. Une pression intraoculaire de plus de 21 mmHg représente un facteur de risque important pour son développement. Actuellement, la mutation la plus fréquente, observée dans 5% des cas de glaucome héréditaire, est retrouvée dans le gène MYOC (trabecular meshwork inducible glucocorticoide response). À ce jour, les causes et mécanismes moléculaires sous-jacent ne sont que partiellement compris. Récemment, il a été démontré qu'une souris transgénique exprimant le gène Notch2 dans luvée, développait un glaucome. Pour cette raison, nous avons analysé le gène NOTCH2 chez l'homme afin de déterminer s'il était impliqué. NOTCH2 est composé de 34 exons sur le chromosome 1 et code une protéine transmembranaire essentielle à la prolifération, l'apoptose, la différenciation cellulaire et le destin cellulaires. L'expression du gène est localisée dans le segment antérieur de l'oeil, le segment externe du corps ciliaire et le trabéculum. Les fonctions principales de ces deux tissus sont la production et le drainage de l'humeur aqueuse. Pour mémoire, une perturbation du flux peut générer une augmentation de la pression intraoculaire. Le but de cette étude était de rechercher d'éventuelles mutations du gène NOTCH2 chez des patients souffrant de glaucome. 130 patients ont été vu à l'hôpital ophtalmique Jules- Gonin et un échantillon d'ADN a été récolté afin d'identifier l'origine moléculaire de leur pathologie. L'analyse moléculaire s'est fait étape par étape. Premièrement, j'ai séquencé l'exon 3 du gène MYOC. Deuxièment, la Chromatographie en phase liquide à haute performance a été utilisée pour l'analyse des 34 exons du gène NOTCH2. Troisièment, tous les exons présentant une courbe suspecte au chromatogramme ont été séquencés selon la méthode de Sanger. Dans la première partie de l'étude, j'ai analysé l'exon 3 du gène MYOC afin de déterminer les éventuels porteurs d'une mutation dominante. Aucune mutation pathogénique n'a été mis en évidence mais 4 patients sur les 130 étaient porteurs d'un variant connu et fréquent. Dans la deuxième partie de mon étude, j'ai analysé les 34 exons du gène NOTCH2, qui n'ont révélé aucune mutation. Bien que les méthodes utilisées dans cette étude montrent quelques limitations, il est peu probable que des mutations dans les régions codantes de NOTCH2 soient un facteur de risque important dans le glaucome primaire à angle ouvert.
Resumo:
En este trabajo fue determinada experimentalmente la porosidad de lechos de cubos de papa, remolacha y zanahoria en función de la humedad con aristas iniciales de 8mm. La porosidad del lecho, con diferentes contenidos de humedad obtenida por secado a 70ºC por diferentes tempos, fue calculada utilizando las determinaciones experimentales de volumen del lecho y volumen real de las partículas. Estos dos volumenes fueran bien representados por ecuaciónes lineares basadas en la Ley de la aditividad de los volumens. La porosidad fue representada satisfactoriamente por una ecuación parabólica. La relación volumen del lecho adimensional y humedad fue representada por polinomios de tercer grado. Utilizando un equipamiento con sistema de control, fue determinada experimentalmente la caída de presión a través de un lecho fijo de cubos de papas, zanahoria y remolacha de 100mm de espesura y los resultados fueron representados de manera satisfactoria por una ecuación obtenida por una modificación empírica del modelo de Ergun. Como era de esperarse, la caída de pression aumento com la disminución de la porosidad del lecho, consequencia del encogimiento de los productos.
Resumo:
La traduction du nouveau Code civil néerlandais en anglais et en français représentait un grand défi en raison du caractère systématique et fondateur d’un code, du recours à une terminologie et à une organisation nouvelles et de la longueur des articles. Dans un premier temps, le Code a été traduit selon une terminologie juridique anglaise strictement civiliste, tant en anglais qu’en français, et a été publié sous un format trilingue. Toutefois, sous la pression des praticiens, lesquels recherchaient une traduction correspondant mieux aux attentes de lecteurs anglophones habitués à la terminologie de la common law, une formule a été élaborée pour produire une version anglaise compréhensible pour les deux familles juridiques, au besoin hors de tout contexte et sans recourir à des notes. Une telle formule mérite considération lorsqu’il s’agira de produire d’autres traductions de textes civilistes en anglais.
Resumo:
This paper studies the impact of banks' liability for environmental damages caused by their borrowers. Laws or court decisions that declare banks liable for environmental damages have two objectives : (1) finding someone to pay for the damages and (2) exerting a pressure on a firm's stakeholders to incite them to invest in environmental risk prevention. We study the effect that such legal decisions can have on financing relationships and especially on the incentives to reduce environmental risk in an environment where banks cannot commit to refinance the firm in all circumstances. Following an environmental accident, liable banks more readily agree to refinance the firm. We then show that bank liability effectively makes refinancing more attractive to banks, therefore improving the firm's risk-sharing possibilities. Consequently, the firm's incentives to invest in environmental risk reduction are weakened compared to the (bank) no-liability case. We also show that, when banks are liable, the firm invests at the full-commitment optimal level of risk reduction investment. If there are some externalities such that some damages cannot be accounted for, the socially efficient level of investment is greater than the privately optimal one. in that case, making banks non-liable can be socially desirable.
Resumo:
Un résumé en anglais est également disponible.