1000 resultados para Carte de débit


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : J'ai souvent vu des experts être d'avis contraires. Je n'en ai jamais vu aucun avoir tort. Auguste Detoeuf Propos d'O.L. Brenton, confiseur, Editions du Tambourinaire, 1948. En choisissant volontairement une problématique comptable typiquement empirique, ce travail s'est attelé à tenter de démontrer la possibilité de produire des enseignements purement comptables (ie à l'intérieur du schème de représentation de la Comptabilité) en s'interdisant l'emprunt systématique de theories clé-en-main à l'Économie -sauf quant cela s'avère réellement nécessaire et légitime, comme dans l'utilisation du CAPM au chapitre précédent. Encore une fois, rappelons que cette thèse n'est pas un réquisitoire contre l'approche économique en tant que telle, mais un plaidoyer visant à mitiger une telle approche en Comptabilité. En relation avec le positionnement épistémologique effectué au premier chapitre, il a été cherché à mettre en valeur l'apport et la place de la Comptabilité dans l'Économie par le positionnement de la Comptabilité en tant que discipline pourvoyeuse de mesures de représentation de l'activité économique. Il nous paraît clair que si l'activité économique, en tant que sémiosphère comptable directe, dicte les observations comptables, la mesure de ces dernières doit, tant que faire se peut, tenter de s'affranchir de toute dépendance à la discipline économique et aux théories-méthodes qui lui sont liées, en adoptant un mode opératoire orthogonal, rationnel et systématique dans le cadre d'axiomes lui appartenant en propre. Cette prise de position entraîne la définition d'un nouveau cadre épistémologique par rapport à l'approche positive de la Comptabilité. Cette dernière peut se décrire comme l'expression philosophique de l'investissement de la recherche comptable par une réflexion méthodique propre à la recherche économique. Afin d'être au moins partiellement validé, ce nouveau cadre -que nous voyons dérivé du constructivisme -devrait faire montre de sa capacité à traiter de manière satisfaisante une problématique classique de comptabilité empirico-positive. Cette problématique spécifique a été choisie sous la forme de traitement-validation du principe de continuité de l'exploitation. Le principe de continuité de l'exploitation postule (énonciation d'une hypothèse) et établit (vérification de l'hypothèse) que l'entreprise produit ses états financiers dans la perspective d'une poursuite normale de ses activités. Il y a rupture du principe de continuité de l'exploitation (qui devra alors être écartée au profit du principe de liquidation ou de cession) dans le cas de cessation d'activité, totale ou partielle, volontaire ou involontaire, ou la constatation de faits de nature à compromettre la continuité de l'exploitation. Ces faits concernent la situation financière, économique et sociale de l'entreprise et représentent l'ensemble des événements objectifs 33, survenus ou pouvant survenir, susceptibles d'affecter la poursuite de l'activité dans un avenir prévisible. A l'instar de tous les principes comptables, le principe de continuité de l'exploitation procède d'une considération purement théorique. Sa vérification requiert toutefois une analyse concrète, portant réellement et de manière mesurable à conséquence, raison pour laquelle il représente un thème de recherche fort apprécié en comptabilité positive, tant il peut (faussement) se confondre avec les études relatives à la banqueroute et la faillite des entreprises. Dans la pratique, certaines de ces études, basées sur des analyses multivariées discriminantes (VIDA), sont devenues pour l'auditeur de véritables outils de travail de par leur simplicité d'utilisation et d'interprétation. À travers la problématique de ce travail de thèse, il a été tenté de s'acquitter de nombreux objectifs pouvant être regroupés en deux ensembles : celui des objectifs liés à la démarche méthodologique et celui relevant de la mesure-calibration. Ces deux groupes-objectifs ont permis dans une dernière étape la construction d'un modèle se voulant une conséquence logique des choix et hypothèses retenus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Échelle(s) : [1:2 645 000 environ], Eschelle de 25 Lieues communes de France [= 3,8 cm]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Échelle(s) : Lieues communes de France 5 [= 7,3 cm]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Échelle(s) : Lieues communes de France 5 [= 7,3 cm]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME Les follicules des vibrisses des rongeurs sont représentés sous la forme d'une carte topographique dans le cortex à tonneaux. Lorsque un groupe de vibrisses est coupé pendant plusieurs jours chez un rongeur adulte, en laissant les autres vibrisses intactes, le champ réceptif des neurones du cortex à tonneaux est modifié, ce qui démontre que les cartes corticales sont plastiques. Dans notre étude, une expérience sensorielle a été induite chez une souris adulte se comportant librement en stimulant chroniquement une de ses vibrisses pendant 24h. Par une analyse des potentiels de champ locaux, nous démontrons que les caractéristiques spatiotemporelles du flux d'excitation évoqué par la vibrisse principale (VP) dans la colonne corticale correspondante à la vibrisse stimulée n'est pas altéré. Par contre, l'enregistrement des potentiels d'actions d'un total de 1041 neurones à travers le cortex à tonneaux révèlent plusieurs modifications de l'activité neuronale. L'activité spontanée ainsi que la réponse évoquée par la VP sont déprimées dans la colonne corticale stimulée (nombre moyen de potentiels d'action évoqués par la VP diminue de 25 % et 36% dans la couche IV et les couches II&III). La réponse des neurones à la vibrisse stimulée diminue également dans les colonnes corticales adjacentes, «non-stimulées». La dépression de l'activité spontanée et de la réponse à la VP est localisée à la colonne corticale stimulée. Dans le tonneau stimulé, la première partie de la réponse à la VP n'est pas affaiblie, démontrant que la dépression de la réponse n'est pas due à un phénomène de plasticité sous-corticale ou thalamocorticale. La stimulation chronique d'une vibrisse entraîne une augmentation du nombre de synapses GABAergiques dans la couche IV du tonneau correspondant (Knott et al, 2002). Dès lors, nos résultats suggèrent qu'une augmentation de l'inhibition dans le tonneau stimulé serait à l'origine de la diminution des potentiels d'action évoqués par la vibrisse stimulée et en conséquence de l'amplitude du flux d'excitation vers les couches II&III puis vers les colonnes corticales adjacentes. Toutes les réponses des neurones du tonneau stimulé ne sont pas déprimées. Les réponses des neurones à la vibrisse voisine caudale à VP diminuent dans la couche IV (42%) et dans les couches II&III (52%) mais pas les réponses aux 7 autres vibrisses voisines. Les entrées synaptiques en provenance de la vibrisse caudale pourraient avoir été spécifiquement déprimées en raison d'une décorrélation prolongée entre l'activité évoquée dans les chemins sensoriels relatifs à la vibrisse stimulée et à la vibrisse caudale, spécificité qui découlerait du fait que, parmi les vibrisses voisines à la VP, la vibrisse caudale génère les réponses les plus fortes dans la colonne corticale. Quatre jours après l'arrêt de la stimulation, l'activité neuronale n'est plus déprimée; au contraire, nous observons une potentiation des réponses à la VP dans la couche IV de la colonne corticale stimulée. De plus, nous montrons que l'expression des protéines GLT-1 et GLAST, deux transporteurs astrocytaires du glutamate, est augmentée de ~2.5 fois dans la colonne corticale stimulée, indiquant l'existence d'une «plasticité gliale» et suggérant que les cellules gliales participent activement à l'adaptation du cerveau à l'expérience. ABSTRACT In the barrel cortex, mystacial whisker follicles are represented in the form of a topographie map. The selective removal of a set of whiskers while sparing others for several days in an adult rodent alters receptive field of barrel cortex neurons, demonstrating experience-dependent plasticity of cortical maps. Here sensory experience was altered by chronic stimulation of a whisker for a 24h period in a freely behaving adult mouse. By means of an evoked local field potential analysis, we show that chronic stimulation does not alter the flow of excitation evoked by the principal whisker (PW) in the stimulated barrel column. However, the recording of neuronal firing from a total of 1041 single units throughout the barrel cortex reveals several changes in neuronal activity. Immediately after chronic stimulation, spontaneous activity as well as PW-responses are depressed in the stimulated barrel column (mean number of spikes per PW-deflection decreases by 25% and 36% in layer IV and layers II&III, respectively). Neuronal responses towards the chronically stimulated whisker are also significantly depressed in layers II&III of the adjacent "non-stimulated" barrel' columns. The depression of both spontaneous activity and PW-responses are restricted to the stimulated ban-el column. The earliest time epoch of the PW-response in the stimulated barrel is not depressed, demonstrating that the decrease of cortical responses is not due to subcortical or thalamocortical plasticity. The depression of PW-response in the stimulated barrel correlates with an increase in the number of GABAergic synapses in layer IV (Knott et al., 2002). Therefore, our results suggest that an increase in inhibition within the stimulated barrel may reduce its excitatory output and accordingly the flow of excitation towards layers and the subsequent horizontal spread into adjacent barrel columns. Not all responses of neurons in the stimulated barrel are depressed. Neuronal responses towards the caudal in-row whisker decrease by 42% in layer IV and 52% in layers MM but responses to the other 7 immediate surround whiskers (SWs) are not affected. The synaptic inputs from the SW that elicit the strongest responses in the stimulated barrel may have been specifically depressed following a prolonged period of diminished coherence between neuronal activity evoked in the pathways from the chronically stimulated whisker and from its surrounding in-row whisker. Four days after the cessation of the stimulation, depression of neuronal activity is no longer present; on the contrary, we observe a small but significant potentiation of PW-responses in layer IV of the stimulated barrel column. Moreover we show that the expression of astrocytic glutamate transporters GLT-1 and GLAST proteins were both upregulated by ~2.5 fold in the stimulated barrel column, which indicates that glial cells exhibit experience-dependent functional changes and could actively take part in the adaptation of the cerebral cortex to experience.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo examina la magnitud y la frecuencia del transporte de sedimento (material disuelto, sedimento en suspensión y carga de fondo) en la cuenca de la riera de Arbúcies (Cordilleras Costeras Catalanas), a partir de los caudales diarios del periodo 1967-1992 y de las muestras de agua y sedimento obtenidas durante los años 1991 y 1992. Los resultados indican que el transporte en disolución es más uniforme en el tiempo que el transporte de material sólido, tanto en suspensión como de fondo. Los cálculos muestran que la carga sólida total depende sobre todo de crecidas frecuentes y de magnitud moderada, correspondientes al nivel de cauce lleno (bankfull). Cabe señalar, en este sentido, que los caudales bankfull suceden el 2,2% del tiempo y transportan el 56% del sedimento en suspensión y el 31% de la carga de fondo total anual. El caudal efectivo para el transporte de sedimento en este río es, por tanto, un suceso relativamente frecuente y de idéntica magnitud al caudal geomorfológicamente dominante o bankfull.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

H . KNOCHE, en 1923, a publié une importante étude sur ia flore et la végétation des îles Baléares. Ce travail, surtout ftoristique, comporte de longs développements concernant les endémiques et leurs affinités floristiques, ainsi que des considérations relatives à l'histoire de la flore baléarique. Un chapitre à vrai dire assez confus consacré à l'étude des groupements végétaux, est heureusement accompagné d'une carte géobotanique de l'île de Majorque sur laquelle sont figurées les formations physionomiques distinguées par l'auteur : garrigues, bois de Pin d'Alep, bois de Chêne vert, zones des endémiques baléariques, cultures diverses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les membranes de dialyse à haut flux et à faible flux pourraient être liées à différents profils hemodynamiques pendant les séances de dialyse. Cette étude visait à comparer le profil hémodynamique des certains filtres de dialyse polysulfone couramment utilisés en Suisse. Nous avons réalisé une étude ouverte, cross-over, avec 25 pazients en hémodialyse On a comparés entre eux 4 filtres de polysulfone de la surface de 1 8 m2 A (Revaclear HF, Gambro), B (Helixone HF, Fresenius), C (Xevonta HF, BBraun) et D (Helixone LF Fresenius). Le profil hémodynamique a été mesuré en utilisant une technique non invasive et au patient a été demandé de fournir une opinion sur la tolérance à la seance de dialyse. La même membrane était utilisée pour 3 séances de suites Chaque semaine la membrane de dialyse était modifiée conformément à la séquence de randomisation. Pour chaque patient on a recueillie les données de 12 séances de dialyse. L'étude a été réalisé sur trois mois à compter de novembre 2012. Les analyses ont encore une fois montré la supériorité des filtres à haut débit comparés aux filtres à faible débit, et ne tendance à la supériorité du filtre Helixone (haut debit) comparé aux deux autres membranes. Les filtres à faible débit par rapport a ceux a haut debit sont associés ä une pression systolique et diastolique plus élevées a des résistances périphériques plus hautes et à un débit cardiaque plus faible L incidence d'épisodes d'hypotension en dialyse était la suivante: Revaclear HF (A) 70 Helixone HF (B) 87 Xevonta HF 73 (C), Helixone LF (D) 75. Le nombre d'épisodes d hypotension associée au filtre B était supérieure, de manière significative. La membrane à faible flux était associée à une pression artérielle supérieure à celles des membranes de haut flux. La membrane à haut flux Helixone garantie la meilleure efficacité de dialyse. Malheureusement, la même membrane est associée à une augmentation de l'incidence des épisodes d'hypotension, probablement due à un déséquilibré hé à l'efficacité de la dialyse. Malgré ces résultats, la tolérance subjective pour les différents filtres était comparable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La grande majorité des organismes vivants ont développé un système d'horloges biologiques internes, appelées aussi horloges circadiennes, contrôlant l'expression de gênes impliqués dans de nombreux processus moléculaires et comportementaux. Au cours de la dernière décennie, des analyses « microarray » et séquençages à haut débit sur divers tissus de mammifères, indiquent que jusqu'à 20% du transcriptome serait sous contrôle circadien. Il était jusqu'à présent admis que la majorité des ARNm ayant une accumulation rythmique était générée par une transcription qui était elle-même rythmique. Toutefois, de récentes études ont suggéré qu'une proportion considérable des ARNm cycliques serait en fait générée par des mécanismes post-transcriptionnelles, incluant une régulation par micro-ARN (miARN). Lorsque j'ai débuté mon travail de thèse, l'influence des miARN sur l'expression des gènes circadiens, au niveau pangénomique, était encore méconnue. Par l'utilisation d'un modèle murin, dont la biogenèse des miARN a été spécifiquement désactivée au niveau des cellules hépatiques (knockout conditionnel pour Dicer), je me suis donc intéressée au rôle que jouaient ces molécules régulatrices sur la rythmicité de l'expression génique dans le foie. Des séquençages sur l'ensemble du transcriptome révèlent que l'horloge interne du foie est étonnement résistante à la perte totale des miARN. Nous avons cependant trouvé que les miARN agissent de façon importante sur la régulation de l'expression des gènes contrôlés par l'horloge moléculaire. La corégulation par les miARN, affectant jusqu'à 30% des gènes transcrits de façon rythmiques, conduit ainsi à une modulation de phase et d'amplitude du rythme de l'abondance des ARNm. En revanche, seuls peu de transcrits dépendent uniquement des miARN pour la rythmicité de leur accumulation. Enfin, mon travail met en évidence plusieurs miARN spécifiques, qui semblent préférentiellement moduler l'expression des gènes cycliques et permet l'identification de voies hépatiques particulièrement sujettes à une double régulation par les miARN et l'horloge biologique interne. La première masse d'analyses a essentiellement porté sur le rôle que jouent les miARN au niveau de l'expression des gènes contrôlés par l'horloge interne. Dans deux études de suivi, je me suis penchée sur deux aspects supplémentaires et complémentaires de la manière dont les miARN et l'oscillation de l'expression des gènes interagissent. Dans les hépatocytes murins, spécifiquement privés de Dicer, je me suis demandée si un phénotype horloge avait pu être masqué, dû à un entraînement stable de l'horloge du foie par l'horloge maîtresse du cerveau. J'ai donc commencé une série d'expériences ambitieuses (impliquant la mesure de la rythmicité du foie in vivo, chez l'animal vivant) afin de déséquilibrer l'entrainement de l'horloge hépatique via l'utilisation d'un protocole nutritionnel spécifique. Les premiers résultats suggèrent que dans des conditions où l'animal subit une restriction alimentaire pendant la journée, les miARN sont importants dans la cinétique d'adaptation des organes périphériques à un nouvel horaire de sustentation. Dans une deuxième ligne de recherche, j'ai plus profondément étudié quels seraient les miARN responsables des rythmes post-transcriptionnels des ARNm, en utilisant le séquençage de « small » ARN sur 24h. L'analyse est en cours et se poursuivra après l'obtention de mon diplôme. De façon générale, mon travail révèle d'importants et nouveaux rôles des miARN dans la modulation de l'expression circadienne des gènes hépatiques. De plus, le set de données générées dans l'étude déjà publiée, peut dorénavant servir de ressource valable pour de prochaines investigations sur le rôle physiologique que les miARN jouent au niveau du foie. -- Most living organisms have developed internal timing systems, called circadian clocks, to drive the rhythmic expression of genes involved in many molecular and behavioral processes. Over the last decade, microarray analyses and high- throughput sequencing from various mammalian tissues have indicated that up to 20% of the transcriptome are under circadian control. It was generally assumed that the majority of rhythmic mRNA accumulation is generated by rhythmic transcription. However, recent studies have suggested that a considerable proportion of mRNA cycling may actually be generated by post-transcriptional mechanisms, including by microRNAs. When I started my thesis work, it was still unknown how miRNAs influence circadian gene expression in a genome-wide fashion. Using a mouse model in which miRNA biogenesis can be inactivated in hepatocytes (conditional Dicer knockout mouse), I have thus addressed the role that these regulatory molecules play in rhythmic gene expression in the liver. Whole transcriptome sequencing revealed that the hepatic core clock was surprisingly resilient to total miRNA loss. However, we found that miRNAs acted as important regulators of clock-controlled gene expression. Co- regulation by miRNAs, which affected up to 30% of rhythmically transcribed genes, thus led to the modulation of phases and amplitudes of mRNA abundance rhythms. By contrast, only very few transcripts were strictly dependent on miRNAs for their rhythmic accumulation. Finally, my work highlights several specific miRNAs that appear to preferentially modulate cyclic gene expression, and identifies pathways in the liver that are particularly prone to dual regulation through miRNAs and the clock. The first bulk of analyses mainly dealt with the role that miRNAs play at the level of rhythmic clock output gene expression. In two follow-up studies I further delved into two additional, complementary aspects of how miRNAs and gene expression oscillations interact. First, I addressed whether a core clock phenotype in the hepatocyte-specific Dicer knockout could have been masked due to the stable entrainment of the liver clock by the animals' master clock in the brain. I thus started a series of ambitious experiments (involving the in vivo recording of liver rhythms in live animals) to bring the stable entrainment of the liver clock out of equilibrium using specific feeding protocols. My first results suggest that under conditions when animals are challenged by food restriction to daytime, miRNAs are important for the kinetics of adapting to unusual mealtime in peripheral tissue. In a second line of research, I have more carefully investigated which miRNAs are responsible for post- transcriptional mRNA rhythms using small RNA sequencing around-the-clock. The analyses are ongoing and will be continued after my graduation. Overall, my work uncovered important and novel roles of miRNA activity in shaping hepatic circadian gene expression; moreover, the datasets collect in the published studies can serve as a valuable resource for further investigations into the physiological roles that miRNAs play in liver. -- L'alternance du jour et de la nuit dirige depuis longtemps la vie quotidienne des êtres humains et de la plupart des organismes sur terre. Ce cycle de 24 heures façonne beaucoup de changements comportementaux et physiologiques tels que la vigilance, la température corporelle et le sommeil. Les rythmes journaliers, appelés rythmes circadiens, sont dirigés par des horloges biologiques tournant dans presque chaque cellule du corps. Une structure dans le cerveau agit en tant qu'horloge maitresse pour synchroniser les horloges internes entre elles et en fonction des signaux de jour/nuit extérieurs. Dans les cellules "les gènes de l'horloge" sont activés et désactivés une fois par jour ce qui déclenche des cycles dans lesquels des protéines sont produites de manière circadienne. Ces rythmes protéiques sont spécialisés pour chaque tissu ou organe et peuvent les aider à réaliser leurs tâches quotidiennes. Les rythmes circadiens peuvent être générés d'autres manières n'impliquant pas directement les composants des gènes de l'horloge. Les ARN messagers (ARNm) sont des molécules intermédiaires dans la production de protéines à partir d'ADN. Dans le foie des souris jusqu'à 20% des molécules d'ARNm sont produites suivant des rythmes circadiens. Le foie réalise des tâches essentielles dans le contrôle du métabolisme incluant celui des hydrates de carbone, des graisses et du cholestérol. Un timing précis est important afin de traiter les substances nutritives correctement lors des repas il en résulte une variation des quantités de certains ARNm et protéines coïncidant avec les repas. Les microARNs constituent une autre classe de molécules ARN de très petite taille qui régulent l'efficacité de traduction des ARNm en protéines et la stabilité des ARNm. Lors de mon travail de thèse, j'ai exploré de manière approfondie l'influence de ces petits régulateurs sur les rythmes circadiens du foie de souris. Ces expériences qui impliquaient le "Knock-out" d'un gène essentiel à la production de microARNs montrent qu'au lieu de générer les rythmes des ARNm, les microARNs les ajustent pour répondre aux besoins spécifiques du foie comme assurer leur pic au bon moment de la journée. Le ciblage de microARNs spécifiques peut révéler de nouvelles stratégies pour rectifier ces rythmes lorsque par exemple les fonctions métaboliques ne fonctionnent plus normalement. -- The rising and setting of the sun have long driven the daily schedules of humans and most organisms on the earth. This 24-hr cycle shapes many behavioural and physiological changes, such as alertness, body temperature, and sleep. These daily rhythms, which are called circadian rhythms, are dictated by biological clocks that are ticking in almost every single cell of the body. A region in the brain acts as a master clock to synchronize the internal clocks with each other and with the outside light/dark cycles. In cells, "core clock genes" are turned on and off once per day, which triggers cycles that cause some proteins to be produced in a circadian manner. The protein rhythms are specialized to a particular tissue or organ, and may help them to carry out their designated daily tasks. However, circadian rhythms might also be produced by other ways that do not involve these core clock components. Messenger RNAs (mRNAs) are intermediate molecules in the production of proteins from DNA. In the mouse liver, up to 20% of mRNA molecules are produced in circadian cycles. The liver performs essential tasks that control metabolism-including that of carbohydrates, fats, and cholesterol. Precisely timing when certain mRNAs and proteins reach peaks and troughs in their activities to coincide with mealtimes is important for nutrients to be properly processed. Other RNA molecules called microRNAs, i.e. RNAs of very small size, regulate at which rate mRNA molecules are translated into proteins. In my thesis work, I have explored at the influence of these small regulators on circadian rhythms in the mouse liver in greater detail. These experiments, which involved "knocking out" a gene that is essential for the production of microRNAs, show that rather than generating the mRNA rhythms, the microRNAs appear to adjust them to meet the specific needs of the liver, such as ensuring that they peak at the right time-of-day. Targeting specific microRNA molecules may reveal new strategies to tweak these rhythms, which could help to improve conditions when metabolic functions go wrong.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.