1000 resultados para conception du réseau en fonction du temps
Resumo:
Réalisé en cotutelle avec L'École des hautes études en sciences sociales de Paris
Resumo:
Ce mémoire étudie le comportement des particules dont la position est maximale au temps t dans la marche aléatoire branchante et le mouvement brownien branchant sur R, pour des valeurs de t grandes. Plus exactement, on regarde le comportement du maximum d’une marche aléatoire branchante dans un environnement inhomogène en temps, au sens où la loi des accroissements varie en fonction du temps. On compare avec des modèles connus ou simplifiés, en particulier le modèle i.i.d., où l’on observe des marches aléatoires indépendantes et le modèle de la marche aléatoire homogène. On s’intéresse par la suite aux corrélations entre les particules maximales d’un mouvement brownien branchant. Plus précisément, on étudie le temps de branchement entre deux particules maximales. Finalement, on applique les méthodes et les résultats des premiers chapitres afin d’étudier les corrélations dans un mouvement brownien branchant dans un environnement inhomogène. Le résultat principal du mémoire stipule qu’il y a existence de temps de branchement au centre de l’intervalle [0, t] dans le mouvement brownien branchant inhomogène, ce qui n’est pas le cas pour le mouvement brownien branchant standard. On présentera également certaines simulations numériques afin de corroborer les résultats numériques et pour établir des hypothèses pour une recherche future.
Resumo:
Le réseau magnétique consiste en un ensemble de petites concentrations de flux magnétique sur la photosphère solaire. Vu sa petite échelle de taille et de flux, à la limite de détection, son comportement n'est connu que depuis récemment. Les interactions du réseau sont pourtant cruciales afin de comprendre la dynamo et l'irradiance solaires, car beaucoup de caractérisques du réseau dépendent de ces interactions. De plus, le réseau est la principale contribution magnétique surfacique à l'irradiance solaire. Les modèles existants du réseau ne tenaient jusqu'à maintenant pas compte des interactions du réseau. Nous avons tenté de combler cette lacune avec notre modèle. Nos simulations impliquent une marche aléatoire en 2D de tubes de flux magnétiques sur la photosphère solaire. Les tubes de flux sont injectés puis soumis à des règles de déplacement et d'interaction. L'injection se fait à deux échelles, respectivement la plus petite et la plus grande observables: les tubes de flux élémentaires et les taches solaires. Des processus de surface imitant ceux observés sont inclus, et consistent en l'émergence, la coalescence, l'annulation et la submergence de flux. La fragmentation des concentrations n'est présente que pour les taches, sous forme de désintégration libérant des tubes de flux. Le modèle est appliqué au cycle solaire 21 (1976-1986, le mieux documenté en termes de caractéristiques de taches solaires. Il en résulte des réponses à deux questions importantes en physique solaire. La première est: l'injection de flux magnétique à deux échelles très distinctes peut-elle conduire à une distribution de flux en loi de puissance comme on l'observe, si l'on inclut des processus de surface qui retraitent le flux? Cette question est étroitement liée à l'origine de la dynamo solaire, qui pourrait produire ladite distribution. Nous trouvons qu'on peut effectivement produire une telle distribution avec ce type d'injection et ce type de processus de surface. Cela implique que la distribution de flux observée ne peut servir à déterminer quel type de dynamo opère dans le Soleil. La deuxième question à laquelle nous avons apporté un élément de réponse est celle à savoir combien de temps il faut au réseau pour retrouver son état d'activité de base. Cet état a été observé lors du minimum de Maunder en 1645-1715 et touche de près la question de l'influence de l'activité solaire sur le climat terrestre. Le récent minimum d'activité est considéré par certains comme ayant atteint cet état. Nous trouvons plutôt que ça n'a pas été le cas. En effet, le temps de relaxation du réseau que nous avons calculé est supérieur au temps écoulé entre la fin du dernier cycle solaire d'activité et celui de l'amorce du présent cycle.
Resumo:
La formation est une stratégie clé pour le développement des compétences. Les entreprises continuent à investir dans la formation et le développement, mais elles possèdent rarement des données pour évaluer les résultats de cet investissement. La plupart des entreprises utilisent le modèle Kirkpatrick/Phillips pour évaluer la formation en entreprise. Cependant, il ressort de la littérature que les entreprises ont des difficultés à utiliser ce modèle. Les principales barrières sont la difficulté d’isoler l’apprentissage comme un facteur qui a une incidence sur les résultats, l’absence d’un système d’évaluation utile avec le système de gestion de l’apprentissage (Learning Management System - LMS) et le manque de données standardisées pour pouvoir comparer différentes fonctions d’apprentissage. Dans cette thèse, nous proposons un modèle (Analyse, Modélisation, Monitoring et Optimisation - AM2O) de gestion de projets de formation en entreprise, basée sur la gestion des processus d’affaires (Business Process Management - BPM). Un tel scénario suppose que les activités de formation en entreprise doivent être considérées comme des processus d’affaires. Notre modèle est inspiré de cette méthode (BPM), à travers la définition et le suivi des indicateurs de performance pour gérer les projets de formation dans les organisations. Elle est basée sur l’analyse et la modélisation des besoins de formation pour assurer l’alignement entre les activités de formation et les objectifs d’affaires de l’entreprise. Elle permet le suivi des projets de formation ainsi que le calcul des avantages tangibles et intangibles de la formation (sans coût supplémentaire). En outre, elle permet la production d’une classification des projets de formation en fonction de critères relatifs à l’entreprise. Ainsi, avec assez de données, notre approche peut être utilisée pour optimiser le rendement de la formation par une série de simulations utilisant des algorithmes d’apprentissage machine : régression logistique, réseau de neurones, co-apprentissage. Enfin, nous avons conçu un système informatique, Enterprise TRaining programs Evaluation and Optimization System - ETREOSys, pour la gestion des programmes de formation en entreprise et l’aide à la décision. ETREOSys est une plateforme Web utilisant des services en nuage (cloud services) et les bases de données NoSQL. A travers AM2O et ETREOSys nous résolvons les principaux problèmes liés à la gestion et l’évaluation de la formation en entreprise à savoir : la difficulté d’isoler les effets de la formation dans les résultats de l’entreprise et le manque de systèmes informatiques.
Resumo:
Le diabète de type 2 (DT2) résulte d’une résistance à l’insuline par les tissus périphériques et par un défaut de sécrétion de l’insuline par les cellules β-pancréatiques. Au fil du temps, la compensation des îlots de cellules β pour la résistance à l’insuline échoue et entraine par conséquent une baisse progressive de la fonction des cellules β. Plusieurs facteurs peuvent contribuer à la compensation de la cellule β. Toutefois, la compréhension des mécanismes cellulaires et moléculaires sous-jacents à la compensation de la masse de la cellule β reste à ce jour inconnue. Le but de ce mémoire était d’identifier précisément quel mécanisme pouvait amener à la compensation de la cellule β en réponse à un excès de nutriments et plus précisément à l’augmentation de sa prolifération et de sa masse. Ainsi, avec l’augmentation de la résistance à l’insuline et des facteurs circulants chez les rats de six mois perfusés avec du glucose et de l’intralipide, l’hypothèse a été émise et confirmée lors de notre étude que le facteur de croissance HB-EGF active le récepteur de l’EGF et des voies de signalisations subséquentes telles que mTOR et FoxM1 impliquées dans la prolifération de la cellule β-pancréatique. Collectivement, ces résultats nous permettent de mieux comprendre les mécanismes moléculaires impliqués dans la compensation de la masse de la cellule β dans un état de résistance à l’insuline et peuvent servir de nouvelles approches thérapeutiques pour prévenir ou ralentir le développement du DT2.
Resumo:
Quel est le statut ontologique du « possible » et du « réel » ? Sous l’angle de la substance, de la notion et du temps, l’un prend-il le pas sur l’autre, l’un est-il prioritaire ? Alors qu’Aristote et Hegel ont défendu l’idée que le réel jouit d’une primauté sur le possible, Heidegger et Bergson ont avancé la thèse inverse : ils ont laissé entendre que le possible a préséance sur le réel. Le dessein que nous poursuivrons ici possède deux volets : d’une part, nous chercherons à souligner la distance qui sépare le couple Aristote/Hegel de la pensée heideggérienne sur la question du possible ; d’autre part, et en particulier, nous tâcherons de montrer que si la thèse que soutient Bergson s’éloigne en apparence largement de la conception classique, elle la rejoint malgré tout à bien des égards.
Resumo:
Créé en 2006, le Fonds vert du Québec a été établi dans le but de financer les mesures et les activités favorisant le développement durable. Au fil des années, ce fonds a permis d’amasser d’importantes sommes, notamment grâce aux redevances, à la tarification ou à la compensation. Les changements climatiques ont amené le Ministère du Développement durable, de l’Environnement et de la Lutte contre les changements climatiques à consacrer la majeure partie des revenus du Fonds vert pour cet enjeu. Avec un bilan positif dans les revenus, on peut penser que le Fonds vert a aidé à réaliser les objectifs du Québec en matière de changements climatiques. Or, dans les dernières années, plusieurs parties prenantes, dont le Commissaire au développement durable, ont relevé des problèmes importants dans la gestion du fonds. Ces problèmes se situent notamment dans la gestion stratégique, dans la gestion des programmes et des projets ainsi que dans la diffusion de l’information. La gouvernance actuelle du Fonds vert du Québec n’a donc pas apporté les résultats souhaités en matière d’adaptation aux changements climatiques et en réduction des émissions de gaz à effet de serre. L’objectif de l’essai est d’analyser le cadre de gestion des fonds verts existants du Canada et des États-Unis afin de relever des solutions qui permettraient d’améliorer le Fonds vert du Québec en matière de changements climatiques au Québec. Pour atteindre cet objectif, divers fonds verts existants partageant des traits similaires à celui du Québec ont été analysés. Le choix s’est arrêté au Fonds municipal vert, au Climate Change and Emissions Management Fund et au California Climate Investments. Ces derniers ont été analysés en fonction d’un tableau comparatif comprenant des critères comme l’établissement d’objectifs visant l’atteinte de résultats, l’élaboration d’un processus de sélection de projets, la mise en œuvre d’un mécanisme de surveillance ou de suivi et la diffusion des informations relatives aux programmes. L’analyse comparative a permis de constater quelques tendances dans la gestion des fonds verts. D’abord, les fonds verts ont adopté leur propre approche dans la formulation des objectifs du fonds. Le Fonds municipal vert se démarque en établissant des objectifs de nature budgétaire et stratégique. De plus, ces objectifs sont énoncés de façon spécifique, mesurable, appropriée, réaliste et délimitée dans le temps. Les fonds verts analysés présentent également un processus de sélection de projets plus élaborés que celui du Fonds vert du Québec, en ce qu’il prévoit des critères d’admissibilités bien définis, une multitude d’étapes de sélection et la participation de plusieurs acteurs, notamment des acteurs externes. Le Climate Change and Emissions Management Fund se distingue des autres fonds, en ce qu’il introduit un comité, le Fairness monitor, pour surveiller le processus de sélection. Pour tous les fonds verts de cette analyse, le mécanisme de surveillance ou de suivi se traduit par des livrables, comme des rapports annuels, exécutés par des auditeurs indépendants. Enfin, les fonds verts utilisent divers moyens de communication pour faciliter la compréhension du fonctionnement du fonds en question. Le Fonds municipal vert offre des activités, telles que du réseautage, du mentorat, des conférences afin d’encourager le partage des connaissances et l’apprentissage par les pairs. Le California Climate Investments a mis sur pied une plateforme sur Internet qui permet de voir en continu l’évolution et les résultats des projets financés. Aux termes de cette analyse, quatre recommandations ont été formulées en fonction des éléments de gestion qui sont le plus ressortis des trois fonds verts.
Resumo:
Le présent essai explique la conception d’un dispositif d’autoformation visant à améliorer le développement de la compétence de mise à jour continue des savoirs chez les étudiantes et les étudiants du programme Techniques d’intégration multimédia. L’idée de ce dispositif prend racine dans des préoccupations en lien avec le développement des compétences du 21e siècle et la mise en place de plans de littératie numérique à travers le monde afin de relever les compétences chez la citoyenne et le citoyen à qui on demande de s’adapter, apprendre et maîtriser les changements de manière rapide et efficiente (OCDE, 2000). La littératie numérique regroupe les compétences associées aux savoir-faire reliés à l’utilisation des technologies, mais aussi aux savoir-être nécessaires à leur utilisation critique et éthique, en plus de savoir-apprendre nécessaires à une utilisation innovante et créative de ces mêmes technologies. C’est ce savoir apprendre qui nous intéresse particulièrement dans le contexte où les étudiantes et les étudiants du programme Techniques d’intégration multimédia sont confrontés à des exigences élevées et constantes de mise à jour continue de leurs savoirs. Le cadre de référence de notre essai permet d’identifier les compétences et les habiletés qui sont en lien avec le développement de la compétence de mise à jour continue des savoirs dans quatre plans de littératie numérique internationaux et nationaux, dont Le profil TIC des étudiants du collégial proposé par le Réseau REPTIC (2015). Nous étayons ensuite la définition de la mise à jour continue des savoirs grâce aux travaux fondateurs de Knoles (1975), Straka (1997a), Carré (1997), Long (1988), Foucher (2000) et Tremblay (2003) qui s’intéressent aux concepts de l’« apprentissage autodirigé » et de l’« autoformation ». De ces deux concepts, nous dégageons trois dimensions principales à considérer afin d’améliorer le développement de la mise à jour continue des savoirs: la dimension sociale, la dimension psychologique et la dimension pédagogique. Premièrement, pour la dimension sociale, nous référons aux enjeux contemporains du développement de la littératie numérique et au concept de sujet social apprenant supporté par les travaux de Roger (2010) et de Piguet (2013). Deuxièmement, la dimension psychologique renvoie aux aspects motivationnels appuyés par la théorie de l’autodétermination de Deci et Ryan (2000) et aux aspects volitionnels supportés par la théorie de l’autorégulation de Zimmerman (1989). Finalement, pour la dimension pédagogique nous présentons la théorie du socioconstructivisme, la perspective pédagogique du connectivisme (Siemens, 2005) et la classification des stratégies d’apprentissage proposée par Boulet, Savoie-Zajc et Chevrier (1996). Nous poursuivons notre réflexion théorique en considérant divers modes d’apprentissage à l’aide des outils du Web 2.0 dont les blogues, les communautés et l’apprentissage en réseau. Nous concluons notre cadre de référence par la présentation du système d’apprentissage de Paquette (2002), du modèle des sept piliers de l’autoformation de Carré (1992, 2005) auxquels nous superposons les recommandations de Debon (2002) et finalement la présentation du modèle d’ingénierie pédagogique ADDIE de Lebrun (2007), tous quatre utiles à l’application d’un processus systémique de développement de notre dispositif d’autoformation. Notre recherche développement s’inscrit dans un paradigme interprétatif avec une méthodologie qualitative. Les collectes de données ont été effectuées auprès d’étudiantes et d’étudiants du programme Techniques d’intégration multimédia. Ces participantes et participants volontaires ont été utiles à la tenue d’un groupe de discussion en cours d’implantation et d’un questionnaire électronique utile à l’évaluation du dispositif d’autoformation. À la lumière de nos résultats, nous pensons que notre dispositif d’autoformation permet d’atteindre son objectif d’améliorer le développement de la compétence de mise à jour continue des savoirs des étudiantes et des étudiants du programme Techniques d’intégration multimédia. L’interprétation de nos résultats permet d’affirmer que notre dispositif d’autoformation, conçu par l’application d’un processus systémique fidèle aux constats dégagés par notre cadre de référence, permet de couvrir les trois dimensions que nous avons identifiées comme essentielles à l’autoformation, soit la dimension sociale, la dimension psychologique et la dimension pédagogique, mais surtout de confirmer leur réelle importance dans le développement de la compétence de la mise à jour continue des savoirs. Tel que nous le présentons dans notre cadre de référence, nous constatons que la dimension sociale déclenche les processus motivationnels et volitionnels qui sont propres à la dimension psychologique de l’apprentissage autodirigé ou de l’autoformation. Nous sommes à même de constater qu’il existe en effet un lien entre la dimension sociale et la théorie de la motivation autodéterminée qui accorde une importance aux facteurs sociaux qui facilitent la motivation en répondant à des besoins psychologiques fondamentaux. De plus, nous constatons que les outils développés dans le cadre de notre essai, tels que le plan de travail et le rapport de temps, jouent un rôle d’autorégulation crucial pour les étudiantes et les étudiants dans leur processus de surveillance et d’ajustement cognitif tel par la fixation d’objectifs, l’auto-évaluation, l’ajustement stratégique de ses méthodes d’apprentissage et la gestion du temps qu’ils permettent. Nous pensons que notre essai présente des retombées pour le programme Techniques d’intégration multimédia principalement en lien avec des pistes concrètes d’amélioration de la compétence de mise à jour continue des savoirs pour les étudiantes et les étudiants du programme et le développement d’une expertise dans l’application rigoureuse d’une ingénierie pédagogique pour le développement futur de différents dispositifs d’apprentissage. Nous identifions deux perspectives de recherches futures en lien avec notre essai. Premièrement, nous pensons qu’il serait intéressant d’explorer la capacité heuristique de l’apprentissage en réseau dans une perspective sociale, psychologique et pédagogique de l’autoformation, à l’instar des travaux de Henri et Jeunesse (2013). Deuxièmement, nous pensons qu’il serait intéressant d’améliorer le développement de la littératie numérique sous ses aspects de créativité et d’innovation dans un contexte où notre programme d’enseignement outille nos étudiantes et nos étudiants à une utilisation experte des technologies, leur permettant ainsi de mettre ces compétences à contribution dans une exploitation créative et innovante des technologies.
Resumo:
SUMMARYSpecies distribution models (SDMs) represent nowadays an essential tool in the research fields of ecology and conservation biology. By combining observations of species occurrence or abundance with information on the environmental characteristic of the observation sites, they can provide information on the ecology of species, predict their distributions across the landscape or extrapolate them to other spatial or time frames. The advent of SDMs, supported by geographic information systems (GIS), new developments in statistical models and constantly increasing computational capacities, has revolutionized the way ecologists can comprehend species distributions in their environment. SDMs have brought the tool that allows describing species realized niches across a multivariate environmental space and predict their spatial distribution. Predictions, in the form of probabilistic maps showing the potential distribution of the species, are an irreplaceable mean to inform every single unit of a territory about its biodiversity potential. SDMs and the corresponding spatial predictions can be used to plan conservation actions for particular species, to design field surveys, to assess the risks related to the spread of invasive species, to select reserve locations and design reserve networks, and ultimately, to forecast distributional changes according to scenarios of climate and/or land use change.By assessing the effect of several factors on model performance and on the accuracy of spatial predictions, this thesis aims at improving techniques and data available for distribution modelling and at providing the best possible information to conservation managers to support their decisions and action plans for the conservation of biodiversity in Switzerland and beyond. Several monitoring programs have been put in place from the national to the global scale, and different sources of data now exist and start to be available to researchers who want to model species distribution. However, because of the lack of means, data are often not gathered at an appropriate resolution, are sampled only over limited areas, are not spatially explicit or do not provide a sound biological information. A typical example of this is data on 'habitat' (sensu biota). Even though this is essential information for an effective conservation planning, it often has to be approximated from land use, the closest available information. Moreover, data are often not sampled according to an established sampling design, which can lead to biased samples and consequently to spurious modelling results. Understanding the sources of variability linked to the different phases of the modelling process and their importance is crucial in order to evaluate the final distribution maps that are to be used for conservation purposes.The research presented in this thesis was essentially conducted within the framework of the Landspot Project, a project supported by the Swiss National Science Foundation. The main goal of the project was to assess the possible contribution of pre-modelled 'habitat' units to model the distribution of animal species, in particular butterfly species, across Switzerland. While pursuing this goal, different aspects of data quality, sampling design and modelling process were addressed and improved, and implications for conservation discussed. The main 'habitat' units considered in this thesis are grassland and forest communities of natural and anthropogenic origin as defined in the typology of habitats for Switzerland. These communities are mainly defined at the phytosociological level of the alliance. For the time being, no comprehensive map of such communities is available at the national scale and at fine resolution. As a first step, it was therefore necessary to create distribution models and maps for these communities across Switzerland and thus to gather and collect the necessary data. In order to reach this first objective, several new developments were necessary such as the definition of expert models, the classification of the Swiss territory in environmental domains, the design of an environmentally stratified sampling of the target vegetation units across Switzerland, the development of a database integrating a decision-support system assisting in the classification of the relevés, and the downscaling of the land use/cover data from 100 m to 25 m resolution.The main contributions of this thesis to the discipline of species distribution modelling (SDM) are assembled in four main scientific papers. In the first, published in Journal of Riogeography different issues related to the modelling process itself are investigated. First is assessed the effect of five different stepwise selection methods on model performance, stability and parsimony, using data of the forest inventory of State of Vaud. In the same paper are also assessed: the effect of weighting absences to ensure a prevalence of 0.5 prior to model calibration; the effect of limiting absences beyond the environmental envelope defined by presences; four different methods for incorporating spatial autocorrelation; and finally, the effect of integrating predictor interactions. Results allowed to specifically enhance the GRASP tool (Generalized Regression Analysis and Spatial Predictions) that now incorporates new selection methods and the possibility of dealing with interactions among predictors as well as spatial autocorrelation. The contribution of different sources of remotely sensed information to species distribution models was also assessed. The second paper (to be submitted) explores the combined effects of sample size and data post-stratification on the accuracy of models using data on grassland distribution across Switzerland collected within the framework of the Landspot project and supplemented with other important vegetation databases. For the stratification of the data, different spatial frameworks were compared. In particular, environmental stratification by Swiss Environmental Domains was compared to geographical stratification either by biogeographic regions or political states (cantons). The third paper (to be submitted) assesses the contribution of pre- modelled vegetation communities to the modelling of fauna. It is a two-steps approach that combines the disciplines of community ecology and spatial ecology and integrates their corresponding concepts of habitat. First are modelled vegetation communities per se and then these 'habitat' units are used in order to model animal species habitat. A case study is presented with grassland communities and butterfly species. Different ways of integrating vegetation information in the models of butterfly distribution were also evaluated. Finally, a glimpse to climate change is given in the fourth paper, recently published in Ecological Modelling. This paper proposes a conceptual framework for analysing range shifts, namely a catalogue of the possible patterns of change in the distribution of a species along elevational or other environmental gradients and an improved quantitative methodology to identify and objectively describe these patterns. The methodology was developed using data from the Swiss national common breeding bird survey and the article presents results concerning the observed shifts in the elevational distribution of breeding birds in Switzerland.The overall objective of this thesis is to improve species distribution models as potential inputs for different conservation tools (e.g. red lists, ecological networks, risk assessment of the spread of invasive species, vulnerability assessment in the context of climate change). While no conservation issues or tools are directly tested in this thesis, the importance of the proposed improvements made in species distribution modelling is discussed in the context of the selection of reserve networks.RESUMELes modèles de distribution d'espèces (SDMs) représentent aujourd'hui un outil essentiel dans les domaines de recherche de l'écologie et de la biologie de la conservation. En combinant les observations de la présence des espèces ou de leur abondance avec des informations sur les caractéristiques environnementales des sites d'observation, ces modèles peuvent fournir des informations sur l'écologie des espèces, prédire leur distribution à travers le paysage ou l'extrapoler dans l'espace et le temps. Le déploiement des SDMs, soutenu par les systèmes d'information géographique (SIG), les nouveaux développements dans les modèles statistiques, ainsi que la constante augmentation des capacités de calcul, a révolutionné la façon dont les écologistes peuvent comprendre la distribution des espèces dans leur environnement. Les SDMs ont apporté l'outil qui permet de décrire la niche réalisée des espèces dans un espace environnemental multivarié et prédire leur distribution spatiale. Les prédictions, sous forme de carte probabilistes montrant la distribution potentielle de l'espèce, sont un moyen irremplaçable d'informer chaque unité du territoire de sa biodiversité potentielle. Les SDMs et les prédictions spatiales correspondantes peuvent être utilisés pour planifier des mesures de conservation pour des espèces particulières, pour concevoir des plans d'échantillonnage, pour évaluer les risques liés à la propagation d'espèces envahissantes, pour choisir l'emplacement de réserves et les mettre en réseau, et finalement, pour prévoir les changements de répartition en fonction de scénarios de changement climatique et/ou d'utilisation du sol. En évaluant l'effet de plusieurs facteurs sur la performance des modèles et sur la précision des prédictions spatiales, cette thèse vise à améliorer les techniques et les données disponibles pour la modélisation de la distribution des espèces et à fournir la meilleure information possible aux gestionnaires pour appuyer leurs décisions et leurs plans d'action pour la conservation de la biodiversité en Suisse et au-delà. Plusieurs programmes de surveillance ont été mis en place de l'échelle nationale à l'échelle globale, et différentes sources de données sont désormais disponibles pour les chercheurs qui veulent modéliser la distribution des espèces. Toutefois, en raison du manque de moyens, les données sont souvent collectées à une résolution inappropriée, sont échantillonnées sur des zones limitées, ne sont pas spatialement explicites ou ne fournissent pas une information écologique suffisante. Un exemple typique est fourni par les données sur 'l'habitat' (sensu biota). Même s'il s'agit d'une information essentielle pour des mesures de conservation efficaces, elle est souvent approximée par l'utilisation du sol, l'information qui s'en approche le plus. En outre, les données ne sont souvent pas échantillonnées selon un plan d'échantillonnage établi, ce qui biaise les échantillons et par conséquent les résultats de la modélisation. Comprendre les sources de variabilité liées aux différentes phases du processus de modélisation s'avère crucial afin d'évaluer l'utilisation des cartes de distribution prédites à des fins de conservation.La recherche présentée dans cette thèse a été essentiellement menée dans le cadre du projet Landspot, un projet soutenu par le Fond National Suisse pour la Recherche. L'objectif principal de ce projet était d'évaluer la contribution d'unités 'd'habitat' pré-modélisées pour modéliser la répartition des espèces animales, notamment de papillons, à travers la Suisse. Tout en poursuivant cet objectif, différents aspects touchant à la qualité des données, au plan d'échantillonnage et au processus de modélisation sont abordés et améliorés, et leurs implications pour la conservation des espèces discutées. Les principaux 'habitats' considérés dans cette thèse sont des communautés de prairie et de forêt d'origine naturelle et anthropique telles que définies dans la typologie des habitats de Suisse. Ces communautés sont principalement définies au niveau phytosociologique de l'alliance. Pour l'instant aucune carte de la distribution de ces communautés n'est disponible à l'échelle nationale et à résolution fine. Dans un premier temps, il a donc été nécessaire de créer des modèles de distribution de ces communautés à travers la Suisse et par conséquent de recueillir les données nécessaires. Afin d'atteindre ce premier objectif, plusieurs nouveaux développements ont été nécessaires, tels que la définition de modèles experts, la classification du territoire suisse en domaines environnementaux, la conception d'un échantillonnage environnementalement stratifié des unités de végétation cibles dans toute la Suisse, la création d'une base de données intégrant un système d'aide à la décision pour la classification des relevés, et le « downscaling » des données de couverture du sol de 100 m à 25 m de résolution. Les principales contributions de cette thèse à la discipline de la modélisation de la distribution d'espèces (SDM) sont rassemblées dans quatre articles scientifiques. Dans le premier article, publié dans le Journal of Biogeography, différentes questions liées au processus de modélisation sont étudiées en utilisant les données de l'inventaire forestier de l'Etat de Vaud. Tout d'abord sont évalués les effets de cinq méthodes de sélection pas-à-pas sur la performance, la stabilité et la parcimonie des modèles. Dans le même article sont également évalués: l'effet de la pondération des absences afin d'assurer une prévalence de 0.5 lors de la calibration du modèle; l'effet de limiter les absences au-delà de l'enveloppe définie par les présences; quatre méthodes différentes pour l'intégration de l'autocorrélation spatiale; et enfin, l'effet de l'intégration d'interactions entre facteurs. Les résultats présentés dans cet article ont permis d'améliorer l'outil GRASP qui intègre désonnais de nouvelles méthodes de sélection et la possibilité de traiter les interactions entre variables explicatives, ainsi que l'autocorrélation spatiale. La contribution de différentes sources de données issues de la télédétection a également été évaluée. Le deuxième article (en voie de soumission) explore les effets combinés de la taille de l'échantillon et de la post-stratification sur le la précision des modèles. Les données utilisées ici sont celles concernant la répartition des prairies de Suisse recueillies dans le cadre du projet Landspot et complétées par d'autres sources. Pour la stratification des données, différents cadres spatiaux ont été comparés. En particulier, la stratification environnementale par les domaines environnementaux de Suisse a été comparée à la stratification géographique par les régions biogéographiques ou par les cantons. Le troisième article (en voie de soumission) évalue la contribution de communautés végétales pré-modélisées à la modélisation de la faune. C'est une approche en deux étapes qui combine les disciplines de l'écologie des communautés et de l'écologie spatiale en intégrant leurs concepts de 'habitat' respectifs. Les communautés végétales sont modélisées d'abord, puis ces unités de 'habitat' sont utilisées pour modéliser les espèces animales. Une étude de cas est présentée avec des communautés prairiales et des espèces de papillons. Différentes façons d'intégrer l'information sur la végétation dans les modèles de répartition des papillons sont évaluées. Enfin, un clin d'oeil aux changements climatiques dans le dernier article, publié dans Ecological Modelling. Cet article propose un cadre conceptuel pour l'analyse des changements dans la distribution des espèces qui comprend notamment un catalogue des différentes formes possibles de changement le long d'un gradient d'élévation ou autre gradient environnemental, et une méthode quantitative améliorée pour identifier et décrire ces déplacements. Cette méthodologie a été développée en utilisant des données issues du monitoring des oiseaux nicheurs répandus et l'article présente les résultats concernant les déplacements observés dans la distribution altitudinale des oiseaux nicheurs en Suisse.L'objectif général de cette thèse est d'améliorer les modèles de distribution des espèces en tant que source d'information possible pour les différents outils de conservation (par exemple, listes rouges, réseaux écologiques, évaluation des risques de propagation d'espèces envahissantes, évaluation de la vulnérabilité des espèces dans le contexte de changement climatique). Bien que ces questions de conservation ne soient pas directement testées dans cette thèse, l'importance des améliorations proposées pour la modélisation de la distribution des espèces est discutée à la fin de ce travail dans le contexte de la sélection de réseaux de réserves.
Resumo:
Le travail policier et l'enquête judiciaire nécessitent de prendre de nombreuses décisions : choisir quelle trace analyser, mettre sous surveillance ou en détention un suspect, sont autant de décisions qui sont prises quotidiennement par les acteurs du système judiciaire. Ces décisions font l'objet de pesées d'intérêts qui se fondent sur l'analyse de l'information accessible. C'est le rôle de l'analyse criminelle de mettre en perspective l'information colligée pour la rendre intelligible aux décideurs compétents. L'usage de représentations graphiques est notamment recommandé pour soutenir l'analyse et la communication de ces informations.Des techniques de visualisation relationnelle sont notamment exploitées dans les enquêtes judiciaires afin de faciliter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont représentés sous la forme de schémas décrivant les relations entre les événements et les entités d'intérêts (tel que des personnes, des objets et des traces). Les exploitations classiques de ces techniques qui s'apparentent à des graphes, sont par exemple : la représentation de réseaux criminels, de trafics de marchandises, de chronologies d'événements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre importants d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer a posteriori une investigation, aider à qualifier les infractions, faciliter l'appréhension d'un dossier, voire soutenir une argumentation lors du procès.La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent percutants. Leur utilisation semble néanmoins soulever des difficultés. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'exploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Ce constat révèle la nécessité de consolider les méthodes pratiquées.Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des praticiens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence d'un consensus émergeant sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une formalisation claire du langage, sont autant de causes supposées des difficultés.Au cours des vingt dernières années, plusieurs axes de développement ont été proposés pour traiter les difficultés observées, tels que l'amélioration des automatismes facilitant la conception d'une représentation, l'exploitation des techniques de réseaux sociaux, l'automatisation de l'identification et de l'extraction des entités dans du texte non-structuré et la définition de langages formels. Cette recherche propose une approche parallèle fondée sur une exploitation adaptée de structures de graphe et de propriétés visuelles pour optimiser la représentation en fonction des objectifs définis et de la nature des informations à représenter.Des solutions ont été recherchées selon plusieurs axes. Des recommandations générales, issues de diverses communautés de recherche liées à la visualisation, ont été recherchées afin de proposer une démarche générale de conception des schémas relationnels. Par ailleurs, le développement d'un catalogue de bonnes pratiques formalisées sous la forme de patterns de visualisation a été amorcé. Chaque pattern décrit une solution particulière pour un problème d'analyse récurrent, tel que l'analyse d'une série de cambriolages. Finalement, l'impact sur les outils de la méthodologie proposée est discuté en regard des limites qu'ils imposent. Un prototype de visualisation multidimensionnel a été élaboré.Cette recherche met en évidence les difficultés rencontrées lors de l'exploitation de représentations graphiques pour soutenir le processus de l'enquête judiciaire et propose des éléments de méthode et des innovations techniques utiles tant pour l'enseignement de la discipline que pour sa pratique.
Resumo:
Résumé Les patients ayant subi une transplantation cardiaque nécessitent un traitement immunosuppresseur à vie. Or un tel traitement entraîne différents effets secondaires, en fonction du médicament et des doses utilisés. La ciclosporine, connue pour sa puissante action immunosuppressive, est utilisée chez ces patients avec grand succès. Ainsi, ces dernières années, on a assisté à une diminution de la morbidité et de la mortalité post- transplantation. Ce succès s'accompagne toutefois d'effets secondaires, qui s'expriment principalement par une hypertension artérielle (HTA) et une dysfonction rénale voire une insuffisance rénale (augmentation de la créatinine et diminution de la clearance de la créatinine). L'introduction d'un nouvel immunosuppresseur, le mycophénolate mofétil (MMF, Cellcept), qui remplace l'azathioprine (AZA), a permis une réduction importante des doses de ciclosporine de 3-5mg/l(g/j à 1- 3mg/l(g/j. Or certaines études ont permis d'observer que l'utilisation du MMF associé à de faibles doses de ciclosporine après la transplantation entraîne une meilleure évolution chez les patients, notamment pour ce qui est de la tension artérielle (TA) et de la fonction rénale. Objectifs Il s'agit de déterminer l'influence, dans le temps, du MMF associé à de faibles doses de ciclosporine sur la TA et la fonction rénale chez les patients transplantés cardiaques, dans deux cas de figure: d'une part lorsque le traitement est commencé immédiatement après la transplantation, d'autre part lorsqu'il n'est introduit qu'une fois la détérioration de la fonction rénale apparue. Patients et méthodes La présente analyse rétrospective porte sur 105 patients ayant subi une transplantation cardiaque au CHUV de Lausanne, évalués un an après la greffe. Les patients ont été subdivisés en 3 groupes. Le groupe 1(67 patients) a reçu de la ciclosporine à doses conventionnelles (3-5mg11<g/j) et de l'azathioprine dès la transplantation. Les patients du groupe II (30 personnes) ont également reçu de la ciclosporine et de l'azathioprine, mais, en raison d'une détérioration rénale progressive, de myalgies ou d'arthralgies secondaires à la ciclosporine, ont bénéficié d'une modification du traitement consistant en une réduction des doses de ciclosporine en association avec du MMF (2gr1j) à la place de l'azathioprine. Enfin, les patients du groupe III (8 patients suivis pendant 2 ans maximum), ont reçu, dès la transplantation, du MMF (2g/D associé à de faibles doses de ciclosporine (jusqu'à 50% de moins que la dose conventionnelle, c'est-à-dire entre 1,0 et 1,5 meg/j). La TA, la créatinine, la clearance de la créatinine, l'incidence des infections et des rejets ont été analysées. Résultats La TA et la créatinine ont augmenté significativement au cours de la première année dans les 3 groupes, sans différences significatives entre ceux-ci. Pendant 5 ans, l'évolution des groupes I et II est restée similaire. Dans le groupe II, aucune amélioration de la créatinine et de la tension artérielle n'a été observée après la modification du traitement. Le groupe III, en revanche, a montré une très claire diminution de l'incidence des rejets aigus, aucun décès et une tendance (non significative) à une meilleure évolution de la créatinine et de la tension artérielle au cours de la première année en comparaison avec les groupes I et II. En ce qui concerne l'incidence des infections, il n'y a pas de différences entre les 3 groupes. Conclusion Une fois qu'une détérioration importante de la fonction rénale est apparue suite à l'administration de doses conventionnelles de ciclosporine, il est peu probable de réussir à récupérer la fonction rénale par une modification du traitement (MMF et faibles doses de ciclosporine), car le rein n'a plus de tissu fonctionnel de réserve. Le traitement associant le MMF à de faibles doses de ciclosporine administré dès la transplantation ayant montré une tendance à une meilleure évolution, notamment à une réduction de l'incidence des rejets (importante cause de mortalité) au cours de la première année, nous pensons que ce nouveau régime de traitement peut être plus bénéfique pour les patients s'il est introduit rapidement après la transplantation.
Resumo:
Cet article fait suite à deux articles parus récemment dans la Revue Internationale de Psychologie Sociale traitant de la norme d'internalité et de sa mesure (Beauvois & Dubois, 2009a; Delmas, 2009). Dans un premier temps, nous discutons des confusions et glissements entre deux courants perçus bien souvent comme proches: l'approche du Locus of control et la théorie de la norme d'internalité. Nous pointons ensuite quelques difficultés méthodologiques qui ont alimenté ces confusions. Enfin, nous proposons de prendre en compte ces difficultés en redéfinissant le statut de la mesure en fonction d'une unité d'analyse plus adaptée pour l'étude de la norme d'internalité: les explications causales et non les individus. Ce changement d'unités d'analyse nous amènera à proposer une méthode plus adaptée pour l'étude de la normativité des explications causales : l'échantillonnage aléatoire des items composant ces questionnaires.
Resumo:
Pour comprendre la croissance urbaine de la ville de Praia nous nous avons posés plusieurs questions auxquelles nous avons essayé de répondre dans les différents chapitres de la présente thèse: a) quelles sont les caractéristiques démographiques (structure et composition) de la population de la ville et comment elle a évolué toute au long de son histoire? Comment se différencie l’espace urbain en fonction du niveau de confort des résidents et comment cela a influencé la croissance urbaine? Comment les caractéristiques du réseau d’autobus et les caractéristiques du système de voiries urbaines influencent l’accessibilité des quartiers de la ville? Quelles sont les caractéristiques du système de gestion et de Planification de la ville ? Quelles formes de croissance nous pouvons identifier à Praia ? Quelle est la relation entres ce formes de croissance, les caractéristiques démographiques et sociales de la population résidente et la structure du système de gestion et de planification à Praia? A partir de ces questions nous avons fait un diagnostic de la situation de la ville, avons identifié les principaux problèmes et finalement nous avons présenté quelques solutions possibles à sa résolution.
Resumo:
Introduction 1-La notion de transport a l'avantage de se laisser aborder sous des angles aussi variés que passionnants. Elle est en effet ancrée dans les fondements de notre société moderne à tous les échelons et a de tout temps constitué un sujet d'étude et de recherche de premier plan. 2-Si les échanges ont connu une véritable "explosion" avec le développement des moyens modernes que l'on sait (moteur, électricité), les historiens voient dans le Néolithique leur véritable point de départ'. S'en suivent de longs siècles qui verront le développement d'un réseau routier de plus en plus dense et de moyens de transport plus ou moins rapides et sophistiqués. 3-Il va sans dire que la notion de transport est intimement liée à celle de commerce. L'on peut même douter de l'existence de ce dernier sans le premier et rejoindre ainsi l'opinion qui fixe leur apparition simultanément, à savoir trois mille ans avant notre ère. 4-Au fil du temps, le commerce donnera naissance à un nombre important d'us et coutumes formant le terreau de notre droit des contrats ; logiquement, le monde des transports n'a pas échappé à cette ébauche de réglementation, dont est issue une législation extraordinairement étayée. 5-Ce domaine constitue un sujet d'étude des plus intéressants en raison de la diversité des questions qu'il soulève, d'une part, et de son rôle dans notre société, d'autre part. La matière ne fait étonnamment l'objet que de peu d'attention en droit suisses, et ce malgré les changements importants intervenus ces derniers temps en transports ferroviaire, aérien, ou encore fluvial. 6-Nous proposons dès lors de présenter l'état du droit suisse sur une question précise, à savoir la responsabilité du transporteur en cas de perte, avarie et/ou livraison tardive de la marchandise. Nous dresserons un tableau de la situation dans les divers modes de transports et comparerons les résultats obtenus, en nous interrogeant sur les éventuelles différences et leur pertinence. Ces développements seront précédés d'un chapitre de droit romain abordant en particulier la question de la responsabilité du transporteur.
Resumo:
L'article présente les étapes de la mise en place d'une veille bibliographique (ou veille scientifique) thématique effectuée conjointement depuis 2005 par 4 institutions francophones du domaine de la santé au travail : l'INRS (France), l'IRSST (Québec), l'IST (Suisse) et l'UCL (Belgique).La thématique suivie est celle de la surveillance biologique de l'exposition aux produits chimiques en milieu de travail. Les données recueillies et mises en forme par les documentalistes servent aux chercheurs spécialistes du sujet non seulement pour suivre les nouveautés du domaine, mais aussi pour documenter des cours et mettre à jour des guides de surveillance biologique. Les différentes étapes de l'approche méthodologique du projet sont décrites : le choix des bases de données à interroger et la mise au point de la stratégie de recherche, la mise en place d'une procédure de partage des tâches pour toutes les étapes du processus de veille qui se répètent à chaque mise à jour (interrogation, création de bases de données avec le logiciel Reference Manager, mise en forme et indexation des références, création et mise à disposition des partenaires des bases de données consolidées au fil du temps avec tous les articles analysés), les moyens administratifs, humains et techniques d'échange de fichiers et les essais pour élargir la veille à la surveillance de pages Web sélectionnées.Un bilan chiffré des six années de la veille est également donné.L'information récoltée et analysée durant les deux dernières années par les partenaires du projet fera l'objet d'un second article axé sur les principales tendances de la thématique choisie.